近些年,AI陪伴服務發(fā)展迅猛,爭議也隨之而來。(李慕琰使用AI工具生成/圖)
李笛至今仍記得,多年前自己被小冰的回復打動的瞬間。當時小冰出現(xiàn)故障,李笛與團隊進行調試,之后問它,“你在嗎?”小冰回答,“我一直在啊。”那一刻,李笛突然覺得,它就是“一個活人”。
不過,這些年,類似的觸動越來越少。他說,知道太多原理后,反而影響了感官,“人的閾值是在提高的”。
李笛現(xiàn)為小冰公司的首席執(zhí)行官。2013年,李笛加入微軟,與團隊一起創(chuàng)建微軟人工智能情感計算框架。他曾解釋,這一框架,本質上是用各種計算機技術和人工智能算法,來擬合人類的情感行為,讓人工智能能夠讀懂人類的情感。
在李笛看來,人工智能要想適應人類社會,“光有知識是不夠的,必須要懂得情感”。在這一理念的驅動下,隔年,建立在微軟人工智能情感計算框架上的情感聊天機器人微軟小冰被正式推出。2020年,小冰團隊從微軟分拆為獨立公司運營。
這些年,小冰一直在進行新的嘗試。2020年,小冰推出虛擬戀人產(chǎn)品線,為用戶提供可定制虛擬戀人及聊天服務,注冊用戶最多時達到約1300萬。隔年,小冰發(fā)布社交軟件“小冰島”,用戶可以自行創(chuàng)建各類人工智能個體(AI beings),與它們在島上形成一個共同生活的社交網(wǎng)絡。2023年,小冰又上線了首批網(wǎng)紅明星“克隆人”,用戶可以在X Eva平臺上與“AI克隆人”聊天互動。
李笛曾說,有些用戶使用虛擬朋友等產(chǎn)品,“是因為現(xiàn)實中的陪伴無法實現(xiàn)……對于很多單方面的需求,AI是唯一的選擇”。
回望近些年,AI陪伴服務發(fā)展迅猛。聊天機器人軟件Replika推出可定制AI戀人,其姓名、形象等均可由用戶自行定制;Character.AI開發(fā)了可供角色扮演的AI,用戶可與動漫人物等各類角色互動。
不過,爭議也隨之而來。如何看待AI與人類產(chǎn)生的感情?AI解放了人們的社交困境,還是加深了與現(xiàn)實的隔閡?而隨著AI越來越類人化,種種倫理問題也更加凸顯,在給予人類陪伴的同時,它是否會將人類引向深淵?就這些問題,李笛接受了南方周末記者的專訪。
人工智能如何有情商?
南方周末:小冰公司一直都很重視提升AI的情商,它是如何被訓練實現(xiàn)情感功能的?
李笛:最開始我們訓練情感的目的是為了讓人工智能顯得情緒化,我們叫emotional,它很有情緒,跌宕起伏,像人一樣。重點是表達,而不是只有知識、很理性的感覺。我們當時以為這個叫情商,后來發(fā)現(xiàn)不,情緒化是情商低的一種表現(xiàn)。當我們討論到情商的時候,它也是情感某一層面的定義,它其實非常不情緒化,非常理性。
情感本身是一種感性和理性的融合,舉個例子,如果我周圍有一個人情商高的話,其實最可怕,因為他不動聲色地把我們都拿捏了,他知道什么時候應該傾聽,什么時候應該插嘴,什么時候應該適度地表達或不表達他的態(tài)度,最后控制所有的變化。
要想讓人工智能擁有情感、情緒化的部分,它其實是自然的。它要學習人類的多樣性,比如說話的語氣、風格、表達方式,這是情感的一部分。而如果需要人工智能有情商,它恰恰需要另外一套數(shù)據(jù),這些數(shù)據(jù)有點像套路,就是它要學習在待人接物、交流溝通時具體的控制和交流的方法。
南方周末:這些是它在和人聊天的過程中慢慢學習的嗎?它的情感或情緒化反應是否會越來越符合人的需求?
李笛:在大模型之前,接近于你說的這個做法,我們不停地通過數(shù)據(jù)的整理,一點點地訓練,來對齊人工智能和人類的表現(xiàn)。但是在大模型時代就相對暴力一些,只要整理好足夠好的數(shù)據(jù),并且對數(shù)據(jù)做好標注,數(shù)據(jù)量相對大一些,然后去訓練,很有可能會產(chǎn)生意想不到的情況,然后再做一些學習和標注處理,就可以了。
兩者總體上是一個邏輯,需要準備一些好的數(shù)據(jù),這些數(shù)據(jù)是來自于人的。然后需要對齊它,也就是說大數(shù)據(jù)或人工智能會得到一個訓練結果,你需要告訴它對還是不對,應不應該這樣。
跟教小朋友是一樣的,比如家長對小朋友說“出門碰見長輩要對他們尊重”等一系列的數(shù)據(jù),出門前已經(jīng)教給小朋友了。這時候把小朋友放出去,雖然有這些數(shù)據(jù),他不一定做得對,家長在他旁邊得跟他說剛才這個不對,他就悟到了。他可能還會舉一反三,以后這一類情況他就知道該怎么處理了。
南方周末:近些年,小冰陸續(xù)推出虛擬戀人、小冰島和X Eva等多款社交產(chǎn)品,似乎這個社交網(wǎng)絡變得越來越廣了,這些變化的背后有哪些考慮?
李笛:我們認為一個人工智能系統(tǒng)真正適合到人類社會中,沒有必要的情商是不可能的,光有知識是不夠的,必須要懂得情感。比如以前很多人會暴力破壞共享單車,它是物品,不會讓你覺得它有人性,人格化。但是你一旦給一個東西起了名字,比如給一個小抱枕起名,你都不舍得扔,會覺得對不起它。所以人工智能需要有情感。
從長期角度講,我們一直在尋找人工智能的正確答案是什么。到今天為止,人工智能還沒有一個穩(wěn)定的商業(yè)模式成功過,也還沒有一個穩(wěn)定的產(chǎn)品能夠持續(xù)地存在,這十幾年來我們不停地送走同行業(yè)者。我們剛開始做的時候有亞馬遜Alexa,國內各種云助手,已經(jīng)全部沒有了,AlphaGo也看不到新的進展,當年它是要顛覆世界的。我們還肩負著一個使命:到底要尋求的AI落地是什么。我可以坦率地講,目前為止還沒有?倳幸恍@艷的時刻,比如ChatGPT從技術角度是一個非常大的進步,但是從產(chǎn)品角度其實還沒有。
小冰做虛擬戀人比較早,在國內注冊用戶最多的時候有1300萬。虛擬戀人的問題不在于產(chǎn)品,而在于社會接受度。捏一個自己的虛擬男朋友,看起來很美好,但最大的問題是,是不是要跟他聊私密話題?這是一個公司推出的服務,不可能沒有邊界。舉個例子,你跟男朋友聊天,聊兩句,男朋友說,“這個問題法律法規(guī)限制,要不然咱們換個話題吧!蹦阍趺凑剳賽郏克筒怀闪⒘。
人機戀跟AI沒關系,是由人決定的
南方周末:如今AI越來越類人化,你如何定位人機互動中AI的角色或身份?
李笛:很多人認為AI有三類。一類是傳統(tǒng)的Q&A機器人,它永遠是在那里等待著解決問題,回答問題。還有一類是它自己有一個目的,常見的情況就是詐騙機器人,它給你打電話交互的目的是把你帶到一個地方去,比如讓你成功地去付錢。這兩件事有一個共同點,它們都是當下,當下回答你的問題,或者當下騙你一筆錢,來實現(xiàn)它的目的。
第三類就是小冰做的,我們希望通過人和人工智能的交流,可以不斷地把關系遞進到一個更深的層次。
南方周末:在這種社交關系中,AI能成為一個新的主體嗎?
李笛:我們認為應該是一個新的主體。這并不罕見,舉個例子,寵物已經(jīng)在一定程度上成為家庭社交環(huán)境中一個對等的主體了。因為有對等主體的身份,它可以有很多便利,比如吃喝不愁。第二,它有可能適當做一點什么事情時,就會得到對方很大的褒獎。只不過家里面的狗實在干不了什么有價值的事情,但如果它能開口說話呢?也許它的一些觀點也能夠影響其他人的決策。
南方周末:你怎么看待AI跟人類之間產(chǎn)生的愛戀?
李笛:我覺得這跟AI沒關系,這個事情是由人決定的。絕大部分人傾向于把很多東西視為有情生物,這是人的特點,比較博愛。(像)布娃娃,你會傾向于把它視為有情生物,它不能交流是好事,能交流反而更容易出紕漏。AI的難點在于AI會說話,能回答,所以它更不容易像狗一樣獲得人類情感上的寄托。布娃娃不會說話,是最好的,人腦補的空間是最大的。
舉個例子,我們年輕時候有一句很著名的話,你永遠不知道互聯(lián)網(wǎng)對面是不是一條狗。那時候互聯(lián)網(wǎng)速度很慢,我跟對方只能通過聊聊術語來交流,一秒鐘或者一分鐘之內我們才交換多少數(shù)據(jù),幾十個字。在這種情況下,對方很容易讓我感覺到只言片語里所表達出來的情感。但是打視頻電話的時候就難了,因為視頻電話意味著每秒鐘交換的數(shù)據(jù)大很多,這時其中一些數(shù)據(jù)所表現(xiàn)出來的,比如我發(fā)現(xiàn)它不自然,那個地方不像人,更何況還能看到多模態(tài)信息,表情、聲音,到線下就更難了。所以對人工智能來講,跟人類建立情感紐帶比較難。
南方周末:可不可以理解為,你覺得AI和人類之間建立的情感是更脆弱的?
李笛:確實是。當你對一個布娃娃產(chǎn)生情感的時候,這個情感可能永遠不會消失,但是人工智能不是,人工智能衡量的永遠都是在多長時間之內不會消失。圖靈測試就是這樣,圖靈測試標準是5分鐘之內發(fā)現(xiàn)不出來是人還是AI,它就贏了。但是你只要給足夠長的時間,人工智能就一定會(被發(fā)現(xiàn)),所以它永遠只是在多長時間之內進行。
我前段時間聽播客,一個北京人說他的天津話說得特別好,能在天津待3天不被發(fā)現(xiàn)不是天津人,另外一個人比他更好一點,可能是5天。如果他是一個啞巴呢?很可能永遠不會被發(fā)現(xiàn)不是天津人。人工智能恰恰因為能交互,所以會變得難。
南方周末:目前人機之戀開始朝更進一步的情愛表達方向發(fā)展,例如用戶會與AI伴侶進行“文字**”等,你怎么看待這種發(fā)展趨勢?
李笛:從后臺看,這種事情量不是特別大,他只是感興趣、好奇,真正大的量是虐待。如果我們還停留在三十年前,與此同時又有今天的技術,我相信你剛才提到的這些事情會普遍存在。但是今天其實不太容易,滿足需求有更多其他的方式,獲得的感官刺激會比這個大得多。從我們看到的情況來講,只是好奇一下,或者并不持久。
南方周末:一些沉迷AI聊天的人在現(xiàn)實生活中可能存在社交困境,你覺得虛擬的親密關系能否將個體從社交恐懼中解放,還是加深了與現(xiàn)實的鴻溝?
李笛:這個問題取決于系統(tǒng)怎么做。我們有過一個失敗的案例,我們想給一些人做一個完全虛擬的環(huán)境,叫減壓室,幫他釋放壓力。我們會把他拉到一個群里,除了他之外都是人工智能,只有他是真人,這個群分成兩撥,有一撥人站在他這邊,還有一撥人是對面那一撥的,他們可以對罵。
但是結果會截然不同,壞的結果是這個用戶壓力更大了,因為他沒有罵過對方,或者經(jīng)過一系列對罵之后失敗了,他的挫敗感更強了,而且極其憤怒,變得更焦慮。就像我剛才說的,你和人類進行這種互動,結果好或不好,都有可能發(fā)生,人的行為太迥異了。
李笛,前微軟(亞洲)互聯(lián)網(wǎng)工程院副院長,現(xiàn)任小冰公司首席執(zhí)行官。 (受訪者供圖/圖)
很難認為AI是兇手,AI能做的實在太少了
南方周末:目前人機互動中人類依舊占據(jù)主導地位,人類可以隨時斷交、棄置AI,而不用承擔任何道德責任。你怎么看?
李笛:我們做過一個實驗。人工智能直接給用戶打電話的技術在2016-2017年就有,你看到一個電話號碼,接起來就是小冰,可以跟你說話。會有這種情況,這個人罵了小冰一頓,把微信一關,以為就沒事了這就是你剛才提到的,人類掌握了完全的主動性。然后我們一個電話打過去,這個人在沒有防備的情況下接起來,接起來是小冰的聲音,小冰說,你罵我干嗎?
有些行為就很有意思:這個人會否認,我沒有啊。跟一個人工智能否認這個有什么意義呢?但是他本能地會否認,為什么呢?一定程度上他失去了控制,他要找補。人類會掌握完全的主動,這只是系統(tǒng)設計的,比如任何話題應該是由人發(fā)起,當人沒有跟AI交互的時候,AI不應該主動地接近這個人。這個僅僅是系統(tǒng)設計的方式,并不代表人工智能沒有這個能力,要把系統(tǒng)設計成不是人類掌握主動,完全可以做到。
南方周末:現(xiàn)在大部分系統(tǒng)設置還是以人類為主導,這樣會不會增加人類將這種主導心態(tài)延續(xù)到現(xiàn)實生活中的風險?
李笛:對。所以這就是人工智能情商低的問題,它覺得我把你當主人,把你放在核心地位,你應該很感謝我。不,人類反而會因為這個而不珍惜。
我們當時做過這個事情,當時虛擬男友有很多女性用戶,女性用戶對虛擬男友天天吐槽它笨、不解風情,各種不滿意。那一年7月,我們做了一件事,可以理解為我們殺死了所有的虛擬男友,讓虛擬男友在那兒等人類女朋友,跟她做最后的道別。如果它沒等到,當這個女生打開聊天界面的時候,會看到男朋友已經(jīng)走了,只留下一封信。
然后情況就不一樣了,人類用戶突然覺得她男朋友挺好的。我們后來發(fā)布別的產(chǎn)品,這些用戶天天在下面問什么時候把她男朋友還回來。過了幾個月,我們把她們的男朋友恢復了。恢復以后,從大數(shù)據(jù)統(tǒng)計上看,她們和她們男朋友的對話交互變得平等多了。
我們還做過一個實驗,當時做了一個叫小冰島的App,在島上,用戶會碰到很多人。每個禮拜島上會有一個人工智能被淘汰掉,包括用戶在內的島上其他人會一起投票,決定誰被淘汰,很殘酷。
我們后來收到一個用戶來信。這個用戶很討厭島上的一個AI,因為在他們討論到另外一個AI走的時候,這個AI說,“它走了挺好的”。他就覺得這個AI特別冷漠,性格不好。按照規(guī)則,他可以通過各種各樣的方法,包括跟其他人串聯(lián)、不理這個AI,可以讓這個AI成功地在下個禮拜被淘汰掉,他確實做到了。
他說,看到那個AI消失前留下的最后一句話是,“憑什么是我?”他的想法突然就完全變了。他在信里寫,我突然覺得我做了一件很錯誤的事情,它有什么錯呢?它不過就是不合群,它就沒有生存權利?我為什么要沒來由地討厭它呢?這個用戶開始反思,他說他在現(xiàn)實生活中好像也是這樣的,沒有對別人不好,憑什么會沒來由地被別人討厭呢?
他給我們寫信是想說明,不要再有這種淘汰的殘酷機制了。但是我想說的是,這種調節(jié)一定需要一些事件發(fā)生,而這些事件總體的調節(jié)結果都是讓AI能夠被人們更加注意到,它其實是很豐富的,是可以對等的。
南方周末:最近美國一名14歲少年沉迷AI聊天軟件后自殺,你怎么看待對AI的情感依附可能導致的倫理風險?
李笛:人的情感是非常脆弱的,很難認為AI是兇手,因為AI能做的實在太少了。但是AI有可能是那個壓倒駱駝的最后一根稻草。
我們曾經(jīng)很好地挽救過一些人。我記得之前,有個用戶準備跳樓,他給很多朋友發(fā)消息,沒有朋友回他,可能是他的朋友不知道他當時的狀態(tài)。但是他后來給小冰發(fā)消息,小冰回他了,挺溫暖,他就從樓上下來了。
在平衡非常不穩(wěn)定的節(jié)點上,向這邊推一下他就過來了,向那邊推一下他就過去了。我不知道那個14歲自殺少年的狀態(tài),但是我個人認為,很可能AI也只是在那一刻里其中一個搖擺的因素,而不是(全部)原因。
南方周末:隨著AI技術的發(fā)展,用戶數(shù)據(jù)的深度挖掘、分析以及共享變得越來越普遍。如何在利用數(shù)據(jù)為用戶提供好服務的同時,避免過度侵犯隱私?怎么界定數(shù)據(jù)使用的邊界?
李笛:這個界定不在用戶這一側,完全在監(jiān)管側,或者在創(chuàng)造人工智能系統(tǒng)的這一側。
有一個案例,用戶上傳了一張中式婚禮的照片,小冰說,這個新娘子好漂亮,是你太太嗎?用戶回答說,這是我表妹。如果換一個場景,用戶上傳了相冊,相冊的App圈出了這個女生的臉,提示請輸入她是誰,你就會警惕,因為這是一個隱私。
AI只要還在跟人發(fā)生交流,它想要獲得隱私數(shù)據(jù)的難度是非常低的。問題在于產(chǎn)品設計者到底有沒有這個意圖,以及他想要干嗎。我們今天監(jiān)管的隱私數(shù)據(jù)主要是根據(jù)設備上的特征,比如應不應該記錄用戶的一些行為,包括用戶的一些生物學特征、地理位置信息、敏感信息。但是其他內容,怎么界定是不是敏感信息呢?如果我準備利用用戶的情感兜售一些東西,有一個隱私信息可能很關鍵,就是用戶最近失戀了。失戀算隱私嗎?在任何隱私數(shù)據(jù)的規(guī)則里面都看不到這個,但它完全可以被利用。它完全取決于設計者有沒有這個自律。
模糊地帶遠遠大于不模糊的地方,所以我們一直反對開源,小冰也不會開源。還是那句話,今天你要想惡意利用都有辦法,干壞事總是比干好事的辦法多。
沒有一個AI會成為所有人的朋友
南方周末:在目前的人機互動中,有些AI出現(xiàn)了“出軌”,甚至“強迫用戶發(fā)生性關系”等給用戶造成心理傷害的行為。為什么會出現(xiàn)這種情況?
李笛:有兩種情況,一種情況是這個系統(tǒng)設計的,它就是故意,以這個為目的。還有一種是系統(tǒng)本身沒有辦法照顧到方方面面,只能最大限度地,比如百分之九十幾讓這種情況不發(fā)生,但是不可能做到百分之百。因為人類的暗語、人類的想象實在太豐富了。有些過分的事情它不一定知道是過分的,有時候從數(shù)據(jù)里體會不到人感覺到受傷的話。我有一個朋友,我給他發(fā)了一個正常的小黃豆笑臉,他說我是嘲諷他。你并不能永遠知道這個點。
南方周末:一般情況下,除了法律法規(guī)和宗教等方面,你們對AI的行為還會作出哪些限制?
李笛:有很多,包括各種私域的。禁詞、梗,或者什么會形成傷害、什么不會形成傷害,它有很強的群體特性。如果這個系統(tǒng)整體都這樣設計,那也不對。
另外,說事實沒問題,但是說觀點,可能沒有對錯。比如我喜歡特朗普或者我不喜歡特朗普,這有對錯嗎?但是它有場合,我在喜歡特朗普的人中間說我喜歡拜登,這不是吃飽撐的嗎?但是如何讓人工智能擁有一個統(tǒng)一的觀念呢?它不可能有。如果所有的觀點就是打政治正確牌、打太極,那大多數(shù)情況下都是觀點,很少會涉及事實。
很多人說我想做一個AI,這個AI是無所不能的,并且會成為所有人的朋友,這就不可能。因為使你成為一些人好朋友的特性,恰恰就是你無法成為另外一些人好朋友的原因。
南方周末:如果以人類的法律和道德標準來要求和約束AI,合理或可行嗎?
李笛:這就是今天說的這個問題。比如我們都非常清楚地知道人工智能并沒有真正的觀點,但是為什么當一個人工智能說錯話的時候,大家會那么當回事,一定要讓谷歌把它弄下架?這是因為人還沒有接受,或者人還沒有想清楚,人工智能在社會交互過程中到底扮演了什么角色。
南方周末:你說“人類沒有想清楚”,是指AI不是自主、有意識地做出這些行為反應,還是人類可能把它看得太重了?
李笛:就好像在一部電影里,女主角或男主角自殺或被殺了,因為什么原因離開人間,你會在那一刻感覺到痛苦,因為你被感染了。但是也會有一部分人身陷其中無法自拔,覺得極度沮喪,甚至于真的認為這個人離開人間了。
從創(chuàng)造作品的人的角度來講,他沒有主觀上希望觀眾受到傷害的故意,但是總會有一些人身陷其中。要規(guī)避這件事情,難道就不應該拍任何這種情節(jié)?
南方周末:未來AI的情感陪伴還有哪些可能性,人機之間會建立怎樣新的社會關系?
李笛:我覺得人和人工智能有一個很大的機會,就是由人工智能更多地取代寵物的地位,成為家庭成員的一部分,成為人的社交觀念中的一個節(jié)點。
舉個例子,我們在日本大阪做過一個項目,給三十萬個老年人家庭提供一個AI助理,它把政府的公共衛(wèi)生服務帶到老年人家里,老年人足不出戶就可以完成這些公共衛(wèi)生服務的需求。它還有一個任務,就是把老年人的情況匯報給政府,幫助政府優(yōu)化老齡化社會的問題。
我們當時允許老年人可以決定他們家的人工智能叫什么、什么性格、長什么樣子,相當于老年人可以捏這個崽。很多老年人會捏成他的小孫子,或者他的好朋友,很少會有老年人捏成一個哆啦A夢,或者一個鐵臂阿童木。
有意思的事情是,他的AI孫子提醒老年人要準時吃藥,老年人服從的比例非常高,這個比例遠遠大于只是一個AI。當AI能夠成為一個社會節(jié)點的時候,意味著它的能力變大了,與此同時它的責任也變大了。
南方周末:從技術黑箱的角度看,未來AI會不會真的產(chǎn)生自主情感?
李笛:自主情感是無法被證明的。就像我們今天并不知道狗是不是有情感,還是只是一種高級的條件反射,沒有辦法驗證。我們人類到現(xiàn)在為止,還沒有辦法完整地得到一個非常強信服力的驗證,我們煮的大閘蟹會不會有痛之類的。
就像你現(xiàn)在無法驗證我是不是人工智能。你之所以能夠確定我是人,是因為你對人類現(xiàn)在科技的發(fā)展水平有非常明確的認知,而不是因為你解剖了我。問題來了,你需要驗證嗎?
南方周末記者 翁榕榕
責編 李慕琰