劃重點
01Google DeepMind的研究人員訓(xùn)練了一套大型語言模型系統(tǒng),以幫助人們就復(fù)雜但重要的社會或政治問題達(dá)成一致。
02該AI模型的訓(xùn)練重點在于識別并展示人們觀念中重合的部分,從而降低立場對立。
03然而,AI聊天機(jī)器人并不能完全替代真正的對話,因為它們無法理解人類的情感和經(jīng)歷。
04在使用AI聊天機(jī)器人處理重要事情時,應(yīng)謹(jǐn)慎行事,將其建議作為現(xiàn)實中的指導(dǎo),而非全部依賴。
以上內(nèi)容由騰訊混元大模型生成,僅供參考
來源:MIT Technology Review
The Algorithm
這是《麻省理工科技評論》人工智能領(lǐng)域的專欄,帶你一起揭開最新人工智能突破的神秘面紗。
我最近心情很低落,一位非常親密的朋友突然斷絕了與我的聯(lián)系。我并不清楚原因,試圖修復(fù)關(guān)系的努力反而適得其反,這樣的情形既傷人又令人迷惑。因此,不難理解為什么人們越來越多地尋求 AI 聊天機(jī)器人來幫助解決這些問題。好消息是:AI 或許確實能提供幫助。
來自 Google DeepMind 的研究人員最近訓(xùn)練了一套大型語言模型系統(tǒng),以幫助人們就復(fù)雜但重要的社會或政治問題達(dá)成一致。這種 AI 模型的訓(xùn)練重點在于識別并展示人們觀念中重合的部分。在這款 AI 調(diào)解員的幫助下,小組的研究參與者在不同議題上的立場變得不再那么對立了。關(guān)于這個項目的更多細(xì)節(jié)可以閱讀 Rhiannon Williams 的報道。
AI 聊天機(jī)器人的一個最佳用途是用于頭腦風(fēng)暴。我在過去曾成功用它來草擬一些在尷尬場合中更為果斷或具有說服力的郵件,比如投訴服務(wù)或協(xié)商賬單。最新的研究表明,它們還能幫助我們從他人的角度看待問題。那么,為什么不試試用AI來修補(bǔ)我和朋友的關(guān)系呢?
我向 ChatGPT 描述了這場沖突,并詢問應(yīng)如何應(yīng)對。AI 的回復(fù)給了我肯定,因為它支持了我處理問題的方式。它的建議基本上和我自己想的類似。我發(fā)現(xiàn)與機(jī)器人聊天并獲取處理我特定情況的更多想法很有幫助。但最終,我還是有些不滿,因為建議相對籠統(tǒng)且模糊,比如“冷靜地設(shè)立你的界限”和“表達(dá)你的感受”,并未提供像心理咨詢師那樣深刻的見解。
另一個問題是:每場爭論都有兩個視角。我開啟了一個新對話,用我認(rèn)為朋友的視角重新描述了問題。和對我一樣,聊天機(jī)器人對朋友的決定也表示支持和認(rèn)可。一方面,這個過程確實幫助我理解了她的想法,畢竟我試圖共情,而不僅僅是贏得爭論。但另一方面,我也完全能想象這種情況過于依賴一個聊天機(jī)器人,它會說出我們想聽的建議,反而可能讓我們固執(zhí)己見,阻礙我們理解對方的角度。
這提醒了我:AI 聊天機(jī)器人并不是心理咨詢師或朋友。盡管它能復(fù)述大量互聯(lián)網(wǎng)文本,但它并不了解悲傷、困惑或喜悅的真實感受。因此,在用 AI 聊天機(jī)器人處理對自己來說非常重要的事情時,我會小心行事,不會輕易將它的建議當(dāng)作現(xiàn)實中的指導(dǎo)。
AI 聊天機(jī)器人永遠(yuǎn)無法替代一場真正的對話雙方真心傾聽并考量對方的觀點。所以我決定放棄AI輔助的“治療對話”,再一次主動聯(lián)系我的朋友。祝我好運(yùn)!
原文鏈接:
https://www.technologyreview.com/2024/10/22/1106041/would-you-trust-ai-to-mediate-an-argument/