來源:MIT Technology Review
生成式 AI 模型已經(jīng)在與人類對話、生成圖像、視頻以及音樂方面表現(xiàn)得相當出色,但它們在“為我們做事”這方面的能力卻并不突出。
AI 智能體有望改變這一現(xiàn)狀?梢詫⑺鼈円暈閾碛心_本和明確目標的 AI 模型。通常,這些智能體分為兩種類型。
第一種稱為基于工具的智能體,可以通過自然語言(而非編程)指導完成數(shù)字任務。例如,Anthropic 在 10 月推出了一種智能體,這是主要 AI 模型開發(fā)商中首個此類產(chǎn)品。這種智能體能夠?qū)⒅噶睿ㄈ纭皫臀姨顚戇@個表單”)轉化為具體操作,在電腦上移動光標打開網(wǎng)頁瀏覽器,導航找到相關頁面上的數(shù)據(jù),并使用這些數(shù)據(jù)填寫表單。Salesforce 也發(fā)布了類似的智能體,據(jù)報道,OpenAI 計劃在明年 1 月推出自己的版本。
另一種類型的智能體被稱為模擬智能體,它們可以被視為旨在模仿人類行為的 AI 模型。最早研究這些智能體的是社會科學研究人員。他們希望進行一些實驗,這些實驗如果以真實人類為對象進行,會因為成本高昂、操作不切實際或涉及倫理問題而難以實現(xiàn),于是他們使用 AI 來模擬實驗對象。這一趨勢在 2023 年,由斯坦福大學博士生 Joon Sung Park 及其團隊發(fā)表的一篇廣受引用的論文《生成智能體:人類行為的交互模擬》(Generative Agents: Interactive Simulacra of Human Behavior)后,得到了極大推動。
近期,Park 及其團隊在 arXiv 上發(fā)表了一篇新論文,題為《1,000 人的生成智能體模擬》(Generative Agent Simulations of 1,000 People)。在這項研究中,研究人員讓 1,000 名參與者與 AI 進行兩小時的訪談。隨后,團隊成功創(chuàng)建了能夠高度精準再現(xiàn)每位參與者價值觀和偏好的模擬智能體。
這里有兩個非常重要的發(fā)展值得注意。首先,領先的 AI 公司顯然已經(jīng)認識到,僅僅構建令人驚嘆的生成式 AI 工具已不足夠,他們現(xiàn)在必須開發(fā)能夠為人們完成實際任務的智能體。其次,越來越容易讓這些 AI 智能體模仿真實人類的行為、態(tài)度和個性。過去屬于兩種不同類型的智能體模擬智能體和基于工具的智能體很可能很快會融合為一種全新的形式:既能模仿個性又能代表人類行動的 AI 模型。
研究正在進行中。一些公司,如 Tavus,正在幫助用戶創(chuàng)建自己的“數(shù)字孿生”。但該公司的 CEO Hassaan Raza 設想更進一步,開發(fā)能夠以治療師、醫(yī)生和教師等角色形式存在的 AI 智能體。
如果此類工具變得便宜且易于構建,將會引發(fā)許多新的倫理問題,其中兩個特別突出。第一個問題是,這些智能體可能會催生更多個人化且危害更大的深度偽造。目前的圖像生成工具已經(jīng)讓通過單張照片制作非自愿色情內(nèi)容變得十分簡單,但如果復制一個人的聲音、偏好和個性也變得輕而易舉,這一危機只會愈發(fā)嚴重。(Park 告訴我,他和他的團隊在最新研究項目中花費了一年多時間思考類似的倫理問題,與斯坦福的倫理委員會進行了許多討論,并制定了參與者如何撤回其數(shù)據(jù)和貢獻的相關政策。)
第二個問題是一個根本性的問題:我們是否有權知道自己是在與 AI 智能體交談還是與人類交談?如果你與 AI 完成了一次訪談,并提交了你的語音樣本以創(chuàng)建一個聽起來像你、回應方式也像你的智能體,那么你的朋友或同事是否有權知道他們是在與它交談而不是與你交談?反過來,當你撥打手機服務提供商或醫(yī)生辦公室的電話時,一個熱情的客戶服務代表接聽了電話,你是否有權知道自己是在與 AI 對話?
這個未來看似遙遠,但實際上并不遙遠。當我們真正身處這一境地時,或許會有更加緊迫和相關的倫理問題需要解決。在此之前,你可以閱讀我關于 AI 智能體的更多文章,同時思考一下:一個 AI 訪談者能在兩小時內(nèi)多么深入地了解你?
原文鏈接:
https://www.technologyreview.com/2024/11/26/1107309/we-need-to-start-wrestling-with-the-ethics-of-ai-agents/