展會信息港展會大全

LeCun最新訪談:距離AGI可能不到10年,下一代AI需要情感和視覺訓(xùn)練
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-12-24 18:39:27   瀏覽:184次  

導(dǎo)讀:奇月 發(fā)自 凹非寺量子位 | 公眾號 QbitAI語言模型的發(fā)展已很難有大的突破了。這是LeCun最新訪談中給出的斷言。頭戴Meta爆火智能眼鏡,LeCun再次表示人類距離AGI的時間沒有那么近,“大約在5-10年”,對語言模型發(fā)展的判斷更是不樂觀。未來在哪?還是得看世界模型。未來AI需要情感、視覺訓(xùn)練,能夠理解物理環(huán)境的世界模型。而AI發(fā)展的關(guān)鍵是啥?開源,Llama之于AI就像是Linux之 ......

奇月 發(fā)自 凹非寺量子位 | 公眾號 QbitAI

語言模型的發(fā)展已很難有大的突破了。

這是LeCun最新訪談中給出的斷言。

LeCun最新訪談:距離AGI可能不到10年,下一代AI需要情感和視覺訓(xùn)練

頭戴Meta爆火智能眼鏡,LeCun再次表示人類距離AGI的時間沒有那么近,“大約在5-10年”,對語言模型發(fā)展的判斷更是不樂觀。

未來在哪?還是得看世界模型。

未來AI需要情感、視覺訓(xùn)練,能夠理解物理環(huán)境的世界模型。

而AI發(fā)展的關(guān)鍵是啥?開源,Llama之于AI就像是Linux之于互聯(lián)網(wǎng)。

如果Llama未來可以發(fā)展成一個全球的、分布式的AI計算平臺,可以大大促進(jìn)AI的發(fā)展。

此次訪談在約翰霍普金斯大學(xué)布隆伯格中心進(jìn)行,主持人是Vox Media的卡拉斯威舍(Kara Swisher)。

在不改變原意的前提下,量子位對訪談的重點內(nèi)容進(jìn)行了梳理。

LeCun最新訪談:距離AGI可能不到10年,下一代AI需要情感和視覺訓(xùn)練

更智能的AI需要情感和視覺能力Q:你獲得了2024年Vn未來獎,在獲獎感言中你提到,AI的學(xué)習(xí)方式不像人類或動物,它們沒有從物理世界中獲取大量的視覺觀察,但你一直在努力實現(xiàn)這一點。

LeCun最新訪談:距離AGI可能不到10年,下一代AI需要情感和視覺訓(xùn)練

LeCun:我們將會有一些系統(tǒng),它們會像人類和動物一樣高效地學(xué)習(xí)新技能和新任務(wù),目前我們還無法用機器復(fù)制這一點。

我們無法制造出足夠聰明的家用機器人,原因很簡單,因為我們訓(xùn)練的LLM和機器人都是基于所有公開可用的文本,大約有20萬億個單詞,每個單詞大約由三個字節(jié)表示,所以大約是6乘以10的14次方個單詞。

心理學(xué)家會告訴你,一個四歲的孩子總共醒著的時間是16000小時,視覺信息以每秒大約2兆字節(jié)的速度進(jìn)入孩子的大腦。我們來算一下,我們有100萬到200萬根視神經(jīng)纖維,每根每秒大約攜帶一個字節(jié),我們有兩只眼睛,所以大約是每秒2兆字節(jié)。

這樣計算,16000小時就是10的14次方字節(jié),這與最大的LLM通過文本看到的數(shù)據(jù)量相同。我們要花上幾萬年才能讀完這些文本。這告訴我們,我們永遠(yuǎn)不會僅僅通過訓(xùn)練文本達(dá)到人類水平的AI,我們必須訓(xùn)練感官輸入。

基本上,視覺輸入是無限的,16000小時的視頻大約是YouTube上30分鐘上傳的視頻總時長。我們擁有的視頻數(shù)據(jù)比我們能處理的要多得多。因此,未來幾年AI要取得下一個級別的進(jìn)步,最大的挑戰(zhàn)就是讓系統(tǒng)通過觀看視頻并互動來理解世界是如何運作的。

這個問題還沒有解決,但我認(rèn)為在接下來的五年里,很有可能取得重大進(jìn)展,這就是為什么你會看到所有這些公司開始制造人類機器人。他們還造不出足夠聰明的機器人,但他們相信在未來五年內(nèi)AI會取得足夠的進(jìn)步,到時候這些機器人就可以賣給公眾了。

我們設(shè)想在未來幾年的構(gòu)建藍(lán)圖中,AI系統(tǒng)將具有情感,這是這些系統(tǒng)設(shè)計的基本組成部分。為什么它們會有情感呢?因為它們將由目標(biāo)驅(qū)動,你給它們一個必須完成的任務(wù),它們的目的是在硬編碼到它們設(shè)計中的約束條件下完成這個任務(wù)。

為了做到這一點,它們需要幾個組件。首先,它們需要一種方法來確定我們給它們的目標(biāo)是否已經(jīng)完成。此外,它們還需要一個我們稱之為世界模型的東西,這是我們所有人在前額葉皮層中都有的東西,它允許我們想象我們行為的后果是什么,它讓我們能夠規(guī)劃一系列行動來完成一個特定的目標(biāo)。

如果你有能力提前預(yù)測一系列行動將產(chǎn)生什么,那么你就可以預(yù)測一個目標(biāo)是否會得到滿足,以及預(yù)測結(jié)果會是好是壞。如果你預(yù)測結(jié)果會很糟糕,你會感到恐懼;如果你預(yù)測結(jié)果會很好,你會感到興奮。所以,預(yù)測然后行動以完成這些預(yù)測的能力,產(chǎn)生了相當(dāng)于情感的東西。

因此,足夠聰明的AI系統(tǒng),能夠推理和規(guī)劃并擁有世界模型的AI系統(tǒng),將具有情感。

Q:這將產(chǎn)生廣泛的影響,可能會改變學(xué)習(xí)方式,改變一切,讓每個人都相處得更好。但是,仇恨、功能障礙、孤獨等問題仍然存在,你怎么看待這些事情?

LeCun:我不是億萬富翁,我首先是一名科學(xué)家,如果沒有某種程度的科學(xué)誠信,我無法面對鏡子中的自己。科學(xué)的全過程就是你必須接受你可能會錯的事實,正確的想法來自于多種觀點的碰撞和不同意的人。

我們看看現(xiàn)實,人們說AI會摧毀社會,因為我們會充斥著虛假信息和生成的仇恨言論等等,但我們根本沒有看到這種情況。事實上,人們制造仇恨言論,制造虛假信息,他們試圖以各種方式傳播,但我們最好的防御措施就是AI系統(tǒng)。

我們需要的是更多的AI技術(shù)掌握在好人手中,而不是壞人手中。

語言模型很難再提升,未來每個人都會有AI助手Q:你剛才說自回歸LLM正在達(dá)到性能上限,下一代人工智能系統(tǒng)和大語言模型有什么不同?

LeCun:過去有些人認(rèn)為,像GPT這樣的LLM,只要擴大規(guī)模,在更多的數(shù)據(jù)上進(jìn)行訓(xùn)練,用更多的計算能力,人類水平的智能就會從中產(chǎn)生。我從來不相信這個概念。llya曾經(jīng)是這個概念的著名信徒,不過他也放棄了。

LeCun最新訪談:距離AGI可能不到10年,下一代AI需要情感和視覺訓(xùn)練

這些系統(tǒng)的性能已經(jīng)達(dá)到了上限,因為我們基本上已經(jīng)用盡了所有公開可用的文本數(shù)據(jù)來訓(xùn)練這些LLM,不可能再得到比這更多的數(shù)據(jù)了。所以人們開始生成合成數(shù)據(jù)之類的東西,但這樣不可能將性能提高10倍或100倍。

LLM被稱為大型語言模型,因為它基本上是被訓(xùn)練來預(yù)測文本中的下一個單詞,這些系統(tǒng)實際上是在預(yù)測單詞的概率分布,你可以用它來生成文本。這就是自回歸部分。

但無法保證所產(chǎn)生的單詞序列會有意義,有可能會產(chǎn)生胡言亂語或編造東西。所以很多行業(yè)都在努力尋找一種方法,基本上是通過人類參與來訓(xùn)練系統(tǒng),讓它們執(zhí)行特定任務(wù)而不產(chǎn)生無意義的內(nèi)容。

我們正在研究的是下一代人工智能系統(tǒng),它不僅僅基于預(yù)測下一個單詞。

當(dāng)它們不知道答案時,它們可以查詢數(shù)據(jù)庫或搜索引擎。你需要有能夠檢測系統(tǒng)是否知道答案的系統(tǒng),然后可能生成多個答案,然后你知道挑選哪些答案是好的。

Q:上周Meta發(fā)布了MetaMotivo,它可以制造看起來更像活人的數(shù)字人。這好像是在嘗試讓元宇宙再次成為現(xiàn)實,你能告訴我它到底是什么嗎?因為你們在這些事情上投入了大量資金。

p data-exeditor-arbitrary-box="image-box" style="-webkit-text-stroke-width:0px;background-color:rgb(255, 255, 255);clear:both;color:rgb(0, 0, 0);font-size:16px;font-style:normal;font-variant-caps:normal;font-variant-ligatures:normal;font-weight:400;max-width:100%;orphans:2;outline:0px;padding:0px;text-align:center;text-decoration:none;text-decoration-color:initial;text-decoration-style:initial;text-decoration-thickness:initial;text-transform:none;white-space:normal;widows:2;box-sizing:border-box !important;letter-spacing:1px !important;line-height:2 !important;margin:20px 16px !important;min-height:1.5em !important;overflow-wrap:break-word !important;word-spacing:1px !important">LeCun最新訪談:距離AGI可能不到10年,下一代AI需要情感和視覺訓(xùn)練

LeCun:我現(xiàn)在正戴著智能眼鏡,我們最終將圍繞智能眼鏡或其他智能設(shè)備展開工作,它們將配備人工智能助手,我可以通過它跟AI交流。這些設(shè)備將在我們的日常生活中協(xié)助我們,我們希望這些系統(tǒng)具有人類水平的智能水平,甚至在許多方面具有超人的智能水平。

但我們離那個目標(biāo)還很遠(yuǎn)。不是幾個世紀(jì),也可能不是幾十年,但可能是幾年。LLM可以通過律師考試,或者通過一些大學(xué)考試。但家用機器人還不能完全打掃房子,清理餐桌,洗碗。我們不是不能制造機器人,而是無法讓它們足夠聰明、讓它們理解物理世界。事實證明,物理世界對AI系統(tǒng)來說要復(fù)雜得多。

這些系統(tǒng)最終將能夠規(guī)劃一系列行動以實現(xiàn)特定目標(biāo),這就是我們所說的Agent。一個Agent系統(tǒng)是一個可以規(guī)劃一系列行動以達(dá)到特定結(jié)果的系統(tǒng)。現(xiàn)在大家談?wù)摰拇硐到y(tǒng)實際上并沒有這樣做。

Q:Meta還在開發(fā)AI搜索引擎,我猜你們是想超越谷歌搜索?

LeCun:一個智能助手的重要組成部分當(dāng)然是搜索。你搜索事實,并鏈接到這些事實的來源。這樣,與你交談的人就會信任這個結(jié)果。所以搜索引擎是完整AI系統(tǒng)的一個組成部分。

但歸根結(jié)底,目標(biāo)不是直接與谷歌競爭,而是服務(wù)于那些想要AI助手的人。

未來每個人都會隨時有一個AI助手,這將成為一個新的計算平臺。以前我們稱之為元宇宙,但這些眼鏡最終會有顯示器,增強現(xiàn)實顯示器。已經(jīng)有了這方面的演示,比如獵戶座項目。我們現(xiàn)在可以把它做得足夠便宜,可以出售了。

Q:現(xiàn)在人力助手的成本要低得多。目前,Meta預(yù)計將花費380億至400億美元,谷歌表示將超過510億美元,分析師預(yù)測,微軟的支出將接近900億美元。你會擔(dān)心被超越嗎?你認(rèn)為這是一項值得的投資嗎?

LeCun:我不這么認(rèn)為。我沒有在Facebook成立之初就接受這份工作,所以不要問我這個問題。但這是一個長期的投資,你需要基礎(chǔ)設(shè)施才能以合理的速度為越來越多的人運行這些AI助手。

目前有6億人使用Meta AI,開源引擎Llama已經(jīng)被下載了6.5億次,這是一個驚人的數(shù)字。在世界各地有85000個項目衍生自Llama,都是公開可用的,大部分都是開源的。很多這些項目基本上都是在訓(xùn)練Llama說一種特定的語言,比如來自印度的語言。

我不認(rèn)為這筆投入是冤枉的,因為將來會有很多人每天使用這些AI系統(tǒng),在一兩年內(nèi)會有很大增長。而這些系統(tǒng)如果更強大,就會更有用,同時計算成本就越高。所以這項投資是基礎(chǔ)設(shè)施的投資。

Llama就像AI界的LinuxQ:Meta最近發(fā)布了Llama3.3,你覺得它的主要作用是什么?和其他公司的封閉模型對比起來有什么特點?

LeCun最新訪談:距離AGI可能不到10年,下一代AI需要情感和視覺訓(xùn)練

LeCun:Llama和大多數(shù)其他模型的主要區(qū)別在于它是免費的和開源的。從技術(shù)上來說,開源軟件就是帶有源代碼的軟件,你可以修改它、自己編譯,你可以免費使用。而且,在大多數(shù)許可證下,如果你對它做了一些改進(jìn),并且你想在一個產(chǎn)品中使用它,你必須以源代碼的形式發(fā)布你的改進(jìn),這樣就使得開源項目能夠非?焖俚匕l(fā)展,多年來這一直是一種成功的軟件分發(fā)方式。

整個互聯(lián)網(wǎng)都運行在開源軟件上,世界上大多數(shù)計算機都運行在Linux上,除了少數(shù)桌面電腦和一些iPhone之外,其他所有的計算機都是這樣。Linux非常成功,原因是它是一個平臺,人們可以修改它,讓它更安全、更可靠等等,讓它能夠在各種硬件上運行。這并不是設(shè)計出來的,而是市場力量自然推動的。

在AI領(lǐng)域,判斷某物是否為開源變得復(fù)雜,因為構(gòu)建AI系統(tǒng)首先要收集訓(xùn)練數(shù)據(jù),其次要在這些訓(xùn)練數(shù)據(jù)上訓(xùn)練所謂的基礎(chǔ)模型。那個訓(xùn)練代碼和數(shù)據(jù)通常是不公開的。例如,Meta不公開Llama模型的訓(xùn)練數(shù)據(jù)或大部分訓(xùn)練代碼。

然后你可以分發(fā)訓(xùn)練好的基礎(chǔ)模型,比如Llama。它開源了代碼,你可以在任何地方運行該系統(tǒng),并且還可以進(jìn)行微調(diào)。你不需要支付費用給Meta,也不需要向他們詢問,你可以自己做這些事情。但這有一些限制,主要是由于法律環(huán)境的原因。

大型模型很多都是封閉的,比如OpenAI、Anthropic和Google,這可能是因為他們想獲得商業(yè)優(yōu)勢,比如你想直接從這種類型的產(chǎn)品中獲得收入,并且你認(rèn)為自己或者可以領(lǐng)先于技術(shù),那么可能就有理由保持封閉。

但對于Meta來說,Meta的AI工具是一整套體驗的一部分,這些體驗都是靠廣告收入來資助的,所以AI不是主要的收入來源。另一方面,我們認(rèn)為平臺會發(fā)展得更快,事實上我們已經(jīng)看到了Llama平臺促進(jìn)了更多的創(chuàng)新。有很多創(chuàng)新是我們沒有想過、或者我們沒有辦法做到,但人們有了Llama模型之后,他們能夠進(jìn)行實驗,然后提出新的想法。

Q:有很多人批評說Meta之前在AI競爭里面落后,開源模型是你們用來追趕的工具,你怎么看?

LeCun:首先,你必須意識到,除了谷歌之外,這個行業(yè)里的每個人在構(gòu)建人工智能系統(tǒng)時都在使用一個名為PyTorch的開源軟件平臺。這個平臺主要由Meta開發(fā),后來Meta把所有權(quán)轉(zhuǎn)讓給了Linux基金會,所以現(xiàn)在它不再屬于Meta了。OpenAI的所有人都使用它,所以沒有Meta,GPT和Claude等模型或許發(fā)展不到今天的程度。

LeCun最新訪談:距離AGI可能不到10年,下一代AI需要情感和視覺訓(xùn)練

像GPT這樣的工具,其中使用的底層技術(shù)是在不同地方發(fā)明的。OpenAI在它們不那么保密的時候做出了一些貢獻(xiàn),它們在過去三年左右的時間里逐漸變得保守。谷歌當(dāng)然也做了一些貢獻(xiàn),但從未真正開放過。他們試圖秘密地推動這項技術(shù)。

我認(rèn)為Meta是一個相當(dāng)大的研究機構(gòu),我們的研究組織叫做FAIR,過去叫Facebook Research,現(xiàn)在主要做基礎(chǔ)研究。我們有大約500人在那里工作。我們正在研究的實際上是下一代人工智能系統(tǒng),超越了LLMs,超越了大語言模型,超越了聊天機器人。這就是所謂的大概念模型,這是一個特定的部分。

更安全的AI系統(tǒng)可以提前設(shè)計Q:你說過專有AI模型集中在少數(shù)幾家公司手中是一個巨大的危險。開源模型的批評者也擔(dān)心,不良行為者可能會利用它們來傳播錯誤信息、網(wǎng)絡(luò)戰(zhàn)、生物恐怖主義等。談?wù)勥@兩者之間的區(qū)別。Meta在防止這些情況發(fā)生的方面有什么作為?

LeCun:這是一個巨大的爭論。我們第一次發(fā)布Llama是相當(dāng)近期的事情,第一個Llama不是開源的。你必須請求許可,你必須證明你是一名研究人員。這是因為法律環(huán)境不確定,我們不知道人們會用它做什么。

所以我們進(jìn)行了幾個月的內(nèi)部討論,每周兩個小時,有40個人參與。關(guān)于安全性、法律環(huán)境等各種問題進(jìn)行了非常嚴(yán)肅的討論。然后在某個時候,馬克決定開放Llama 2的源代碼。這是在2023年夏天完成的。從那時起,它基本上完全推動了整個行業(yè)。

為什么它比這些公司控制的專有模型更安全?因為有更多的人在關(guān)注它,所以有更多的人在為各種事情微調(diào)它。

有一個問題是,可能有很多人懷著惡意使用它。所以在Llama團隊中,曾經(jīng)對所有我們發(fā)布的系統(tǒng)進(jìn)行Red Team測試,確保它們至少在發(fā)布時基本上是安全的。

我們甚至最初將Llama 2給了一群黑客,在Defcon上讓他們嘗試做壞事,比如嘗試入侵系統(tǒng)之類的,這被稱為白帽。結(jié)果是,在過去的將近兩年里,我們還沒有意識到任何真正糟糕的事情發(fā)生在我們分發(fā)的任何模型上。

Q:如果你的愿景是AI成為所有人類知識的寶庫,那么所有的人類知識都必須可用于訓(xùn)練這些模型。而其中大部分要么沒有數(shù)字化,要么數(shù)字化了但沒有公開。

LeCun:比如法國國家圖書館的全部內(nèi)容都數(shù)字化了,但不可用于訓(xùn)練。我并不是在談?wù)摪鏅?quán)作品。我的家族來自布列塔尼,法國西部。那里的傳統(tǒng)語言已經(jīng)瀕臨消失,現(xiàn)在只有大約3萬人每天說這種語言。

如果你想讓未來的LLM說布列塔尼語,就需要有足夠的訓(xùn)練數(shù)據(jù)。你將從哪里得到這些數(shù)據(jù)?你會得到文化非營利組織的幫助,他們收集他們擁有的所有東西。也許政府會幫助他們。但他們可能會說,我想讓你們的系統(tǒng)說布列塔尼語,但我不想就這么把我的數(shù)據(jù)給你。

我認(rèn)為最好的方法是訓(xùn)練一個AI系統(tǒng),一個分布式的全球AI系統(tǒng)倉庫,使用各地的數(shù)據(jù)為全球系統(tǒng)做出貢獻(xiàn)。你不需要復(fù)制數(shù)據(jù)。

對于Linux來說,實際上它主要是由那些公司員工支持的,這些公司告訴他們實際上要分發(fā)他們的貢獻(xiàn)。你可以有一個類似的系統(tǒng),每個人都可以為這個全球模型做出貢獻(xiàn),這是每個人的AI。

Linux你是不用付費的,但如果你買了一個運行Linux的小部件,比如安卓手機或者車?yán)锏挠|摸屏,你為購買的小部件付費。AI也是如此,基礎(chǔ)模型將會是開源且免費的。

現(xiàn)在,它確實感覺像是少量的力量在操控著一切。這個愿景很美好,但目前并沒有很好地實現(xiàn)。不過,在我看來,這是不可避免的。

Q:談到辯論,你喜歡與其他AI教父進(jìn)行公開辯論,比如你的獲獎同行Jeffrey Hinton和Yoshua Bengio。他們都對AI的潛在危險發(fā)出了警告。

LeCun:我不認(rèn)為需要對研發(fā)進(jìn)行監(jiān)管。我在加州法案SB 1047上與他們產(chǎn)生了分歧。Hinton和Bengio都支持這個法案,而我則反對。我認(rèn)為監(jiān)管研發(fā)會給AI系統(tǒng)帶來災(zāi)難性的后果。我說,存在風(fēng)險是一種幻覺,是一小撮偏執(zhí)的智庫所推動的。

但Hinton和Bengio并不偏執(zhí)。Hinton剛剛因為他的工作獲得了諾貝爾獎。另外,加州州長否決了這個法案,但他正在與斯坦福大學(xué)的教授合作對其進(jìn)行修訂。

我之所以稱其為胡說八道,是因為我認(rèn)為這些危險已經(jīng)被夸大了,以至于變得扭曲。一些人說AI會在五個月內(nèi)殺死我們所有人,這顯然是錯誤的。

Q:讓我們來談?wù)凙GI(通用人工智能),以及我們距離它還有多遠(yuǎn)。當(dāng)人們聽到這個時,他們會想到《終結(jié)者》或《我,機器人》之類的情節(jié)。

LeCun:Hinton和Bengio認(rèn)為AGI的時間表可能是五年,而我認(rèn)為可能需要十年甚至更長。

我不知道會是什么時候,但我個人認(rèn)為最早可能在五到六年后,但可能更接近十年。因為這比我們想象的要難得多,歷史上人們總是低估AI的發(fā)展難度。

我們現(xiàn)在還沒有達(dá)到人類水平的智能,甚至不知道如何用AI系統(tǒng)做很多事情,比如制造家用機器人或五級自動駕駛汽車。在我們找到新的方法之前,我們甚至還沒有走上實現(xiàn)人類水平智能的道路。

一旦我們有了一個藍(lán)圖和一些可信的演示,證明我們可能有一條通往人類水平智能的道路,我們就會知道如何使其安全。這就像在20世紀(jì)20年代,有人告訴你幾十年后我們將能夠以接近音速的速度飛行數(shù)百萬英里橫跨大西洋,你會說:“天哪,你怎么知道這安全?”但渦輪噴氣機最終被證明是非?煽康。

所以,讓AI安全意味著以安全的方式設(shè)計AI系統(tǒng)。但在我們設(shè)計出來之前,我們無法使其安全。

Q:你似乎不擔(dān)心AI會想要統(tǒng)治人類。你說當(dāng)前的AI比家貓還笨。無論AI是否真的想要統(tǒng)治我們,我們是否應(yīng)該對AI和AI研發(fā)施加一些限制?

LeCun:我認(rèn)為,對于研發(fā)來說,不需要任何限制。但如果你想推出一個家用機器人,你可能會希望硬編碼一些規(guī)則,在系統(tǒng)構(gòu)建時嵌入遵循法律,比如當(dāng)有人在場時,機器人不能拿著刀亂揮。

當(dāng)前AI系統(tǒng)的設(shè)計在某種程度上是固有不安全的。你需要訓(xùn)練它們按照你的意愿行事。我提出了一種稱為目標(biāo)驅(qū)動的另一種架構(gòu),AI系統(tǒng)基本上只是為了實現(xiàn)一個目標(biāo)而存在,不能做任何其他事情,只能在這個目標(biāo)的約束下行動。

Q:現(xiàn)在很多人,包括Hinton和Benjo在內(nèi),都支持一封由OpenAI現(xiàn)任和前任員工簽名的信,呼吁AI公司的員工有權(quán)警告技術(shù)的嚴(yán)重風(fēng)險,你沒有支持那封信。你是怎么看待模型安全這個問題的呢?

LeCun:我不是這個意思。比如像禁止在公共場所使用大規(guī)模人臉識別這樣的措施是件好事 。

還有一些措施,比如未經(jīng)允許就改變某人在視頻中的面部,這基本上已經(jīng)是合法的,我們擁有這些工具并不意味著它們就不違法?赡苄枰槍@些行為制定定特定的規(guī)則,但我對此沒有意見。

我對AI本質(zhì)上危險以及需要監(jiān)管研發(fā)的觀點有異議,我認(rèn)為這是適得其反的。在未來,我們將擁有那些我認(rèn)為對未來民主至關(guān)重要的開源平臺,那些規(guī)則將會適得其反,它們會讓開源變得太冒險,以至于任何公司都不敢分發(fā),這樣這些私人公司將控制一切。

如果一切都來自美國西海岸的三家公司,我們都說著同樣的語言,有著同樣的文化,這完全不可接受。

他們想要的是開放的平臺,然后可以針對任何文化、價值體系或興趣中心進(jìn)行微調(diào),這樣全世界的用戶都有選擇,他們不必使用三個助手,他們可以使用其他的。

我們在印度與幾個組織合作,下一個版本的Llama能夠說印度所有的22或29種官方語言,這甚至還不足以涵蓋印度的所有語言,因為印度有700種語言,其中大部分是口語,沒有書面語。現(xiàn)在我們有技術(shù)可以讓聊天機器人實際上處理純粹的口語,這是令人驚嘆的。

我們在越南也做了類似的努力,我們看到全世界的人們都在調(diào)整這些模型,并將其用于各種用途。我認(rèn)為我們需要一種更自覺的全球合作伙伴關(guān)系,這些系統(tǒng)從一開始就作為基礎(chǔ)模型,能夠說世界上所有的語言并理解所有的文化,這樣的話,這些努力就會更容易成功,我們可以為各種應(yīng)用構(gòu)建專門的系統(tǒng)。

參考鏈接:[1]https://www.youtube.com/watch?v=UmxlgLEscBs

贊助本站

相關(guān)熱詞: lecun agi 智能眼鏡 機器人 語言模型

相關(guān)內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機會 | 展會港