展會信息港展會大全

趙何娟:中國AI追隨之路的五大誤區(qū),我們至少落后十年|鈦媒體AGI
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-05-11 15:47:51   瀏覽:9951次  

導讀:近日,由長江商學院主辦、汕頭大學協(xié)辦的2024長江獨角獸峰會上,鈦媒體集團創(chuàng)始人、董事長、CEO 長江商學院EMBA項目校友 趙何娟發(fā)表主題中國AI追隨之路的五大誤區(qū)的演講。 以下是鈦媒體AGI編輯整理的演講主要內(nèi)容: 各位校友,大家好,我今天演講的題目是中...

趙何娟:中國AI追隨之路的五大誤區(qū),我們至少落后十年|鈦媒體AGI

近日,由長江商學院主辦、汕頭大學協(xié)辦的“2024長江獨角獸峰會”上,鈦媒體集團創(chuàng)始人、董事長、CEO 長江商學院EMBA項目校友 趙何娟發(fā)表主題“中國AI追隨之路的五大誤區(qū)”的演講。

以下是鈦媒體AGI編輯整理的演講主要內(nèi)容:

各位校友,大家好,我今天演講的題目是“中國AI追隨之路的五大誤區(qū)”。

從鈦媒體角度來說,在 AI 領(lǐng)域我有兩個角色,既是AI領(lǐng)域里面的研究者報道者,也是AIGC在內(nèi)容產(chǎn)業(yè)變革中的實際應(yīng)用參與者。

從AI 1.0的時代,鈦媒體就緊密地關(guān)注 AI 領(lǐng)域的發(fā)展,而在 AI 1.0時代,無論是中國上市公司還是應(yīng)用角度來看,與美國相比,我們好像已經(jīng)有趕超的趨勢。但是到了 AI 2.0時代,也就是AIGC(生成式人工智能)時代下,我們突然發(fā)現(xiàn),為什么中國一夜之間好像就變得落后了。

下午我都很認真的聽了每一位嘉賓的分享,其中有嘉賓問到說,為什么好現(xiàn)在GPT火了之后中國大模型很快就趕上來了,說明跟美國相比,中國的實力、能力建設(shè)就可能差了一點點。

但其實我現(xiàn)在想“潑點冷水”,我覺得短期來說我們可能有點太樂觀了。不僅對中國市場過于樂觀,而且可能對全球 AI 應(yīng)用爆發(fā)的速度也可能過于樂觀了。我認為,短期內(nèi)沒有大家想象那么快,長期又可能過于“忽視”,總想著是不是馬上能賺錢。

我們報道10多年,一直跟蹤這個領(lǐng)域,其實中國有很多 AI 領(lǐng)域的創(chuàng)業(yè)。但我們現(xiàn)在已經(jīng)處于一個相對落后的狀態(tài),我們可能要更多地面對現(xiàn)實,怎么走出“偽AI創(chuàng)業(yè)區(qū)”。

接下來我再詳細講一下。

AI 領(lǐng)域今年最受關(guān)注的兩件事:AlphaFold 3剛剛發(fā)布、GPT-5即將發(fā)布。

首先就是昨晚(8日)鈦媒體最早、最全面報道的Google DeepMind團隊發(fā)布的AlphaFold 3模型。

2022年,AlphaFold 2增強版發(fā)布,兩年之后的今天,它升級到AlphaFold 3模型生物學領(lǐng)域關(guān)于蛋白和生命結(jié)構(gòu)預(yù)測的模型。這個過程中的最根本的一個變化,就是把底層計算方式、模型算法變了。

AlphaFold 3使用了基于Transformer生成式模型和擴散模型的結(jié)合,對于蛋白質(zhì)與其他分子的相互作用,與現(xiàn)有預(yù)測方法相比,AlphaFold 3預(yù)測精度提高100%。

之前的AlphaFold 2預(yù)測精度已經(jīng)較之前至少翻了一倍,如今再翻了一倍。這個過程中相關(guān)科學家有過對比,這可能為生物研究界帶來了數(shù)億年的進步,節(jié)省數(shù)萬億美元。

也就是說如果不用這次AI大模型,我們靠研究人員自己去研究,可能要花數(shù)億年、花掉數(shù)萬億美元才能達到現(xiàn)在的計算效能。所以,這就是真正AIGC的力量。

但中國在此方面的研究成果幾乎是“空白”的。今天我們還發(fā)了顏寧教授的演講,前兩年她還說 AI 不可能準確預(yù)測蛋白相關(guān)結(jié)構(gòu),如今的發(fā)布可以說被“打臉”了。

第二個就是GPT-5即將發(fā)布。

我認為,這件事情帶來的震撼力不會低于AlphaFold 3的顛覆性技術(shù)影響。因為GPT-4的發(fā)布就是比GPT-3更加震撼。

為什么中國能快速發(fā)展很多模型,我覺得這個最重要的是感謝開源,因為GPT-3之前OpenAI是開源的,包括谷歌Transformer論文也是開源的,GPT3之后才改成閉源了。

這意味著,從GPT-3到GPT-4本質(zhì)上已經(jīng)是一個巨大飛躍了。而即將發(fā)布的GPT-5,將再次實現(xiàn)比GPT-4質(zhì)的飛躍,解決諸多局限性。

我去年9月見了OpenAI創(chuàng)始人、CEO奧爾特曼(Sam Altman),他說過去一段時間OpenAI一直都在問GPT-5做準備。但如果GPT-5性能只是一個簡單能力提升的話,不會間隔這么長時間。而GPT-5的一個本質(zhì)變化,可能會把相關(guān)的推理模型、相關(guān)數(shù)據(jù)會做一個分離,同時可能會推出他們自己的搜索引擎。

而這些令人震撼的進展,在中國我可以悲觀一點叫“望塵莫及”,樂觀一點就是但凡它推出來,我們就有能力改善和追趕。

我接下來要重點談,為什么現(xiàn)在我們說,中國作為 AI 領(lǐng)域追隨者,要有追隨者的自覺,那就是不要過于抬高自己,主要好好學習。明確我們現(xiàn)在面臨的一個事實,所以我們首先明確幾個誤區(qū),才能夠清楚我們自己到底在什么位置。

第一大誤區(qū):中美AI差距只有1到2年。

我認為很重要的就是,大家每次都談?wù)勚忻?AI 差距大概是只有1~2年,那是不是真的就是1~2年,為什么會是1~2年?因為會有很多人說GPT3發(fā)布就在2020年,那可能在2022年chatGPT出來之后,我們也快速出來了類似于GPT3相關(guān)的模型,GPT4出來之后,我們也很快能出來一個對標GPT4水平的模型,就意味著我們相差的時間可能是12年,真的是這樣嗎?

我會覺得所有用這樣時間來表述差距的都是“耍流氓”,因為那是人家創(chuàng)新蝶變的代際時間,不是我們的差距時間(能力水平)。

如果說GPT-5現(xiàn)在不能出來,我們可能10年都追趕不上。但是GPT-5出來,我們可能也許花2~3年能趕上。而GPT-5模型水平只是人家的創(chuàng)新節(jié)點、迭代時間水平,不是我們自己能力水平,這一點需要非常清楚,這也是我們本質(zhì)上的一個差距。

我們要看到,這真的是創(chuàng)新引領(lǐng)的差距,不是一個我們花兩年趕上一個模型就改變了中美 AI 差距了。

第二個誤區(qū):中國是全球最大的AI專利和人才市常

我們常常會說,尤其是在AI 1.0的時代,中國投資人和創(chuàng)業(yè)者到美國硅谷做相關(guān)演講說,中國 AI 已經(jīng)領(lǐng)先于美國了。背后經(jīng)常會提到的一個指標是,中國是全球最大的AI的專利和人才市常

這個專利市場包括我們中國發(fā)布AI相關(guān)論文和申請AI專利的數(shù)量,可以說全球數(shù)一數(shù)二的,然后以及從事AI相關(guān)人才的數(shù)量,我們可以說全球數(shù)一數(shù)二。

但事實是什么樣的呢?

趙何娟:中國AI追隨之路的五大誤區(qū),我們至少落后十年|鈦媒體AGI

我們可以看這張圖,里面可以看到,新一代全球數(shù)字科技領(lǐng)域,大多數(shù)都是以 AI 相關(guān)論文的,中國排名確實是很高的。但是到相關(guān)頂尖論文的數(shù)量,或者說被引用論文次數(shù)的數(shù)量,我們一下就落下來了。

也就是說,事實情況是,雖然我們的論文數(shù)量是全球領(lǐng)先的,但是作為世界公認標準Top one的頂尖論文數(shù)量,中國不僅低于美國,我們也低于德國、加拿大、英國等。

與此同時,我們可以看到我們相關(guān)工程師人才。

中國確實在大學當中培養(yǎng)大量工程師、計算機領(lǐng)域人才,包括很多硅谷的大企業(yè)都到清華北大,到中國招聘計算機專業(yè)人才。

但是我們可以看到,即便是在2022年頂尖研究人員里面,雖然中國也是排在第二名左右,但是一上到頂級 AI 研究人員數(shù)量,只有美國的1/5左右。。如今,2024年可能比兩年前更糟糕了。

所以這不是我們想的那樣,中國是全球 AI 人才大國。

第三個誤區(qū):中國AI的主要障礙是在算力上“卡了脖子”。

中國 AI 的主要障礙在于“算力卡脖子”。我們認為算力卡了脖子,所以我們只要以各種手段能夠買到相關(guān)的芯片,那是不是就已經(jīng)達到相關(guān)水平了?

但是我想給大家潑一杯冷水的是,在這一輪AI 2.0的這一輪發(fā)展里面,不僅算力很重要,模型創(chuàng)新能力也很重要,數(shù)據(jù)能力也很重要。因此,現(xiàn)在的事實是,我們不僅是“算力”是瓶頸,我們的底層模型的創(chuàng)新能力、數(shù)據(jù)能力都是“瓶頸”。

我先說數(shù)據(jù)能力,很多人覺得中國是一個很大的應(yīng)用市場,中國的消費者數(shù)據(jù),企業(yè)行為數(shù)據(jù)等等各分析的數(shù)據(jù)一定是很豐富的,所以大家覺得中國是有充分的數(shù)據(jù),但是我要非常殘忍的告訴大家,很多數(shù)據(jù)都是無用數(shù)據(jù),或者是不可用數(shù)據(jù)。

我在今年年初的時候跟美國氣象的一個華裔科學家,同時也是中國氣象所的顧問,在講到氣象數(shù)據(jù)的時候,我說我們也有相關(guān)的公司推動了相關(guān)氣象計算預(yù)測的模型。那個科學家就非常直白的說了一句,我們所有的氣象數(shù)據(jù)幾乎都是沒用的,因為我們?nèi)狈v史氣象數(shù)據(jù)的整理,缺乏氣象數(shù)據(jù)的歸納,缺乏氣象數(shù)據(jù)相關(guān)的整合,變成可計算的數(shù)據(jù)。

目前對于中國而言,“都缺”。美國 AI 生態(tài)里面最重要的一個就是關(guān)于數(shù)據(jù)市場的建設(shè)。但在中國,理論上說是沒有數(shù)據(jù)市場的。這個就是生態(tài)建設(shè)能力里很重要的,就是關(guān)于數(shù)據(jù)市場的建設(shè)。那你數(shù)據(jù)市場不成熟,你能算什么?

中國的模型公司,可以說在中文的計算能力上相對來說是領(lǐng)先的,但是整個中國的數(shù)據(jù)市場占全球的數(shù)據(jù)市場不到1%,以及再看所有的數(shù)據(jù)有效性的時候可以看到,世界主流所有相關(guān)的論文數(shù)據(jù)、研究數(shù)據(jù),包括用戶的應(yīng)用數(shù)據(jù),視頻也好,還是文字也好,相關(guān)的應(yīng)用數(shù)據(jù),絕大部分依然是英文的數(shù)據(jù)。

所以如果我們不能很好的用英文的數(shù)據(jù)計算,我們?nèi)绾文苄纬晌覀冏约河凶銐蚋偁幜Φ拇竽P停@個是很難的。這就是為什么我說我們不要以為美國只是卡了我們的算力脖子,好像只在半導體上發(fā)力就行了,實際上是整個生態(tài)能力建設(shè),從算力到底層模型的創(chuàng)新,到數(shù)據(jù)能力和數(shù)據(jù)市場的生態(tài)的建設(shè),我們整體都是落后的。如果非要用時間來說的話,真要把能力建設(shè)起來的話,沒有十年的時間是很難把它很好的建設(shè)起來的。

第四大誤區(qū):閉源大模型 VS 開源大模型 誰更好?

前段時間可以看到有一些企業(yè)家和網(wǎng)紅一直在爭論說閉源大模型好,還是開源大模型好,我覺得這更好這事情根本不重要,只有誰更合適。

其實不管是開源還是閉源都有各自的優(yōu)劣,就像手機的iOS是閉源,安卓是開源一樣的,它是有各自的優(yōu)劣。可能目前在性能上來說,尤其是大語言模型,因為現(xiàn)在大語言模型動輒就要算千億級數(shù)據(jù)都算小的,動輒都是萬億的數(shù)據(jù),像OpenAI都是數(shù)萬億級的數(shù)據(jù)了,這種時候閉源的性能是明顯高于開源的。

趙何娟:中國AI追隨之路的五大誤區(qū),我們至少落后十年|鈦媒體AGI

對于很多的應(yīng)用來說,或者對于我們的場景,我們其實是沒有必要每一個模型都算到萬億級那么大的,那么在一定程度上里說,開源模型并非不可以。

作為OpenAI這種領(lǐng)頭羊來說,它的目標是要實現(xiàn)AGI,就是要實現(xiàn)通用人工這件事情來說,閉源可能會讓它有更快,更容易集中更多的資源、資金,更快的實現(xiàn)AGI這個目標。

但是對于要來做全社會普及有更多的應(yīng)用和更多的迭代的速度來說的話,可能開源大模型也是非常必不可少的。所以我們應(yīng)該跳出是開源大模型更好,還是閉源大模型更好這樣的爭論來看,不管是哪一個更好,最重要的都是我們是否有自己的創(chuàng)新能力,是否有自己的原創(chuàng)性能力,而不是低水平的山寨。

我們在說百模大戰(zhàn),千模也好,假如說我們的模型都有各自的創(chuàng)新點,都在各自的領(lǐng)域里能夠發(fā)揮出相關(guān)創(chuàng)新的作用,那么一個也不多。

假如說百模大戰(zhàn)也好,千模大戰(zhàn)也好,不能有任何的創(chuàng)新點,只是在低水平的山寨和復制、內(nèi)卷,那么確實一個也不需要。所以我覺得這個才是真正的問題,就是自己能不能在模型的創(chuàng)新能力上真正的走到世界舞臺上,這是要好好的想的事情。

第五個誤區(qū):AI 在各大垂直產(chǎn)業(yè)的爆發(fā),會很快發(fā)生。

在中國我聽到最多的都是說,我們馬上要進垂直產(chǎn)業(yè)的爆發(fā),今年都是大模型應(yīng)用爆發(fā)的元年。我今年年初就跟一些朋友說,今年不可能是AI垂直產(chǎn)業(yè)爆發(fā)的元年,可以說是應(yīng)用的開始,但不能說爆發(fā)的元年,不可能馬上爆發(fā),因為所有的事情都是有基本規(guī)律的,一個產(chǎn)業(yè)、行業(yè)的發(fā)展都是有規(guī)律的。

而核心的原因就是因為,我們整個基礎(chǔ)設(shè)施能力還沒有達到產(chǎn)業(yè)廣泛應(yīng)用的標準。

比如說現(xiàn)在的SORA也好,還是什么應(yīng)用也好,我們已經(jīng)達到了50%的水平,那我是不是可以有50%的應(yīng)用呢?不是的。如果說產(chǎn)業(yè)應(yīng)用必須要到90%的水平,你只有50%的水平,哪怕只有89%的水平,你都不可能在這個產(chǎn)業(yè)里快速的得到爆發(fā)級的應(yīng)用。

大家不要認為只有中國算力被“卡脖子”,而是全世界的算力都被“卡脖子”,美國企業(yè)也一樣被算力“卡脖子”。這就是為什么,OpenAI在推進GPT-5、GPT-6的過程中速度依然還是很慢的,更深層次是 AI 大模型就是一個“暴力美學”以足夠大的數(shù)據(jù)、算力、能源為前提,否則一定會被“卡脖子”的,它一定是只能一點點來推進的。

有很多企業(yè)可能會指望說,中國公司認為在技術(shù)創(chuàng)新能力上不如美國,但中國市場規(guī)模要比美國大、中國的應(yīng)用能力要比美國更強,那么我是不是集中于創(chuàng)業(yè)做應(yīng)用,從而能快速獲得成功或者成果?

但我認為,這件事長期來看是這樣的,但短期來看是沒有機會的。

OpenAI CEO奧爾特曼(Sam Altman)也說,95%創(chuàng)業(yè)公司依附在大模型上開發(fā),但是大模型每次大規(guī)模迭代都會取代一批創(chuàng)業(yè)公司。

AI 也不會違背一般商業(yè)定律,所以當基礎(chǔ)能力積累到一定程度前,即便用了AI也不見得會取代原有產(chǎn)品。

這也是我今年跟Pika創(chuàng)始人在聊的時候,她最大的危機感。我問她你覺得Pika最大競爭對手是runway嗎,她卻說最大的危機感是來自O(shè)penAI,因為OpenAI 一定是要做多模態(tài)的技術(shù)。所以我認為,當基礎(chǔ)能力積累到一定程度之前,即便做了 AI 應(yīng)用,也不會取代之前應(yīng)用。

因為基礎(chǔ)建設(shè)能力還沒有達到為這個行業(yè)產(chǎn)生質(zhì)變的時候,它就不可能變成一個“爆發(fā)”型新的 AI 時代。

很多人說,中國移動互聯(lián)網(wǎng)應(yīng)用就在全球領(lǐng)先,但我們現(xiàn)在所處的歷史時間點位置不是對應(yīng)互聯(lián)網(wǎng)時代,移動互聯(lián)網(wǎng)應(yīng)用的爆發(fā)階段,即AI當下發(fā)展階段,不是后互聯(lián)網(wǎng)發(fā)展階段,而是相當于早期思科的階段。

現(xiàn)在的英偉達就像當年的思科,當年思科在美國市場上一騎絕塵,一年能漲60倍股價的時候,那個時候有什么互聯(lián)網(wǎng)公司是值得一提的嗎?那時候很多現(xiàn)在的互聯(lián)網(wǎng)公司可能都還沒有出現(xiàn)。后來也是基礎(chǔ)設(shè)施能力的提升,通信技術(shù)從2G到4G的發(fā)展,網(wǎng)絡(luò)技術(shù)的提升、移動互聯(lián)網(wǎng)、長視頻短視頻的應(yīng)用逐漸出來。

現(xiàn)在的 AI 應(yīng)用,還是在幫助我們怎么提高產(chǎn)業(yè)效率,但想要徹底改變這個行業(yè)來說還需要時間、需要耐心。

這就是為什么我們說,目前還是弱人工智能,中國的大市場優(yōu)勢暫時無法發(fā)揮。短期內(nèi),還是內(nèi)容生成相關(guān)輔助工具為主,比如搜索、問答、文生圖、文生音視頻等。

那么,接下來,我們要如何應(yīng)對這些?

我覺得我們可能真的要形成一定的社會共識,怎么在一個全球環(huán)境和 AI 發(fā)展過程中來做我們應(yīng)該做的事。

第一個,加大基礎(chǔ)創(chuàng)新長期能力建設(shè)。

這種生態(tài)能力建設(shè)非常重要,甚至要從教育開始抓起,比如建立 AI 教育、高校教育體系評估標準、相應(yīng)的學術(shù)開放和交流的體系等,需要圍繞著AI本身的創(chuàng)新技術(shù)能力去重新匹配。同時,我們也要提高大模型研發(fā)創(chuàng)新的基礎(chǔ)能力,沒有這個基礎(chǔ),其他的都是“無源之水”。

第二個,是耐心面對各產(chǎn)業(yè)應(yīng)用場景的AI爆發(fā)周期,每個被AI改變的產(chǎn)業(yè)都面臨要從基礎(chǔ)底層技術(shù)改變開始的新周期,不會“一蹴而就”或者“一夜爆發(fā)”。

我認為每個可能被AI改變的產(chǎn)業(yè),也都要面臨從底層基礎(chǔ)設(shè)施改變,并開啟一個產(chǎn)業(yè)的新周期,比如我們媒體行業(yè)其實也要從底層周期開始變化,而不是說我馬上就在應(yīng)用層徹底變了,不是這樣的。包括相關(guān)的機器人行業(yè)、制造業(yè)、生物制藥行業(yè)等等都會發(fā)生顛覆性影響,但從這一點來說,我們的基礎(chǔ)科研能不能跟得上,這就變得非常重要了。

每一個產(chǎn)業(yè)都有自己的底層能力、從零開始的地基建設(shè),這個才是我們真正的產(chǎn)業(yè)周期。

第三個,是用更開放態(tài)度,迎接全球AI建設(shè)的競爭與挑戰(zhàn),不能自己卡自己脖子。

很多人都說,美國人卡我們的脖子,但現(xiàn)在我希望,我們自己不要卡自己的脖子。這也是為什么我說,我們不要低水平的山寨競爭,甚至我們可能也希望在 AI 治理、AI 規(guī)范,甚至AI倫理建設(shè)上面緩一緩,而是應(yīng)該在 AI 創(chuàng)新層面更加激進一些,要用更開放的態(tài)度去做這件事。

我希望,我們 AI 領(lǐng)域的研究,不要走新能源汽車的“老路”,可能10年前我們新能源汽車還是有創(chuàng)新的,比如在智能體驗、動力電池技術(shù)等領(lǐng)域還有很多創(chuàng)新。但是到今天,包括小米的進場,我們卻都是在低水平、重復性“內(nèi)卷”,這就意味著我們很難向前發(fā)展。

所以,我希望我們的基礎(chǔ)研究能力、創(chuàng)新能力能夠走得更快,能夠更耐心一點。

贊助本站

相關(guān)內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港