IT之家 11 月 18 日消息,近期有傳言稱包括 OpenAI、谷歌和 Anthropic 在內(nèi)的頂級 AI 實驗室在開發(fā)先進的 AI 模型方面遇到了困難。這些報道將原因歸咎于缺乏高質(zhì)量的訓(xùn)練數(shù)據(jù),導(dǎo)致收益遞減,進而使得繼續(xù)投資變得困難。
對此,OpenAI CEO Sam Altman 和 Anthropic CEO Dario Amodei 均表達了不同意見。Altman 在社交媒體上發(fā)布了一條神秘的信息,暗示“不存在極限”,似乎是對這些負(fù)面報道的回應(yīng)。Amodei 也持類似觀點,雖然他承認(rèn)許多因素可能阻礙 AI 的發(fā)展,但他樂觀地認(rèn)為總有方法可以克服這些障礙,包括使用合成數(shù)據(jù)。
IT之家注意到,前谷歌 CEO 埃里克·施密特(Eric Schmidt)也對這些報道發(fā)表了自己的看法。他認(rèn)為,未來五年內(nèi),大型語言模型還將經(jīng)歷兩到三次的迭代。這些模型的性能正在以史無前例的速度增長,目前還沒有證據(jù)表明這種增長趨勢即將停止。雖然最終會遇到瓶頸,但現(xiàn)在還沒到那一步。
Schmidt 預(yù)測,未來將出現(xiàn)更加先進和強大的 AI 模型,尤其是在物理學(xué)和數(shù)學(xué)領(lǐng)域。他以 OpenAI 最近發(fā)布的 Strawberry AI 模型 OpenAI-o1 為例進行了說明。然而,Schmidt 也警告稱,隨著模型變得越來越先進,潛在的危險也會隨之增加。他指出,這些原始模型可能比人類更擅長發(fā)起“零日攻擊”。此外,生物病毒和新型戰(zhàn)爭也可能成為 AI 發(fā)展帶來的潛在威脅。