展會信息港展會大全

Meta 推出 Apollo 開源模型,讓 AI “看懂”視頻
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-12-20 20:42:03   瀏覽:184次  

導(dǎo)讀:IT之家 12 月 18 日消息,Meta 攜手斯坦福大學(xué),推出全新 AI 模型系列 Apollo,顯著提升機(jī)器對視頻的理解能力。IT之家注:盡管人工智能在處理圖像和文本方面取得了巨大進(jìn)步,但讓機(jī)器真正理解視頻仍然是一個重大挑戰(zhàn)。視頻包含復(fù)雜的動態(tài)信息,人工智能更難處理這些信息,不僅需要更多的計算能力,而且如何設(shè)計最佳 AI 視頻解讀系統(tǒng),也存在諸多困難。在視頻處理方面,研究人員 ......

IT之家 12 月 18 日消息,Meta 攜手斯坦福大學(xué),推出全新 AI 模型系列 Apollo,顯著提升機(jī)器對視頻的理解能力。

IT之家注:盡管人工智能在處理圖像和文本方面取得了巨大進(jìn)步,但讓機(jī)器真正理解視頻仍然是一個重大挑戰(zhàn)。

視頻包含復(fù)雜的動態(tài)信息,人工智能更難處理這些信息,不僅需要更多的計算能力,而且如何設(shè)計最佳 AI 視頻解讀系統(tǒng),也存在諸多困難。

在視頻處理方面,研究人員發(fā)現(xiàn),保持每秒恒定的幀采樣率能獲得最佳結(jié)果。因此 Apollo 模型使用兩個不同的組件,一個處理單獨(dú)的視頻幀,而另一個跟蹤對象和場景如何隨時間變化。

此外,在處理后的視頻片段之間添加時間戳,有助于模型理解視覺信息與文本描述之間的關(guān)系,保持時間感知。

Meta 推出 Apollo 開源模型,讓 AI “看懂”視頻

在模型訓(xùn)練方面,團(tuán)隊研究表明訓(xùn)練方法比模型大小更重要。Apollo 模型采用分階段訓(xùn)練,按順序激活模型的不同部分,比一次性訓(xùn)練所有部分效果更好。

Meta 推出 Apollo 開源模型,讓 AI “看懂”視頻

此外 Meta 公司還不斷優(yōu)化數(shù)據(jù)組合,發(fā)現(xiàn) 10~14% 的文本數(shù)據(jù),其余部分略微偏向視頻內(nèi)容,可以更好地平衡語言理解和視頻處理能力。

Meta 推出 Apollo 開源模型,讓 AI “看懂”視頻

Apollo 模型在不同規(guī)模上均表現(xiàn)出色,較小的 Apollo-3B 超越了 Qwen2-VL 等同等規(guī)模的模型,而 Apollo-7B 超過更大參數(shù)的同類模型,Meta 已開源 Apollo 的代碼和模型權(quán)重,并在 Hugging Face 平臺提供公開演示。

Meta 推出 Apollo 開源模型,讓 AI “看懂”視頻

參考

贊助本站

相關(guān)熱詞: meta apollo 模型 開源

相關(guān)內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會 | 展會港