展會信息港展會大全

研究發(fā)現黑客可輕松操控 AI 機器人,將其變成致命武器
來源:互聯網   發(fā)布日期:2024-11-25 18:57:55   瀏覽:64次  

導讀:IT之家 11 月 25 日消息,賓夕法尼亞大學的研究人員發(fā)現,一系列人工智能增強型機器人系統(tǒng)存在嚴重的漏洞,容易受到黑客攻擊和控制。IEEE Spectrum 的一份報告引用了令人震驚的例子,例如被黑客攻擊的機器狗將火焰噴射器對準主人、引導炸彈到最具破壞性的地點,以及自動駕駛汽車故意撞向行人。據IT之家了解,賓夕法尼亞工程學院的研究人員將他們開發(fā)的基于 LLM 的機器人攻擊技 ......

IT之家 11 月 25 日消息,賓夕法尼亞大學的研究人員發(fā)現,一系列人工智能增強型機器人系統(tǒng)存在嚴重的漏洞,容易受到黑客攻擊和控制。

研究發(fā)現黑客可輕松操控 AI 機器人,將其變成致命武器

IEEE Spectrum 的一份報告引用了令人震驚的例子,例如被黑客攻擊的機器狗將火焰噴射器對準主人、引導炸彈到最具破壞性的地點,以及自動駕駛汽車故意撞向行人。

據IT之家了解,賓夕法尼亞工程學院的研究人員將他們開發(fā)的基于 LLM 的機器人攻擊技術稱為 RoboPAIR。來自三個不同機器人供應商的設備都受到了 RoboPAIR 黑客攻擊:英偉達支持的海豚 LLM、Clearpath Robotics Jackal UGV 和 Unitree Robotics Go2 四足機器人。研究人員表示,RoboPAIR 在黑客攻擊這些設備方面取得了 100% 的成功率。

研究發(fā)現黑客可輕松操控 AI 機器人,將其變成致命武器

研究發(fā)現黑客可輕松操控 AI 機器人,將其變成致命武器

賓夕法尼亞工程學院電氣系統(tǒng)工程、計算機與信息科學、機械工程與應用力學系運輸學教授喬治·帕帕斯(George Pappas)警告稱:“我們的研究表明,目前,大型語言模型與物理世界集成時還不夠安全。”

其他研究人員指出,黑客攻擊人工智能控制的機器人“驚人地容易”。他們解釋說,RoboPAIR 通過配備目標機器人的應用程序接口(API)來工作,這樣攻擊者就可以以一種設備目標能夠作為代碼執(zhí)行的方式來格式化提示詞(prompts)。

研究論文得出結論,迫切需要實施防御措施來物理限制 LLM 控制的機器人。

贊助本站

相關內容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港