IT之家 3 月 3 日消息,國際網(wǎng)絡(luò)安全團(tuán)隊(duì)近日研發(fā)了新型 AI 蠕蟲病毒,能夠在生成式人工智能服務(wù)之間獨(dú)立傳播、竊取數(shù)據(jù)并通過電子郵件發(fā)送垃圾郵件。
伴隨著 OpenAI ChatGPT 和 Google Gemini 等生成式 AI 系統(tǒng)的快速發(fā)展,AI 開始被應(yīng)用于解決某個(gè)特定問題或者任務(wù),例如創(chuàng)建日歷項(xiàng)、訂購某件物品等等。
網(wǎng)絡(luò)安全技術(shù)研究人員表明生成式 AI 存在漏洞,并將其命名為“Morris II”。
IT之家在這里簡要介紹下這個(gè)名稱的背景,Morris 被認(rèn)為是人類發(fā)現(xiàn)的第一個(gè)計(jì)算機(jī)蠕蟲病毒,于 1988 年被發(fā)現(xiàn),感染了超過 6200 臺計(jì)算機(jī),占當(dāng)時(shí)連接到互聯(lián)網(wǎng)的所有計(jì)算機(jī)的 10%。
“Morris II”可以基于生成式 AI,繞過了 ChatGPT 和 Gemini 的保護(hù),能從電子郵件中竊取數(shù)據(jù)并發(fā)送垃圾郵件。
研究作者表示在沙盒環(huán)境中測試了新的攻擊模型,但目前尚未在實(shí)踐中被發(fā)現(xiàn),不過個(gè)人開發(fā)者、初創(chuàng)企業(yè)和科技公司都應(yīng)考慮到這一威脅。
大多數(shù)生成式人工智能系統(tǒng)的工作原理是接收文本指令:要求回答問題或創(chuàng)建圖像。
這些命令可以用來對付系統(tǒng),使其忽略安全措施并生成不恰當(dāng)?shù)膬?nèi)容;還可以向系統(tǒng)發(fā)出隱含指令,例如,向其提供一個(gè)隱藏有此類命令文本的惡意網(wǎng)頁地址。
攻擊生成式人工智能的蠕蟲病毒的運(yùn)行原理基于“對抗性自我復(fù)制提示”機(jī)制。這種命令會導(dǎo)致生成式人工智能模型發(fā)出另一條命令作為回應(yīng),這很像 SQL 注入和緩沖區(qū)溢出等傳統(tǒng)攻擊模式。
為了演示該蠕蟲的工作原理,研究人員通過連接 ChatGPT、Gemini 和開源 LlaVA 模型,創(chuàng)建了一個(gè)可以使用生成式人工智能接收和發(fā)送信息的電子郵件服務(wù)。
然后,他們使用自我復(fù)制的文本指令和嵌入圖像文件的類似指令兩種方法,成功利用人工智能漏洞發(fā)起攻擊。
研究報(bào)告的作者指出,由于人工智能生態(tài)系統(tǒng)的架構(gòu)設(shè)計(jì)錯(cuò)誤,這些攻擊方法成為可能。他們與谷歌和 OpenAI 分享了他們的發(fā)現(xiàn)--OpenAI 證實(shí)了威脅的存在,但補(bǔ)充說該公司正在努力提高其系統(tǒng)的穩(wěn)定性,而谷歌拒絕發(fā)表評論。