中新經(jīng)緯11月22日電 題:企業(yè)需承擔保障人工智能安全的主體責任
作者 陳兵 南開大學競爭法研究中心主任、法學院副院長
陳兵(圖片由本人提供)
在2024年世界互聯(lián)網(wǎng)大會烏鎮(zhèn)峰會上,“安全”成為備受矚目的話題之一。人工智能技術飛速進步,其在自動駕駛、醫(yī)療、金融等關鍵領域的應用日益廣泛,同時也帶來了前所未有的安全挑戰(zhàn)。
在自動駕駛領域,車輛與外部環(huán)境的復雜交互以及對實時數(shù)據(jù)處理的高度依賴,使得傳感器故障、通信中斷、惡意軟件入侵等風險更加突出。醫(yī)療領域中,人工智能模型訓練數(shù)據(jù)的準確性和完整性至關重要,一旦數(shù)據(jù)出現(xiàn)問題,可能導致嚴重的醫(yī)療事故。金融領域則面臨著智能算法的黑箱特性帶來的潛在風險,以及網(wǎng)絡詐騙手段的不斷升級。這些挑戰(zhàn)與傳統(tǒng)信息技術安全問題相比,更加復雜且影響深遠。
為應對人工智能技術的快速發(fā)展所帶來的多方面安全挑戰(zhàn),可以利用人工智能自身技術特性增強安全性。例如,采用量子加密等先進技術提高加密強度,利用人工智能算法進行智能檢測以快速發(fā)現(xiàn)并修復系統(tǒng)漏洞,以及研究對抗生成網(wǎng)絡等技術提高系統(tǒng)對惡意攻擊的抵御能力。
企業(yè)在開發(fā)和應用人工智能產品與服務時,應承擔起保障數(shù)據(jù)安全、確保算法公平公正、進行充分的安全測試等安全責任。為建立有效的內部安全管理體系,企業(yè)應從完善安全制度、加強員工安全培訓、設立安全監(jiān)督崗位等方面入手,并定期進行安全評估和風險預警。
中國人民大學校長林尚立在會上表示,應構建人工智能安全治理的政策法規(guī)和制度體系,持續(xù)夯實網(wǎng)絡法治基礎,規(guī)范人工智能在法律、倫理和人道主義層面的價值取向,確保人工智能安全、可靠、可控。盡管人工智能發(fā)展已經(jīng)取得了一定成果,但在技術支撐體系、管理策略實施及監(jiān)測評估機制上仍需強化。數(shù)據(jù)隱私保護和機器責任問題是當前亟待解決的難題,需要建立更強有力且適當?shù)谋O(jiān)管框架,并明確相關的法律體系。(中新經(jīng)緯APP)
中新經(jīng)緯版權所有,未經(jīng)授權,不得轉載或以其他方式使用。
責任編輯:孫慶陽