展會信息港展會大全

圖靈獎得主約瑟夫·希發(fā)基思:討論AI風(fēng)險時,需區(qū)分是人為因素還是技術(shù)風(fēng)險
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-10-28 08:13:31   瀏覽:1773次  

導(dǎo)讀:劃重點 012007年圖靈獎得主約瑟夫希發(fā)基思表示,談?wù)揂I風(fēng)險時需區(qū)分人為因素和技術(shù)風(fēng)險。 02人為風(fēng)險包括算法需求不完整性、算法設(shè)計缺陷和外部環(huán)境威脅。 03技術(shù)風(fēng)險分為兩種,一種是用戶提出的需求可能不合法或不道德,另一種是用戶將系統(tǒng)用于風(fēng)險中。 04...

劃重點

012007年圖靈獎得主約瑟夫希發(fā)基思表示,談?wù)揂I風(fēng)險時需區(qū)分人為因素和技術(shù)風(fēng)險。

02人為風(fēng)險包括算法需求不完整性、算法設(shè)計缺陷和外部環(huán)境威脅。

03技術(shù)風(fēng)險分為兩種,一種是用戶提出的需求可能不合法或不道德,另一種是用戶將系統(tǒng)用于風(fēng)險中。

04約瑟夫希發(fā)基思認(rèn)為,應(yīng)針對人為風(fēng)險和技術(shù)風(fēng)險分別制定相應(yīng)對策。

05康奈爾大學(xué)計算機科學(xué)和信息科學(xué)講席教授喬恩克萊因伯格指出,人類自身的排外偏見會導(dǎo)致算法與生俱來的偏見,引發(fā)人類社會混亂。

以上內(nèi)容由騰訊混元大模型生成,僅供參考

“現(xiàn)在,當(dāng)我們談?wù)撌褂萌斯ぶ悄軒淼娘L(fēng)險時,我們應(yīng)該區(qū)分哪些風(fēng)險是人類帶來的,哪些風(fēng)險是技術(shù)造成。”10月26日,在2024世界頂尖科學(xué)家智能科學(xué)大會“為人類永續(xù)發(fā)展制定AI治理框架”主題論壇結(jié)束后,Verimag實驗室創(chuàng)始人、2007年圖靈獎得主約瑟夫希發(fā)基思在接受澎湃科技(www.thepaper.cn)采訪時表示。

圖靈獎得主約瑟夫·希發(fā)基思:討論AI風(fēng)險時,需區(qū)分是人為因素還是技術(shù)風(fēng)險

圖靈獎得主約瑟夫希發(fā)基思在2024世界頂尖科學(xué)家智能科學(xué)大會上發(fā)表演講。

約瑟夫希發(fā)基思于1946年出生于希臘,在法國完成碩士、博士學(xué)位,并成為法國格勒諾布爾大學(xué)(Université Grenoble Alpes)VERIMAG實驗室創(chuàng)始人和科研主任,2007年希發(fā)基思因在模型檢查理論和應(yīng)用方面的貢獻(xiàn)獲得了圖靈獎,這是計算機科學(xué)領(lǐng)域的最高榮譽之一。

在此次“為人類永續(xù)發(fā)展制定AI治理框架”主題論壇上,談?wù)撈甬?dāng)前AI發(fā)展帶來的風(fēng)險問題,約瑟夫希發(fā)基思表示,現(xiàn)在,當(dāng)我們談?wù)撌褂萌斯ぶ悄軒淼娘L(fēng)險時,我們應(yīng)該區(qū)分哪些風(fēng)險是人類帶來的,哪些風(fēng)險是技術(shù)造成。對于人工智能來說,非常有可能區(qū)分出哪些風(fēng)險是人類使用技術(shù)造成的,哪些是技術(shù)本身造成的。

約瑟夫希發(fā)基思指出,前者包括算法需求的不完整性、算法設(shè)計的缺陷,以及算法部署時可能面臨的外部環(huán)境威脅。后者分為兩種,比如當(dāng)客戶或投資方對AI系統(tǒng)提出的需求可能不合法或不道德,用戶也可能將系統(tǒng)用于風(fēng)險中。對此,約瑟夫希發(fā)基思認(rèn)為,應(yīng)針對算法設(shè)計者和使用者的人為風(fēng)險以及算法設(shè)計部署階段的技術(shù)風(fēng)險,分別制定相應(yīng)對策。

“為了避免這一風(fēng)險,法規(guī)非常重要,當(dāng)前所有出現(xiàn)的問題,都是因為利益相關(guān)者沒有給出明確的定義要求。技術(shù)可以適當(dāng)?shù)靥岣邩?biāo)準(zhǔn)。”約瑟夫希發(fā)基思稱。

約瑟夫希發(fā)基思在會后接受澎湃科技(www.thepaper.cn)采訪時指出,當(dāng)前,太多人談?wù)揂I(人工智能),但什么是智能,如何真正地實現(xiàn)應(yīng)用,這些人無法精確地回答。他認(rèn)為,盡管人類在人工智能研究中取得了長足的進(jìn)步,并迎來了生成式AI,但目前應(yīng)用只是弱智能(weak AI),集中在問答應(yīng)用上,并沒有能夠同步人工智能能力的技術(shù)和法則。

澎湃科技注意到,2024頂科協(xié)獎“智能科學(xué)獎”得主、康奈爾大學(xué)計算機科學(xué)和信息科學(xué)講席教授喬恩克萊因伯格在此次論壇上也指出,當(dāng)前人工智能發(fā)展,人類自身的排外偏見會導(dǎo)致算法與生俱來的偏見,進(jìn)而引發(fā)人類社會的一系列混亂。受到經(jīng)濟激勵的影響,人們在設(shè)計算法時容易陷入“單作”的狀態(tài)。此外,人類在面對超越人類的AI系統(tǒng)時,認(rèn)知上的落后會帶來麻煩。在和此類AI系統(tǒng)開展合作時,控制權(quán)往往不在人類自己手里。但假如人工智能突然把控制權(quán)交了出來,那么人類就可能犯下嚴(yán)重錯誤,因為AI知道該怎么做,人類未必。

所以克萊因伯格認(rèn)為,“在做人類判斷和算法知識判斷的時候,都要考慮風(fēng)險偏見問題。”在設(shè)計時既要追求算法的強大,也要注意,事態(tài)不能發(fā)展到失控的地步。

贊助本站

相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機會 | 展會港