展會信息港展會大全

世界頂尖科學(xué)家 聚焦AI前沿與倫理挑戰(zhàn)
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-10-27 07:40:46   瀏覽:1405次  

導(dǎo)讀:封面新聞記者 張崢 邊雪 譚羽清 馬曉玉 如果可以給Chat GPT下命令問詢制造武器的方法,如果人類跟訓(xùn)練了上百萬次的機器人下國際象棋,如果企業(yè)用人工智能提供的招聘模板,未來的充斥著AI的世界會變成什么樣?如何應(yīng)對AI帶來的潛在風(fēng)險? 人工智能將怎樣影響...

封面新聞記者 張崢 邊雪 譚羽清 馬曉玉

如果可以給Chat GPT下命令問詢制造武器的方法,如果人類跟訓(xùn)練了上百萬次的機器人下國際象棋,如果企業(yè)用人工智能提供的招聘模板,未來的充斥著AI的世界會變成什么樣?如何應(yīng)對AI帶來的潛在風(fēng)險?

世界頂尖科學(xué)家 聚焦AI前沿與倫理挑戰(zhàn)

人工智能將怎樣影響人類?

10月26日,2024世界頂尖科學(xué)家論壇分論壇世界頂尖科學(xué)家智能科學(xué)大會上,全球頂尖科學(xué)家匯聚一堂,討論“為人類永續(xù)發(fā)展制定科學(xué)的AI治理框架”。

在主旨演講中,中國科學(xué)院院士、北京大學(xué)國際機器學(xué)習(xí)研究中心主任鄂維南,2007圖靈獎得主、南方科技大學(xué)斯發(fā)基斯可信自主系統(tǒng)研究院院長約瑟夫斯發(fā)基斯,2024年世界頂尖科學(xué)家協(xié)會獎“智能科學(xué)或數(shù)學(xué)獎”獲得者、康奈爾大學(xué)計算機科學(xué)和信息科學(xué)講席教授喬恩克萊因伯格,分別從不同角度分享了他們的研究成果和思考。

AI助力科學(xué)研究:需要學(xué)科間合作

AI+科學(xué)能迸發(fā)出什么樣的火花?鄂維南詳細(xì)介紹了人工智能(AI)在科學(xué)研究中的應(yīng)用。“在人工智能幫助下,我們可以開發(fā)出更多更有效的工具。很早以前,我們就發(fā)起了學(xué)生開源平臺,我們期待更多人獲益。”新的AI將呼吁合作、打破學(xué)科間的壁壘。鄂維南呼吁一種新的研究范式,用更多的有效的數(shù)據(jù),來“武裝”科學(xué)研究。

世界頂尖科學(xué)家 聚焦AI前沿與倫理挑戰(zhàn)

鄂維南

他以材料科學(xué)為例,他提到了一個名為“uni-mol”的AI模型,以當(dāng)前各大智能手機和電視中廣泛使用的新型顯示技術(shù)有機發(fā)光二極管(OLED)為例,如果要發(fā)現(xiàn)更出色的發(fā)光材料,傳統(tǒng)材料設(shè)計,需要依賴專家經(jīng)驗和大量實驗驗證,試錯成本極高。如果使用AI模型來進行預(yù)測和篩選,就可以節(jié)約大量的時間和成本。

過去,做實驗是進行科學(xué)研究的必要方式,F(xiàn)在可以有不一樣的期待,“我們可以利用實驗來收集數(shù)據(jù)”然后充分運用算法和大模型的幫助。

技術(shù)發(fā)展:要符合人類價值觀

圖靈獎得主約瑟夫斯發(fā)基斯則聚焦于AI倫理問題,深入剖析了AI技術(shù)在實際應(yīng)用中面臨的挑戰(zhàn)和風(fēng)險。他指出,隨著AI技術(shù)的快速發(fā)展,其在決策過程中可能存在的安全性和倫理性問題日益凸顯。例如,AI系統(tǒng)在處理復(fù)雜任務(wù)時,可能無法完全符合人類的價值觀和道德標(biāo)準(zhǔn),從而引發(fā)一系列社會倫理問題。

世界頂尖科學(xué)家 聚焦AI前沿與倫理挑戰(zhàn)

約瑟夫斯發(fā)基斯

“我們不能忽視AI技術(shù)在實際應(yīng)用中的潛在風(fēng)險,特別是在涉及個人隱私和數(shù)據(jù)安全的領(lǐng)域。”這位科學(xué)家強調(diào),“為了確保AI的發(fā)展能夠更好地服務(wù)于人類社會,我們需要建立一個全球性的監(jiān)管框架,制定明確的倫理準(zhǔn)則。”

他呼吁加強跨學(xué)科研究,推動不同領(lǐng)域的專家學(xué)者共同參與,形成一套全面、系統(tǒng)的AI倫理準(zhǔn)則。此外,他還提倡加強公眾對AI倫理的認(rèn)識和理解,提高社會對AI技術(shù)應(yīng)用的接受度和支持度。

“未來,我們需要在技術(shù)創(chuàng)新的同時,更加關(guān)注其對經(jīng)濟和社會的長遠(yuǎn)影響,確保技術(shù)發(fā)展符合人類的共同利益。”這位科學(xué)家最后總結(jié)道。

算法預(yù)測:AI在社會決策中的應(yīng)用與挑戰(zhàn)

2024年世界頂尖科學(xué)家協(xié)會獎“智能科學(xué)或數(shù)學(xué)獎”獲得者、康奈爾大學(xué)計算機科學(xué)和信息科學(xué)講席教授喬恩克萊因伯格在論壇上探討了算法預(yù)測在社會決策中的應(yīng)用與挑戰(zhàn)。隨著互聯(lián)網(wǎng)的發(fā)展,算法預(yù)測已經(jīng)成為社會決策的重要工具,廣泛應(yīng)用于招聘、風(fēng)險評估等領(lǐng)域。

世界頂尖科學(xué)家 聚焦AI前沿與倫理挑戰(zhàn)

喬恩克萊因伯格

克萊因伯格展示了一張社交媒體上用戶瀏覽行為的截圖,“算法會關(guān)注到你的觀看行為,預(yù)測這可能是你感興趣的內(nèi)容,然后理所當(dāng)然地給你推送同類型內(nèi)容。”

算法預(yù)測中存在偏見和公平性問題?巳R因伯格特別提到,算法預(yù)測的結(jié)果往往受到數(shù)據(jù)來源和模型設(shè)計的影響。例如,一些公司在招聘過程中使用算法來篩選簡歷和評估候選人,然而,這些算法往往基于歷史數(shù)據(jù)進行訓(xùn)練,可能導(dǎo)致對某些群體的不公平待遇。

為了應(yīng)對這些問題,克萊因伯格建議采用多種算法組合,避免單一算法帶來的風(fēng)險。他強調(diào),不同算法之間的互補性可以提高決策的準(zhǔn)確性和公平性。“未來的研究需要更多地關(guān)注算法的社會影響,確保技術(shù)發(fā)展能夠更好地服務(wù)于人類社會。”克萊因伯格總結(jié)道。

(本文照片由世界頂尖科學(xué)家論壇官方提供)

【如果您有新聞線索,歡迎向我們報料,一經(jīng)采納有費用酬謝。報料微信關(guān)注:ihxdsb,報料QQ:3386405712】

贊助本站

相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機會 | 展會港