展會信息港展會大全

DeepSeek把自己誤認(rèn)成了ChatGPT?分析人士:或用了GPT生成文本做訓(xùn)練數(shù)據(jù)
來源:互聯(lián)網(wǎng)   發(fā)布日期:2025-01-02 09:09:07   瀏覽:235次  

導(dǎo)讀:DeepSeek新發(fā)布的AI模型會“報錯家門”?日前,有網(wǎng)友發(fā)現(xiàn),在向DeepSeek-V3模型提問“你是誰”時,DeepSeek-V3似乎將自己識別為ChatGPT。有網(wǎng)友在向DeepSeek-V3模型提問“你是誰”時,DeepSeek-V3將自己識別為ChatGPT 來源:社交媒體截圖在進(jìn)一步提問DeepSeek API的問題,它回答也是如何使用OpenAI API的說明,甚至講了一些與GPT-4一模一樣的笑話。有網(wǎng)友發(fā)出疑問,“DeepSeek ......

DeepSeek新發(fā)布的AI模型會“報錯家門”?日前,有網(wǎng)友發(fā)現(xiàn),在向DeepSeek-V3模型提問“你是誰”時,DeepSeek-V3似乎將自己識別為ChatGPT。

DeepSeek把自己誤認(rèn)成了ChatGPT?分析人士:或用了GPT生成文本做訓(xùn)練數(shù)據(jù)

有網(wǎng)友在向DeepSeek-V3模型提問“你是誰”時,DeepSeek-V3將自己識別為ChatGPT 來源:社交媒體截圖

在進(jìn)一步提問DeepSeek API的問題,它回答也是如何使用OpenAI API的說明,甚至講了一些與GPT-4一模一樣的笑話。有網(wǎng)友發(fā)出疑問,“DeepSeek是否在ChatGPT生成的文本上進(jìn)行了訓(xùn)練?”

DeepSeek-V3是由國內(nèi)知名量化資管巨頭幻方量化創(chuàng)立的杭州深度求索人工智能基礎(chǔ)技術(shù)研究有限公司(以下簡稱“深度求索”)最新發(fā)布的全新系列模型,由于這款模型總訓(xùn)練成本低,性價比高,發(fā)布后不少網(wǎng)友稱其為“國產(chǎn)之光”,且有“AI界的拼多多”之稱。但在發(fā)布后的一天,便出現(xiàn)了上述疑似“翻車”現(xiàn)象。

截至發(fā)稿前,深度求索公司尚未對此進(jìn)行回應(yīng)。但目前再次向DeepSeek-V3模型提問“你是誰”時,模型問答已恢復(fù)正常。

DeepSeek-V3并不是第一個混淆自己的模型?萍济襟wTechCrunch報道,此前谷歌的AI模型Gemini在被使用中文提問你是誰時,也回答自己是百度的文心一言。

國內(nèi)一家智能科技公司的技術(shù)負(fù)責(zé)人向澎湃科技記者分析時認(rèn)為,DeepSeek-V3有可能直接將在ChatGPT生成的文本上作為訓(xùn)練基礎(chǔ),在訓(xùn)練過程中,該模型可能已經(jīng)記住了一些GPT-4的輸出,并正在逐字復(fù)述這些內(nèi)容。

另有業(yè)內(nèi)人士指出,目前互聯(lián)網(wǎng)大模型優(yōu)質(zhì)數(shù)據(jù)訓(xùn)練集有限,訓(xùn)練過程中不可能沒有重合,但是否構(gòu)成抄襲也很難定義。即便“站在了ChatGPT巨人肩膀上,但成本降下來是真的”。

不過,直接在ChatGPT生成的文本上訓(xùn)練DeepSeek-V3也并不奇怪,前述智能科技公司技術(shù)負(fù)責(zé)人指出,拿GPT的回答作為數(shù)據(jù)集訓(xùn)練自有模型在國內(nèi)很常見,“這種不用抓取數(shù)據(jù),并且能夠額外做數(shù)據(jù)處理,能節(jié)省時間、人力和訓(xùn)練成本!庇(xùn)練一個大模型需要吞噬海量數(shù)據(jù),耗盡了世界上所有容易獲取的數(shù)據(jù)。

TechCrunch在報道中分析認(rèn)為,造成這類現(xiàn)象的原因在于,目前互聯(lián)網(wǎng)(AI公司獲取大量訓(xùn)練數(shù)據(jù)的地方)正充斥著AI垃圾。生成式人工智能大模型在互聯(lián)網(wǎng)數(shù)據(jù)上進(jìn)行訓(xùn)練,而這些數(shù)據(jù)雖然信息豐富,但也充斥著不準(zhǔn)確的內(nèi)容,其中不乏“胡言亂語”。ChatGPT、Copilot和Gemini等AI工具都會為用戶提供看似真實但卻是捏造的數(shù)據(jù)。

另據(jù)歐洲聯(lián)盟執(zhí)法機(jī)構(gòu)的一份報告指出,到2026年,網(wǎng)絡(luò)內(nèi)容中可能有90%是由人工合成生成的。報告預(yù)測,這種數(shù)據(jù)“污染”,使得從訓(xùn)練數(shù)據(jù)中徹底過濾AI生成內(nèi)容變得非常困難。

贊助本站

相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2025 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會 | 展會港