展會信息港展會大全

對話亞馬遜云科技:海外云為何會如此迅速接入一家中國大模型?| 企服國際觀察
來源:互聯(lián)網(wǎng)   發(fā)布日期:2025-02-26 09:53:54   瀏覽:174次  

導讀:圖片來源@pixabay2023年10月,全托管生成式AI服務(wù)Amazon Bedrock正式可用時,一家中國媒體曾提出疑問:未來亞馬遜云科技會不會接入基于中文語料庫的大模型?彼時,問題尚無定論。2024年5月,亞馬遜云科技的另一款早先入華的機器學習平臺Amazon SageMakerJumpstart上線了兩款中文大模型:零一萬物、百川智能。其后亞馬遜云科技又陸續(xù)上線了智譜等更多中文模型。2025年1月30日, ......

對話亞馬遜云科技:海外云為何會如此迅速接入一家中國大模型?| 企服國際觀察

圖片來源@pixabay

2023年10月,全托管生成式AI服務(wù)Amazon Bedrock正式可用時,一家中國媒體曾提出疑問:未來亞馬遜云科技會不會接入基于中文語料庫的大模型?彼時,問題尚無定論。

2024年5月,亞馬遜云科技的另一款早先入華的機器學習平臺Amazon SageMakerJumpstart上線了兩款中文大模型:零一萬物、百川智能。其后亞馬遜云科技又陸續(xù)上線了智譜等更多中文模型。

2025年1月30日,就在DeepSeek-R1驚艷眾人后的一周,亞馬遜云科技迅速宣布了對這款中國大模型的支持,更豐富的產(chǎn)品舉措在于:在Amazon Bedrock Marketplace中部署,或在Amazon SageMaker Jumpstart中部署,也可以通過Amazon Bedrock自定義導入功能或Amazon EC2 Trn1實例中部署DeepSeek-R1-Distill系列模型。簡單理解就是針對不同體量、不同算力儲備的客戶都會兼顧。

對話亞馬遜云科技:海外云為何會如此迅速接入一家中國大模型?| 企服國際觀察

“很多中國企業(yè)在調(diào)用海外區(qū)域的模型支持其出海業(yè)務(wù)。從嘗試性的角度來看,中國區(qū)域客戶的需求也是非常高漲的,他們希望通過嘗試各種大小的DeepSeek模型實現(xiàn)快速部署!就在DeepSeek-R1接入亞馬遜云科技平臺之際,亞馬遜云科技大中華區(qū)產(chǎn)品技術(shù)總監(jiān)王曉野向鈦媒體透露了這場變局中的客戶洞察。

目前DeepSeek-R1已經(jīng)獲得中美科技公司包括英偉達、亞馬遜、微軟、谷歌、阿里、百度等的支持。有的廠商推出了一鍵部署方案,有的廠商在此基礎(chǔ)上還推出了低價方案及免費服務(wù),有的芯片廠商為了適配DeepSeek還在進行大量工程化調(diào)優(yōu)工作。王曉野所在中國區(qū)團隊春節(jié)期間也加班加點,與海外團隊協(xié)作,很快將DeepSeek上線。

在王曉野看來,這離不開此前與DeepSeek社區(qū)從去年開始就已經(jīng)有之的技術(shù)交流與合作,“我們在幫助客戶應用DeepSeek模型的工程化實踐一直沒有間斷過!

監(jiān)測網(wǎng)站SimilarWeb數(shù)據(jù)顯示,1月31日,盡管與ChatGPT相比有8倍之差,DeepSeek網(wǎng)站在美國的日訪問量為240萬次,在全球(不包括中國)的訪問量為2920萬次。而在DeepSeek服務(wù)器繁忙和頻繁受到網(wǎng)絡(luò)攻擊的背后,是資源穩(wěn)定性與網(wǎng)絡(luò)安全性的略有不足。

“按目前亞馬遜云科技平臺上的客戶訪問情況看,如果將DeepSeek橫向?qū)Ρ葋砜矗悬c類似于同樣開源的Llama。”王曉野指出。他強調(diào),“開源開放這件事情,其實挺重要的。相對于閉源模型,開源模型會有更為廣泛的客戶,且增長速度也比較快!

2月24日,鈦媒體獲悉,DeepSeek R1和V3模型正式上線由西云數(shù)據(jù)運營的亞馬遜云科技Marketplace(中國區(qū)),亞馬遜云科技中國區(qū)域企業(yè)用戶可以通過訂閱硅基流動推出的SiliconCloud服務(wù)以調(diào)用模型API的方式直接使用模型,并且無需自己管理模型或算力。

對話亞馬遜云科技:海外云為何會如此迅速接入一家中國大模型?| 企服國際觀察

以DeepSeek對整個市場的攪動力度來看,2025年的人工智能競賽只會更加激烈。

首先是大模型的深度推理能力,繼GPT-o1、DeepSeek-R1之后,各家大模型廠商也快速面世了不少推理模型,如阿里通義的QwQ,月之暗面的Kimi-k1,智譜的GLM-Zero,昆侖萬維的Skywork-o1,以及最近xAI的Grok3 Reasoning。

其次是訓練成本問題,由于R1在達到o1大模型能力的情況下,描述了一個相對成本更低的訓練過程,讓外界理解到:通過技術(shù)優(yōu)化實現(xiàn)低成本高性能的大模型并非不可能。

此外還有模型開源。閉源和開源并不矛盾,商業(yè)公司為了維持商業(yè)模式和技術(shù)壁壘,會選擇閉源,但同時又希望通過開源影響力快速觸達客戶。但OpenAI和百度的開源“變臉”也映射出:當開源與閉源模型質(zhì)量相當,且差距不大的情況下,客戶并不會為受限制的模型而付費,這件事情放在全球皆是如此。

對于客戶會關(guān)心的收費問題,目前DeepSeek面向企業(yè)客戶,主要采取的是本地部署,按百萬tokens輸入價格進行收費,而借助亞馬遜云、阿里云等云廠商開放的模型調(diào)用,則因各家云廠商的現(xiàn)階段計費邏輯不同而略有差異。

鈦媒體注意到,亞馬遜云科技、微軟、谷歌尚未向云客戶收取使用DeepSeek的費用。使用DeepSeek的客戶只需為使用的云計算資源付費,有按計算資源付費和按算力資源轉(zhuǎn)換過的token計費等多種方式。

而這場搶灘DeepSeek商業(yè)化與工程落地背后,依然需要回答的是云廠商如何維護好云計算的護城河。

近日,鈦媒體就相關(guān)話題獨家對話亞馬遜云科技,以下是此次對話的要點:

1、R1展現(xiàn)出的推理能力,會推動Agent落地,以及企業(yè)流程自動化的熱潮;關(guān)注點也不應該只是推理,還有多模態(tài)。

2、沒有一個模型能一統(tǒng)天下。企業(yè)客戶需要多個模型的可選項這個邏輯依然成立。

3、亞馬遜云科技的產(chǎn)品邏輯在于,扎根在泥土里,在大家看不見的地方去持續(xù)創(chuàng)新,包括Amazon Trainium2芯片,加大在訓練和推理層面研發(fā)。

4、客戶在亞馬遜云科技上部署DeepSeek R1,只需要為使用的云資源付費。

5、目前中國客戶對DeepSeek嘗試性是比較高的,包括對各種尺寸模型的嘗試部署。

真正滿血上線大模型的,沒幾家

鈦媒體:內(nèi)部怎樣評價DeepSeek?

王曉野:其實對于國內(nèi)用戶而言,DeepSeek有兩層關(guān)注點:一個是應用,即手機/網(wǎng)頁版的聊天回復功能;二是模型。這也是全球范圍內(nèi)DeepSeek被廣泛關(guān)注的核心,包括面向文本聊天的通用模型DeepSeek-V3和深度推理模型DeepSeek-R1。

現(xiàn)在,R1相對來說是大家更關(guān)注的,同時全球范圍內(nèi)客戶對R1模型都有了需求的激增。

總結(jié)來講,主要有幾方面原因:一是技術(shù)報告寫的非常扎實,思維鏈也比較清晰,R1達到了類似于o1的推理能力,我們也看到了比較好的效果;二是成本,在達到第一梯隊大模型能力的情況下,描述了一個相對成本更低的訓練過程;三是作為開源模型的影響力;四是客戶需求迅速提升。這在都是摸著石頭過河探索的當下是令人贊嘆的。

鈦媒體:亞馬遜云科技對于接入哪些中國模型,考量有哪些?為什么此次反應這么迅速?

王曉野:就接入DeepSeek-R1這件事兒,大家需要明辨模型尺寸,比如有的上線的是1.5B、32B等尺寸不大的的蒸餾模型。但真正全量上線滿血版(R1-671B)的,就目前而言,亞馬遜云科技是為數(shù)不多的其中之一。

此前在V3發(fā)布前,我們業(yè)務(wù)團隊就與DeepSeek背后社區(qū)進行交流。2024年4月AmazonBedrock推出過一個功能叫做“自定義模型導入”,當時功能還在預覽階段時,最先上線的就是DeepSeek Coder模型,專門用于代碼生成。

再到后來R1公布,我們與社區(qū)一直有比較好的溝通和技術(shù)經(jīng)驗,再加上DeepSeek開源版本的緣故,很快能實現(xiàn)模型的上線部署,在春節(jié)期間很快就實現(xiàn)了對DeepSeek的平臺支持。

可以說,從去年到今年,我們在幫助客戶部署DeepSeek模型這件事情上的工程化實踐就一直沒有停止過。

鈦媒體:部署一套滿血版的話對客戶而言成本非常高,那么從云廠商上線DeepSeek后,各家云廠商之間會有比較明顯的差異化嗎?

王曉野:目前來看,其實沒有太大差異。DeepSeek推理模型在服務(wù)器部署過程中,主要采用多集群方式,積累了很多推理層面的工程化經(jīng)驗。放在今天云廠商級別的話,大家掌握的知識是差不多的。

但是未來看的話,以亞馬遜云科技自身的實踐為例,比如同樣對開源模型Llama的支出,去年re:Invent發(fā)布了延遲優(yōu)化的推理功能,其底層就是結(jié)合了我們的自研芯片Amazon Trainium2,將Llama的推理性能優(yōu)化到了現(xiàn)階段整個云廠商中的性能最優(yōu)。

鈦媒體:去年亞馬遜云科技也推出了自己的大模型Amazon Nova,像DeepSeek出現(xiàn)后會不會對亞馬遜云科技自研大模型的思路產(chǎn)生一定影響或變化?

王曉野:大方向不會有太大影響。如果單從Amazon Nova系列模型推出來看,其仍然非常專注于專用的場景。因為我們堅持說不會有一個模型包打天下,是需要以最適合的模型去適配場景。

Amazon Nova系列模型,比如Nova Micro適用于文本校驗、簡單翻譯等場景,Nova Lite低成本多模態(tài),適用于圖像、視頻、文本生成,提供的極致性價比到今天為止還是最好的。Nova還沒有推出邏輯推理能力的模型,我目前對于接下來Nova會不會做這方面工作,還沒有更多的Insight。

如果將Amazon Nova與V3在通用場景下對比,大家都在第一梯隊,沒有結(jié)論說誰比誰更強。

鈦媒體:DeepSeek存在哪些技術(shù)天花板?

王曉野:模型的天花板依然是存在的。模型的本質(zhì)是生成token,究其原理也始終是存在幻覺的。第一梯隊任何一個模型沒有解決,或者說今天現(xiàn)階段是沒有解決。

第二個層面就是成本相對高的問題。盡管大家會模糊一些概念,就是模型的參數(shù)量越大,模型能力越強,所需的算力越多,這個邏輯下,企業(yè)針對場景選擇智能還是性能,在性價比的問題上始終要做妥協(xié)和折衷。

另外,R1推理的思維鏈,其實過程越長,理論上生成一個token的成本也會相對越高。在推理階段,雖然表面上看DeepSeek或各家的API價格不盡相同,但穩(wěn)定性、持續(xù)響應問題依然存在,所以客戶仍存在底層算力資源、數(shù)據(jù)定制,以及應用等方面的需求。

那么,針對這兩個問題的回答:一是在工程層面,做好幻覺和有害內(nèi)容的防護;二是需要底層算力不斷優(yōu)化,作為云廠商,有自己的自研芯片,有這樣能力的公司會針對推理性能進行持續(xù)優(yōu)化?瓷先ネ评矶▋r比較便宜,但放到企業(yè)級,能夠真正穩(wěn)定提供服務(wù)的時候,其成本就會很快上去了。

客戶仍需要工程化手段控制模型輸出

鈦媒體:客戶對你們有哪些訴求反饋?

王曉野:現(xiàn)在比較大的客戶,如果是本地部署,就會特別擔心算力不夠用的問題,部署上模型后,又會擔心穩(wěn)定性的問題。另外,很多中國企業(yè)在調(diào)用海外區(qū)域來支持出海業(yè)務(wù),但是從需求高漲,嘗試性的角度,國內(nèi)客戶的嘗試性也是比較高的,就是怎么通過各種大小的模型去快速部署。

所以今天再去看DeepSeek的應用端,出現(xiàn)服務(wù)器響應問題的頻率還是比較高的。雖然它在部署時對整個吞吐進行了優(yōu)化,但底層算力或整個資源還是相對固定的。

對于今天真正走到企業(yè)應用的客戶而言,去體驗的話,最好的方式肯定還是在云上。能夠利用云上資源,以彈性的方式,不以拒絕客戶的請求去實現(xiàn)一個比較好的服務(wù)可用性和連續(xù)性。這也是亞馬遜云科技最近推出在Amazon Bedrock Marketplace、Amazon SageMaker Jumpstart上部署模型的原因。

當然,企業(yè)關(guān)注的是選好模型,針對具體的場景選擇正確的模型;定制私有數(shù)據(jù);然后通過一系列工程手段去降低成本;再通過工具層面的能力去控制好模型的輸出。比如盡管今天DeepSeek表現(xiàn)特別好,但它依然存在有害內(nèi)容,以及幻覺問題,也需要一個成熟的工具Guardrail來保證應用層面的輸出是正確的。此外還有端到端的加密安全。這些話題我們認為在未來隨著企業(yè)興趣的高漲會變成其非常關(guān)注的話題。

鈦媒體:目前平臺上客戶調(diào)用情況如何?增量有多快?

王曉野:需要強調(diào)的是,R1不只是在中國,全球范圍內(nèi)的客戶都在關(guān)注,核心的原因也是在于其推理能力確實是全球第一梯隊的能力。

同時,V3沒有那么驚艷的原因,也是在于全球范圍內(nèi)還有不少的可選項,針對具體場景,大家可能都會有長有短。

再回到R1,盡管蒸餾后的稍小版本的關(guān)注度可能相對不高,但嘗試小規(guī)模部署蒸餾版的客戶有很多。在全球范圍內(nèi)客戶真正主要的訴求還是滿血版的R1,尤其是體量相對較大的客戶,在比較積極的探索。

鈦媒體:那么這個客戶增量與之前亞馬遜云科技上線的三方大模型相比,在速度層面會有明顯的差異嗎?

王曉野:比較類似。還是回到開源開放這件事情,其實是挺重要的。如果橫向?qū)Ρ葋砜,有點類似于Llama。

因為相對于閉源模型,開源模型會有更為廣泛的客戶,比如一些典型的大企業(yè),客戶群廣泛,且增長速度也比較快。

鈦媒體:基于亞馬遜云科技使用DeepSeek的客戶只需為計算資源和工具付費嗎?計費模式是怎樣的。這跟使用Llama大模型是否相同?在調(diào)用價格的競爭上有優(yōu)勢嗎?

王曉野:目前亞馬遜云科技提供的版本并不是商業(yè)分成模式,同時對于模型其他的環(huán)節(jié),包括做的部署工作等都不收費?蛻裟壳霸谥T多調(diào)用模式下,需要為支出的底層云計算資源付費。

鈦媒體:跟token計費模式相比,對于客戶、云廠商而言是否都會有一些利弊?

王曉野:整體上看,Amazon Bedrock是對于用戶而言最簡單的一種方式,只要選擇好模型,選好機型,就可以一鍵部署,并且也是最容易觸達到滿血版的模型的方式。

在Amazon Bedrock Marketplace和AmazonSageMaker JumpStart部署DeepSeek-R1模型,在中國區(qū)域調(diào)用DeepSeek R1和V3模型,最主要服務(wù)的場景是調(diào)用DeepSeek滿血版,目前為止提供滿血版能力的廠商仍然非常有限。

利用Amazon Bedrock的自定義模型導入功能部署DeepSeek-R1-Distill模型,和Amazon EC2 Trn1實例部署DeepSeek-R1-Distill模型。目前也是按照云資源計算,背后會有相應的成本核算。

未來理論上會隨著底層優(yōu)化,不斷持續(xù)提升客戶訪問模型的性價比。

鈦媒體:預計今年整體的中美AI競爭會處于什么態(tài)勢?這個階段對云供應商/算力供應商會帶來哪些影響?

王曉野:未來的大模型焦點,可能不止是Agent reasoning,多模態(tài)也是未來很大的方向。

另外,我們會看到海外對負責任的AI和模型生成有害內(nèi)容這一方面的使用,其擔心會更大一些。以云廠商為首,大家都會加強這一方面的投入。

如果預測DeepSeek下一步帶來的影響,首先會給中國企業(yè)尤其是偏傳統(tǒng)的企業(yè),會有兩個信號釋放出來:一是成本,二是推理能力。模型推理,特別適合企業(yè)提效,比如代碼生成、Agent自動化完成任務(wù)的場景,像現(xiàn)在Agent很多企業(yè)在嘗試但還沒有走到特別成熟的階段。那么,R1所展現(xiàn)出的推理能力,會再次推動Agent的落地,以及企業(yè)流程自動化的應用熱潮。(本文首發(fā)于鈦媒體APP,作者 | 楊麗,編輯 | 蓋虹達)

更多精彩內(nèi)容,關(guān)注鈦媒體微信號(ID:taimeiti),或者下載鈦媒體App

贊助本站

相關(guān)內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2025 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港