DeepSeek接入潮洶湧:適配商忙壞,大廠或賠慘?

由 時代週報 發佈於 熱點

'25-02-22

本文來源:時代週報 作者:申謹睿

圖源:Pixabay

DeepSeek引發的蝴蝶效應還在持續。

1月20日,DeepSeek公司正式發佈了其推理模型DeepSeek-R1的完整版本。該模型通過算法優化,以較低的訓練成本實現了與OpenAI推理模型o1相媲美的性能,並且開源。

傳統AI訓練對算力的需求巨大,當業內普遍爲AGI(通用人工智能)貼上“大力出奇跡”的標籤,DeepSeek卻開闢了一片“無人區”,吸引一衆企業爭相接入。企業接入DeepSeek,即企業通過硬件設備連接DeepSeek的訪問地址,從而獲取DeepSeek的模型服務。

據不完全統計,接入DeepSeek-R1模型的國內上市公司已經超過100家,其中不乏阿里、騰訊、百度、三大運營商這類擁有自研模型和AI應用的企業。

時代週報記者採訪多位業內人士發現,企業選擇DeepSeek的原因主要集中在兩方面。一是DeepSeek-R1開源較徹底,部署方便,且在特定場景下展示了強大的處理和推理能力;另一方面,DeepSeek聲量走高,意味着接入方有機會承接其外溢的流量。QuestMobile數據顯示,DeepSeek的日活躍用戶數在2月1日突破3000萬大關。

不過, 大廠接入DeepSeek模型也可能面臨巨大的虧損壓力。近期,AI Infra(連接硬件和上層應用的中間層基礎設施)企業潞晨科技CEO尤洋指出,滿血版DeepSeek-R1每百萬token(輸出)定價16元,如果每日輸出1000億token,一個月算下來接入方企業可獲得4800萬元收入。據他測算,完成1000億token的輸出,需要約4000臺搭載H800的機器,以目前H800的市價或者折舊來計算,每月僅機器成本就達4.5億元,因此企業方可能面臨每月4億元的虧損,“用戶越多,服務成本越高,虧損越多”。

AI Infra廠商市場負責人張迪(化名)告訴時代週報記者,離DeepSeek瘋狂發酵僅有數週,軟硬件適配、測試、上架等工程都需要時間,目前公司對外合作的項目還未落地,因此具體成本數據暫不清晰。

在AI的潮汐效應下,接入DeepSeek是否一本萬利,還需讓子彈再飛一會兒。

接入模型並非“量”的比拼

目前來看,企業接入DeepSeek的程度有所不同。

2月13日,繼微信、騰訊文檔、QQ瀏覽器等業務側產品先後接入DeepSeek-R1後,騰訊自研的AI助手“騰訊元寶”也正式接入DeepSeek-R1,支持用戶切換使用混元大模型和DeepSeek-R1。

相比騰訊近乎全面擁抱DeepSeek的決心,阿里等公司對DeepSeek的接入主要體現在自己的主營業務側產品,給自研的大模型產品保留了一部分空間。如阿里的1688、釘釘、阿里雲相繼接入DeepSeek,其旗下全能AI助手通義APP尚未表態。

不難發現,接入DeepSeek的企業,率先將DeepSeek應用在了AI能力運用場景較多的業務上。

“接入模型並非‘量’的比拼,需求方應該充分考慮模型與業務場景適配性。”值得買科技CTO王雲峯在接受時代週報記者採訪時表示,當下大模型的應用模式愈發多樣,不同模型有各自適配場景。

此前,值得買科技自研了130億參數消費大模型,也接入了一些主流模型,談及接入DeepSeek的原因,王雲峯解釋稱,值得買科技的自研模型在商品理解、價格預測等垂直領域能力出色,但AI技術的複雜性,決定了單一模型無法覆蓋所有場景。例如做檢索增強時,內部工具流程需AI合理調度,外部通用模型難以適配,此時自研模型就負責內部流程調度、用戶意圖理解等關鍵任務,而通用模型則用於站內文章生成這類通用場景。

從實際落地效果來看,DeepSeek-R1的問題處理和推理能力表現出色。王雲峯告訴時代週報記者,和包括DeepSeek-V3在內的其他模型相比,DeepSeek-R1生成內容的行文邏輯更清晰,文學性也更突出。其強大的語言處理能力,讓公司內容生產的效率有了明顯提升,“如果使用通用模型,還需要進行垂類數據微調才能更好發揮作用。”

網絡安全公司知道創宇是DeepSeek更早期的受益者。

去年12月,知道創宇旗下的網絡空間測繪引擎ZoomEye國際版同步上線了對DeepSeek的調用支持。知道創宇CSO(首席戰略官)周景平向時代週報記者表示,從接入DeepSeek到現在,ZoomEye國際版的平臺註冊量增長28.5%,平臺活躍度增長121.6%,AI 搜索功能使用率達35.8%。

周景平在接受時代週報記者採訪時難掩興奮。他稱,DeepSeek被公司應用在包括漏洞挖掘、數據情報分析、規則轉化處理、自動化安全運營等多個細分業務場景中。在數據情報分析上,受益於DeepSeek等大模型數據分析及推理能力,公司可高效補齊之前所依賴的分析師知識框架之外的細節點。

“相比GPT,DeepSeek聚焦通過低成本高性能的技術路線,降低企業接入門檻,並通過開源策略促進技術普及和產業鏈協同,這爲國內企業級應用的爆發提供了更大的可能性。”在周景平看來,DeepSeek-V3和DeepSeek-R1利好接入企業的意義在於性價比高。他說,DeepSeek開源較爲徹底,同時發佈了蒸餾模型的本地量化版,這使得企業進行本地化部署的性價比大幅度提升。

適配商等來春天?

企業扎堆接入DeepSeek,也忙壞了位於大模型產業鏈中間層的適配廠商。

張迪向時代週報記者表示,DeepSeek爆火後,公司往來的諮詢者日益增多。“以前一兩個月纔有一位前來諮詢業務的客戶,現在我們每天要接待十幾個。”張迪稱,現在幾乎每天都需要加班,除了應對業務諮詢,還要參與直播、客戶驗收、商務對接等工作,公司和小組的會議往往被安排在晚上8點和9點。

張迪稱,DeepSeek大火之前,大家對私有化部署僅僅停留在探討產品功能的層面,而如今公司的諮詢者,或許在焦慮的驅使下,合作目的更加明確,雙方談話主題大致鎖定在爲提需求、瞭解產品性能、給報價三個方面。

另一AI Infra廠商的創始人趙欣向時代週報記者表示,需求大漲,行業工作節奏普遍加快,“有人手裏拿着錢排隊等你的產品,肯定要比沒事做的時候興奮。”他表示,產品走向市場,真正地爲人所用,也是個人價值層面的正向反饋。

此前,有分析人士向時代週報記者稱,因國產算力適配成本較高,在英偉達的芯片稀缺情況下,使用國產算力的企業接入DeepSeek可能要面臨一定財務壓力,繼而影響到中間層廠商的發展前景。

尤洋向時代週報記者拆解了企業接入DeepSeek的路徑,他表示,DeepSeek是開源模型,接入方只要有算力就可以部署運行。

尤洋說,算力的主流提供方式一般有兩種,一種是企業自有算力,比如有本地的一體機或者機房;另一種是公有云上的算力,企業可以按月租用。除此之外,有一些雲廠商還提供MaaS(Model as a Service)的模式,也就是將DeepSeek模型部署到公有云上後,需求企業再調用DeepSeek API,按實際使用的token量付費,適合早期的輕量化探索需求。

企業接入DeepSeek的成本主要分硬件和部署成本兩部分。

硬件成本方面,不同規格的硬件價格差異較大,相同規格不同規模的硬件價格也十分不同。“對於僅需要使用模型的企業來說,選擇推理芯片會有效降低硬件成本;而對於有微調和訓練要求的企業,可能在購買或租賃硬件時需要使用訓練芯片。另外,對於併發數量或者輸出速度要求較高的企業,需要選擇有充足算力和顯存的芯片,這類芯片的價格會偏高。”尤洋表示。

而部署成本的區別除了體現在不同規格芯片的部署難度上,還和企業的具體要求有關。比如,如果企業需要高併發、接入知識庫、接入聯網功能等,都會存在較大的工作量。

“對於滿血DeepSeek-R1 671B模型來說,本地化部署的硬件成本在百萬級別,一般來說是遠高於部署成本的。有些中小型企業會使用蒸餾版的模型,或者是直接調用雲廠商的API,這樣適配成本就會低很多。”尤洋補充道。

對於業內的成本擔憂,趙欣稱,目前公司客戶以中小型企業和傳統行業的大型企業爲主,雖公司體量、業務不同,所牽涉的成本數據也存在較大差異,但從目前的適配案例來看,客戶企業一般都具備承擔該項成本的能力。

Scroll to Top