deepseek的東風,吹過中國ai產業鏈

目前已有十數家國產晶片宣布完成了對deepseek模型的適配和上線,包括沐曦、天數智芯、摩爾線程、壁仞科技等。

deepseek的東風,吹過中國ai產業鏈插图1deepseek的東風,吹過中國ai產業鏈插图2

圖片來源:視覺中國

藍鯨新聞2月10日訊(記者 朱俊熹)deepseek投下的重石激起了千層浪,不僅被推到全世界的聚光燈下,也迎來了意料之外的眾多機會。

上線不到一個月,deepseek應用端就成為了全球增速最快的ai應用,日活用戶數呈現出一條陡峭的增長曲線。據ai產品榜統計,截至1月31日,deepseek應用(app)全球日活已突破2000萬,超過字節跳動的豆包,是chatgpt的41.6%。

但當用戶想和deepseek進行頻繁、深度的對話時,卻常常會出現卡頓的情況,得到伺服器繁忙,請稍後再試”的回覆。有用戶戲稱,deepseek之所以將模型命名為r1,是因為每天只能運行(run)一次。

2月6日,deepseek還表示,因當前伺服器資源緊張,已暫停api服務充值。截至發稿,充值服務仍未恢復。有ai從業者告訴藍鯨新聞,團隊原先基於deepseek模型構建了ai搜索功能。但deepseek爆火後出現api服務卡頓、響應超時的情況,導致搜索結果無法生成。春節期間他們不得不加班加點,將服務轉移到備用的gpt-4o模型上。

中上游的搶灘”行動

deepseek讓ai迎來了破圈”時刻,對上下游產業鏈來說則蘊含著無數商機,手握大量算力的雲廠商、晶片廠商開始迅速行動起來。

最先有所動作的便是國內外雲廠商,微軟、亞馬遜等雲巨頭趕在春節伊始就在自家雲平台上接入了deepseek-r1模型。自2月1日起,華為雲、阿里雲、百度智能雲、字節火山引擎、騰訊雲等國內主要雲廠商也紛紛宣布上線deepseek模型,面向開發者和企業客戶提供模型部署服務。

緊隨其後的是各大國產晶片廠商。目前已有十數家國產晶片宣布完成了對deepseek模型的適配和上線,包括沐曦、天數智芯、摩爾線程、壁仞科技等。這些晶片廠商或基於自身構建的算力平台,或與下游的ai infra平台聯手,支持deepseek模型的部署。

一位從業者對藍鯨新聞解釋稱,雲廠商的敏捷反應得益於它們接入deepseek的成本較低。deepseek模型是基於英偉達gpu訓練出來的,而雲廠商通常存有大量的此類晶片,可以直接、快速地完成部署。國內晶片廠商在硬體上使用的指令集不同,因此需要另做適配和移植工作,相應的工作量和成本會更大一些。

無論是雲廠商還是晶片廠商,都希望能趕上這輪deepseek的熱度。當deepseek官方的api服務不穩定時,能夠吸引部分用戶跳轉到自家平台上,憑藉已有的算力資源,為用戶提供deepseek的模型服務。有使用者在初步體驗後表示,一些平台的價格和推理速度能夠滿足其需求,之後會考慮通過第三方平台開發基於deepseek-r1的ai應用。

社交平台上也湧現出不少第三方平台的推廣信息,稱能夠繞開deepseek官網的擁堵,提供流暢、穩定的使用體驗,其中部分平台還亮出了國產晶片+國產大模型”的招牌。例如矽基流動與華為雲團隊聯手,在其大模型雲服務平台上線了基於華為雲升騰雲服務的deepseek模型,華為也在純血鴻蒙版小藝助手app中集成了deepseek-r1。

矽基流動創始人兼ceo袁進輝在社交平台上透露,deepseek-v3模型發布前,deepseek創始人梁文鋒曾建議可以用最少20台英偉達h800伺服器在其平台上部署。考慮到成本問題,他們沒有這麼選擇。

deepseek走紅後,矽基流動團隊才決定用國產晶片進行適配。於是和華為達成合作,春節假期加班加點,遇到問題隨時討論,晚上也開會討論到很晚”。最終在2月1日,正式上線了基於國產晶片的deepseek模型服務。

國產算力的良機

當談及deepseek模型是如何與國產晶片搭配在一起時,首先要對大模型的訓練和推理階段進行區分。在訓練階段,大模型還處於學習過程中,需要輸入大量的數據,不斷調整內部參數,來發現規律。而推理則是大模型完成訓練後,進行實際應用的環節。

一位前大廠ai工程師對藍鯨新聞進一步解釋稱,模型在訓練階段對算力和帶寬的要求更高,同時大模型廠商需要試驗不同的模型結構、算子,大多會優先選擇使用英偉達的gpu硬體及其開發工具包”cuda。推理階段對軟硬體的要求較低,因此成為許多國產晶片主打的場景,針對已訓練好的模型進行兼容和優化。

有國產晶片廠商告訴藍鯨新聞,雖然deepseek在結構上有微創新,但仍然是大語言模型。對deepseek的適配都是在推理應用環節,所以並不難,能夠很快實現。

deepseek因低成本引發熱議後,曾一度造成英偉達股價暴跌,單日市值蒸發創下美股記錄。一個廣泛傳播的說法是,deepseek在模型開發過程中繞開了英偉達的cuda框架,由此能夠降低對英偉達的依賴。究其來源,是deepseek在v3模型技術報告中提到,我們專門採用定製的ptx(並行線程執行)指令,並自動調優通信塊大小,從而顯著減少了l2緩存的使用及對其他sm的干擾。& rdquo;

使用ptx程式語言是否意味著deepseek跨過了英偉達cuda的壟斷?有從業者表示這種說法是完全錯誤的,因為ptx是屬於cuda的一部分,並沒有繞開cuda。

該從業者解釋稱,cuda是一個軟體套裝,包括上層的開發語言、豐富的api工具庫、編譯工具等,提供給開發者對gpu進行編程。ptx則是cuda的中間層彙編語言,更接近於硬體層面,通常不直接面向開發者。基於cuda的開發更為上層,因此難以在gpu上進行更精細的控制。而使用ptx這一更低層次的程式語言,能夠更靈活地控制底層硬體,優化程式性能,這也是deepseek之所以所需算力更少的創新點之一。& rdquo;

儘管deepseek模型仍是基於英偉達gpu訓練出來的,但無論是它所展現出的對計算資源的高效利用,還是由此引起的國產晶片適配潮,對於晶片產業都是重大利好。

有從業者表示,此前國內大模型公司也會用國產晶片去做一些模型推理或測試訓練的工作,但規模有限,並沒有達到這次的程度。受deepseek帶動,國產晶片的利用率將會得到極大的提升。

ai應用落地之年真的來了?

中上游掀起的波瀾終會向下游傳導,隨著deepseek熱潮蔓延,ai應用層也開始大範圍地行動起來。過去幾天,智能硬體、汽車、金融等各行各業都在積極接入deepseek模型,希望藉助其能力來升級自身服務。

上周,閱文集團宣布旗下作家輔助創作產品作家助手”已集成deepseek-r1模型,稱這是deepseek首次在網文領域的應用”。閱文集團對藍鯨新聞表示,當調用幫助作家查資料、找靈感的智能問答功能時,deepseek對於作家的提問意圖有較強的理解推導能力,能夠聽懂潛台詞和言外之意。

同時,r1模型展示出的超長思維鏈對網文作家來說也具備較高的啟發性。網文作家、尤其是成熟作家,經常抱怨的是ai內容的老套重複,他們需要的是啟發和思考梳理。& rdquo;閱文稱。接入deepseek後,當作家讓ai生產包含某網站熱點元素的網絡小說提綱時,除了提供生成的答案,ai還會在思考過程中先清晰地羅列具體元素,並給出對應熱門書目,從而輔助作家獲取需要的專業內容。

在deepseek帶來的競爭壓力下,openai上周宣布將其最新模型o3-mini系列模型的思維鏈也予以公開。但其研究員表示,這些思維摘要雖然已經非常接近,卻並不是原始的思維鏈。有開發者之前對藍鯨新聞分析稱,openai此舉可能是出於用戶體驗、隱私保護、輸出質量、技術成本和商業機密等多方面的考慮,既能提供有用的思考過程,又不會帶來負面影響。

去年5月,deepseek就曾因低定價引爆國內大模型價格戰”。業內普遍認為,大模型降價將有助於推動應用的落地。就deepseek此番接連發布的兩款模型而言,v3模型的價格優惠期雖已於2月9日結束,api調用價格仍是gpt-4o的十幾分之一。推理模型deepseek-r1的定價比所對標的o1正式版也要低上27-55倍。

矽基智能是一家專注ai數字人、矽基智慧屏等服務的企業,其創始人、董事長兼ceo司馬華鵬對藍鯨新聞表示,“大模型底座的成本降低了,ai基礎設施建設的成本下降,對於行業發展是非常大的促進。ai應用會出現大爆發,將會產生更多超級應用的出現。& rdquo;

deepseek對模型的開源和思維鏈的公開,讓矽基智能看到了升級其ai數字人能力及服務的可能。春節期間團隊快速反應,接入了deepseek模型,以提升矽基智能數字人系列產品在自然語言理解、情感識別等方面的能力。

2月10日,矽基智能再攜手算力企業華鯤振宇發布全新解決方案。整合矽基智能自研的ai數字人引擎,並依託鯤鵬、升騰集群作為國產高性能算力底座,使deepseek大模型在海量數據處理下具備卓越的響應速度與穩定性。

對國內ai產業鏈來說,這個蛇年春節勢必過得並不輕鬆。而deepseek所引發的漣漪,或要再等待一些時間,匯聚成更龐大的浪潮。

武靜靜對此文亦有貢獻

原文網址:https://zh.gushiio.com/gushi/1172.html

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *