deepseek,把國產ai的想像力拉滿了

2025年的新年,人們十足地過了一把“ai年”。

作者丨數科星球 嘟嘟與石榴

2025年的新年,人們十足地過了一把“ai年”。除了機器人和無人機地表演外,最炸裂的莫過於deepseek了。

目前,該模型受到世界範圍內的用戶青睞。其中,在token價格方面,deepseek-r1相對於openai的o3-mini低約50%。

在日活躍用戶方面,業界統計,前者已在短時間之內達到2215萬,距離chatgpt的5323萬已達到其41.6%。順理成章地,deepseek成為歷史上用戶增長最快的ai產品。

一些受訪者對deepseek的用戶增長十分自信,並表示其可能會成為世界上用戶量最大的ai產品。

現在,人們在用它學習外語、診斷姻緣甚至玄學算命(部分功能受限)。它的回答“更懂”國人,相當多的人已經形成了deepseek依賴。

從對於ai行業發展的結果來看,deepseek所帶來的影響正在釋放。首先,它降低了ai應用的算力成本。& ldquo;很多以前只能用‘h卡’(英偉達h系列gpu)跑的需求,現在4090就能跑。& rdquo;一位從業者回答。

其次是,對比其他家流量較小的開源模型,deepseek正在展現出十足商業潛力。

但目前,全民deepseek的熱潮下,仍不足以打破英偉達等ai巨頭的壟斷,而國產卡的未來仍然任重道遠。

deepseek是對ai行業的利好

西安電子科技大學電子工程學院教授、博士生導師吳家驥認為,deepseek出現後,美國科技頭牌企業構築的壟斷門檻邏輯出現問題。

過去,openai等公司在研發上投入巨大,但deepseek以極低的訓練成本實現了與行業領先水平相當的模型效果。這表明,高投入並非實現技術突破的唯一路徑。

一位前小米高管認為,deepseek最大的價值在於算法。

技術上,deepseek在算法和工程方面圍繞moe(混合專家模型)進行了創新,從v2的160個專家擴展到v3的256個專家,實現671b參數量下僅需激活37b參數的高效運算,突破了moe模型此前訓練難度大的限制。

直接影響是,它削弱了美國閉源模型的市場競爭力。

龐大的日活用戶和幾次封禁deepseek的失敗,讓ai人才有了逆流之勢。據了解,在關於deepseek的制裁令發布後72小時內,deepseek矽谷研究院收到327份來自美國頭部科技公司的求職申請,包括17名meta首席工程師。

青雲科技市場總監王玉圓認為,chatgpt是行業的第一把火,而deepseek是另一個里程碑。

在她看來,在開源領域,meta的llama也沒有達到如此熱度。最為重要的是,deepseek所引導的低成本、高性價比模型將催生ai發展的下一輪百花齊放。& ldquo;這無疑是對做ai應用和個人開發者的重大利好”,她補充。

一位ai應用開發者對數科星球digitalplanet稱,他曾嘗試用8g顯存的筆記本電腦跑deepseek7b私有部署大模型。雖然只是理論上能跑,具體效果還不甚理想,但他已經“非常感動”了。

因為,一旦未來該款大模型可進行進一步的向下兼容,那麼他將不需為gpu算力公司繳納高昂的算力費用。

他向數科星球digitalplanet展示了自己正在開發的自動考試和做題軟體。需要用到實時算力以生成考試題,在他看來,這種項目要求算力水平不高,如果算力問題解決,那麼會成為頗受歡迎的ai應用。

王玉圓認為,ai算力成本的下降會催生更多ai應用的誕生,所有的應用都會用生成式ai的邏輯再做一遍(從春節期間,人們在各種領域的嘗試,可見一斑)。

而同時,因為國產和私有部署的緣故,以往對ai較為保守的tob客戶的熱情也在被調動。一些從業者的回覆稱,新年開年上班第一天,他所在的公司已在著手推動新的ai產品採購計劃。

所以,可以說,deepseek的火爆,是對ai行業的利好。

deepseek刺激了算力行業發展

deepseek對算力供應商而言,展現了驚人的”鯰魚效應“。

一位算力行業從業者提到,“以前,要租一個算力機櫃要5年起租”。

據數科星球digitalplanet計算,彼時便宜的算力機櫃可能每月3000元左右,5年總價約18萬元;貴的如一些一線城市核心地段、高功率、高配置並帶有優質服務和高帶寬的機櫃,每月可能12,000元甚至更高,5年總價約72萬元及以上。

而現在,用戶已可以選擇按token計費、按算力計費(選卡,選租賃時間)兩種模式。所以,大面積的ai開發者的加入、算力成本的下降加之性能優化可能讓閒置算力得到再次利用。

“deepseek的火爆有可能改善目前智算中心的經營模式”,一位前idc從業者透露。在他看來,目前的智算中心雖搭建頗多,但運營情況不佳。& ldquo;我估計,80%的國產算力卡都在閒置,但凡能租賃的算力都是英偉達卡”。

這種閒置的規模頗大,他透露,一些智算中心甚至有50%是國產卡(硬性要求)。在過去,國產卡在訓練的效果不佳,只能分擔一些推理需求(大模型共分訓練和推理兩個使用算力的場景)。

不過在算力出現新的使用方式後,國產卡的使用率有可能提升。

吳家驥認為,作為大模型廠商而言,不選擇國產卡的理由是“儘量減少折騰”,模型廠商更需要穩妥方案、專心研究模型技術而不是和gpu廠家搞適配。

那麼deepseek是怎麼做出來的?

一些專家指出,它使用了ptx(比cuda更底層)而不是完全使用cuda(英偉達深度學習的生態系統)。

ptx允許開發者對gpu進行更細粒度的控制,能更精準地調度計算任務,實現更高效的計算資源利用。在處理大規模分布式訓練時,可避開cuda框架的抽象層,減少潛在的效率損失,有數據表明ptx優化可提升約16%的理論算力。

影響是,在當前國產gpu發展的背景下使用ptx,便於deepseek未來適配國產gpu。它只需了解國產硬體驅動提供的基本函數接口,就可仿照英偉達gpu硬體的編程接口編寫相關代碼,為國產gpu的軟體兼容性突破提供參考。

吳家驥認為,deepseek之所以選用ptx技術,反而是因為他們沒有足夠多的卡。& ldquo;如果卡夠多,也不會考慮的”,他說。

應該說,從這個角度而言,deepseek的最大貢獻是,可以讓廠商選擇非英偉達硬體時也可以高效運行模型。

當然,至少目前想要衝擊英偉達的市場,還需不斷完善生態。在deepseek的刺激下,目前一些對成本敏感或有自主可控需求的用戶,可能會更傾向於選擇國產gpu產品。

總而言之,可以肯定的是,deepseek的出現可以在一定程度上緩解高端gpu禁售的影響。

端側模型:ai硬體的新想像

deepseek的遠期影響是ai硬體。長久以來,端側模型成為了制約ai硬體發展的桎梏。而目前,這種情況有望緩解。

現在,手機的顯存通常在4gb-12gb之間。中高端手機為例,真正能分配給模型的顯存可能僅在2gb-4gb左右。由於手機散熱、功耗等方面的限制,長時間高負載運行大顯存模型會導致手機發熱嚴重、電量消耗過快,影響用戶體驗。

而由於更便宜、更好用的大模型到來後,ai硬體的大面積改良或將成為可能。

一位ai硬體創業者指出,deepseek的出現改變了ai硬體在大模型行業發展的方向。其中,眾多團隊開始向算法效率優化傾斜。

在未來可預期的範圍內,針對ai硬體的算法將出現海量疊代。

此外,由於deepseek的推理成本降至openai模型的1/50,使得ai手機、ai眼鏡、智能穿戴等設備能夠採用低功耗晶片實現高性能ai功能。

所以硬體的開發門檻也被降低了。

正如上文所述,在海量ai應用呼之欲出之際,將倒逼ai硬體的進化。有樂觀人士稱,端側智能與國產替代將成為新的核心增長引擎。

關於deepseek的影響,你還知道哪些?

聲明:本文內容僅代表該投稿文章作者觀點,不代表藍鯨號立場。
未經授權不得隨意轉載,藍鯨號保留追究相應責任的權利

原文網址:https://zh.gushiio.com/gushi/641.html

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *