李彥宏談deepseek:我們到處都能看到創新,因此必須適應這種快速變化

李彥宏談deepseek:我們到處都能看到創新,因此必須適應這種快速變化插图1李彥宏談deepseek:我們到處都能看到創新,因此必須適應這種快速變化插图2

百度創始人、ceo李彥宏(圖片來源:視頻截圖)

百度創始人、董事長、ceo李彥宏(robin li)終於被問到中國deepseek帶來的影響。

北京時間2月11日下午,gushiio.com股市智能agi獲悉,在杜拜舉行的2025世界政府峰會首日活動上,李彥宏與阿聯 ai 部長奧馬爾·蘇丹·阿爾·奧拉馬(omar sultan al olama)進行圓桌對談。

奧拉馬首先直接問李彥宏:“deepseek這個熱潮,在你看來,這是預料之中的嗎,比如你真的認為這會發生嗎?它將在過去以這種方式發生。或者你是不是也被deepseek所困?& rdquo;

李彥宏對此表示,今天談論大模型時,ai大模型成本每年減少90%以上,比計算機革命“摩爾定律”快得多,在美國的環境裡,他們總是建立或開發最強大的大語言模型,但在中國,由於計算限制,我們必須創新以降低成本。

在李彥宏看來,百度在chatgpt發布三個月後推出文心一言(現在名為文小言),這是中國上市公司中第一個推出類chatgpt應用的。“這是一個非常激動人心的時刻,我們到處都能看到創新,我們必須適應這種快速變化的創新。& rdquo;

據悉,截至2024年11月,百度文心大模型的日均調用量已經超過15億,相較一年前首次披露的5000萬次,增長約30倍。李彥宏表示“增速超出預期”,說明ai是真需求。

他感慨,這代表著過去兩年中國大模型應用的爆發。

2023年1月,gushiio.com股市智能app報導稱,李彥宏在百度內部直言,短期公司“虧是因為高速成長”是行的,但是長期來講是不行的,很多企業級公司因為沒有現金周轉能力,沒有現金流,最後資金斷裂公司會死掉。李彥宏還痛斥內部員工沒有商業意識,致使新業務“收入質量”不高。

2023年11月,李彥宏在深圳一場活動中表示,中國的大模型太多。國內有200多個大模型其實都沒有什麼使用量,他暗指文心大模型一家的調用量高於200多個大模型。李彥宏還稱,要開發好用、可用的大模型,存在很高的技術和成本門檻,“重複造輪子”其實是對社會資源的極大浪費。

2023年12月,李彥宏在北京活動上強調,百模大戰是對社會資源的極大浪費,更多資源應該放在超級應用。他還直言,包括百度在內的大公司內部反應太慢、生產力落後,因此內部反覆強調要利用文心一言“重構”應用,而不是把當作“工具”。& ldquo;首先,其實大公司反應都是很慢的,甚至我有時候講,大公司代表落後生產力,你千萬不要看大公司在做什麼。

2024年4月,李彥宏再度表示,同等效果下,成本明顯更低,所以開源 ai 模型會越來越落後,引發市場關注。

2024年7月,李彥宏直言開源模型就是“智商稅”,“當你理性地去想,大模型能夠帶來什麼價值,以什麼樣的成本帶來價值的時候,就會發現,你永遠應該選擇閉源模型。今天無論是chatgpt、還是文心一言等閉源模型,一定比開源模型更強大,推理成本更低。& rdquo;

2024年9月,李彥宏表示不同意“大模型能力已經沒有壁壘”觀點。而且他認為,算力是決定大模型成敗的一個關鍵因素,但開源模型效率太差,無法適合未來發展。此外,李彥宏還預測,未來,中國和openai gpt的 ai 大模型之間的差距可能會越來越大。

在ai應用的發展趨勢上,李彥宏曾表示,智能體是ai應用的最主流形態,即將迎來爆發點。

2025年2月,中國開源 ai 模型公司deepseek熱潮席捲全球,百度多個項目接入了deepseek。

其中,百度智能雲千帆大模型平台正式上線了deepseek-r1與deepseek-v3模型,模型上線首日,已有超1.5萬家客戶通過千帆平台進行模型調用;百度百舸基於崑崙芯p800,發布部署“滿血版deepseek r1+聯網搜索”服務;百度智能雲客悅、曦靈、甄知、一見四款大模型應用產品完成deepseek適配上線;百度文小言ios版app接入deepseek-r1模型以優化拍照解題功能。

李彥宏還在世界政府峰會上表示,robotaxi可以大大降低交通事故死亡率。從蘿蔔快跑的實際記錄來看,出險率僅為人類駕駛員的1/14。& ldquo;技術進步非常快,自動駕駛比人類司機安全十倍。& rdquo;

不過李彥宏也表示,“這(自動駕駛)仍然是一個新產業、一個新領域,人們對事故的容忍度很低。如果發生一些嚴重的事故,可能會拖累你(企業)的收入,因此,您可能需要將操作停止一段時間,找出發生的情況,並進行所有調整以重新啟動操作。我們一直非常小心,所以到今天為止,儘管我們已經在相對較大的規模上運營兩、三年,但我們還沒有任何事故發生。& rdquo;

李彥宏在會上重點談及算力和雲基礎設施,他認為基礎設施層收入遠高於應用層,也是需要重點發力投資的領域。

他指出,目前在應用層,ai 大模型公司還沒有賺到錢,當我們談論 ai  原生應用程式時,arr或每年的經常性收入可能是幾千萬或最多幾億美金,但在gpu層面談論的是百億美金。儘管 ai 大模型技術成本每年降低90%,但性能越來越好,因此,技術仍在不斷發展,你不能停止投資,你必須投資,為了確保你(百度)在這場技術革命中走在最前面。

“我認為在計算機和雲基礎架構,以及對晶片的投資仍然是非常必要的,以便提出下一個基礎模型,都必須使用更多計算來嘗試各種不同領域的 ai 模型。也許在某個時候,你找到了一條捷徑,比如說,花了600萬美金來訓練一個模型,但你已經花了數十億美金來找出哪種方式是正確的。& rdquo;李彥宏稱。

李彥宏指出,當前指望 ai 應用層出現“超級應用”,並且能夠賺到錢產生價值,這是不太可能的。

“我認為,我們確實需要擔心應用層的價值創造。如果你花費數千億美金作為基礎設施層,你就不能想出一些比這多10倍的應用程式。這是不可持續的。所以即使我們已經在各種不同的場景中看到了各種用例,可能更像是兩個b端。在消費端我們還沒有看到像移動網際網路階段所謂的超級應用,類似每日活躍用戶數以億計、人們每天花2小時的應用程式,我們還沒有看到這樣的機會。但我相信隨著時間的推移,有人會發現這一點,你將能夠創建一個非常有粘性的應用產品。& rdquo;李彥宏表示,目前離超級應用還很遠,全世界都在尋找這種超級應用產品。

李彥宏反覆強調,回顧過去的100年,大多數創新都與降低成本有關。如果你能減少一定數量的成本、一定的百分比,那麼意味著你的生產力也提高了這個百分比。

“我認為這就是創新的本質,只是今天的速度比以前快得多。但對於中國的公司來說,我們受到了某種類型的限制。& rdquo;李彥宏稱。

 

原文網址:https://zh.gushiio.com/ai/1030.html

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *