當AI開始“發Nature”,人類科學家靠什麼絕地反擊?

文|追問nextquestion

在人類探索自然奧秘的征途中,科學工具的革新始終是突破認知邊界的覈心驅動力。 2024年諾貝爾化學獎的頒發,標誌著人工智慧(AI)正式登上科學研究的覈心舞臺—& mdash; 三比特獲獎者通過AI驅動的蛋白質結構預測與設計,破解了困擾生物學半個世紀的難題,並實現了“ 從無到有” 的蛋白質創新設計。 這些發現不僅深化了我們對生命的理解,還為開發新藥物、疫苗和環保技術,甚至解决抗生素耐藥性和塑膠降解等全球性挑戰提供了實際解決方案。

這一里程碑事件尚未散去餘溫,2025年初微軟發佈的生成式AI模型MatterGen又在資料領域掀起驚濤駭浪:它逆向設計生成的新材料TaCr₂O₆,其體積模量實驗值與設計目標誤差不足20%,將傳統資料研發週期從數年縮短至數周。 這些突破揭示了一個不可逆的趨勢:
AI已從科學家的輔助工具蛻變為科學發現的“ 共謀者”, 正在重構科學研究的底層邏輯。

當AI開始“發Nature”,人類科學家靠什麼絕地反擊?插图1

▷ 
MatterGen設計的無機資料。 圖源:@ satyanadella

面對這場科學革命,科研工作者正面臨著前所未有的機遇與挑戰。

一方面,
許多科研人員雖然擁有扎實的專業知識背景,卻缺乏足够的人工智慧知識和技能,
他們對AI的應用可能感到困惑和局限,更不知道從何處著手,以讓AI在具體的科研任務中發揮最大效能。 另一方面,
許多科研領域依賴的濕實驗方法,需要高昂的試錯成本和大量重複性實驗,
加上人力、物力的巨額消耗,也為科研行程增添了很大的不確定性。

在此過程中,
許多看似無用的數據被遺棄,導致一些潜在有價值的資訊未能被充分發掘,造成了巨大的資源浪費。
在AI領域,自然科學和社會科學領域中的數據往往存在長期匱乏的情况,即便勉强蒐集到數據,也難免存在置信度不足或可解釋性欠缺的問題(研究人員在評估模型效能時會有選擇性地挑選評估名額)。 尤其在大語言模型(LLMs)的應用中,& ldquo; 胡編亂造” 或錯誤引用時有發生,進一步加深了對AI結果可信度的疑慮。

AI科技的“ 黑箱” 特性,也使得許多生成的結果缺乏透明度,無法明確解釋背後的機制和邏輯,從而影響了其在科研中的信任度和應用深度。
更為嚴峻的是,隨著AI科技逐漸發展和普及,一些本來由人類科學家完成的工作逐步被自動化,部分崗位甚至面臨被取代的風險。
越來越多科研工作者擔心,AI科技的普及可能導致人類的創造性工作被削弱。
最終,若不謹慎把握AI的發展方向,這場科技革命可能帶來社會結構、職業市場和科學倫理的深刻變化。

本文
針對科研工作者如何應對挑戰、擁抱人工智慧助力科學研究,提供了一些可供參考的實踐指導和策略建議。
本文會首先闡明人工智慧助力科學研究的關鍵領域,並探討在這些方向
取得突破所需的覈心要素
。隨後將深入分析
在科學研究中使用人工智慧時常見的風險,
特別是對科學創造力和研究可靠性的潜在影響,並提供如何通過合理的管理與創新,利用人工智慧帶來最終整體的淨效益。 最後,本文將提出三項行動指南,旨在幫助科研工作者在這場變革中以主動姿態擁抱AI,開啟科學探索的黃金時代。

01 AI助力科學研究的關鍵領域

獲取、創造和傳播知識的管道變革

為了取得新的突破性發現,科學家們往往得面對一座又一座日益龐大的知識高峰。 又因為新知識層出不窮、專業分工不斷深化,& ldquo; 知識負擔” 愈發沉重,導致具備重大創新力的科學家平均年齡越來越大,也更傾向於跨學科研究,且多在頂尖學術機構紮根。 即便小團隊通常更具推動顛覆性科學理念的能力,但由個人或小團隊撰寫的論文比例卻逐年下降。 在科研成果分享方面,多數科學論文行文晦澀、術語繁多,不僅阻隔了科研工作者之間的交流,更難以激發其他科研工作者、公眾、企業或者政策制定者對相關科研工作的興趣。

然而,隨著人工智慧,尤其是大語言模型的發展,我們正在發現新的方法來應對當前科研中的種種挑戰。
借助基於LLM的科學助手,我們能够更加高效地從海量文獻中提煉出最相關的見解,還可以直接對科研數據提出問題,例如探索研究中行為變數之間的關聯。 如此一來,繁瑣的分析、寫作和審稿過程不再是獲取新發現的“ 必經之路”,& ldquo; 從數據中選取” 科學發現,也有望顯著加快科學行程。

隨著技術進步,尤其是通過在科學領域特定數據上微調LLM,以及在長上下文視窗處理能力和跨文獻引用分析方面的突破,科學家們將能够更高效地選取關鍵資訊,從而顯著提升研究效率。 更進一步,若能開發出“ 元機器人” 式的助手,跨越不同的研究領域綜合數據,就有望解答更複雜的問題,為人類勾勒出學科知識的全景。 可以預見,未來可能會出現專門為這些“ 論文機器人” 設計高級查詢的科研工作者,借由智慧拼接多個領域的知識“ 碎片”, 推動科學探索的邊界。

儘管這些技術提供了前所未有的機會,它們也伴隨著一定的風險。 我們需要重新思考一些科學任務的本質,
特別是在科學家可以依賴LLM幫助批判性分析、調整影響力或將研究轉化為互動式論文、音訊指南等形式時,& ldquo; 閱讀” 或“ 撰寫” 科學論文的定義可能會發生變化。

生成、選取、標注和創造大型科學數据集

隨著科研數據的不斷增加,人工智慧正在為我們提供越來越多的幫助。 例如,
它能够提高數據收集的準確性
,减少在DNA測序、細胞類型識別或動物聲音採集等過程中可能出現的錯誤和干擾。 除此之外,科學家們還可以利用LLM增强的跨影像、視頻和音訊分析能力,從科學出版品、檔案資料和教學視頻等較為隱蔽的資源中選取隱藏的科學數據,並將其轉化為結構化的資料庫,便於進一步分析和使用。
人工智慧還能够為科學數據添加輔助資訊,幫助科學家更好地使用這些數據。
例如,至少三分之一的微生物蛋白質功能細節尚無法可靠注釋。 2022年,DeepMind的研究人員通過人工智慧預測蛋白質的功能,為UniProt、Pfam和InterPro等資料庫增添了新的條目。

當真實數據不够時,經過驗證的人工智慧模型還能成為合成科學數據的重要來源。
AlphaProteo蛋白質設計模型便是基於超過1億個由AlphaFold 2生成的人工智慧蛋白質結構,以及來自蛋白質資料庫的實驗結構進行訓練。 這些人工智慧科技不僅能够補充現有的科學數據生成過程,還能顯著提升其他科研努力的回報,例如檔案數位化,或資助新的資料獲取科技和方法。 以單細胞基因組學領域為例,正以前所未有的精細度構建龐大的單細胞數据集,推動這一領域的突破與進展。

當AI開始“發Nature”,人類科學家靠什麼絕地反擊?插图3

▷ 
alphafold預測的某蛋白結構圖,顏色越藍可信度越高,越紅可信度越低。 圖源: AFDB

類比、加速並為複雜實驗提供資訊

許多科學實驗成本高昂、複雜且耗時漫長,也有些實驗因為研究人員無法獲取所需的設施、參與者或投入根本無法開展。 核聚變就是一個典型的例子。 核聚變有望成為一種幾乎取之不盡、零排放的能源,並能推動海水淡化等高能耗創新技術的規模化應用。 要實現核聚變,科學家們需要創造並控制电浆。 然而,所需的設施建造起來卻極其複雜。 國際熱核聚變實驗堆的原型托卡馬克反應堆於2013年開始建造,但最早也要到2030年代中期才能開始進行电浆實驗。 人工智慧能够幫助類比核聚變實驗,並使後續實驗時間得到更高效的利用。 研究者們可以在物理系統的類比中運行强化學習代理來控制电浆的形狀。 類似的思路也可以推廣到粒子加速器、天文望遠鏡陣列或引力波探測器等大型設施上。

利用人工智慧模擬實驗在不同學科中的表現形式會大相徑庭,但一個共同點是,這些類比通常會為物理實驗提供資訊和指導,而非取而代之。
例如,AlphaMissense模型能够對7100萬種潜在人類錯義變異的89%進行分類,幫助科學家聚焦於那些可能導致疾病的變異,從而優化實驗資源的配寘,提升研究效率。

當AI開始“發Nature”,人類科學家靠什麼絕地反擊?插图5

▷ 
DIII-D的反應室,這是一個由通用原子公司在聖地牙哥運營的實驗性托卡馬克聚變反應堆,自20世紀80年代末完工以來一直用於研究。 典型的環形腔室覆蓋有石墨,有助於承受極端高溫。 圖源: Wikipedia

對複雜系統及其組件間的相互作用進行建模

在1960年的一篇論文中,諾貝爾物理學獎得主尤金· 維格納(Eugene Wigner)對數學方程在類比諸如行星運動等自然現象時展現的“ 不可思議的有效性” 感到驚歎。 然而,在過去的半個世紀裏,
依賴方程組或其他確定性假設的模型,始終難以全面捕捉生物學、經濟學、天氣和其他複雜領域系統中瞬息萬變的動態與混沌。
這些系統的構成部分數量龐大、相互作用密切,且可能發生隨機或混沌行為,使科學家們難以預判或掌控其在複雜情景下的反應。

人工智慧則可以通過獲取更多關於這些複雜系統的數據,並從中學習更强大的模式和規律,來改進對其的建模。
例如,傳統的數值預測主要基於精心定義的物理方程,對大氣複雜性有一定解釋力,但精度始終不足,且計算成本高昂。 而基於深度學習的預測系統,能够提前10天預測天氣狀況,在準確性和預測速度方面均勝過傳統模型。

在許多情况下,
AI並非取代傳統複雜系統的建模方法,而是賦予其更豐富的工具。
例如,基於智慧體的建模方法通過類比個體(比如公司和消費者)之間的互動,來研究這些互動如何影響像經濟這樣的更大、更複雜的系統。 傳統的方法要求科學家預先設定智慧體的行為管道,如“看到商品漲價就少買10%”“每個月存薪水的5%”。 但現實的複雜度常讓這些模型“ 捉襟見肘”, 對新興現象(如直播帶貨對零售業的衝擊)難以給出準確預測。

在人工智慧的幫助下,科學家現在可以創建更加靈活的智慧體。
這些智慧體能够進行交流、採取行動(如蒐索資訊或購買商品),並能對這些行動進行推理和記憶。 利用强化學習還可以讓這些智慧體在動態環境中進行學習和適應,甚至在面對能源價格變動或應對疫情政策變化時,智慧體能够自行調整自己的行為。 這些新方法不僅提高了類比的靈活性和效率,還為科學家們提供了更多創新的工具,幫助他們應對日益複雜的研究問題。

找出具有廣闊蒐索空間問題的創新解決方案

許多重要的科學問題嘗嘗伴隨著近乎天文數位級的難以理解的潜在解決方案。 設計小分子藥物時,科學家要在10
60
之多的可能性中篩選; 而若設計含400個標準胺基酸的蛋白質,選擇空間甚至高達10
20400
。傳統上,科學家依靠直覺、試錯、反覆運算或强力計算的組合來尋找最佳的分子、證明或算灋。 但這些方法難以窮盡蒐索空間,因而往往與最佳方案失之交臂。
人工智慧則能够開闢這些蒐索空間的新領域,同時更快地聚焦於最有可能是可行和有用的解決方案
—& mdash; 這是一個微妙的平衡。

2016年AlphaGo對弈李世石為例。 AI的落子位置看似不合常規,甚至超出了人類傳統的棋路與經驗,但卻成功擾亂李世石的思路,反而讓AlphaGo更易掌控局勢。 李世石後來表示,自己被這一著棋震驚到了。 這意味著AlphaGo的這一著棋完全超出了人類傳統棋手的思維方式和經驗。 也證明了AI可以在巨大的可能性空間中發現人類未曾想到的解決方案,從而推動策略革新。

當AI開始“發Nature”,人類科學家靠什麼絕地反擊?插图7

▷ 
AlphaGo(執黑)與李世石(執白)對戰第二局的落子情况,最終AlphaGo贏下本局。 AlphaGo的第37手落在了第五線,超出了絕大多數棋手和專家的預料。 賽後,很多人對這步棋評估甚高,認為這展現了AlphaGo的全域判斷力。 圖源:芥子觀須彌

02 AI驅動科學突破的覈心要素

問題的選擇

正如量子力學奠基人海森堡所言,& ldquo; 提出正確的問題,往往等於解决了問題的大半”。 那麼,怎樣評估問題的好壞呢? DeepMind首席執行官Demis Hassabis提出了一個思維模型:如果將整個科學看作一棵知識樹,
我們應該特別關注的是樹根—& mdash; 那些基本的“ 根節點問題”
,解决這些問題可以解鎖全新的研究領域和應用。 其次,需要評估人工智慧是否適用且能够帶來增益,
我們需要尋找具有特定特徵的問題
,例如巨大的組合蒐索空間、大量數據和明確的目標函數,以進行效能基準評估。

通常,一個問題在理論上適合人工智慧,但由於輸入數據尚未到位,可能需要暫時擱置,等待時機。 除了選擇合適的問題外,指定問題的難度級別和可行性也至關重要。
人工智慧的强大問題陳述能力往往體現在那些能够產生中間結果的問題上。
如果選擇一個過於困難的問題,就無法生成足够的訊號來取得進展。 這需要依賴直覺和實驗來實現。

評估方法的選擇

科學家們使用多種評估方法,如基準測試、度量標準和競賽,來評估人工智慧模型的科學能力。 通常,多個評估方法是必要的。 例如,天氣預報模型從一個初步的“ 進展度量” 開始,基於一些關鍵變數(如地表溫度),來“ 爬升” 模型的效能。 當模型達到一定的效能水准時,他們使用超過1300個度量(靈感來源於歐洲中期天氣預報中心的評估評分卡)來進行更全面的評估。

對科學最具影響力的人工智慧評估方法通常是由社區推動或得到認可的。
社區的支持也為發佈基準測試提供了依據,使研究人員可以使用、責備並改進這些基準。 但此過程中需警惕一個隱憂:基準數據若被模型的訓練過程意外“ 吸收”, 評估準確度便會打折扣。 現時尚無完美方案來應對這一衝突,但定期推出新公共基準、建立新的協力廠商評估機構並舉辦各類競賽,都是持續檢驗與完善AI科研能力的可行之道。

跨學科合作

人工智慧在科學領域的應用往往默認是多學科的,但要取得成功,它們需要真正轉變為
跨學科的合作

一個有效的開端是選擇一個需要各種專業知識的科學問題,然後為其提供足够的時間和精力,以便圍繞問題培養團隊的合作精神。
例如,DeepMind的伊薩卡項目(Ithaca project)利用人工智慧修復和歸類受損的古希臘銘文,幫助學者研究過去文明的思想、語言和歷史。 為了取得成功,項目的聯合負責人Yannis Assael必須理解碑銘學—& mdash; 研究古代刻寫文字的學科。 而項目中的碑銘學家們則必須學習AI模型的工作原理,以便將自己的專業直覺與模型輸出相結合。

這種團隊精神的養成,離不開恰當的激勵機制。 賦予一個小而緊密的團隊專注於解决問題的權力,而非專注於論文的作者署名,是AlphaFold 2取得成功的關鍵。 這樣的專注在工業實驗室中可能更容易實現,但也再次強調了長週期公共科研資助的重要性,尤其是這種資助不應過於依賴於出版壓力。

同樣,組織還需要為能够融合不同學科的人才創造職位和職業發展路徑。
例如在穀歌,DeepMind的研究工程師在推動研究與工程之間的良性互動中發揮了關鍵作用,專案經理則有助於培養團隊合作氛圍,並促進團隊之間的溝通與合作。 那些能够識別和連接不同學科之間聯系,並迅速提升新領域技能的人才應該給予更多的重視。 此外,為了激發思想交流,組織應鼓勵科學家和工程師定期調整項目,建立一種促進好奇心、謙遜態度和批判性思維的文化,使不同領域的從業者能够在公開討論中提出建設性的意見和迴響。

當然,建立合作夥伴關係絕非易事。 在開始討論時,必須儘早達成共識,明確整體目標,並解决一些棘手的潜在問題,比如各方對成果的權利分配、是否發表研究、是否開源模型或數据集、以及應採用什麼類型的許可。
分歧在所難免,但如果能讓不同激勵機制下的公共與私營組織找到清晰、對等的價值交換點,那麼就有可能在充分發揮各自優勢的同時,共同走向成功。

當AI開始“發Nature”,人類科學家靠什麼絕地反擊?插图9


 伊薩卡(Ithaca)的架構。 文字中受損部分用短橫線“-& rdquo; 表示。 在此例中,項目組人為損壞了字元“& delta;& eta;& mu;”。 基於這些輸入,伊薩卡能够恢復文字,並識別出文字撰寫的時間和地點。 圖源: deepmind

03管理AI風險,
提升科學創造力與研究可靠性

2023年
Nature
刊發的深度調查報告顯示,全球62%的科研團隊已在資料分析中使用機器學習工具,但其中38%的研究欠缺對算灋選擇的充分論證。 這種普遍性警示我們:
AI正在重塑科研範式的同時,也在製造新的認知陷阱。

雖然AI可以幫助我們從海量資訊中選取有用的規律,但它
往往基於已有數據和知識進行推演,而不是從全新的視角出發進行創造性思考。
這種“ 模仿” 式的創新,可能使得科學研究變得
越來越依賴於已有的數據和模型,從而限制了科研人員的思維廣度。
在過度依賴AI的情况下,我們有可能忽視一些原創的、非傳統的研究方法,這些方法或許能打開新的科學領域。
尤其在探索未知和前沿領域時,人的直覺和獨立思考能力依然至關重要。

除了對科學創造力的影響,AI的普及還可能對研究的可靠性和理解力帶來隱患。 AI在提供預測和分析時,往往基於概率和模式識別,而不是直接的因果推理。 囙此,AI給出的結論可能只是一種統計上的相關性,而不一定代表真實的因果關係。 此外,AI算灋的“ 黑箱” 特性也使得它們的決策過程變得不透明。 囙此對於科研人員而言,理解AI得出的結論背後的邏輯至關重要,尤其是在需要對結果進行解釋或應用到實際問題時。 若我們盲目接受AI的結果而不加以審視,可能會導致誤導性結論的產生,進而影響研究的可信度。

另一方面,我們認為,
若能合理管理AI的風險,便有機遇將這項科技深度融入科學探索,幫助應對更多層面的挑戰,甚至帶來深遠影響。

創造力

科學創造力指的是在科學研究中,個體或團隊通過獨特的思維方式、方法論或視角,提出新穎的假設、理論、方法或解決方案,推動科學進展的能力。 在實際操作中,科學家通常基於一些主觀因素來判斷一個新想法、方法或成果是否具備創造性,比如它的簡潔性、反直覺性或美感。 一些科學家擔心,大規模使用AI可能削弱科學中更具直覺性、偶然發現式或不拘一格的研究管道。 這個問題可能通過不同管道表現出來。

一個擔憂是,AI模型經過訓練後會儘量減少訓練數據中的异常值,而科學家往往通過跟隨直覺放大异常值,來應對一些令人困惑的數據點。 另一個擔憂是,AI系統通常被訓練來完成特定任務,依賴AI可能會錯過更多偶然的突破,比如那些未曾研究的問題的解決辦法。 在社區層面,一些人擔心,如果科學家大規模擁抱AI,可能會導致研究成果的逐漸同質化,畢竟,大型語言模型在回應不同科學家的提問時可能會產生相似的建議,或是科學家會過度關注那些最適合AI解决的學科和問題。

為緩解此類風險,科研人員可在保證探索性研究深度的前提下,靈活調整AI使用策略。
例如,通過對大型語言模型進行微調,使其能够提供更個性化的研究創意,或幫助科學家更好地引發自己的想法。

AI還能够促進一些可能原本不會出現的科學創造性。
其中一種AI創造性是插值(Interpolation),即AI系統在其訓練數據中識別出新的想法,尤其是在人的能力受到限制的情况下。 例如,使用AI檢測來自大型强子對撞機實驗的大規模數據集中的异常值。

第二種是外推(Extrapolation),在這種情況下,AI模型能够將知識推廣到訓練數據之外,提出更具創新性的解決方案。

第三種是發明(Invention),AI系統提出完全脫離其訓練數據的全新理論或科學體系,類似於廣義相對論的最初發展或複數的創造。 雖然現時AI系統尚未展示出這樣的創造性,但新的方法有望解鎖這種能力,例如多智慧體系統,這些系統會針對不同的目標(如新穎性和反直覺性)進行優化,或者是科學問題生成模型,專門訓練用於生成新的科學問題,進而激發創新的解決方案。

可靠性

可靠性指的是科學家們在相互依賴他人研究成果時的信任程度,他們需要確保這些結果並非偶然或錯誤。
現時人工智慧研究中存在不良做法,科研工作者在進行科學研究時應高度警惕。 例如研究人員根據自己的偏好挑選用來評估模型表現的標準,而AI模型,尤其是LLMs,也容易“ 幻覺” 產生“ 幻覺”, 即虛假或誤導性的輸出,包括科學引用。 LLMs還可能會導致大量低質量論文的氾濫,這些論文類似於“ 論文工廠” 產生的作品。

為了應對這些問題,現時已經存在一些解決方案,包括製定供研究人員遵循的良好實踐清單,以及不同類型的AI事實性研究,例如訓練AI模型將其輸出與可信來源對接,或幫助驗證其他AI模型的輸出。

另一方面,
科研人員還可以利用AI提升更廣泛研究基礎的可靠性。
例如,如果AI能够幫助自動化數據注釋或實驗設計的部分過程,這將為這些領域提供迫切需要的標準化。 隨著AI模型在將其輸出與引用文獻對接方面的能力不斷提升,它們也可以幫助科學家和政策制定者更系統地回顧證據基礎。 科研人員還可以使用AI幫助檢測錯誤或偽造的影像或識別誤導性的科學聲明,比如
Science
期刊最近對一款AI影像分析工具的試驗。 AI甚至可能在同行評審中發揮作用,尤其考慮到一些科學家已經使用LLMs來幫助審閱自己的論文以及驗證AI模型的輸出。

可解釋性


Nature
雜誌最近的一項調查中,科學家們認為,使用AI進行科學研究最大的風險是依賴模式匹配,而忽視了深入的理解。 對於AI可能破壞科學理解的擔憂,其中之一是對現代深度學習方法“ 無理論” 的質疑。 它們並不包含,也沒有為所預測現象提供理論解釋。 科學家們還擔心AI模型的“ 不可解釋性”, 即它們不基於明確的方程式和參數集。 還有人擔心任何解釋AI模型輸出的管道都不會對科學家有用或易於理解。 畢竟,AI模型或許能提供蛋白質結構或天氣預測,卻未必能告訴我們為何蛋白質以特定管道折疊,或大氣動力學又是如何導致氣候變化。

其實,人們對“ 用低級的計算替代‘ 真正的理論科學’& rdquo; 的擔憂並不新鮮,過去的科技,如蒙特卡羅方法,也曾遭到過類似的責備。 將工程學與科學相結合的領域,如合成生物學,也曾被指責優先考慮有用的應用而忽視深入的科學理解。
但歷史證明,這些方法和科技最終推動了科學理解的發展。
更何况,大多數AI模型並非真正的“ 無理論”。 它們
通常基於先前知識構建數据集與評估標準,有些還具備一定程度的可解釋性。

如今的可解釋性科技正不斷發展,研究者嘗試通過識別模型中學到的“ 概念” 或內在結構,來理解AI的推斷邏輯。 儘管這些可解釋性科技有很多局限性,但它們已經使科學家能够從AI模型中得到新的科學假設。 例如,有研究能够預測DNA序列中每個堿基對不同轉錄因數結合的相對貢獻,並用生物學家熟悉的概念解釋這一結果。 此外,AlphaZero在下棋時學到的“ 超人類” 策略,經由另一個AI系統解析後,還能傳授給人類棋手。
這意味著,AI學習的“ 新概念” 或許能反哺人類認知。

即使沒有可解釋性科技,AI也能通過開啟新的研究方向來改善科學理解,這些方向本來是無法實現的。
例如,通過解鎖生成大量合成蛋白質結構的能力,AlphaFold使科學家能够跨越蛋白質結構進行蒐索,而不僅僅是蛋白質序列。 這一方法被用來發現Cas13蛋白家族的一個古老成員,該成員在RNA編輯方面有潜力,尤其是在幫助診斷和治療疾病方面。 這個發現還挑戰了關於Cas13進化的先前假設。 相反,嘗試修改AlphaFold模型架構以融入更多的先驗知識,卻導致了效能下降
。這凸顯了準確性與可解釋性之間的權衡。 AI“ 模糊性” 源於自它們能够在高維空間中操作,而這些空間對人類來說可能是不可理解的,但卻是科學突破所必需的。

04結語:把握機遇,人工智慧賦能科研的行動方案

顯然,科學及人工智慧在加速科學行程中的潜力應當引起科研工作者的高度重視。 那麼,科研工作者應該從哪裡開始呢? 為了充分利用AI驅動的科學機遇,以主動的姿態擁抱變革是必要的。 或許有這樣一些建議可以採用。

首先,
掌握AI工具的語言,
如理解生成模型、强化學習等科技原理,並熟練運用開源的代碼庫進行定制化探索; 其次要
構建數據與實驗的閉環,
將AI生成結果通過自動化實驗室(如加州大學伯克利分校A-Lab)快速驗證,形成“ 假設-生成-驗證” 的反覆運算連結; 更重要的是
重塑科研想像力
—& mdash; 當AI能設計出超越人類經驗範疇的蛋白質或超導體時,科學家應轉向更本質的科學問題,例如通過AI揭示資料效能與微觀結構的隱變數關係,或探索多尺度跨物理場的耦合機制。 正如諾貝爾獎得主David Baker所言:
“ AI不是替代科學家,而是賦予我們觸碰未知的階梯。& rdquo;
在這場人機協同的探索中,唯有將人類的創造性思維與AI的計算暴力深度融合,方能真正釋放科學發現的無限可能。

參考文獻

https://www.aipolicyperspectives.com/p/a-new-golden-age-of-discovery

https://mp.weixin.qq.com/s/_LOoN785XhnXao9s9jTSVQ243145.

原文網址:https://zh.gushiio.com/ai/2992.html

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *