人機共生,誰在為誰供能?

編譯|追問nextquestion

人機共生,誰在為誰供能?插图

圖1.本文來源:pedreschi, dino, et al.“ human-ai coevolution.&# 8221; artificial intelligence (2024): 104244.

01 人類與人工智慧協同進化的實例

人類歷史是一部協同進化的歷史,包括人類與其他物種之間;人類與工業機器之間;人類與數位技術之間的協同進化。如今,人類與人工智慧之間的協同進化也在不斷深化。

以推薦系統和智能助手為例。社交平台的推薦算法在無形中影響著廣大人群的決定和互動;購物平台的個性化建議引導著我們的消費習慣;導航服務建議通往目的地的路線;而生成式 ai 根據用戶的願望創建內容,並對教育,醫療,就業等多方面產生深遠影響。

所有這些系統中都存在一個共同點,那就是“反饋循環”。而這正是人機協同進化的核心。以推薦系統為例,我們可以將反饋循環描述為:用戶的決策決定了推薦系統訓練的數據集;經過訓練的推薦系統隨後影響用戶的後續選擇,這反過來又影響下一輪的訓練,從而形成一個可能永無止境的循環(圖2)。

人機共生,誰在為誰供能?插图1

▷ 圖2.人類與人工智慧的反饋循環

人類與技術之間的協同進化並非新鮮事,但人機反饋循環為其賦予了前所未有的形式縱觀歷史,技術與社會始終在相互影響和共同發展,例如,印刷術、廣播和電視的誕生深刻改變了歷史進程。然而,至少在普及性、說服力、可追溯性、速度和複雜性這五個層面,基於人工智慧的推薦有著顯著的放大效應。

在普及性上,從社交媒體到在線零售和地圖服務,推薦系統無處不在。得益於複雜的算法、豐富的數據以及用戶普遍接受推薦,推薦系統已經成為在線互動中的常規組成部分。通過收集和分析個人選擇的數據,推薦系統能夠提供高度個性化的建議,進一步提高了推薦的準確性和說服力。

與傳統技術不同,人機生態系統留下了推薦內容和用戶選擇(通常稱為大數據)的不可磨滅的痕跡。因此,基於 ai 的推薦系統擁有對個人選擇的全面視角和前所未有的可以成規模地改變人類行為的能力。在此背景下,人機協同進化的速度比以往任何時候都要快,因為 ai 可以在幾乎沒有人類監督的情況下重新訓練,並以前所未有的速度提供建議。人機生態系統還促進了用戶和產品巨大空間之間前所未有的互動量,增加了系統複雜性。

02 人類與人工智慧互動的研究意義

人工智慧在許多複雜任務中已經能夠達到與人類相似的表現,並且正變得越來越可解釋和關注人類需求。然而,當前的研究方法往往將機器視為獨立的個體,而不是從協同進化的角度進行研究。反饋循環對人類-人工智慧生態系統的影響我們知之甚少;因此,我們需要深入研究推薦系統是如何影響社會,尤其是它們是否加劇或緩解了不希望出現的集體效應。

複雜性科學表明,社會互動網絡是異質的,導致深度連接的樞紐和模塊化結構。這種結構異質性與社會效應,如不平等和隔離相互作用,影響著網絡的演化,如流行病、信息和觀點的傳播;產品、思想和人的成功;以及城市動態。而人類-人工智慧反饋循環對網絡過程的影響與人工智慧出現之前不同。採用協同進化的視角,有助於揭示人類與推薦者之間複雜互動的規律。我們對控制人-人工智慧協同進化的網絡動力學的參數知之甚少,因此難以對如此複雜的系統進行預測。

為此,對人類與人工智慧協同進化的研究,需要新的方法論。科幻作家艾薩克·阿西莫夫曾說“變化,持續的變化,不可避免的變化,是當今社會的決定性因素。任何明智的決定都不能再不考慮現實世界以及它將變成的世界”。隨著當今人工智慧系統的廣泛使用,越來越大的權力,正在以越來越難以被察覺的方式,被越來越少的一群人掌握。定義何為人的不再是神明,權威,公眾,而變成了人類與技術互動產生的生態系統。

當前關於人工智慧的探討,或以技術為中心、或以人為中心。而反饋循環引入了一個以社會為中心來思考人工智慧的新維度。與傳統的技術中心觀點不同,這種視角認為反饋循環的影響不能僅通過更多的技術手段來解決。此外,它還接納了以人為中心的人工智慧和集體智慧所帶來的洞見。一方面,從以人為中心的角度來看,反饋循環可能會損害人類福祉。另一方面,從集體智慧的角度來看,反饋循環則有可能推動人類與推薦系統的互動朝著理想的方向發展。

以社會為中心的人工智慧為人工智慧社會影響的辯論帶來了三個額外的元素(見圖3),分別是(i)反饋循環不僅影響個人福祉,也影響社會福祉;(ii)管理反饋循環需要發展新的科學方法;(iii)與人類-人工智慧協同進化相關的問題,沒有法律和政治干預是無法解決的。

人機共生,誰在為誰供能?插图2

圖3.& nbsp;以社會為中心的人工智慧為辯論帶來了三個額外的要素。

03 人類與人工智慧協同進化研究的方法論

人類與人工智慧協同進化的研究,有多種研究方法,每種各有其利弊。

實證研究與模擬研究是現有研究大多採用的方法。實證研究基於用戶在真實平台上的行為生成的數據,這些數據源於人類與推薦系統或智能助手之間的動態互動。這些研究提供了關於特定現象的證據及其理解的實證基礎。如果數據集樣本大且多樣化,實證研究也使研究人員能夠對更廣泛的群體進行概括。然而,實證研究的局限性在於結論往往受到研究時間框架和條件的限制。此外,由於數據主要歸大型科技公司所有且很少公開,這些研究幾乎無法複製。

模擬研究則基於由機制、人工智慧或數字孿生模型生成的數據。模擬研究為實證研究提供了一種成本效益高的替代方案,尤其是在處理大規模生態系統或數據不易獲取的情況下。該方法可以在相同的初始條件下反覆進行,從而驗證結果。學者可以通過調整參數來觀察對人類-人工智慧生態系統受到的影響,有助於研究者理解變量之間的複雜關係。然而,由於它們基於大量假設,模擬並不一定反映現實世界的動態,因此在揭示意外或未預見的影響上存在局限性。特定參數的設置可能會阻礙意外結果的出現。

實證和模擬方法都可以是觀察性的或控制性的。受控研究,在社會科學中被稱為實驗,包括准實驗、隨機對照試驗和 a/b 測試。這些研究將樣本分為對照組和一個或多個實驗組,每個組接受不同的建議。通過比較兩組(或更多組)對不同干預的影響,來衡量不同建議產生的影響。受控實驗允許研究人員控制各種因素和條件,便於隔離特定干預變量的影響。受控實驗的優勢在於能夠建立因果關係,並且減少選擇偏差,確保各組之間的平衡。然而,受控研究也存在重要的不足:控制環境中的納入和排除標準可能會限制結果的普世性;並且難以適應實驗過程中發生的變化。此外,它們難以設計,因為它們需要直接訪問平台用戶和算法。

一些受控研究的例子有助於闡明這些方法的特點。比如huszá r 等人通過實驗研究了twitter個性化時間線對政治內容傳播的影響。該平台選擇了一組用戶,讓他們接觸到他們關注的帳戶以逆時間順序發布的推文,而實驗組用戶則接觸到基於人工智慧的個性化推薦。個性化推薦導致政治信息的顯著放大,主流右翼政黨比左翼政黨更多地受益於算法個性化。cornacchia 等人則使用交通模擬器來估計實時導航服務對城市環境的影響。研究發現,當採用率超過閾值時,導航服務可能會增加旅行時間和二氧化碳排放。

觀察性研究假設沒有控制因素,僅依靠自然發生的數據。例如分析facebook用戶的行為、向駕駛員提供google maps給出的建議、從瀏覽器日誌中收集的數據、模擬人類行為的機器人,以及要求志願者以特定方式行為的實驗。觀察性研究(無論是基於經驗數據還是模擬)的一個優點是,當數據量大且具有代表性時,該方法允許研究人員對更廣泛的群體進行概括,增強發現的適用性,並突出對不同群體段落的潛在偏差。然而,一個顯著的局限性是在建立因果關係時面臨挑戰,需要額外的證據來支持因果主張。此外,觀察性研究的發現可能受到選擇偏差、測量誤差或混雜變量的影響;這可能會損害它們的準確性和可靠性。

為了闡明觀察性研究的特徵,這裡給出兩個例子。cho 等人分析了導致 youtube 上政治極化的因素,發現推薦系統可以導致這種極化,但主要是通過用戶的渠道偏好。fleder 等人調查了推薦系統對音樂流媒體平台上用戶購買行為的影響。他們發現,接觸到推薦的用戶購買的商品更多,並且在購買種類的多樣性上彼此更相似。

有一些研究超越了靜態調查推薦算法對用戶行為影響的範疇,從理論和/或實證角度分析反饋循環機制。其中一些工作引入數學模型,基於模型中的參數,提供對推薦者影響的見解。如一項理論研究探討了反饋循環機制是否會導致用戶興趣的退化:一個具有完美準確性的先知推薦算法會導致快速陷入信息繭房(filter bubble),而在用戶選擇中注入隨機性和擴大可選項則會減緩這一過程。因此,這項研究提供了對反饋循環導致了信息繭房的洞見和潛在補救措施。

也存在將理論評估和實證評估相結合的研究。例如,一項研究調查了基於歷史犯罪數據的預測警務推薦系統對在城市地區分配警力的影響。他們模擬了一個以下反饋循環發生的場景:每天向預測犯罪率最高的地區部署警員,這些警員發現的犯罪被報告,然後這些報告的犯罪數據被反饋到推薦算法中。這個過程持續疊代。鑑於這個反饋循環,推薦算法反覆將警方的注意力轉向報告更多犯罪的地區。由於警員增加,這些地區更有可能發現更多犯罪,從長遠來看,模擬導致犯罪分布與觀察到的歷史犯罪數據相比不現實。作者提出了一種糾正機制,即隨著發現的犯罪數據被納入推薦算法,向某個地區部署警力的可能性會降低。polya 罐子模型被用來模擬反饋循環和校正機制。可以將該研究解釋為推薦系統中的微小變化可以在人機生態系統中產生實際影響。

儘管這些開創性研究為反饋循環機制提供了寶貴的見解,但在分析人機協同進化方面仍有重要的改進空間。在實證層面,這些研究使用的數據只能描繪出人類與推薦者之間互動的不完整圖景。通常,它們只描述了用戶在特定時間內的選擇,而沒有考慮哪些推薦被提供會影響用戶的使用時間長短。

此外,我們沒有任何關於平台多久重新訓練推薦算法,從而根據用戶的選擇更新其偏好知識的信息。因此,現有研究僅使用可用數據來驗證模型反饋循環機制的理論方法。為了克服這一限制,我們需要基於縱向數據的實證研究,描述反饋循環的每次疊代:在此過程中,需(i)提供給用戶的推薦;(ii)用戶對這些推薦的反應;(iii)基於先前推薦影響用戶選擇的重訓練過程。這類研究將允許雙向而非單向地觀察因果關係。

04 人類與人工智慧協同進化的影響類型

人類受到的人工智慧影響,實際上是推薦算法與用戶互動所產生的反饋循環的副產品。我們可以從不同層面來衡量這種影響,包括個人層面、項目層面、模型層面和系統層面。個人影響指的是推薦者對用戶的影響,例如在線零售生態系統的賣家和買家,以及城市地圖生態系統的駕駛者和乘客。項目層面的影響指的是推薦系統和用戶選擇如何影響特定對象的特徵;例如社交媒體上的帖子、在線零售平台上的產品、城市服務中的行程以及內容生成生態系統中的文本或圖像。模型層面的影響涉及用戶選擇對推薦算法,大模型依賴特徵的影響。包括推薦算法是否根據用戶選擇改變其行為和推薦的本質。最後,系統層面的影響是指在更大範圍內,人類與推薦算法之間的互動所帶來的集體性影響。

相關文獻表明,這些影響可能在系統層面表現為極化、回音室效應、不平等、集中和隔離等。極化是指根據某些屬性(觀點或信仰)將用戶或項目急劇劃分為不同的群體。回音室效應是指在一個群體中,觀點選擇得到確認和加強的環境。不平等表示一個群體成員之間資源分布的不均勻,而集中則是指用戶的緊密聚集,在城市背景下,集中通常被識別為擁堵。隔離是指用戶群體相互分離的情況。一些影響僅在個體或模型層面出現。例如,信息繭房(個體層面),用戶只接觸到與其已有信仰一致的信息,以及模型崩潰(模型層面),即,隨著推薦系統與用戶持續協同進化,推薦系統性能逐漸下降。

最終,所有層面出現的成果反映在數量(即衡量某些用戶或物品屬性的量)和多樣性(即物品和用戶行為的多樣性)的變化上,而所有這些變化,都是人類與人工智慧協同進化過程中自然而然產生的副產品。

在社交媒體中,推薦系統取得了相當大的成功,它幫助用戶推薦新帖子和關注的新用戶。用戶與推薦系統之間的這種協同進化產生了兩個相互關聯的反饋循環。首先,用戶與帖子之間的互動會影響推薦的內容,這些推薦影響了用戶與未來帖子之間的後續互動。其次,用戶選擇關注的帳戶也會影響推薦的用戶,這些推薦影響了用戶與其關注者之間的後續互動。這種反饋循環可能在個體層面(如信息繭房、同質化)和系統層面(如極化、碎片化、回音室效應)產生多種影響。雖然推薦系統幫助用戶獲取內容,並與志同道合的人建立聯繫,但這些算法也可能將他們限制在信息繭房中。這種限制可能導致觀點和用戶的顯著極化,從而促成思想的極端化傾向。例如,如前所述,twitter 上的個性化推薦過度暴露用戶於某些政治內容。

在線上零售中,推薦系統在亞馬遜、ebay 和 netflix 等電子商務和流媒體巨頭成功中扮演著關鍵角色。這些推薦系統與消費者的共同進化可能產生複雜的反饋循環機制。推薦的商品(例如,消費品、歌曲、電影)取決於之前的購買,而這些購買又受到之前推薦的影響。在這個人機生態系統中,一個關鍵的區別在於協同過濾和個性化推薦。協同過濾基於“買了這個的誰也買了那個”的原則,依賴於集體用戶行為;而個性化推薦則根據個人用戶口味定製建議。例如,協同過濾可能增加銷售量和個體消費多樣性,同時可能降低整體消費多樣性,放大流行產品的成功。一方面,推薦系統幫助用戶更好地在龐大的產品選擇空間中導航,減少選擇過載,快速分配所需商品,並提昇平台收入。另一方面,在整體層面,它們可能會減少購買產品的多樣性(即圍繞用戶創建過濾氣泡)並增加集中度,有利於某些品牌並減少競爭。

導航服務會在考慮不斷變化的交通狀況並協助用戶探索不熟悉地區的情況下,推薦一條到達目的地的路線。因此,具有相同起點和終點的用戶會收到類似的推薦。導航服務對城市的影響尚不明確:雖然它們旨在優化個人出行時間,但也可能導致擁堵,並導致環境中的旅行時間更長和二氧化碳排放量更高。例如,在 2017 年,谷歌地圖、waze 和蘋果地圖將駕駛員從擁堵的高速公路重新引導至新澤西州leonia (一個小鎮)狹窄且多山的街道,造成了更嚴重的擁堵。這些問題因駕駛員與算法更新之間的協同進化而加劇,形成了一個反饋循環:即實際推薦的旅行時間,也取決於受先前推薦影響的駕駛員的路線選擇。駕駛員的行為可能會改變旅行時間,從而塑造隨後的推薦。在這種情況下,如果太多駕駛員選擇同一條“環保”路線,這條路線將不再環保。

最近出現的大型語言模型正迅速滲透到各個領域,例如教育、政治、就業市場。這些模型的使用可能壓縮了語言多樣性,從而標準化了生成文本中的語言風格。最近的研究表明,當使用大模型生成的內容來微調大模型自身時,可能會發生“回歸均值”的現象,損失生成文本的形式和內容中的語言多樣性。隨著更多由機器生成的網頁內容被用作模型的訓練數據,這一自我強化的過程將更加普遍。在分析層面,我們需要理解這種協同進化,以開發能平衡反饋循環潛在的積極影響(語言標準化)和負面影響(語言多樣性壓縮)的推薦系統

05 人類與人工智慧協同進化的社會影響

推薦算法對上述社會現象產生重大且往往“非預期”的影響,這是人機協同進化的核心,因為它們可能會放大社會中已經存在的趨勢。不同社會科學領域(如政治學、社會學、政治經濟學、經濟學和心理學)的研究表明,個人主義和不公的增加以及公共和社會政策的縮減是多個國家的現實情況。在這方面,以人為本的人類-人工智慧協同進化研究,應整合社會科學來評估反饋循環機制可能的社會影響。由於篇幅原因,我們將重點關注三個此類交叉點的例子,但這遠非全部內容:(i)個人效用與公共商品;(ii)“推薦手段”的所有權;(iii)不平等和集中的現象。

推薦系統的設計通常旨在最大化公司和個人的效用和利潤(例如,針對城市地圖生態系統,針對在線零售生態系統),然而,這種設計忽視了公共效用的考量。理解這種局限性的一個有效起點是理性選擇理論和個人主義方法論(ethodological individualism)的辯論。理性選擇理論建立在個體在社會中通過理性推理行動,從而最大化其效用的理念之上。個人主義方法論將社會結果解釋為社會中所有人關係行為的總和。基於個人主義方法論設計的推薦系統可能不會考慮集體效用。

歷史上,有許多由個人主義行為普遍性導致的對社會造成損害的例子。例如托馬斯·莫爾和“圈地運動”,這反映了人類與推薦算法共同進化可能產生的潛在悖論。圈地運動是一場將原本集體使用的土地私有化的大規模運動。類似地,依賴個人效用為驅動力的推薦算法,可能會降低由人工智慧發展帶來的潛在集體效用,從而加強社會中已經存在的極化機制。

人類與人工智慧的協同進化與資本主義的運作密切相關:推薦算法和人工智慧的重大技術發展,正是在理性選擇理論、個人主義方法論以及新自由主義經濟學占主導地位的時期發生的。就如 kean birch 關於“自動化新自由主義”的概念(該概念認為數字平台塑造市場,個人數據積累改變個體生活),算法有自動化社會關係的潛力。

然而,可能有助於提高集體效用的解決方案,往往會因推薦算法的作用而難以實現。人工智慧與社會的協同進化發生在擁有主流推薦算法的平台和不加批判使用這些算法的用戶之間缺乏平衡的背景下。關於誰擁有生產資料的古老問題在今天顯得尤為突出,並在人機協同進化的環境中呈現出新的形式。在這方面,通過擁有主流推薦算法,因而產生最多互動的平台,可能在經濟和社會中產生變革性影響。

該文並不會闡述人類與人工智慧協同進化的政治經濟學,即在對資產所有權與推薦者影響力之間的相互聯繫進行系統分析。然而,這一方面是討論,至少從理論上,涉及人類與推薦算法協同進化的潛在意外後果的基本背景要素。如果推薦算法對塑造個人選擇有強大的影響力,而這些個人選擇又塑造了集體結果,我們就必須反思這些選擇是如何被做出的。

此外,協同進化的影響可以進一步強化其社會影響,並越來越多地損害集體效用。相反的推理也是有效的,在不同的社會經濟背景下,如果推薦算法旨在實現共同的集體目標,則可以通過協同進化促進積極的社會結果。這一點強調了僅僅經由技術的解決方案,即認為技術是我們面臨任何挑戰的答案,面臨較高的風險。我們需要更多關於人類與人工智慧協同進化的研究來引導積極的結果。一項對近期研究的綜述表明,人工智慧傾向於加劇社會分化,尤其是對於歷史上被邊緣化的群體(例如,關於美國的研究指出種族和性別的影響)。這些模式在低收入/中等收入國家更為明顯。可以合理地假設,由於我們缺乏衡量人機協同進化及反饋機制的研究,人工智慧的不均衡影響被低估或高估了。

人類與人工智慧的協同進化可能會在不同背景的系統中加劇不平等和集中度。例如,在社交媒體中,推薦系統可能會在個人層面加劇曝光不平等,無論用戶屬性或網絡特徵如何,都會加劇“富者愈富”效應,對於在線零售,基於購買的協同過濾可能會促使用戶購買更多商品,但也可能導致集中度上升,促使用戶購買相同的商品。在城市地圖裡,網約車(如 uber 和 lyft)可能會誤導貧困和黑人社區的低乘客量,並將其視為低用戶需求的表現,從而加劇現有的種族和社會經濟不平等。在內容生成生態系統中,這樣的算法自我強化可能導致生成內容多樣性的喪失。

06 人類與人工智慧協同進化研究面臨的挑戰

人類與人工智慧協同進化的研究對未來提出了重要挑戰,這些挑戰可以分為科學、法律和社會政治層面(見圖4)

人機共生,誰在為誰供能?插图3

圖4.& nbsp;人機協同進化對未來提出的三種重要挑戰

從科學角度來看,我們需要一種方法來持續測量反饋循環對人類和推薦者行為的影響,並提出建議。這種方法可以通過跟蹤每次推薦算法重新訓練時所帶來影響的變化來實現。例如,可以測量用戶在特定時間內購買的產品種類,評估反饋循環機制在較長的時間尺度上放大或減少這種多樣性的程度,又或者,需要多少連續的反饋循環疊代才能改變這種購買多樣性?以類似的方式,我們可以跟蹤推薦者在重新訓練算法後發生的變化:例如考察生成式大模型需要多長時間才會崩潰並失去語言多樣性?

研究人機協同進化的一個重要技術因素是反饋循環不同階段出現的偏差:從用戶收集數據可能引入用戶選擇和曝光偏差;推薦系統從數據中學習時可能出現的歸納偏差,以及將推薦結果反饋給用戶後可能產生的流行度偏差和不公平。這些偏差以及其他如數據污染等問題,可以塑造反饋循環機制以及個體、項目、模型和系統性層面的影響。當前文獻中尚未充分測量反饋循環不同階段的偏差之間的相互作用。

另一個值得關注的根本議題是從眾與多樣性的平衡。從數學建模角度,我們需要有意識地努力,以更好地捕捉反饋循環機制及其對人類-人工智慧生態系統的影響。在認識論層面,理解人類與推薦者之間的因果相互作用至關重要;然而,許多現有文獻中忽視了協同進化的視角。為減輕這一問題,我們可以採取一些步驟,例如開發考慮反饋循環機制的受控研究。此外,我們必須超越單向因果觀,雙向探索人類和推薦算法相互持續施加的影響,需要對其協同進化的動力學進行整體研究。

除了科學挑戰,其他障礙可能阻礙我們研究人機協同進化這一湧現現象的能力,例如,研究人員無法獲取平台外部的數據,以及不同平台中推薦系統設計和應用的透明度不足。這嚴重損害了關於人機協同進化潛在研究的可重複性和可複製性。而類似歐盟的數字服務法案這樣的舉措可能緩解這一障礙,但如何允許經過審查的研究人員訪問私有平台仍不清楚。除了新的法律透明度框架外,克服這些障礙的一個潛在的方法可能是開發專門的 api,鼓勵外部研究人員與平台互動,並通過改變推薦者的參數或建立實驗組和對照組用戶來開展實證受控實驗。政府應鼓勵平台建立持續評估反饋循環機制影響的文化,這可以借鑑已有的經驗,如減排標準和藥品副作用監管等措施。

增加透明度也要求在社會政治層面解決其他基本挑戰。推薦算法的集中程度在此議題中至關重要。在大型科技公司享受寡頭壟斷地位的環境中,推薦算法被調整來為少數人產生高額利潤。在這方面,以人為本的人類與人工智慧協同進化研究,可能因缺乏政治干預來重新分配推薦渠道及手段,導致眾多小型用戶市場以及更廣泛的社會影響受到忽視。這種干預措施可能有助於制定更透明的數據訪問規則和更公平的推薦手段分配。從長遠來看,推薦算法或人類行為的微小變化可能導致對社交結果產生重大影響,無論是積極的還是消極的。這可能會在反饋循環中引入“蝴蝶效應”,對此我們必須研究和理解。

該文所討論的挑戰即使在未來的在線平台可能發生深度變革的情況下也將持續存在,例如去中心化平台架構的出現、用戶對數據擁有所有權,ai智能體的成熟,以及新的平台監督和管理模式。這些挑戰不僅關係到學者進行研究的能力,而且遠遠超出這一範圍,影響到社會和政治領域。只有準確測量和理解推薦算法對人類行為的影響,我們才能向政策制定者提供如何做出明智決策的信息,“不僅考慮到現實世界,還要考慮到未來世界”。這種理解對於設計適當的政策以避免人類和推薦算法之間不受控制的協同進化所帶來的潛在負面外部性至關重要。我們致力於構建一個以社會為中心的未來人工智慧,它會是解決長期社會問題的方案的一部分,而不是問題的一部分。

07 編譯的話

早期tiktok難民擠爆小紅書,如今deepseek洗卷文科,該文對人工智慧和人類協調進化的討論,變得和你我密切相關。該文聚焦推薦系統,這是由於推薦系統已經相對成熟,有足夠的相關研究。而影響可能更為深遠的是大模型及相關智能體,其不止能用於推薦,還能用於教育,並影響就業市場。只是由於相關研究還不夠多,因此該文沒有主要闡述。此外,該文也沒有談及人工智慧對人類文化及政治層面的影響。

翻譯完該文,覺得文中主要討論的是人類與人工智慧協同進化中受到的負面影響。該文標題預言,在人類與人工智慧組成的生態系統中,人類如同線粒體,為人工智慧提供數據作為養料。然而在更理想的狀態中,人工智慧負責提供人類監督下的自動化,以確保人性的底線,而那些不能夠被自動化定義的,方才是人性的上限。

本文參考來源:pedreschi, dino, et al.“ human-ai coevolution.&# 8221; artificial intelligence (2024): 104244.

原文網址:https://zh.gushiio.com/ai/364.html

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *