- +1
當見未萌|高度警惕AGI挑戰,構建新型人機和諧關系
·大規模生成式語言模型為代表的通用人工智能技術,以生成式AI為主要形態,具備情景化生成能力,形成了知識、能力、價值三個階段的智能煉就路徑。隨著相關技術的發展,機器的智能水平快速提升,將帶來人機邊界模糊及與其相關的一系列社會問題。
·AGI的發展路徑具有“填鴨灌輸”式學習、“先通再專”等特點,在一定程度上顛覆了人類對機器智能實現路徑的傳統認識,倒逼人類在世界建模、知識獲取、自我認知等層面進行反思。人類需高度警醒AGI帶來的挑戰,并積極抓住其帶來的機遇,推動構建新型的人機和諧關系。
兩千多年前,蘇格拉底說“認識你自己”,今天在AGI技術發展的倒逼下,人類需要“重新認識你自己”。
自2022年12月ChatGPT發布以來,大規模生成式預訓練語言模型(Generative Language Model)在學術界與工業界引起軒然大波,帶動了一系列通用人工智能技術(AGI: Artificial General Intelligence)的快速發展,包括圖文生成模型,如Midjourney的高精度、高度仿真的圖文生成;具身多模態語言模型,比如谷歌(Google)公司連續推出PaLM-E以及PaLM 2等。AGI已經從模擬人類大腦的思維能力(以語言模型為代表),快速演進至“操控身體”的具身模型(以具身大模型為代表)。AGI全面侵襲從藝術創作到代碼生成、從問題求解到科學發現、從問答聊天到輔助決策等人類智能的各個領地,人類智能所能涉及的領域幾乎都有AGI的蹤跡。一場由AGI帶動的新一輪信息技術革命已然席卷而至。人類迎來一場有關“智能”本身的技術革命。
作為一種先進的生產力,AGI既給全社會帶來令人興奮的機遇,也帶來令人擔憂的挑戰。興奮與擔憂歸根結底是源于我們對AGI的理解還遠遠跟不上其發展速度。具體而言,人類對于AGI技術原理、智能形態、能力上限的思考,對其對社會與個人影響的評估,明顯滯后于AGI的發展速度。可以說,快速發展的AGI與人類對其認知的顯著滯后構成了一對鮮明的矛盾,把握這一矛盾是理解當前AGI發展規律與其產生的社會影響的關鍵。也正是基于對上述矛盾的認識,不少科學家與AI企業領袖發出了暫停巨型大模型實驗的呼聲,呼吁加快安全可證明的AI系統的研制。
誠然,理解AGI十分困難。AGI這個術語中的三個單詞,分別從不同角度表達了理解AGI面臨的挑戰。從其核心詞“智能(Intelligence)”來看,一直以來關于什么是智能,就存在不同的觀點,比如傳統計算機科學認為,“獲取以及應用知識與技能”的能力是智能,但需思考這個定義是否仍然適用于今天以大規模生成式語言模型為代表的AGI。“通用(General)”一詞加劇了理解AGI的困難。相對于傳統的面向特定(specific)功能的AI,AGI旨在模擬人類的心智能力,人類智能的獨特之處鮮明地體現在其能夠針對不同環境作出適應性調整,能夠勝任不同類型甚至從未見過的任務。專用AI與通用AI存在怎樣的聯系與區別,是先實現通用AI還是先實現專用AI?General一詞將會引發很多諸如此類的思考。“人工的(Artificial)”一詞則道出了AGI人工創造物的本質,而非自發從自然環境中進化而成的智能。這自然就提出了工具智能與自然智能的異同等一系列問題。
盡管挑戰重重,本文仍然嘗試針對AGI的某些方面展開分析。本文聚焦于生成式人工智能,特別是大規模生成式語言模型為代表的通用人工智能技術。本文所談及的“智能”,不局限于人類智能,也包括機器智能,將以機器智能與人類智能作為彼此的參照,進行對比分析。本文將對由生成式語言模型發展而引發的“智能”的內涵、“智能”的演進路徑等問題進行詳細分析,并在這一基礎上反思人類智能的諸多方面,包括創造性、世界建模、知識獲取、自我認知等。筆者相信本文的思考一方面可以消除人們對于機器智能快速進步的擔憂,另一方面也能為機器智能的進一步發展掃除障礙,有助于建立新型的人機和諧關系。在此需要說明的是,本文的部分思考與結論超出了當前的工程實踐所能檢驗的范圍,仍需要付諸嚴格論證與實踐檢驗。
什么是智能?ChatGPT何以成功?
生成式VS判別式。ChatGPT是生成式人工智能的代表。生成式AI在文本生成、文圖生成、圖像生成等領域取得了較好的效果。傳統的人工智能多屬于判別式人工智能。為何是生成式AI而非判別式AI成為AGI的主要形態?這是一個值得深思的問題。判別式AI,通過標注數據的訓練,引導模型習得正確給出問題答案的能力。生成式AI,往往針對無標注數據設計基于遮蔽內容還原的自監督學習任務進行訓練,引導模型生成符合上下文語境的內容。生成式模型不僅具備生成結果的能力,也能夠生成過程與解釋。所以生成任務可以視作比判別任務更具智力挑戰性的任務,能夠有效引導模型習得高水平智能。具體而言,對于判斷題,判別式AI只需給出對或錯的答案,即便隨機猜測,仍然有百分之五十蒙對的概率。但是,生成式AI不僅需要生成答案,還可能需要同時生成解題過程,這就很難蒙混過關。所以相對于判別而言,生成可以說是更加接近智能本質的一類任務。
智能與情景化生成能力。智能的本質是什么?大模型的發展給人類對這一問題的思考帶來了很多新的啟發。大模型的智能本質上是情景化生成(Contextualized Generation)能力,也就是根據上下文提示(Prompt)生成相關文本的能力。所以大模型的應用效果在一定程度上取決于提示有效與否。如果我們能夠給出一個有效且合理的提示,那么ChatGPT這類大模型往往能夠生成令人滿意的答案。這種情景化生成能力(“提示+生成”的能力)不僅適用于文本,也廣泛適用于圖像、語音、蛋白質序列等各種不同類型的復雜數據。不同的數據上下文不同,例如對于圖片而言,其上下文是周邊圖像。大模型的情景化生成能力是通過訓練階段的上下文學習(In-context learning)而形成的。從數學本質來講,大模型在訓練階段習得了Token或者語料基本單元之間的聯合概率分布。情景化生成可以視作條件概率估算,即給定上下文或提示(也就是給出證據),根據聯合分布推斷出現剩余文本的概率。
傳統對于智能的理解多少都與“知識”有關(如把智能定義為“知識的發現和應用能力”),或與人有關(如把智能定義為“像人一樣思考和行為的能力”),其本質還是以人類為中心,從認識論視角理解智能。大模型所呈現出的這種情景化生成能力,則無關乎“知識”,“知識”說到底是人類為了理解世界所做出的人為發明。世界的存在不依賴“知識”,不依賴人類,情景化生成擺脫了人類所定義的“知識”,回歸世界本身——只要能合理生成這個世界就是智能。智能被還原為一種生成能力,這種智能可以不以人類為中心,也可以不依賴人類的文明,這是AGI給我們帶來的重要啟示。
智能的分析與還原。大模型訓練與優化過程能夠為我們更好地理解智能的形成過程提供有益啟發。通用大模型的“出爐”基本上要經歷三個階段:第一個階段是底座大模型的訓練;第二個階段是面向任務的指令學習,也就是所謂的指令微調;第三個階段是價值對齊。第一個階段底座大模型的訓練本質上是讓大模型習得語料或者數據所蘊含的知識。但是這里的知識是一種參數化、概率化的知識(本質上建模了語料中詞匯之間的一種聯合分布),使得情境化生成成為可能。因此,第一階段的本質是知識獲取(或者說知識習得),第二階段指令學習旨在讓大模型習得完成任務的能力,最后一個階段則是價值觀念的習得。
大模型的智能被分解為知識、能力與價值三個階段,這是個值得關注的特性。知識是能力與價值的基礎,所以底座模型的“煉制”尤為關鍵。ChatGPT經歷了2018年初版GPT-1到2022年GPT-3.5近四年的訓練與優化。大模型的知識底座越深厚、越廣博,后續能夠習得的技能就越復雜、越多樣,價值判斷就越準確、價值對齊就越敏捷。大模型將智能的三個核心要素相互剝離,而人類的知識、能力與價值習得,往往是雜揉在一起的。我們很難界定小學課本中的某篇文章是在傳授知識、訓練技能亦或是在塑造價值。大模型的這種分離式的智能發展,可以類比于人類社會的高等教育。人類社會的本科教育旨在培養學習能力以獲取知識,碩士教育旨在培養解題能力以解決問題,博士教育則旨在培養價值判斷能力以發現問題。
知識、能力和價值相剝離對于未來智能系統架構、建立新型的人機協作關系、設計人機混合的智能系統架構均有著積極的啟發意義。隨著機器智能的逐步發展,人類相對于機器而言所擅長的事物將會逐漸減少。但是,在某些特定場景仍存在一些人類介入的空間。未來人機混合系統發展的關鍵仍是回答什么工作最值得由人來完成。看似完整的任務只有經過分解,才能拆解出人機各自擅長與適合的子任務。例如,將知識和能力剝離對于保護私域知識極具價值:大模型負責語言理解等核心任務,而機密的數據與知識仍然交由傳統的數據庫或者知識庫來管理。這樣的系統架構,既充分利用了大模型的核心能力,又充分兼顧了知識私密性。
智能測試與人機區分。通用人工智能技術的發展顯著提升了機器的智能水平,特別是語言理解水平,機器在文本處理、語言理解等相關任務中已達到普通人類甚至語言專家的水平。而隨之而來的一個十分關鍵的問題是:人機邊界日益模糊。我們已經很難僅僅通過幾輪對話去判斷窗口背后與你交流的是人還是機器。換言之,傳統的圖靈測試已經難以勝任人機區分的使命。使用過ChatGPT的人都深有體會,ChatGPT最擅長的就是聊天,即便與其長時間聊天,我們可能都不會覺得無趣。
人機邊界的模糊會帶來很多社會問題。首先,普通民眾,尤其是青少年,可能出于對技術的信任而沉溺于ChatGPT類的對話模型中。當ChatGPT日益智能,我們習慣了向其提問,習慣了接受它的答案,久而久之,人類賴以發展的質疑精神就會逐步喪失。在日益強大的AGI面前,如何避免人的精神本質的退化?這些問題需要我們嚴肅思考并回答。其次,當人機真假難辨,虛假信息泛濫,欺詐將會層出不窮。最近越來越多犯罪分子已經通過AI換臉、AI視頻生成,成功實施了多起欺詐案件。如何治理由人機邊界模糊帶來的社會性欺騙將成為一個十分重要的AI治理問題。最后,還值得注意的是驗證碼,這一我們在日常生活中廣泛使用,卻很快會變成問題的應用。驗證碼是我們進行人機區分的利器,但是隨著AGI的發展,尤其是在其對于各類工具的操控能力日益增強之后,驗證碼所具備的人機區分功能將會面臨日益嚴峻的挑戰。隨著人形機器人技術的日益成熟,未來如何證明你是人而非機器,或者反之,如何證明機器是機器而不是人將會成為越來越困難的問題。
人機邊界的模糊本質上歸結于人機智能測試問題。我們需要刻畫出人類智能獨有的、不能或者至少是難以被機器智能所侵犯的領地。從機器智能的發展歷史來看,這個領地的范圍將會越來越窄。我們曾經認為在下圍棋這樣的高度智力密集活動中機器難以超越人類,也曾認為在進行高質量對話中機器難以超越人類,更曾認為蛋白質結構預測這樣的科學發現是機器難以超越人類的……這些機器難以超越人類的任務列表曾經很長,如今已經越來越短。圖靈測試已然失效,但是人類還來不及提出新的有效的代替性測試方案。有人提出,唯有人類會犯錯及其行為的不確定性是人類獨具的。這樣的觀點不值一駁,因為機器很容易植入一些錯誤與不確定性以掩飾自己的智能。未來我們如何證明機器試圖越獄,以及機器是否正在掩飾自己的能力,這些都是AI安全需要高度關注的問題。
智能的演進路線,通用人工智能如何發展與進步?
“反饋進化”與“填鴨灌輸”。人類的智能是一種典型的生物智能,是經過漫長的進化發展而形成的。人類在自然與社會環境中不斷地實踐、接收反饋、持續嘗試,形成了高度的智能。各類動物的智能都可以歸類到進化智能。進化智能的演進需要漫長的時間,換言之,只要給予足夠的時間,自然環境或將就能塑造任何水平的智能。低等動物經過漫長時間的洗禮也有可能發展出先進智能。但是當前機器智能走的是一條“填鴨灌輸”式的路徑,是一條實現先進智能的捷徑。將人類社會已經積累的所有語料、書籍、文獻“灌輸”給大模型,經過精心“煉制”,大模型就能習得人類積累數千年的文明成果。雖然大模型“煉制”也需要耗費數天、數月的時間,但相對于人類智能的漫長進化歷程,幾乎就是轉瞬之間。機器能夠在如此短暫的時間內習得人類數千年積累的知識,這本身已是奇跡。
人類社會多將“填鴨灌輸”視作一種機械、低效的知識傳授方式,而這卻恰恰成為人類向機器傳授知識的高效方式。如果單純以考分評價學生,粗暴的填鴨式、灌輸式的教育十分高效。但這種教育培養出的學生往往高分低能,難以靈活應用知識解決實際問題。所以我們的學生還需要接受大量的實踐教育,從反饋中學習,最終成為行家里手,將知識融會貫通。人類專家的養成過程對于理解大模型的發展過程極具啟發。當前,大模型的填鴨式學習階段已經基本完成,很快大模型將操控各類工具、開展實踐式學習,從而進入從實踐習得知識的新階段。
“先通再專”還是“先專再通”。通用人工智能的發展帶給我們的另一個啟示在于機器智能走出了一條“先通再專”的發展路徑。從大規模語言模型的應用方式來看,首先要“煉制”通用的大語言模型,一般來講訓練語料越是廣泛而多樣,通用大模型的能力越強。但是這樣的通用大模型在完成任務時,效果仍然差強人意。因而,一般還要經過領域數據微調與任務指令學習,使其理解領域文本并勝任特定任務,可見大模型的智能是先通用,再專業。通用智能階段側重于進行通識學習,習得包括語言理解與推理能力及廣泛的通用知識;專業智能階段則讓大模型理解各種任務指令,勝任各類具體任務。這樣一種智能演進路徑與人類的學習過程相似。人類的基礎教育聚焦通識學習,而高等教育側重專識學習;武俠小說中的功夫高手往往先練內力再習招式。這些都與大模型“先通再專”的發展路徑相似。
大模型“先通再專”的發展路徑顛覆了以往人工智能的主流發展路徑。ChatGPT誕生之前,AI研究的主陣地是專用AI或者功能性AI,其主旨在于讓機器具備勝任特定場景與任務的能力,比如下棋、計算、語音識別、圖像識別等等。傳統觀念認為,若干專用智能堆積在一起,才能接近通用智能;或者說如果專業智能都不能實現,則更不可能實現通用智能。由此可以看出,“先專再通”是傳統人工智能發展的基本共識。但是,以ChatGPT為代表的大規模生成式語言模型,基本顛覆了這一傳統認識,并說明機器智能與人類智能一樣,需要先具備通識能力才能發展專業認知。
在新認識下,我們需要重新理解領域人工智能(Domain-Specific AI)。領域是與通用相對而言的。事實上,沒有通用認知能力,就沒有領域認知能力。舉個例子,醫療是個典型的垂直領域,傳統觀念認為可以以較低代價搭建診斷某類疾病的智能系統。比如,針對耳鳴疾病,傳統方法一般將與之相關的專業知識、文本、數據灌輸給機器,以期實現耳鳴這個極為細分病種的智能診斷。但在實踐過程中,這一想法從未真正成功。究其根源,醫生要理解疾病,就需要先理解健康,而健康不屬于疾病的范疇。一個耳科醫生接診的大部分時間是在排查無需治療的健康情況。也就是說,要真正理解某個領域,恰恰需要認知領域之外的概念。由此可見,領域認知是建立在通識能力基礎之上的。這些新認識為我們重新發展領域認知智能帶來新的啟發,可以說在ChatGPT類的通用大模型支撐下,各領域認知智能將迎來全新的發展機遇。
先符號再體驗,先形式再內容。大規模語言模型通過使用文本或符號表達的語料訓練而成。人類的自然語言是一種符號化的表達方式,語言模型表達了語言符號之間的統計關聯。然而,符號只是形式,單純基于符號的統計學習不足以讓機器理解符號所指或者語言的內涵。純形式符號的智能系統勢必會遭遇類似約翰·塞爾“中文屋”思想的責難。所以,AGI不是停留在單純的語言模型階段,而是積極融合多模態數據進行混合訓練。各類多模態數據,比如圖像、語音、視頻,能夠表達人類豐富的世界體驗。舉個例子,人們對于“馬”這個符號的理解,一定程度上取決于人們對馬這一動物的經驗和認識,比如高亢的嘶鳴(語音)、健壯的形象(圖像)、奔騰的動作(視頻)。人的體驗支撐了人對于“馬”這個概念的理解,正如人們對于萬馬齊喑的悲涼體會是建立在對于馬的健康、積極形象的體驗基礎之上。所以AGI走出了一條先符號再體驗、從形式到內容的發展路徑。這和人類智能的發展過程恰好相反,人類是先有了豐富經驗或體驗,才抽象成符號、文字與概念。
“先大腦再身體”與“先身體再大腦”。目前AGI的發展趨勢是先發展語言模型,以模擬人腦的認知能力,再基于機器大腦的認知能力驅動各類工具與身體部件。大腦的復雜規劃與推理能力對于身體與工具在現實世界中的交互與動作是不可或缺的。AGI走出了一條“先實現大腦的認知能力,后實現身體與物理世界交互能力”的發展路線。很顯然,AGI的這條發展路線與人類智能的進化有著顯著的不同。人類在一定程度上是先具備身體能力,并在身體與世界的持續交互過程中,塑造和發展大腦的認知能力。傳統的人工智能技術路線也傾向于先實現身體各器官或部件的基本功能,再實現大腦的復雜認知能力,傾向于接受機械身體與現實世界的交互能力比大腦的復雜認知能力更易實現的觀點。然而,目前的人工智能發展路徑在一定程度上顛覆了我們對機器智能實現路徑的傳統認識。
由通用人工智能引發的人類自我審視及啟示
組合泛化是一種創造,但可能是低級的創造形式。AGI之所以吸引了業界的高度關注,一個很重要的原因在于它呈現出了一定的創造能力。我們發現ChatGPT或者GPT-4,已經擁有了比較強大的組合泛化能力:大模型經過足量常見任務的指令學習,能夠勝任一些新的組合任務。具體來說,大模型學會了完成a、b兩類任務,它就一定程度上可以完成a+b這類新任務。比如GPT-4能夠使用莎士比亞詩詞風格來書寫數學定理證明。實際上這是由于GPT-4分別習得了數學證明與寫莎士比亞詩詞兩種能力,進而組合泛化出的新能力。
第一,我們必須認可大模型的這種組合創新能力。反觀人類社會的很多創新,本質上也屬于組合創新,這種創新形式甚至占據了絕大多數。比如,在工科領域的技術創新中,很多研究生擅長把針對A場景所提出的B方法應用到X場景并取得了不錯的效果;爆米花式電影中平庸的劇情創作,大都通過借用a故事的框架、b故事的人物,套用c故事的情節,使用d故事的橋段,等等。第二,AGI的組合創新能力遠超人類認知水平。AGI可以將任意兩個學科的能力進行組合,這里的很多組合可能是人類從未想象過的,比如利用李清照詩詞的風格寫代碼注釋。這種新穎的組合創新能力有可能是AGI給我們帶來的寶貴財富,將極大地激發人類的想象力。第三,AGI的這種組合創新能力,基本上宣告了人類社會的拼貼式內容創新將失去意義。因為,AGI能夠組合創新的素材,以及其生成的效率都遠超人類。我們曾經引以為傲的集成創新也將失去其光環,而原始創新在AGI面前顯得更加難能可貴。第四,AGI的組合創新將迫使人類重新思考創新的本質。人類所能做出的而AGI無法實現的創新將更加凸顯其價值。AGI將促使人類不再沉迷于隨機拼接或簡單組裝式的創造,而是更加注重富有內涵、視角獨特、觀點新穎的內容創造。
自監督學習是世界建模的有效方式。自監督學習可以視為一種填空游戲,即根據上下文填補空白。例如,我們事先遮蓋住一個完整句子中的某個單詞,然后讓機器根據這個句子的上下文還原被遮蓋的詞語。同樣地,就圖像而言,我們可以遮擋部分圖像區域,讓大模型根據周邊的背景圖像還原出被遮擋圖像的內容。這樣一種自監督學習范式為什么能夠成就ChatGPT這類大規模預訓練語言模型,是個值得深思的問題。
“遮蔽+還原”式樣的自監督學習任務旨在習得世界模型。比如,人們都知道高空拋重物,物體一定會下落,而不會向上飄也不可能懸在空中。最近很多學者,包括圖靈獎獲得者Yann LeCun都指出了世界模型對于AGI的重要性。人類社會業已積累的數據體現了人類對于現實世界的認識,通過對這些數據的學習,機器將有機會建立世界模型。當數據足夠多、足夠精、足夠豐富時,就能在一定程度上表達人類對復雜現實世界的完整認知,基于“遮蔽+還原”的自監督學習機制,機器能夠逼真地建立起關于世界的模型。反觀人類的世界模型,很大程度上來自于經驗與文明傳承。一方面,我們在身體與世界交互過程中形成經驗從而建立世界模型;另一方面,文化傳播和教育傳承塑造著我們對世界的認知。所以人類對世界建模的方式與機器建模世界的方式有著本質的不同。
大模型所習得的隱性知識。大規模預訓練語言模型借助了Transformer這樣的深度神經網絡架構,習得了語言元素之間的統計關聯,并具備了情境化生成能力。而大模型之大,主要就體現在其參數量巨大。這樣一個復雜的深度網絡空間編碼了語料中所蘊含的各種知識,這種知識具有參數化表達與分布式組織兩個鮮明特點。所謂分布式組織,是指某一個知識并不能具體對應到某個具體神經元,而是分散表達為不同神經元的權重參數及其之間的互聯結構。在特定輸入下,通過激活某些神經元、以神經網絡計算方式獲取知識。因此,大模型可以視作隱性知識的容器。
大模型所編碼的隱性知識顯著超出人類業已表達的顯性知識的范圍。從某種意義上說,人類能用自然語言表達的知識是可以窮盡的,是有限的。而人類在潛意識下用到的常識、文本中的言下之意、領域專家難以表達的經驗等等,都是以隱性知識的形式存在的。大模型為我們認識這些隱性知識提供了更多可能性。大模型是通才,它是利用全人類、全學科的語料訓練生成的,它所習得的某些隱性關聯或者統計模式,有可能對應到人類難以言說的隱性知識。比如外交場景下的遣詞造句多有言下之意、往往被賦予了特殊內涵,大模型的出現給解讀這種言下之意與獨特內涵帶來新的機會。大模型所編碼的知識,很多是人類從未解讀過的,特別是跨學科知識點之間的隱性關聯。這也是大模型給我們整個人類文明發展帶來的一次重大機遇。
隨著大模型對隱性知識解讀的日益深入,人類的知識將呈現爆炸性增長。我們不得不思考一個深刻的問題:過量的知識會否成為人類文明發展不可承受之重。事實上,當知識積累到一定的程度,單純的知識獲取已經偏離了人類文明發展的主航道。在知識急劇增長的未來,發現“智慧”比獲取“知識”更加重要。很多時候,我們并不需要太多知識,只要具備從大模型獲取知識的能力即可。理論上人類每個個體(即便人類最杰出的精英)所能知曉的知識量也一定遠遠低于智能機器。我們每個人的價值不是體現在擁有多少知識,而是知道如何使用知識,使用知識的智慧將是人類個體核心價值所在。AGI的發展倒逼人類社會的發展從追求知識進入追求智慧的新階段。
大模型倒逼人類重新認識自我。AGI技術將與人類社會發展進程深度結合,為人類社會帶來前所未有的重大機遇和嚴峻挑戰。
隨著人工智能技術的迅速發展,AGI所帶來的風險也逐漸凸顯。首先,AGI給AI技術治理和社會治理帶來挑戰。與目前的人工智能相比,AGI失控將會帶來更加災難性的后果。當前,AGI技術“失控”的風險日益增加,必須及時干預。比如,AGI降低了內容生成門檻,導致虛假信息泛濫,已經成為一個嚴峻的問題。再比如,AGI作為先進生產力,如果不能被大多數人掌握而是掌握在少數人或機構手中,技術霸權主義將會對社會發展帶來消極影響。其次,AGI技術將會對人類個體的發展帶來挑戰。未來的社會生產似乎經由少數精英加上智能機器就可以完成,工業時代的2∕8法則到了AGI時代可能會變成2∕98法則。換言之,越來越多的工作與任務在強大的AGI面前可能失去意義,個體存在的價值與意義需要重新定義。我們的壽命或將大幅度延長,但是生命的質感卻逐漸消弱。如何幫助我們中的絕大多數人尋找生命的意義?如何優雅地打發休閑時光?這些都是需要深度思考的問題。最后,AGI的進步可能會帶來人類整體倒退的風險。當人類發展了家禽技術,打獵技術就明顯倒退;當紡織機器日益成熟,繡花技藝就顯得沒有必要。我們的各種非物質文化遺產、各類體育運動,本質上都是在防止人類的倒退。不能因為機器擅長完成人類的某項工作或任務,就放任人類的此項能力逐步退化。如果說以往各種技術的進步只是讓人類逐步遠離了大自然的原始狀態,人類在與惡劣的自然環境的搏斗中所發展出的四肢能力的倒退是人類文明發展必須作出的犧牲;那么,此次旨在代替人類腦力的AGI會否引起人類智能的倒退?智能的倒退必然引起人類主體性的喪失與文明的崩塌。如何防止我們的腦力或者說智能的倒退,是個必須嚴肅思考的問題。
盡管面臨重重挑戰,但AGI毫無疑問是一種先進生產力,其發展的勢頭是不可阻擋的。除了前文提到的種種具體的技術賦能之外,這里要從人類文明發展的高度再次強調AGI所帶來的全新機遇。首先,AGI對于加速人類知識發現進程具有重大意義。前文已經討論過對大語言模型已編碼的隱性知識的解讀將會加速人類的知識發現,但同時也會帶來知識的貶值。未來我們會見證知識的爆炸所帶來的“知識無用”。其次,AGI發展的最大意義可能在于倒逼人類進步。平庸的創作失去意義、組合創新失去意義、窮舉式探索失去意義……這個列表注定會越來越長。但是人的存在不能失去意義,我們要重新找尋自身價值所在,重新思考人之所以為人的哲學命題。
結語
對于AGI的探索和思考才剛剛開始,我們還有很長的路要走。我們必須高度警醒AGI所帶來的問題,并充分重視AGI所創造的機會。兩千多年前,蘇格拉底說“認識你自己”,今天在AGI技術發展的倒逼下,人類需要“重新認識你自己”。
(作者肖仰華,系復旦大學教授、上海市數據科學重點實驗室主任。本文首發于《學術前沿》雜志,原標題為《生成式語言模型與通用人工智能:內涵、路徑與啟示》。二八法則,是工業時代的邏輯;而在智能時代,則是2%/98%的邏輯。如何成為智能時代2%的受益者?“當見未萌”,讓我們加入浪潮吧。本專欄由計算機學界專業人士為澎湃科技讀者特供。)
- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯網新聞信息服務許可證:31120170006
增值電信業務經營許可證:滬B2-2017116
? 2014-2025 上海東方報業有限公司