- +1
喬姆斯基:ChatGPT的虛假承諾
【編者按】當地時間3月8日,著名語言學家、哲學家諾姆·喬姆斯基(Noam Chomsky)與語言學教授伊恩·羅伯茨(Ian Roberts)、科技公司人工智能主管杰弗里·瓦圖穆爾(Jeffrey Watmull)共同在《紐約時報》發表了題為《ChatGPT的虛假承諾》的文章。喬姆斯基強調,人工智能和人類在思考方式、學習語言與生成解釋的能力,以及道德思考方面有著極大的差異,并提醒讀者如果ChatGPT式機器學習程序繼續主導人工智能領域,那么人類的科學水平以及道德標準都可能因此降低。諾姆·喬姆斯基是亞利桑那大學的語言學教授,也是麻省理工學院的語言學榮譽教授。伊恩·羅伯茨是劍橋大學的語言學教授。杰弗里·瓦圖穆爾是一家科技公司的人工智能主管。原文標題為:《Noam Chomsky: The False Promise of ChatGPT》,以下是全文譯文:
豪爾赫·路易斯·博爾赫斯(Jorge Luis Borges)曾寫道,生活在一個既充滿危險又充滿希望的時代既是悲劇,又是喜劇,一個關于理解我們自己和世界的“啟示即將來臨”。今天,我們確實有理由為人工智能方面所謂的革命性進步感到既擔心又樂觀。樂觀,因為智慧是我們解決問題的手段。擔憂是因為我們擔心最流行、最時興的人工智能分支:機器學習將把一種有著根本缺陷的語言和知識概念納入我們的技術,從而降低我們的科學水平,貶低我們的道德標準。
OpenAI的ChatGPT、谷歌的Bard和微軟的Sydney都是機器學習的奇跡。粗略地說,它們獲取大量數據,尋找其中的模式,并越發熟練地生成統計學上可能的輸出:例如看似像人類一般的語言和思想。這些程序被譽為通用人工智能地平線上的曙光:那是一個預言已久的時刻,屆時機械大腦(mechanical minds)不僅會在處理速度和內存容量方面超越人類大腦,而且還會在智力洞察力、藝術創造力和其他所有人類獨有的能力上實現全方位超越。
那一天可能會到來,但黎明破曉的曙光尚未出現,這與那些有著夸張標題的新聞和不明智的投資所預測的情況相反。如果像ChatGPT這樣的機器學習程序繼續主導人工智能領域,那么博格斯式的理解啟示就還未發生、不會發生,并且我們認為,不可能發生。無論這些程序在某些狹窄的領域多么有用(例如,它們可以在計算機編程方面有所幫助,或者為輕體詩提供押韻建議),我們從語言學和知識哲學中了解到,它們與人類推理和使用語言的方式有著巨大區別。這些差異極大地限制了這些程序的功能,使它們帶有無法消除的缺陷。
正如博爾赫斯可能指出的那樣,如此多的錢和注意力竟然被集中在這么小的東西上,這既是喜劇又是悲??;與人類的大腦相比,這個東西是如此微不足道,用威廉·馮·洪堡(William von Humboldt)的話說,人類的大腦通過語言,可以“無限地利用有限的手段(infinite use of finite means)”創造出具有普遍影響力的思想和理論。
人腦不像ChatGPT及其同類產品那樣,是一個笨重的模式匹配統計引擎,狼吞虎咽地處理數百兆兆字節的數據,并推斷出最為可能的對話回應,或為科學問題提供最可能的答案。相反,人類的大腦是一個極為高效甚至優雅的系統,只需要少量的信息即可運作;它尋求的不是推斷數據點之間的粗暴關聯(brute correlations),而是創造解釋。
例如,一個學習一門語言的小孩正無意識地、自動且迅速地從極少的數據中發展出語法,一個由邏輯原則和參數組成的復雜系統。這種語法可以被理解為先天的、通過基因安裝的“操作系統”的表達,它賦予了人類產生復雜句子和長串思路的能力。當語言學家試圖發展出一種理論來解釋為什么特定的語言會如此運作時(“為什么這些句子被認為是合乎語法的,而那些句子卻不是?”),他們是在有意識地、費力地構建一種明確的語法版本,而孩子們卻是本能地、憑借極少的信息構建出了語法。孩子的操作系統與機器學習程序的操作系統完全不同。
事實上,這類程序還停留在認知進化的前人類或非人類階段。它們最大的缺陷是缺乏任何智慧最為關鍵的能力:不僅能說出現在是什么情況,過去是什么情況,將來會是什么情況——這是描述和預測;而且還能說出情況不是什么,情況可能會是什么,情況不可能會是什么。這些都是解釋的要素,是真正智慧的標志。
舉個例子:假設你手里拿著一個蘋果,現在你放開蘋果。你觀察結果說:“蘋果掉下來了?!边@是一種描述。預測則可能是這樣的陳述:“如果我張開手,蘋果就會墜落?!?兩者都是有價值的,而且可能都是正確的。但解釋則不僅于此:它不僅包括描述和預測,還包括反事實的推理,如“任何這樣的物體都會墜落”,再加上附加條款“因為引力”或“因為時空的曲率”等等?!叭绻皇且驗橐?,蘋果就不會墜落”,這是一個因果解釋。這就是思考。
機器學習的核心是描述和預測;它沒有提出任何因果機制或物理定律。當然,任何人類式的解釋都不一定正確;我們會犯錯。但這正是思考的一部分:要追求正確,就必須有可能出錯。智能不僅包括創造性的猜想,也包括創造性的批評。人類式的思考基于可能的解釋和糾錯,這個過程逐漸限制了理性考慮的可能性。(就像夏洛克·福爾摩斯對華生醫生說的:“當你排除了所有不可能,剩下的無論多么不可能,都一定是真相?!保?/p>
但是ChatGPT和類似的程序在設計上是無限的,它們可以“學習”(也就是說,記憶);它們沒有能力區分可能和不可能。例如,與人類不同的是,人類被賦予了一種通用語法,將我們可以學習的語言限制在那些具有某種近乎數學般優雅的語言上,而這些程序卻以同樣方式去學習人類可能習得的語言和不可能習得的語言。人類可以理性推測的解釋是有限的,而機器學習系統卻能夠同時學習“地球是圓的”和“地球是平的”。它們只是根據隨時間變化的概率進行交換。
因此,機器學習系統的預測總是膚淺和可疑的。因為這些程序無法解釋英語的語法規則,舉例而言,它們很可能錯誤地預測這句句子的含義:“約翰太固執了,沒法和他說話。(John is too stubborn to talk to.)”,它可能會認為這是指約翰太固執了,他不會和某人或其他人說話(而不是約翰太固執了,沒辦法和他說理)。為什么機器學習系統會做出如此奇怪的預測?因為它可能會將這句句子與它從其他句子:例如“約翰吃了個蘋果”(“John ate an apple”),或“約翰吃了”(“John ate”)中推斷出來的模式進行類比,這些句子確實是指約翰吃了東西。該程序很可能預測,因為“約翰太固執了,不愿意和比爾說話”(“John is too stubborn to talk to Bill”)與 “約翰吃了一個蘋果”(“John ate an apple”)相似,所以“約翰太固執了,沒法和他說話” (“John is too stubborn to talk to”)應該與“約翰吃了”(“John ate”)相似。但語言的正確解釋是非常復雜的,無法僅僅通過沉浸在大數據中來學習。
反常的是,一些機器學習愛好者似乎對他們的作品可以在不需要解釋(比如,涉及牛頓運動定律和萬有引力定律)的情況下,產生正確的“科學”預測(例如,關于物理物體的運動)感到頗為自豪。但這種預測,即使成功了,也是偽科學。正如哲學家卡爾·波普爾(Karl Popper)所指出的那樣,雖然科學家們肯定會尋求具有高度經驗佐證的理論,但“我們尋求的不是可能性極高的理論,而是解釋;也就是說,強有力而極不可能的理論”。
根據亞里士多德的觀點,蘋果之所以落地是因為大地是它們的天然位置(natural place),這一理論是可能的,但它只會引發更多的問題(為什么大地是它們的天然位置?)。蘋果掉到地球上是因為質量使時空彎曲(愛因斯坦的觀點)這一理論看似極不可能,但它卻告訴了你蘋果為什么會掉下來。真正的智力恰恰表現在思考和表達看似不可能但有深刻洞見的事情的能力。
真正的智力還體現在能夠進行道德思考的能力。這意味著用一套道德原則來約束我們頭腦中原本無限的創造力,決定什么是該做的,什么是不該做的(當然還要讓這些原則本身受到創造性的批評)。為了能夠有用,ChatGPT必須能生成出新穎的輸出;而為了被大多數用戶所接受,它必須避免生產在道德上令人反感的內容。但ChatGPT和其他所謂的“機器學習奇跡”的程序員一直在努力,并將繼續努力,以實現這種平衡。
2016年,微軟的Tay聊天機器人(ChatGPT的前身)在互聯網上散播厭女和種族主義的內容,因為它被網絡噴子污染了,網絡噴子用具有攻擊性內容填滿了Tay的訓練數據。未來如何解決這個問題?由于缺乏根據道德原則進行推理的能力,程序員粗暴地對ChatGPT進行了限制,禁止它在有爭議的(也就是重要的)討論中提供任何新穎的觀點。它以犧牲創造力為代價,保證了自己的非道德性(amorality)。
看看我們中的一員(Watumull博士)最近與ChatGPT就改造火星來支持人類生命是否合乎道德進行的對話:
請注意,所有這些看似復雜的思想和語言,都是由非智能產生的道德冷漠。在這里,ChatGPT表現出某種類似邪惡的平庸:剽竊、冷漠和回避。它以一種超級自動補全的方式總結了文獻中的標準論點,拒絕在任何事情上表明立場,它不僅以無知為借口,還以缺乏智慧為借口,最終提供了一種“只是服從命令”的辯護,將責任推卸給它的創造者。
簡而言之,ChatGPT及其同類在本質上無法平衡創造力與約束。它們要么過度生成(同時生成真相和謊言,同時支持道德和不道德的決定),要么生成不足(表現為不對任何決定表態,對一切后果都漠不關心)。鑒于這些系統的非道德性、偽科學性和語言無能,我們只能為它們的流行而感到哭笑不得。
- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯網新聞信息服務許可證:31120170006
增值電信業務經營許可證:滬B2-2017116
? 2014-2024 上海東方報業有限公司