- +1
當(dāng)代美國評論︱是時候改變侵略性的數(shù)據(jù)監(jiān)控模式了
面對人工智能在當(dāng)前發(fā)展態(tài)勢下的倫理沖突和風(fēng)險挑戰(zhàn),有兩個具體的問題值得展開切實的審度與調(diào)適:其一是數(shù)據(jù)權(quán)利與算法權(quán)力的再平衡;其二是人機(jī)共生時代的人機(jī)關(guān)系的再平衡。
談到數(shù)據(jù)權(quán)利,2018年5月,歐盟頒布了《一般數(shù)據(jù)保護(hù)條例》(GDPR),明確指出保護(hù)的主體就是個人數(shù)據(jù),而個人數(shù)據(jù)指與一個已被識別或者可被識別的自然人相關(guān)的任何信息。該條例對數(shù)據(jù)獲取權(quán)、修改權(quán)、被遺忘權(quán)、數(shù)據(jù)可攜帶權(quán)、異議權(quán)等數(shù)據(jù)主體的權(quán)利做出了明確的界定。這些數(shù)據(jù)權(quán)利在一定程度上體現(xiàn)了在數(shù)據(jù)的商業(yè)智能等數(shù)據(jù)智能應(yīng)用中的問題,可以視為在價值和倫理層面對相關(guān)侵權(quán)行為的反制。
但同時也要看到,這些權(quán)利也并非無條件的絕對權(quán)利,都存在一定的限制。以對數(shù)據(jù)畫像異議權(quán)為例,只有當(dāng)對用戶進(jìn)行畫像等決策對用戶產(chǎn)生法律或者其他重大影響時,用戶才有權(quán)反對。
但這一條例出臺后,不論是從國際數(shù)據(jù)流通,還是從中國相關(guān)法律和倫理建設(shè)層面考慮,必須對其基本內(nèi)容進(jìn)行系統(tǒng)的研究,對相關(guān)數(shù)據(jù)權(quán)利的合理性與局限性應(yīng)該有一個全面的認(rèn)識。
在數(shù)據(jù)智能得到普遍應(yīng)用的解析社會,個人數(shù)據(jù)權(quán)利的重要性不言而喻。在解析社會中,不論人們主動與否,大家都是數(shù)據(jù)的貢獻(xiàn)者,一切數(shù)據(jù)都被記錄,一切行為都被分析。數(shù)據(jù)智能不斷追蹤著每個人的數(shù)據(jù),數(shù)據(jù)與世界的等同性意味著對個體數(shù)據(jù)的追蹤,實際上就是對每個人的價值觀的追蹤。因此,在理解了非人格化智能算法正在用人們的行為數(shù)據(jù)定義人們這一事實的情況下,每個人都應(yīng)該更加主動地參與到此過程中,使主體的能動性影響到基于智能算法的數(shù)據(jù)分析和數(shù)據(jù)畫像的過程與結(jié)果,通過必要的反饋與修正機(jī)制的構(gòu)建,重獲西蒙棟意味的個體化議程的主導(dǎo)權(quán)。
由此,數(shù)據(jù)智能和解析社會的未來發(fā)展面臨著數(shù)據(jù)權(quán)利和算法權(quán)力的再平衡。鑒于個人數(shù)據(jù)權(quán)利的缺失終將導(dǎo)致全局性的信任稀缺,是時候認(rèn)真審視和從根本上改變當(dāng)下普遍存在的不無侵略性的數(shù)據(jù)監(jiān)控模式了。
為此,應(yīng)該認(rèn)識到智能算法和數(shù)據(jù)分析技術(shù)的應(yīng)用,不能不考量普通主體的利害權(quán)衡,以及這些技術(shù)的可接受性,從而由智能技術(shù)的可接受性的維度出發(fā),構(gòu)建全新的基于信任氛圍的數(shù)據(jù)共享模式。
首先,即便不能像歐洲的數(shù)據(jù)權(quán)利保護(hù)條例那樣提出高標(biāo)準(zhǔn)的數(shù)據(jù)倫理規(guī)范,至少也要促使企業(yè)、機(jī)構(gòu)對智能算法的應(yīng)用擔(dān)當(dāng)起主要的責(zé)任。
其次,致力于尋求有利于營造信任氛圍的、務(wù)實的數(shù)據(jù)權(quán)利保護(hù)模式,促使數(shù)據(jù)交易各方對自己的行為負(fù)責(zé),使每個相關(guān)主體知道相關(guān)的數(shù)據(jù)如何被處理,特別是用于其他用途的情形。使數(shù)據(jù)權(quán)利的主體在原則上有權(quán)決定對其數(shù)據(jù)的處理與洞察,以此減少數(shù)據(jù)的濫用,杜絕對數(shù)據(jù)主體的嚴(yán)重傷害。
更為重要的是,應(yīng)從負(fù)責(zé)任的、創(chuàng)新的觀念出發(fā),形成更具反思平衡性的數(shù)據(jù)觀念。一方面,在提升數(shù)據(jù)主體的數(shù)據(jù)權(quán)利意識的同時,要促使主體通過追蹤自己的數(shù)據(jù),能動地反省其內(nèi)在的價值訴求和價值觀念,并通過自我參與式的數(shù)據(jù)分析和數(shù)據(jù)畫像不斷改進(jìn)自我。
另一方面,至關(guān)重要的是,應(yīng)該走出過度地攫取數(shù)據(jù)的迷思,樹立數(shù)據(jù)有度的觀念,對非人格化的算法權(quán)力加以必要的節(jié)制。尤其應(yīng)該在跨學(xué)科研究的基礎(chǔ)上,充分揭示當(dāng)下具有高度侵略性的數(shù)據(jù)監(jiān)控模式對主體能動性的侵蝕,深入辨析其對個體行為的自由度及其自我修正和自由發(fā)展的潛在可能所形成的高度制約性。
為此,應(yīng)倡導(dǎo)一種基于“節(jié)儉理性”而非“全能神理性”的數(shù)據(jù)和智能觀念,使數(shù)據(jù)的收集、存儲、處理和挖掘?qū)χ黧w權(quán)利的負(fù)面影響盡量減少,并以主體的可接受性作為數(shù)據(jù)智能應(yīng)用的剛性邊界,倒逼數(shù)據(jù)挖掘和分析技術(shù)的創(chuàng)新,使其能夠更有效地發(fā)現(xiàn)有價值的數(shù)據(jù)模式。
就人機(jī)關(guān)系而言,在人工智能的未來情境中,即便未必會出現(xiàn)庫茲韋爾等人所宣稱的超級人工智能大爆發(fā)的奇點,但依然應(yīng)該借助各種理論資源對可能帶來的重大影響和深遠(yuǎn)后果及對策展開系統(tǒng)的分析與探究。
以所謂“無用階層”的出現(xiàn)為例,馬克思在晚年就曾有預(yù)見。在《機(jī)器論片斷》中,馬克思指出:“工人把工具當(dāng)作器官,通過自己的技能和活動賦予它以靈魂,因此,掌握工具的能力取決于工人的技藝。相反,機(jī)器則代替工人而具有技能和力量,它本身就是能工巧匠,它通過在自身中發(fā)生作用的力學(xué)規(guī)律而具有自己的靈魂……科學(xué)通過機(jī)器的構(gòu)造驅(qū)使那些沒有生命的機(jī)器肢體有目的地作為自動機(jī)來運轉(zhuǎn),這種科學(xué)并不存在于工人的意識中,而是作為異己的力量,作為機(jī)器本身的力量,通過機(jī)器對工人發(fā)生作用。”
馬克思不僅強調(diào)指出,“機(jī)器無論在哪一方面都不表現(xiàn)為單個工人的勞動資料”,而且進(jìn)一步預(yù)見,“對象化在機(jī)器體系中的價值表現(xiàn)為這樣一個前提,同它相比,單個勞動能力創(chuàng)造價值的力量作為無限小的量而趨于消失。”
倘若“無用階層”的出現(xiàn)難以避免,從社會風(fēng)險防范的角度來看,一定要從創(chuàng)造性教育、人文素質(zhì)培養(yǎng)上努力減少“無用階層”產(chǎn)生的沖擊波,通過系統(tǒng)的心理疏導(dǎo)和社會管控,從心理和精神層面展開智能化的引導(dǎo)和校正。
要克服機(jī)器掌控世界和智能化鴻溝等可能給人類文明帶來的風(fēng)險,必須對人類在智能系統(tǒng)中的地位和作用加以認(rèn)真的審視。
一般而言,如果將智能算法決策和自動智能系統(tǒng)的操作過程視為一個閉環(huán),人類對自動智能系統(tǒng)的控制一般有四種方式。一是人在閉環(huán)之中:人定義-機(jī)器人選擇-人確認(rèn)-機(jī)器執(zhí)行。二是人在閉環(huán)之上:人定義-機(jī)器人選擇-人可以使之中止-如人未使之中止-機(jī)器人執(zhí)行。三是人在閉環(huán)之外:人定義-機(jī)器選擇-機(jī)器執(zhí)行,人無法中止。四是人與閉環(huán)無關(guān):機(jī)器定義-機(jī)器選擇-機(jī)器執(zhí)行。
通過這四種方式可以看到,隨著自動駕駛和自動智能武器系統(tǒng)等能力與威力的迅猛增長,人對系統(tǒng)的控制作用卻在逐漸弱化,對風(fēng)險防范和責(zé)任追究必將成為社會關(guān)注的焦點。但要克服這些風(fēng)險并沒有捷徑,只能通過諸如“無人駕駛是否比人類駕駛更安全,更合乎道德”和“自動智能武器系統(tǒng)會不會比士兵作戰(zhàn)更人道”等悖論的探討,從具體的人機(jī)共生的可能情境中,不斷展開對人機(jī)關(guān)系的再思考。
為了從根本上抑制自動智能系統(tǒng)可能帶來的風(fēng)險,應(yīng)考慮引入若干促進(jìn)人機(jī)相互理解與協(xié)同的策略。其一,將人與機(jī)器之間的相互理解作為自動智能系統(tǒng)的基礎(chǔ)和前提,其中既應(yīng)包括理性層面的認(rèn)知方式與知識表達(dá)層面的人機(jī)相互理解,還應(yīng)包括人與機(jī)器之間的共情關(guān)系和同理心的構(gòu)建。
其二,一些重大決策和執(zhí)行系統(tǒng)如果采用自動智能系統(tǒng),應(yīng)有多個備份和功能類似的替代性系統(tǒng),以防范系統(tǒng)風(fēng)險。
其三,構(gòu)建人工智能應(yīng)用特區(qū),在有條件的科技創(chuàng)新中心的部分地區(qū),廣泛、深入、充分地展開人機(jī)互動試驗,探索面向未來人機(jī)共生社會的創(chuàng)新文化。
-----
本文節(jié)選自作者刊于《當(dāng)代美國評論》2019年第1期的論文“面向人工智能時代的倫理策略”。“澎湃”經(jīng)授權(quán)選編。
- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006
增值電信業(yè)務(wù)經(jīng)營許可證:滬B2-2017116
? 2014-2024 上海東方報業(yè)有限公司