- +1
數(shù)據(jù)倫理和治理丨算法的客觀性預(yù)設(shè)與運(yùn)作策略之蔽
隨著大數(shù)據(jù)殺熟和算法歧視等現(xiàn)象受到關(guān)注與熱議,算法透明與公正問題成為法律和倫理治理的焦點(diǎn)。目前,不論是對(duì)算法的批判,還是以透明和反歧視的法規(guī)和倫理規(guī)范對(duì)其加以治理,固然有助于形成批判性的輿論與合規(guī)的壓力,但因未能揭示數(shù)據(jù)驅(qū)動(dòng)的智能算法這一全新的機(jī)器認(rèn)知和控制方式的內(nèi)涵,在實(shí)踐運(yùn)作層面要么失之抽象,要么存在模糊的解釋空間,難以產(chǎn)生切實(shí)有效的影響。而要認(rèn)識(shí)到其中的問題所在,首先要揭示的是算法的客觀性預(yù)設(shè)及其運(yùn)作策略。
自20世紀(jì)中期以來,計(jì)算機(jī)和作為其基礎(chǔ)的信息論和控制論的興起,使當(dāng)代人所面對(duì)的是由各種各樣的控制論機(jī)器聯(lián)結(jié)而成的技術(shù)社會(huì)系統(tǒng)。隨著數(shù)字技術(shù)的發(fā)展,控制論機(jī)器發(fā)展出新的版本,它的“燃料”是由布滿世界的傳感器和網(wǎng)絡(luò)源源不斷地生成的數(shù)據(jù)流,其運(yùn)行機(jī)制是由代碼和軟件構(gòu)成的算法,不論稱其為大數(shù)據(jù)與人工智能還是數(shù)據(jù)智能或計(jì)算智能,“科技智人”的生存、生命和生活越來越多地托付給基于數(shù)據(jù)和算法的自動(dòng)化感知、認(rèn)知和決策。展望未來,越來越多關(guān)于人的信息和數(shù)據(jù)將被搜集和分析,不但你說什么、做什么、去哪里和跟誰(shuí)在一起被實(shí)時(shí)捕捉,而且你想什么、感受如何甚至將要做什么也成為智能算法預(yù)見和干預(yù)的目標(biāo)。
“微妙的價(jià)值博弈”
智能算法的力量是如此的強(qiáng)大,使得算法濫用成為理論批判、輿論批評(píng)甚至監(jiān)管治理的對(duì)象。算法不僅可以影響到平臺(tái)推薦的內(nèi)容和電商購(gòu)物的價(jià)格,還會(huì)決定保險(xiǎn)、信貸、就業(yè)等社會(huì)生活的方方面面。隨著大數(shù)據(jù)殺熟和算法歧視等現(xiàn)象受到關(guān)注與熱議,算法透明與公正問題成為法律和倫理治理的焦點(diǎn)。其應(yīng)對(duì)的措施主要強(qiáng)調(diào)通過倫理審查等提升透明度和加強(qiáng)問責(zé)制,主張消除算法的“偏見”或“價(jià)值判斷”,對(duì)有害的算法模型實(shí)施問責(zé)和監(jiān)管,以克服算法的不透明性、不可預(yù)測(cè)性以及有目的與意外的不公正后果。
而實(shí)際上,不論是對(duì)算法的批判——如將其認(rèn)定為數(shù)字時(shí)代的意識(shí)形態(tài),還是以透明和反歧視的法規(guī)和倫理規(guī)范對(duì)其加以治理,固然有助于形成批判性的輿論與合規(guī)的壓力,但因未能揭示數(shù)據(jù)驅(qū)動(dòng)的智能算法這一全新的機(jī)器認(rèn)知和控制方式的內(nèi)涵,在實(shí)踐運(yùn)作層面要么失之抽象,要么存在模糊的解釋空間,難以產(chǎn)生切實(shí)有效的影響。因此,出現(xiàn)了諸多不無(wú)矛盾的現(xiàn)象:盡管《個(gè)人信息法》等法規(guī)強(qiáng)調(diào)人臉等生物特征數(shù)據(jù)屬于應(yīng)該審慎對(duì)待的敏感個(gè)人信息,對(duì)人臉識(shí)別的應(yīng)用乃至濫用依然呈不斷擴(kuò)張之勢(shì);隱私保護(hù)與可信的人工智能之類的價(jià)值倫理問題主要被還原為多方學(xué)習(xí)等技術(shù)解決方案和標(biāo)準(zhǔn);企業(yè)將人工智能深度偽造重新命名為人工智能深度合成以避免對(duì)該技術(shù)可能的“污名化”。不難看到,很多討論針對(duì)這些“微妙的價(jià)值博弈”拿不出有效的辦法,最后往往將造成這些現(xiàn)象的原因歸結(jié)為數(shù)字素養(yǎng)和科技倫理素養(yǎng)的不足導(dǎo)致的認(rèn)識(shí)不足。而要認(rèn)識(shí)到其中的問題所在,首先要揭示的是算法的客觀性預(yù)設(shè)及其運(yùn)作策略。
算法的客觀性預(yù)設(shè)導(dǎo)致深層次沖突
在繼承了萊布尼茲、霍布斯等人將理性等同于函數(shù)和計(jì)算觀念的現(xiàn)代算法學(xué)家看來,基于“形式的”“機(jī)械的”“算法的”認(rèn)知是更接近事實(shí)的“機(jī)器真理”,它們比“非正式的”“頭腦中的”“憑印象的主觀認(rèn)知更準(zhǔn)確,因而更合乎道德”。由此,他們主張?jiān)趯?duì)犯罪風(fēng)險(xiǎn)、醫(yī)療結(jié)果和學(xué)生表現(xiàn)的評(píng)價(jià)中依靠客觀的機(jī)械算法而放棄主觀判斷。值得指出的是,在這些觀念的背后預(yù)設(shè)了實(shí)證主義、行為主義和社會(huì)物理學(xué)的等客觀性的思想,即通過對(duì)人和社會(huì)的觀測(cè)與量化分析,我們的認(rèn)識(shí)可以從各種主觀偏見和文化偏好中解放出來,從而有可能客觀地把握人和社會(huì)到底是怎樣的。
自19世紀(jì)后期以來,這些思想與信息技術(shù)的發(fā)展共同推動(dòng)了現(xiàn)代社會(huì)的控制革命,并由此形成了對(duì)人與社會(huì)的“科學(xué)的”認(rèn)知、管理和治理。雖然其中的“科學(xué)”很難達(dá)到物理學(xué)之類的精確科學(xué)的理論性,實(shí)際上是基于對(duì)經(jīng)驗(yàn)和行為的量化分析與操作的實(shí)驗(yàn)科學(xué)或技術(shù)。但它們被稱為“科學(xué)的”,其實(shí)蘊(yùn)含著所謂客觀性的承諾——這些量化分析與操作可以對(duì)世界進(jìn)行快速而有效的認(rèn)知與干預(yù),而有效性的依據(jù)就是實(shí)證。
在馬克斯·韋伯看來,機(jī)器的規(guī)則比人的規(guī)則更科學(xué)客觀,因而也更公正。他強(qiáng)調(diào),現(xiàn)代社會(huì)日益增長(zhǎng)的理智化和理性化是一種信念,即任何時(shí)候,只要我們想了解就能夠了解;原則上沒有任何不可知的神秘力量在發(fā)揮作用,而且我們通過計(jì)算支配萬(wàn)物。從這種理性主義的信念出發(fā),他認(rèn)為官僚制度如同精密儀器,遵循“可計(jì)算的規(guī)則”,“不考慮人”地做出決定。現(xiàn)代社會(huì)對(duì)量化和客觀性的推崇背后存在著一種貶低人的理性能力的觀念。與此密切相關(guān)的是行為主義的主張:人類的心智脆弱且充滿缺點(diǎn),未能充分考慮到更大的替代選擇架構(gòu),因此容易做出不理性的選擇。20世紀(jì)末以來,這樣的認(rèn)識(shí)隨著計(jì)算機(jī)和統(tǒng)計(jì)證據(jù)的普遍應(yīng)用而得到了強(qiáng)化——算法的客觀認(rèn)知優(yōu)于專家的主觀判斷。近年來,大數(shù)據(jù)和機(jī)器學(xué)習(xí)驅(qū)動(dòng)下的人工智能進(jìn)一步推波助瀾,人工智能算法如同一個(gè)吞噬數(shù)據(jù)的大他者,日益以人類無(wú)法理解的方式認(rèn)知和干預(yù)世界。相比之下,人類自身的信息與數(shù)據(jù)處理能力則越來越捉襟見肘,這似乎意味著人會(huì)越來越多地依賴算法。
由此可見,算法的客觀性預(yù)設(shè)會(huì)導(dǎo)致算法認(rèn)知與算法倫理政治價(jià)值的深層次沖突。一方面,算法的客觀性基于對(duì)主觀認(rèn)知的排斥。在認(rèn)知價(jià)值上肯定算法的客觀性與對(duì)科學(xué)的客觀性,特別是量化研究的客觀性的推崇一脈相承,持有這一認(rèn)知價(jià)值訴求的人似乎從根本上不相信人類的判斷對(duì)認(rèn)知活動(dòng)的干預(yù)——所謂客觀知識(shí)就是在知識(shí)獲取過程中盡量消除具體的人的判斷而使其成為一個(gè)無(wú)偏見的抽象主體的認(rèn)知過程。另一方面,對(duì)于算法應(yīng)用導(dǎo)致的透明、公正和責(zé)任等倫理政治價(jià)值問題的判斷不能沒有人的理解和參與。
重視相關(guān)性而回避因果性與情境的大數(shù)據(jù)認(rèn)識(shí)論近年來頗有影響,這種讓數(shù)據(jù)說話的主張是大數(shù)據(jù)版的算法客觀性承諾,更是技術(shù)解決主義的新形式。2008年安德森(Chris Anderson)在《理論的終結(jié)》一文中宣稱,大數(shù)據(jù)將使得關(guān)于人類行為的所有理論都過時(shí),它可以直接替代分類學(xué)、本體論和心理學(xué)。在認(rèn)識(shí)論等理論層面,大數(shù)據(jù)的出現(xiàn)及大數(shù)據(jù)方法的客觀性承諾暗示,大數(shù)據(jù)的存在使人類決策越來越不充分,人們應(yīng)該有意識(shí)地用大數(shù)據(jù)算法變革其推理方法。在技術(shù)應(yīng)用層面,讓數(shù)據(jù)說話不僅僅是認(rèn)識(shí)論轉(zhuǎn)向的承諾,而是進(jìn)一步將這種認(rèn)知直接轉(zhuǎn)換為指向問題結(jié)果的行動(dòng)。一方面,他們主張數(shù)據(jù)不言自明,只要有足夠的數(shù)據(jù),就能說明一切;另一方面強(qiáng)調(diào)不必知道人們?yōu)楹巫瞿呈拢恍枰浪@么做了。
對(duì)此,谷歌執(zhí)行主席埃里克·施密特(Eric Schmidt)在2010年接受華爾街日?qǐng)?bào)采訪時(shí)似乎做出了呼應(yīng),大部分人不希望谷歌回答他們的問題……他們希望的是,谷歌能夠告訴他們接下來該怎么做。次年,在MIT的一次演講中,他強(qiáng)調(diào),技術(shù)已不再僅僅涵蓋硬件和軟件,它實(shí)際上已經(jīng)深入到龐大的數(shù)據(jù)挖掘和利用,從而讓世界變得更美好。如果將施密特兩次談話的觀點(diǎn)結(jié)合起來,無(wú)疑直觀地體現(xiàn)了莫羅佐夫(Evgeny Morozov)在《技術(shù)至死:數(shù)字化生存的陰暗面》一書中所批判的技術(shù)解決主義或“解決方案主義”——把所有問題重新詮釋為存在解決辦法的問題。而該書原版的書名“點(diǎn)擊這,解決所有問題”,則以鼠標(biāo)隱喻揭示出人們?cè)跀?shù)字化生存中下意識(shí)的文化沖動(dòng),就像智能手機(jī)應(yīng)用興起的那段時(shí)間,遇到問題有人會(huì)不自覺地想,是不是可以做個(gè)應(yīng)用軟件(APP)。
《技術(shù)至死:數(shù)字化生存的陰暗面》書封
隱含著兩個(gè)基本預(yù)設(shè)
在實(shí)際應(yīng)用層面,大數(shù)據(jù)與人工智能中的智能算法及其驅(qū)動(dòng)的自動(dòng)化決策同時(shí)顯示出巨大的力量和不容忽視的風(fēng)險(xiǎn)。一方面,大數(shù)據(jù)分析和智能算法呈現(xiàn)出無(wú)所不在的巨大的“客觀性”力量。某些公司干預(yù)美國(guó)大選等案例似乎表明,算法能對(duì)世界進(jìn)行某種“客觀”的度量和操縱,甚至可通過精準(zhǔn)的信息投喂讓那些自己原本立場(chǎng)不確定的選民明確其立場(chǎng)。另一方面,在算法應(yīng)用的法律和倫理治理中,大數(shù)據(jù)殺熟、不良內(nèi)容推薦、算法歧視、算法不透明和不易解釋等問題備受關(guān)注,在算法認(rèn)知及自動(dòng)化決策中消除偏見與不公正已成為社會(huì)共識(shí)。
當(dāng)前,針對(duì)算法認(rèn)知的問題,算法治理(對(duì)算法應(yīng)用的治理)的目標(biāo)指向提高透明度、加強(qiáng)可解釋性,使算法更客觀公正,更為人們所理解和接受。大致而言,算法治理的主要策略包括三個(gè)方面:其一是通過算法審計(jì)促使算法設(shè)計(jì)者與應(yīng)用者端正其意圖,其二是關(guān)注并減少算法認(rèn)知和決策所采用的數(shù)據(jù)中存在的偏見、歧視和不公,其三是加強(qiáng)機(jī)器學(xué)習(xí)算法認(rèn)知過程的可解釋性。
透過算法治理的三個(gè)策略不難看到其中隱含著兩個(gè)基本預(yù)設(shè)。首先是算法治理對(duì)算法認(rèn)知的客觀有效性預(yù)設(shè),即算法認(rèn)知可以客觀地反映世界和社會(huì)實(shí)在,其認(rèn)知能力接近無(wú)限,其認(rèn)知結(jié)果是準(zhǔn)客觀的。由此,相關(guān)的法律和倫理治理也應(yīng)以準(zhǔn)客觀為標(biāo)準(zhǔn)。雖然這些衡量標(biāo)準(zhǔn)是相對(duì)的,但在實(shí)踐中一般會(huì)從可操作性出發(fā),傾向于將其轉(zhuǎn)化為技術(shù)標(biāo)準(zhǔn)。其次,算法治理的對(duì)算法認(rèn)知的社會(huì)作用的政治影響性預(yù)設(shè),即算法認(rèn)知在社會(huì)生活中體現(xiàn)為一種普遍存在的算法權(quán)力,雖然它通常不透明和不可見,但其是否公正和讓人受益卻對(duì)人們生活產(chǎn)生著重大影響。顯然,第二個(gè)基本預(yù)設(shè)折射出監(jiān)管者不同于科技公司的角色差異,正因?yàn)槿绱耍惴ㄖ卫砭哂写蜷_技術(shù)黑箱的訴求,同時(shí)它也使得作為技術(shù)解決方案的算法的運(yùn)作策略成為技術(shù)批判者關(guān)注的對(duì)象。
隱藏的技術(shù)運(yùn)行策略
人們由此注意到,算法的運(yùn)行通常采取了“無(wú)摩擦技術(shù)”(frictionless technology)和“技術(shù)無(wú)意識(shí)”等設(shè)計(jì)策略。所謂無(wú)摩擦技術(shù)就是指那些在操作上非常順暢、直觀,而無(wú)需夾雜任何形式的人類思想和情緒的技術(shù)。技術(shù)無(wú)意識(shí)則指雖然軟件、算法等技術(shù)無(wú)時(shí)不刻地對(duì)我們的生活產(chǎn)生著重要影響,卻是隱而不顯的,讓人們意識(shí)不到它們的存在。從技術(shù)認(rèn)知的角度來看,無(wú)摩擦技術(shù)設(shè)計(jì)消除了人與機(jī)器之間的界限,讓人可以在將技術(shù)作為黑箱的情況下,自然而無(wú)障礙地操作,使人的感知和行為在機(jī)器中得以順暢地延伸。例如,在員工進(jìn)入公司上下班時(shí),走過人臉識(shí)別考勤機(jī)就可以通過自動(dòng)識(shí)別算法完成刷臉考勤。而技術(shù)無(wú)意識(shí)設(shè)計(jì)則意味著算法等技術(shù)通過嵌入而成為環(huán)境的內(nèi)在構(gòu)成部分,人們可以在無(wú)意識(shí)的情況下與被技術(shù)改造和重構(gòu)的環(huán)境互動(dòng)。例如,在疫情防控期間個(gè)人可能因?yàn)榕c患者有時(shí)空伴隨而導(dǎo)致健康碼變色;自動(dòng)駕駛汽車有可能通過車輛之間信息交互由算法自動(dòng)調(diào)節(jié)車速。
在科技公司看來,這種隱藏的技術(shù)運(yùn)行策略似乎無(wú)可厚非。用施密特的話來說:“未來人們用更少的時(shí)間就能讓技術(shù)運(yùn)轉(zhuǎn)起來……因?yàn)樗褪菬o(wú)縫連接的。它就是會(huì)在那。‘網(wǎng)絡(luò)’將席卷一切,卻又好像不存在,就像電……如果我們把握好這一點(diǎn),我想我們就能解決這個(gè)世界上所有的問題。”這段表白的啟示在于,面對(duì)技術(shù)有意無(wú)意的自我遮蔽:像算法這樣一種巨大的力量的運(yùn)行,不能因其技術(shù)上的隱藏策略而變成倫理和政治層面的無(wú)形物,而應(yīng)立足當(dāng)下科技時(shí)代的趨勢(shì)性特征,從多個(gè)維度對(duì)其內(nèi)部構(gòu)成和外在關(guān)聯(lián)加以系統(tǒng)性審視。簡(jiǎn)言之,面對(duì)技術(shù)有意無(wú)意的自我遮蔽,要以相應(yīng)的祛蔽應(yīng)對(duì)之。
(本文原載于《社會(huì)科學(xué)報(bào)》第1825期第6版,經(jīng)作者授權(quán)轉(zhuǎn)載。)
- 澎湃新聞微博
- 澎湃新聞公眾號(hào)
- 澎湃新聞抖音號(hào)
- IP SHANGHAI
- SIXTH TONE
- 報(bào)料熱線: 021-962866
- 報(bào)料郵箱: news@thepaper.cn
滬公網(wǎng)安備31010602000299號(hào)
互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006
增值電信業(yè)務(wù)經(jīng)營(yíng)許可證:滬B2-2017116
? 2014-2025 上海東方報(bào)業(yè)有限公司