- +1
谷歌使用AI檢測用戶“歧視性”詞匯,被指侵犯“思想自由”
谷歌在今年4月初宣布將使用人工智能來檢測用戶文檔中的“歧視性”詞匯,并建議用戶用更加“包容性”的詞語替換。一些倡導(dǎo)言論自由和隱私保護(hù)的人認(rèn)為,這一功能破壞了用戶的“思想自由”。
據(jù)“今日俄羅斯”4月24日?qǐng)?bào)道,谷歌正在使用一款新的人工智能“包容性語言助手”來檢測用戶語言中的“歧視性”詞匯,并建議用戶用更“正確”的詞語替換它們。
根據(jù)谷歌的描述,這一新工具會(huì)作為“輔助寫作功能”的一部分,為谷歌文檔用戶提供更加簡要生動(dòng)的短語作為參考,還可以修改潤色文章的語法。同時(shí),潛在的歧視性或不恰當(dāng)?shù)恼Z言將被標(biāo)記出來,并自動(dòng)彈出修改建議,“它可以讓你的寫作更加具有包容性,也更易被讀者接受”。
一些谷歌用戶在社交平臺(tái)推特(Twitter)上發(fā)出了谷歌助手給他們的建議截圖。其中“housewife(家庭主婦)”一詞被建議更換為“stay-at-home-spouse(居家配偶),“mankind(人類,也可特指人類中的男性)”被建議換成“humankind(人類總稱)”,“policeman(警察,也可特指男警察)”則應(yīng)改為“police officer(警察)”。除此之外,其他諸如“blacklist/whitelist(黑名單/白名單)”“master/slave(主人/奴隸)”等詞也被列入敏感詞匯。
對(duì)此,英國非營利組織“Big Brother Watch”的總監(jiān)卡洛在23日接受英國《每日電訊報(bào)》采訪時(shí)表示,谷歌的言論監(jiān)管行為令人“毛骨悚然”,并稱這種技術(shù)是“侵入性的”,“它破壞了用戶隱私和言論自由,更遏制了本應(yīng)日益增長的思想自由”。
英國學(xué)者拉迪克則認(rèn)為,這一功能扼殺了個(gè)人的創(chuàng)造性表達(dá)。他對(duì)《每日電訊報(bào)》說,“難道所有的書面藝術(shù)作品,小說、藝術(shù)、詩歌....都應(yīng)當(dāng)遵循一套相同的、乏味的模板嗎?”
此外,據(jù)美國VICE雜志19日?qǐng)?bào)道,宣揚(yáng)“白人至上”的美國3K黨(Ku Klux Klan)前領(lǐng)袖大衛(wèi)·杜克在采訪中曾多次使用帶有殖民背景的侮辱性詞匯“nigger(黑鬼)”一詞來指稱黑人,但谷歌的“包容性語言助手”并沒有對(duì)其提出任何警告。
自2020年來,谷歌就要求其員工在代碼和文檔中使用“包容性語言”,并列出了一份“禁止詞匯”清單。例如“black box testing(黑箱測試)”就被要求替換為“opaque box testing(不透明盒測試)”。
谷歌發(fā)言人在接受《每日電訊報(bào)》采訪時(shí)表示,目前還沒能找到一個(gè)完美的解決方案,使人工智能識(shí)別盡可能減少不必要的單詞聯(lián)想和偏見。同時(shí)谷歌也發(fā)布聲明稱,人工智能技術(shù)仍在進(jìn)步,并不斷從人類輸入中學(xué)習(xí),“最終的目標(biāo)是消除英語語言中‘所有的’偏見和歧視”。
- 澎湃新聞微博
- 澎湃新聞公眾號(hào)
- 澎湃新聞抖音號(hào)
- IP SHANGHAI
- SIXTH TONE
- 報(bào)料熱線: 021-962866
- 報(bào)料郵箱: news@thepaper.cn
滬公網(wǎng)安備31010602000299號(hào)
互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006
增值電信業(yè)務(wù)經(jīng)營許可證:滬B2-2017116
? 2014-2025 上海東方報(bào)業(yè)有限公司