- +1
谷歌使用AI檢測用戶“歧視性”詞匯,被指侵犯“思想自由”
谷歌在今年4月初宣布將使用人工智能來檢測用戶文檔中的“歧視性”詞匯,并建議用戶用更加“包容性”的詞語替換。一些倡導言論自由和隱私保護的人認為,這一功能破壞了用戶的“思想自由”。
據“今日俄羅斯”4月24日報道,谷歌正在使用一款新的人工智能“包容性語言助手”來檢測用戶語言中的“歧視性”詞匯,并建議用戶用更“正確”的詞語替換它們。
根據谷歌的描述,這一新工具會作為“輔助寫作功能”的一部分,為谷歌文檔用戶提供更加簡要生動的短語作為參考,還可以修改潤色文章的語法。同時,潛在的歧視性或不恰當的語言將被標記出來,并自動彈出修改建議,“它可以讓你的寫作更加具有包容性,也更易被讀者接受”。
一些谷歌用戶在社交平臺推特(Twitter)上發出了谷歌助手給他們的建議截圖。其中“housewife(家庭主婦)”一詞被建議更換為“stay-at-home-spouse(居家配偶),“mankind(人類,也可特指人類中的男性)”被建議換成“humankind(人類總稱)”,“policeman(警察,也可特指男警察)”則應改為“police officer(警察)”。除此之外,其他諸如“blacklist/whitelist(黑名單/白名單)”“master/slave(主人/奴隸)”等詞也被列入敏感詞匯。
對此,英國非營利組織“Big Brother Watch”的總監卡洛在23日接受英國《每日電訊報》采訪時表示,谷歌的言論監管行為令人“毛骨悚然”,并稱這種技術是“侵入性的”,“它破壞了用戶隱私和言論自由,更遏制了本應日益增長的思想自由”。
英國學者拉迪克則認為,這一功能扼殺了個人的創造性表達。他對《每日電訊報》說,“難道所有的書面藝術作品,小說、藝術、詩歌....都應當遵循一套相同的、乏味的模板嗎?”
此外,據美國VICE雜志19日報道,宣揚“白人至上”的美國3K黨(Ku Klux Klan)前領袖大衛·杜克在采訪中曾多次使用帶有殖民背景的侮辱性詞匯“nigger(黑鬼)”一詞來指稱黑人,但谷歌的“包容性語言助手”并沒有對其提出任何警告。
自2020年來,谷歌就要求其員工在代碼和文檔中使用“包容性語言”,并列出了一份“禁止詞匯”清單。例如“black box testing(黑箱測試)”就被要求替換為“opaque box testing(不透明盒測試)”。
谷歌發言人在接受《每日電訊報》采訪時表示,目前還沒能找到一個完美的解決方案,使人工智能識別盡可能減少不必要的單詞聯想和偏見。同時谷歌也發布聲明稱,人工智能技術仍在進步,并不斷從人類輸入中學習,“最終的目標是消除英語語言中‘所有的’偏見和歧視”。
- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯網新聞信息服務許可證:31120170006
增值電信業務經營許可證:滬B2-2017116
? 2014-2025 上海東方報業有限公司