- +1
螞蟻集團(tuán)副總裁李俊奎:要為AI健康發(fā)展設(shè)立“紅綠燈”
11月21日,在2024年世界互聯(lián)網(wǎng)大會烏鎮(zhèn)峰會“人工智能負(fù)責(zé)任開發(fā)與應(yīng)用分論壇”上,螞蟻集團(tuán)副總裁李俊奎在發(fā)言中指出,要為AI健康發(fā)展設(shè)立“紅綠燈”:對會給人類價值觀和社會穩(wěn)定造成嚴(yán)重沖擊的AI應(yīng)用,必須進(jìn)行防御和抵制;對具有潛在風(fēng)險的AI應(yīng)用領(lǐng)域,要做充分、深度的分析和研究,建立完善的倫理和安全框架;對那些有益于人類的AI應(yīng)用,應(yīng)亮起通行信號。
李俊奎將AI比作高速行駛的列車,“它既帶來了前所未有的機(jī)遇,如促進(jìn)經(jīng)濟(jì)發(fā)展、社會進(jìn)步、助力公益事業(yè),但如同列車需要軌道和信號的引導(dǎo)一樣,AI的發(fā)展也不能毫無約束地狂奔,必須為其設(shè)立紅綠燈,保障其健康前行”。
紅燈,就是做好風(fēng)險的控制。“我們要警惕AI技術(shù)被惡意利用,比如用于制造虛假信息、發(fā)動網(wǎng)絡(luò)攻擊或者加劇社會不平等。深度偽造技術(shù)就是一個例子,如果不加以限制,它可能會破壞社會的信任體系,引發(fā)混亂。”李俊奎表示,必須對抗這種會對人類價值觀和社會穩(wěn)定造成嚴(yán)重沖擊的應(yīng)用,讓紅燈成為不可逾越的紅線。
黃燈,就是在技術(shù)之外,做好AI制度管理,謹(jǐn)慎對待那些具有潛在風(fēng)險的AI領(lǐng)域。“例如,自動駕駛領(lǐng)域雖然前景非常廣闊,但目前還存在很多復(fù)雜的倫理問題,比如當(dāng)自動駕駛汽車面臨不可避免的碰撞時,它應(yīng)該優(yōu)先保護(hù)車內(nèi)乘客還是行人?”李俊奎認(rèn)為,面對類似情況,要進(jìn)行充分、深度的研究和討論,建立完善的倫理和安全框架,只有當(dāng)風(fēng)險可控時,才允許其繼續(xù)前行。
李俊奎介紹,螞蟻集團(tuán)在去年年初建立AI安全倫理委員會時便期望用“善治”應(yīng)對“善智”。集團(tuán)的任何AI應(yīng)用在出臺前,都會經(jīng)過包括科技倫理在內(nèi)的評測,真正做到用制度引導(dǎo)AI驅(qū)動的業(yè)務(wù)符合“以人為本,科技向善”。
綠燈,就是為那些有益于人類的AI應(yīng)用亮起通行信號。“安全是手段,最終目的是促進(jìn)AI健康發(fā)展,廣泛應(yīng)用于產(chǎn)業(yè)和方便人民的生活,縮小AI引發(fā)的技術(shù)鴻溝。”
李俊奎表示,為AI的發(fā)展設(shè)立“紅綠燈”的過程也是構(gòu)建負(fù)責(zé)任AI的過程。負(fù)責(zé)任AI的建立從長遠(yuǎn)來看面臨三大趨勢:第一,從“準(zhǔn)確性”到“人情味”。除了保證AI的可靠性和準(zhǔn)確性之外,也要真正讓AI更好地服務(wù)人類。第二,從“顯性風(fēng)險被動防控”到“隱性風(fēng)險主動防控”。第三,從“對話交互”到“有效協(xié)同”。
李俊奎認(rèn)為,負(fù)責(zé)任AI的建立需要各界多方共同努力。對于政府來說,要制定合理的法規(guī)政策,明確紅線和監(jiān)管的機(jī)制;對于社會組織、科研機(jī)構(gòu)來說,要加強(qiáng)對AI倫理和風(fēng)險的研究,為決策提供科學(xué)依據(jù);對于科技企業(yè)來說,要自覺遵守道德和倫理準(zhǔn)則,將社會責(zé)任融入技術(shù)研發(fā)中;對于公眾來說,要積極關(guān)注和參與AI發(fā)展的討論,共同構(gòu)建負(fù)責(zé)任的AI。“總之,設(shè)立好紅綠燈,建立負(fù)責(zé)任AI,是一個系統(tǒng)性、開放性的命題,既刻不容緩,也需要長期主義。”
- 報(bào)料熱線: 021-962866
- 報(bào)料郵箱: news@thepaper.cn
互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006
增值電信業(yè)務(wù)經(jīng)營許可證:滬B2-2017116
? 2014-2024 上海東方報(bào)業(yè)有限公司