全球人工智能領(lǐng)導(dǎo)者在日內(nèi)瓦參加人工智能造福人類全球峰會。(2018年5月資料圖) 聯(lián)合國人權(quán)事務(wù)高級專員巴切萊特今天強調(diào),在充分的保障措施到位之前,迫切需要暫停銷售和使用對人權(quán)構(gòu)成嚴(yán)重威脅的人工智能系統(tǒng)。她同時呼吁禁止不符合國際人權(quán)法的人工智能應(yīng)用。 聯(lián)合國人權(quán)高級專員辦事處今天發(fā)布了一份報告,分析了人工智能——包括特征分析、自動決策和其他機器學(xué)習(xí)技術(shù)——如何影響人們的隱私權(quán)和其他權(quán)利,包括健康權(quán)、受教育權(quán)、行動自由權(quán)、和平集會和結(jié)社自由權(quán)以及言論自由權(quán)。 報告研究了國家和企業(yè)如何在沒有履行完備的程序的情況下草率整合人工智能應(yīng)用程序的問題。報告指出,許多人因為人工智能而受到不公正對待,比如由于人工智能工具存在的缺陷導(dǎo)致被剝奪社會保障福利,或者由于面部識別系統(tǒng)出現(xiàn)差錯而被捕。 該報告詳細(xì)介紹了人工智能系統(tǒng)如何依賴大型數(shù)據(jù)集,以多種通常不透明的方式收集、共享、合并和分析個人信息。報告指出,用于通知和指導(dǎo)人工智能系統(tǒng)的數(shù)據(jù)可能是錯誤的、歧視性的、過時的或不相關(guān)的。數(shù)據(jù)的長期存儲也帶來了特殊的風(fēng)險,因為數(shù)據(jù)在未來可能會以未知的方式被濫用。 報告指出,人工智能工具進(jìn)行的推理、預(yù)測和監(jiān)控,包括尋求對人類行為模式的解讀,也提出了嚴(yán)重的問題。人工智能系統(tǒng)所依賴的有偏見的數(shù)據(jù)集可能導(dǎo)致歧視性的決定,而這些風(fēng)險對于已經(jīng)被邊緣化的群體來說最為嚴(yán)重。 報告稱:“人工智能系統(tǒng)開發(fā)和運行背后的數(shù)據(jù)環(huán)境、算法和模型的復(fù)雜性,以及政府和私人行為者的有意保密,都是破壞公眾理解人工智能系統(tǒng)如何對人權(quán)和社會造成影響的一些因素。” 報告強調(diào),公司和政府在開發(fā)和使用人工智能方面也需要更大的透明度。 設(shè)置護(hù)欄 保障人權(quán) 巴切萊特指出,“人工智能可以成為一股向善的力量,幫助社會克服我們時代的一些巨大挑戰(zhàn)。但是,如果在使用人工智能技術(shù)時沒有充分考慮它們?nèi)绾斡绊懭藗兊娜藱?quán),它們可能會產(chǎn)生負(fù)面甚至災(zāi)難性的影響。” 她說:“人工智能現(xiàn)在幾乎深入到我們身心生活、甚至情緒狀態(tài)的每個角落。人工智能系統(tǒng)被用來決定誰獲得公共服務(wù),決定誰有機會被招聘工作,當(dāng)然,它們會影響人們在網(wǎng)上看到和分享的信息。” 她指出:“鑒于人工智能的快速和持續(xù)增長,填補數(shù)據(jù)收集、存儲、共享和使用方面的巨大問責(zé)空白是我們面臨的最緊迫的人權(quán)問題之一。” 巴切萊特強調(diào),“我們不能在人工智能方面繼續(xù)采取事后補救的方法——允許人工智能在有限或沒有界限或監(jiān)督的情況下使用,并在事后處理幾乎不可避免的人權(quán)后果。人工智能為人們提供服務(wù)的力量是不可否認(rèn)的,但人工智能在幾乎看不到的情況下大規(guī)模助長侵犯人權(quán)行為的能力也不可否認(rèn)。為了我們所有人的利益,現(xiàn)在需要采取行動,對人工智能的使用設(shè)置護(hù)欄保障人權(quán)。” |