譯文 | 美智庫:人工智能民主化面臨的挑戰


導讀 · 2023.07.03

 

目前,美國正在圍繞人工智能民主化製定相關政策。但是,將民主價值觀融入技術應用絕非易事。本文認為,人工智能算法透明化的缺失,是人工智能民主化面臨的最大挑戰。

 

引言

 

了解人工智能的工作原理,有利於確定人工智能的利弊,更有利於為人工智能治理提供更充分的政策依據。從決策者的角度來看,製定有關算法透明化的政策,是最直接且成本最低的途徑。這樣既政治正確,又無需具備人工智能專業知識。也正因為如此,決策者往往忽視了一系列深層次問題。例如,如何劃定人工智能算法的能力範圍與邊界?在設計人工智能模型時需要考慮什麽因素?

在算法透明化方面,美國和中國選擇了截然不同的道路。美國就政府機構如何使用人工智能技術做出了明確的規定。雖然美國並未要求企業遵守相關規定,但卻要求企業接受社會的監督。中國實行了算法備案製度,旨在對算法服務提供者進行監管和評估。該備案只供政府內部使用,不對外公開。

上述案例表明,算法透明化的實現離不開兩個重要因素:一是如何確定算法信息的披露對象?二是為什麽算法需要透明化?

 

如何確定算法信息的披露對象?

 

讓公眾了解算法的性能和影響,是實現算法透明化的第一步,而這涉及到算法信息的披露程度。

 

眾所周知,人工智能具有黑箱效應(復雜性、不透明性、不可預見性和部分自主性行為)。以美國為例,數字監管機構規定,銀行必須承擔管理機器學習模型帶來的所有風險。美聯儲於2011年發布了《模型風險管理監督指南》,強調金融機構應當更深入地了解人工智能的工作原理。

 

114

2011年4月發布的《模型風險管理監督指南》

(圖源:美聯儲儲備委員會)

 

為了推動算法透明化,美國愛達荷州最近通過了一項法律,規定司法部門通過人工智能技術獲得的所有文件和信息均必須向公眾公開,而且不可以限製公開對象,這等同於默認接受無限製的外部審查。

與美國的激進做法相比,歐盟顯得較為謹慎,於2022年發布了《人工智能責任指令》,擬就人工智能引發的損害設定責任規則。該指令規定,在面對技術復雜度高的人工智能產品時,法院可以在訴訟過程中要求算法服務提供者披露技術細節,以辨識誰是可能的擔責者,發現何為問題的緣由。但是,歐盟並未對算法透明化做強製要求,而是根據具體情況而定。

除了披露技術細節以外,確定披露對象也是算法透明化的一個重要方面。就企業而言,算法透明化通常只局限於企業內部,而且企業管理層可以自主決定算法信息的披露程度。這顯然是不合理的,一旦算法透明化與企業利益發生沖突時,就難以實現算法透明化。有鑒於此,歐盟在《人工智能責任指令》中規定,當被告拒絕向原告提供證據時,原告可以要求算法服務提供者提供證據,這進一步提高了算法問責的有效性。

114

2022年9月發布的《人工智能責任指令》

(圖源:EUR-LEX官網)

 

算法透明化的另一個重要方面是如何利用算法信息來保障個人權益。人工智能模型主要由兩個部分構成:算法和訓練數據。研發者可以利用上述兩者來測試人工智能系統的表現,類似於醫生根據醫學試驗結果來進行臨床診斷。但對於一般人而言,顯然無法從專業的角度來判斷算法的優劣。

如果不提高公眾對算法透明化的認識,披露人工智能模型的技術細節將毫無意義。將算法信息轉化為保障個人權益的工具是關鍵,但實現算法透明化需要建立一套完善的問責機製。

 

如果缺少算法監管機製,那麽算法引起的後果只能由個人來承擔。迄今為止,沒有一國有能力實現真正意義上的算法透明化,只有少數人能夠受益於算法透明化帶來的利好。

 

為什麽算法需要透明化?

 

人工智能模型必須具備人類價值觀,製定符合民主規範的公共政策,為社會問題提供更好的解決方案。然而,人工智能模型的行事方式卻與人類價值觀漸行漸遠,不斷沖擊著社會倫理與法治秩序。例如,人工智能模型可以通過訓練數據來預判人的行為,從而導致社會能動性的喪失。此外,人工智能模型還存在算法偏見現象(例如對特定群體產生刻板印象),進而破壞權利平等,危及社會公平。

毫無疑問,算法透明化是人工智能民主化的重要前提條件。為了更好地維護民主價值觀,除了要實現算法透明化以外,政府還應當加大對算法透明化研究的財政支持力度,並大力推進人工智能問責製度的建設。

如果要將算法透明化轉化為公共利益,政府應當幫助官員學習人工智能方面的知識。首先要成立一個專門負責相關事務的機構,其次在各機構中尋找人工智能方面的人才。在製定人工智能應用規範的同時,政府還應當重視減少人工智能帶來的負面影響。為此,可以考慮給數字監管機構和消費者權益保護機構提供專項資金,用於保障與算法相關的公民權益。美國聯邦貿易委員會在這方面表現出色,可以作為其他機構效仿的典範。

此外,政府還應當加大對人工智能受害者的保護力度。例如,在人工智能造成的損害方面,歐盟的《人工智能責任指令》要求人工智能企業承擔產品責任,這大大降低了人工智能受害者的舉證難度。

人工智能的使命是服務於民主政治。要完成這項使命,政府應當公開用於劃定選區邊界的算法信息,以確保選舉的公平和透明。公眾對人工智能的態度是一個重要因素!研究顯示,公眾對人工智能的態度呈現出兩極分化的趨勢:極為樂觀和極為悲觀。這表明,培養公眾對人工智能的信任比算法透明化更難實現。

在製定有關人工智能的政策過程中,政府和產業界應當與公眾建立密切聯系,以加強公眾在人工智能治理領域的話語權。為了強化對算法的監管,拜登政府在《2020年國家人工智能倡議法》中要求各機構采取強有力措施,支持美國人工智能教育和勞動力培訓計劃。算法透明化是一項復雜和技術要求極高的工作,而且無任何先例可循。只有將人工智能民主化與算法透明化兩大目標相結合,人工智能才具備服務於民主政治的能力。

 

結語

 

長期以來,如何規範和管理人工智能的應用一直飽受爭議。美國政府內部對人工智能民主化存在分歧,例如,各機構在推進人工智能民主化的過程中有著不同的側重點。有官員認為,人工智能法規應當建立在自由主義和平等主義之上;也有官員認為,人工智能的作用是維護民主選舉的權威性,確保民主協商的有序開展。

 

2021年,美國人工智能國家安全委員會向美國國會提交了一份研究報告。該報告明確將「民主」定義為「有限政府」和「個人自由」,這與白宮科技政策辦公室《人工智能權利法案藍圖》強調的「機會平等」和「公平獲取社會資源」不一致。在該情況下,各機構必定會推出截然不同的人工智能政策。為了避免此類情況的發生,各機構應當根據算法信息的披露對象及算法透明化的目的來調整其側重點。

 

1919810

2022年10月發布的《人工智能權利法案藍圖》

(圖源:白宮官網)

 

算法透明化並非人工智能治理的唯一標準,選擇什麽機構承擔人工智能的監督工作,授予監管機構什麽權力也同等重要。此外,要確保人工智能符合「以人為本」、「包容性」和「無偏見」原則,還必須研究特定地區的文化和政治製度,並從人工智能治理的角度加以分析。

綜上,人工智能治理的復雜性遠超我們的想象。我們不能單純地從技術的角度來思考人工智能民主化,也應當增強政府公信力,向公眾普及人工智能技術的相關知識和應用。只有這樣,才能推動人工智能更好地為人類服務。。

 

*免責聲明:本文所闡述觀點僅代表作者本人立場,不代表大灣區評論或IIA機構立場。

 

*本文原載於IPP評論,譯者華南理工大學公共政策研究院研究助理曾輝。

 

本文作者

 

馬特奧·肖內西(Matt O'Shaughnessy),卡內基國際和平基金會訪問學者,佐治亞理工學院電氣與計算機工程博士。

 

GBA Review 新傳媒