导读 · 2023.07.03
目前,美国正在围绕人工智能民主化制定相关政策。但是,将民主价值观融入技术应用绝非易事。本文认为,人工智能算法透明化的缺失,是人工智能民主化面临的最大挑战。
引言
了解人工智能的工作原理,有利于确定人工智能的利弊,更有利于为人工智能治理提供更充分的政策依据。从决策者的角度来看,制定有关算法透明化的政策,是最直接且成本最低的途径。这样既政治正确,又无需具备人工智能专业知识。也正因为如此,决策者往往忽视了一系列深层次问题。例如,如何划定人工智能算法的能力范围与边界?在设计人工智能模型时需要考虑什么因素?
在算法透明化方面,美国和中国选择了截然不同的道路。美国就政府机构如何使用人工智能技术做出了明确的规定。虽然美国并未要求企业遵守相关规定,但却要求企业接受社会的监督。中国实行了算法备案制度,旨在对算法服务提供者进行监管和评估。该备案只供政府内部使用,不对外公开。
上述案例表明,算法透明化的实现离不开两个重要因素:一是如何确定算法信息的披露对象?二是为什么算法需要透明化?
如何确定算法信息的披露对象?
让公众了解算法的性能和影响,是实现算法透明化的第一步,而这涉及到算法信息的披露程度。
众所周知,人工智能具有黑箱效应(复杂性、不透明性、不可预见性和部分自主性行为)。以美国为例,数字监管机构规定,银行必须承担管理机器学习模型带来的所有风险。美联储于2011年发布了《模型风险管理监督指南》,强调金融机构应当更深入地了解人工智能的工作原理。
2011年4月发布的《模型风险管理监督指南》
(图源:美联储储备委员会)
为了推动算法透明化,美国爱达荷州最近通过了一项法律,规定司法部门通过人工智能技术获得的所有文件和信息均必须向公众公开,而且不可以限制公开对象,这等同于默认接受无限制的外部审查。
与美国的激进做法相比,欧盟显得较为谨慎,于2022年发布了《人工智能责任指令》,拟就人工智能引发的损害设定责任规则。该指令规定,在面对技术复杂度高的人工智能产品时,法院可以在诉讼过程中要求算法服务提供者披露技术细节,以辨识谁是可能的担责者,发现何为问题的缘由。但是,欧盟并未对算法透明化做强制要求,而是根据具体情况而定。
除了披露技术细节以外,确定披露对象也是算法透明化的一个重要方面。就企业而言,算法透明化通常只局限于企业内部,而且企业管理层可以自主决定算法信息的披露程度。这显然是不合理的,一旦算法透明化与企业利益发生冲突时,就难以实现算法透明化。有鉴于此,欧盟在《人工智能责任指令》中规定,当被告拒绝向原告提供证据时,原告可以要求算法服务提供者提供证据,这进一步提高了算法问责的有效性。
2022年9月发布的《人工智能责任指令》
(图源:EUR-LEX官网)
算法透明化的另一个重要方面是如何利用算法信息来保障个人权益。人工智能模型主要由两个部分构成:算法和训练数据。研发者可以利用上述两者来测试人工智能系统的表现,类似于医生根据医学试验结果来进行临床诊断。但对于一般人而言,显然无法从专业的角度来判断算法的优劣。
如果不提高公众对算法透明化的认识,披露人工智能模型的技术细节将毫无意义。将算法信息转化为保障个人权益的工具是关键,但实现算法透明化需要建立一套完善的问责机制。
如果缺少算法监管机制,那么算法引起的后果只能由个人来承担。迄今为止,没有一国有能力实现真正意义上的算法透明化,只有少数人能够受益于算法透明化带来的利好。
为什么算法需要透明化?
人工智能模型必须具备人类价值观,制定符合民主规范的公共政策,为社会问题提供更好的解决方案。然而,人工智能模型的行事方式却与人类价值观渐行渐远,不断冲击着社会伦理与法治秩序。例如,人工智能模型可以通过训练数据来预判人的行为,从而导致社会能动性的丧失。此外,人工智能模型还存在算法偏见现象(例如对特定群体产生刻板印象),进而破坏权利平等,危及社会公平。
毫无疑问,算法透明化是人工智能民主化的重要前提条件。为了更好地维护民主价值观,除了要实现算法透明化以外,政府还应当加大对算法透明化研究的财政支持力度,并大力推进人工智能问责制度的建设。
如果要将算法透明化转化为公共利益,政府应当帮助官员学习人工智能方面的知识。首先要成立一个专门负责相关事务的机构,其次在各机构中寻找人工智能方面的人才。在制定人工智能应用规范的同时,政府还应当重视减少人工智能带来的负面影响。为此,可以考虑给数字监管机构和消费者权益保护机构提供专项资金,用于保障与算法相关的公民权益。美国联邦贸易委员会在这方面表现出色,可以作为其他机构效仿的典范。
此外,政府还应当加大对人工智能受害者的保护力度。例如,在人工智能造成的损害方面,欧盟的《人工智能责任指令》要求人工智能企业承担产品责任,这大大降低了人工智能受害者的举证难度。
人工智能的使命是服务于民主政治。要完成这项使命,政府应当公开用于划定选区边界的算法信息,以确保选举的公平和透明。公众对人工智能的态度是一个重要因素!研究显示,公众对人工智能的态度呈现出两极分化的趋势:极为乐观和极为悲观。这表明,培养公众对人工智能的信任比算法透明化更难实现。
在制定有关人工智能的政策过程中,政府和产业界应当与公众建立密切联系,以加强公众在人工智能治理领域的话语权。为了强化对算法的监管,拜登政府在《2020年国家人工智能倡议法》中要求各机构采取强有力措施,支持美国人工智能教育和劳动力培训计划。算法透明化是一项复杂和技术要求极高的工作,而且无任何先例可循。只有将人工智能民主化与算法透明化两大目标相结合,人工智能才具备服务于民主政治的能力。
结语
长期以来,如何规范和管理人工智能的应用一直饱受争议。美国政府内部对人工智能民主化存在分歧,例如,各机构在推进人工智能民主化的过程中有着不同的侧重点。有官员认为,人工智能法规应当建立在自由主义和平等主义之上;也有官员认为,人工智能的作用是维护民主选举的权威性,确保民主协商的有序开展。
2021年,美国人工智能国家安全委员会向美国国会提交了一份研究报告。该报告明确将“民主”定义为“有限政府”和“个人自由”,这与白宫科技政策办公室《人工智能权利法案蓝图》强调的“机会平等”和“公平获取社会资源”不一致。在该情况下,各机构必定会推出截然不同的人工智能政策。为了避免此类情况的发生,各机构应当根据算法信息的披露对象及算法透明化的目的来调整其侧重点。
2022年10月发布的《人工智能权利法案蓝图》
(图源:白宫官网)
算法透明化并非人工智能治理的唯一标准,选择什么机构承担人工智能的监督工作,授予监管机构什么权力也同等重要。此外,要确保人工智能符合“以人为本”、“包容性”和“无偏见”原则,还必须研究特定地区的文化和政治制度,并从人工智能治理的角度加以分析。
综上,人工智能治理的复杂性远超我们的想象。我们不能单纯地从技术的角度来思考人工智能民主化,也应当增强政府公信力,向公众普及人工智能技术的相关知识和应用。只有这样,才能推动人工智能更好地为人类服务。
*免责声明:本文所阐述观点仅代表作者本人立场,不代表大湾区评论或IIA机构立场。
*本文原载于IPP评论,译者华南理工大学公共政策研究院研究助理曾辉。
本文作者
马特奥·肖内西(Matt O'Shaughnessy),卡内基国际和平基金会访问学者,佐治亚理工学院电气与计算机工程博士。
GBA Review 新传媒