2022年底到2023年初,诸如OpenAI的ChatGPT等新型人工智能(AI)技术实现了商业化。这些AI技术带来了诸多益处,如劳动效率提高、消费者体验增强等,但也隐含着巨大的风险。这些风险不仅跨越国界,还重新唤起了加强全球AI治理的呼声。本文所指的全球AI治理,是指通过关照超越国界的多利益相关者(而非单一主体),从而采取合作行动,以最大化AI的益处并减轻其风险的过程。
我们认为,全球正在逐步形成一个关注AI治理的国际框架,但由于AI在国际竞争中的关键作用、国际组织功能的不足以及政策优先级的分歧,使得实现实质性的合作变得复杂。因此,我们建议通过强化国际机构现有的弱“制度复合体”来推进全球AI治理。通过增强这些机构之间的协调和能力,支持彼此之间的政策改革,可以在AI涉及的各个政策领域中催化变革,同时还能够开发灵活的治理方式,以适应日新月异的技术发展需求。
各个国家和国际机构一直积极制定国际AI治理举措。例如,自2014年以来,联合国根据《特定常规武器公约》,就管理致命自主武器系统(LAWS)进行了讨论。2019年,经济合作与发展组织(OECD)成员国通过了一套AI伦理原则,随后G20领导人承诺遵循这些原则。2021年11月,联合国教科文组织(UNESCO)的193个成员国通过了《AI伦理建议书》,旨在指导签署国制定适当的法律框架。2023年,G7启动了广岛AI进程,以加强AI治理合作,金砖国家(巴西、俄罗斯、印度、中国和南非)则同意成立“AI研究小组”。欧洲委员会(CoE)一直在制定一项具有法律约束力的AI和人权国际公约——《人工智能法》,该公约于2024年7月正式公布,将于2024年8月1日正式生效。
同时,新的国际AI机构也在不断建立。例如,2020年由15个创始国成立的全球AI伙伴关系(GPAI),旨在促进AI伦理采纳。2021年成立的贸易与技术理事会旨在协调欧盟和美国政府在贸易与技术(包括AI)方面的活动。2023年,联合国秘书长的技术特使宣布成立一个关于AI的高级别咨询机构,负责推进国际AI治理的建议。英国则单方面建立了AI安全研究所,旨在推进全球对AI前沿的理解。
非政府组织也在积极制定AI治理机制。包括国际标准化组织(ISO)和国际电工委员会(IEC)在内的国际标准机构已经发布了AI的产品和流程标准。这些标准虽为自愿遵守,但有些标准可能会被立法强制为法定要求,或成为行业实践范例,进而需要实际遵守。国际标准机构在制定AI治理举措方面取得了一定进展,但其主要关注点是制定支持监管一致性的标准,从而有助于组织发展。业界还创建了新的治理机构来制定国际规则。2016年,由大型科技公司、民间社会组织和学术界利益相关者成立了AI合作伙伴关系(PAI),旨在制定指导方针并为公共政策提供信息。2023年,四家大型科技公司成立了“前沿模型论坛”,专门为先进系统建立良好的治理机制。
当前这种全球AI治理格局可以被概念化为一个弱“制度复合体”,因为它具有“多中心”结构,各机构之间存在一些联系。例如,G7的广岛进程借鉴了经合组织和GPAI的工作,但这些工作通常是独立的。对于AI政策的某些方面来说,这相对而言不是问题。因为AI并不是一个单一的政策问题,而是由于将智能代理引入任务而产生的一系列零散且相互关联的问题。因此可以预见,各机构彼此之间缺乏有效的协调——例如,联合国在努力制定法律规则的同时,技术标准机构也在为企业制定AI风险管理流程。因此,在需要协调的领域,各自为政的努力将导致分裂和混乱。
由于现有举措的不足、形势的差异以及达成协议的困难,弱AI治理制度复合体导致了治理赤字。随着国际AI治理格局的成熟,AI的特性意味着一阶和二阶合作问题将对开发AI全球治理有效机制产生重大挑战,尽管这些挑战并非不可逾越。
一阶合作问题源于国际无政府状态的地缘政治挑战,即“尽管国际社会存在,但世界政治中缺乏共同政府”。AI特别容易受到一阶合作问题的影响,因为各国将其视为获得竞争优势的来源。并且AI是一项军民两用技术,技术突破可以带来经济和安全效益。但在缺乏主权当局的情况下,各国在执行协议和理解其他国家的意图方面面临着不确定性。在上述背景下,合作的程度将因政策领域而异,并受到国家威胁感知、信任程度和利益一致性等因素的影响。
AI在竞争中的关键地位促使各国制定政策来加强其国际地位。美国对半导体实施出口管制以阻碍中国AI发展,同时促进美国国内的半导体生产。中国通过《中国制造2025》等产业政策来提升竞争力,并通过“一带一路”倡议推广技术标准,努力成为国际规范制定者。欧盟则奉行“数字主权”政策,以加强欧盟内部硬件和软件实力,减少对外国技术的依赖。通过制定公司在国际上应遵循的规则,欧盟在技术竞争中同样产生了影响力。
旨在强化国家竞争力的政策不一定不利于合作。然而,关于AI作为核心竞争优势的认知和“军备竞赛”的叙述放大了一阶合作问题,破坏了国家之间的相互信任。对于某些AI技术(例如尖端的“基础模型”)以及特定国家之间的关系尤为如此,尤其是中美两国。例如,中国代表在联合国首次专注于AI的安全理事会会议上表示,美国的出口管制削弱了全球AI治理的国际合作前景。一些行业人士利用这种“军备竞赛”框架,在拉拢更多资金支持的同时减少了国内监管,这种做法加剧了安全风险,并恶化了国际信任问题。
旨在建立合作框架并促进国际沟通的国际机构可以缓解一阶合作问题。然而,国际机构功能失调引发的二阶合作问题,加大了建立全球AI治理有效机制的难度。第二次世界大战后,国际机构激增,加上交通和信息技术的突破,加深了国家之间的一体化,并将许多国内政策领域转变为国际政策领域。然而,这也使当代多边合作变得复杂。由于制度化推动的去殖民化,全球治理参与者增加了。制度惯性阻碍了对这一新现实的适应,而日益增强的全球连通性则要求制度能够解决更复杂的问题。尽管新的国际机构不断出现以解决新的政策问题,但这无疑加剧了机构的分散和任务重叠,限制了政策的有效性。
目前,AI的开发和监管高度集中,这表明中国、欧盟和美国之间的多边协议可能足以缓解关键风险。抛开合法性问题不谈,与卫生健康等更多极化的政策领域相比,AI治理在理论上存在着很大的达成协议空间。然而,各国对于必要的政策几乎没有达成共识——欧盟提出了新的法规,美国采取了更加自由放任的做法,中国则采用了行业自律和有针对性二级立法的混合方法。在国际层面,G7等组织对于应该制定何种类型的国际治理工具存在分歧,即使在所谓的“意识形态联盟”中也是如此。这限制了达成高水平治理举措的共识,这些举措的成效也相对有限。
AI作为一个政策领域的复杂性使得达成国际协议变得困难。对于哪些问题应该优先考虑,利益相关者之间几乎没有达成共识。例如,“长期主义”者关注AI可能带来的威胁,而其他人更关注已经显现出的问题,如偏见。这种分歧在国家层面上同样显现出来,如英国更加强调长期安全风险,而欧盟则专注于现有的危害。
分裂的国际AI格局进一步加剧了合作问题,因为它允许各国和各企业遵循不同的AI政策和标准。例如,中国不是GPAI的成员,也没有任何中国企业参与PAI,这表明两种独立的AI治理生态系统正在形成。即使中国和西方国家都参加同一国际组织,职责的重叠也会削弱某一方的权威。例如,国际标准化组织(ISO)、国际电工委员会(IEC)、电气电子工程师协会(IEEE)和国际电信联盟(ITU)等组织都积极参与AI标准制定,导致很多行动主体为了达成其需求而“灵活选择”标准。
解决全球AI治理赤字需要从一个弱制度复合体转向在当前地缘政治和制度前提下的强制度复合体。可以考虑两种前进路径:第一,建立新的集中式全球AI机构;第二,加强现有机构之间的协调和能力。为了评估这两种选择,我们关注治理制度的政治合法性,即政治权力的可接受性,因为这是实现有效治理的基本条件。我们使用两个常见的政治合法性来源作为评估这些路径的标准:
(1)治理体系使国家和其他行为主体以互利方式协调其行为的能力;
(2)决策过程中存在民主程序。
在评估拟议的前进路径时,我们较少关注理想化的制度解决方案,而是更多关注该路径是否能够在考虑合作问题的前提下实现效益。
目前已经提出了一些关于建立新国际AI机构的建议,通常是基于现有机构。最主流的选择是效仿核治理——它依靠国际原子能机构(IAEA)制定标准,进行合规性监测和控制材料的获取。建立一个类似于“国际原子能机构”的AI机构,虽然可以减少当前的制度摩擦,但集中的治理制度往往脆弱,尤其是在AI发展迅猛的情况下,其风险更大。更重要的是,核能和AI不是相似的政策问题。AI政策定义松散,在领域边界和风险构成方面存在分歧,这意味着它不会面临与核能类似的物理瓶颈。它还具有跨领域上下游以及跨机构的影响力。AI的集中化制度将需要一股前所未有的权力来解决与AI相关的一系列治理问题,包括获取私营组织的发展信息,但这表明它在实践中是不可行的。
围绕少数新的AI特定机构建立半集中治理制度是一个更现实的解决方案,可以缓解一些僵化问题。然而,建立新机构可能会进一步分裂治理格局,从而削弱权威。建立此类制度也将面临可行性挑战,因为成为AI治理典范的国际机构是在截然不同的地缘政治条件下建立的。
第二种选择是强化现有的弱制度复合体。治理制度复合体允许各行为主体在不同的平台上进行合作,即使地缘政治或制度条件阻碍了其他平台的进展。这有利于国家和非国家行为主体取得进展和建立信任,随着时间的推移,这些行为主体会产生相辅相成的变化。它还允许根据技术变革进行适应性调整,并包容多元化的利益相关者,考虑到AI的技术性质和背景,这一点尤为重要。治理制度复合体同样存在缺陷,与行为主体逃避责任或违背承诺有关,正如政府和私营组织的气候承诺所见。然而,研究表明,在气候政策方面,那些做出最大胆承诺的主体(如国家或组织)往往最有可能实际履行这些承诺,此外,很多行为主体愿意推动AI的规范发展,这表明了他们对于促进变革的积极意愿。
目前,AI治理制度复合体的益处因缺乏机构协调和权威性而受到削弱,导致治理格局支离破碎、矛盾重重。更强大的治理制度复合体将涉及参与者之间的高度协调和一致,以及支持AI治理综合方法作为补充举措。从弱到强的治理制度复合体的转变可能涉及调整目标、改善信息共享、发展机构伙伴关系和建立冲突解决机制。也可能涉及建立新的机构来填补治理空白,但由于上述的分散性和可行性风险,相较于改善现有机构之间的协调和能力,这一方法应被视为次要事项。
AI治理涉及大量的价值判断,并受到国家之间竞争的影响,这使得国际合作面临更大的挑战。然而,国际合作仍在不断推进,尽管有时行动可能停滞不前,但多层治理机制也在不断发展。更重要的是,即使预计AI制度并不完善,但气候治理的经验表明,渐进式的方法比单纯依靠集中谈判更有可能实现多方面政策领域的成功。
考虑到政治合法性的第二个标准——民主决策程序的存在——在如联合国这样的多边论坛中建立的新AI机构将因获得成员国授权而具有较高的程序合法性。然而,这样的机构并非没有缺陷。例如,一个类似于国际原子能机构(IAEA)的AI机构将面临更高的监管风险,因为大型科技公司可能出于商业动机而干涉该机构的民主使命。尽管中央集权制度能够缓解这些问题,但一阶和二阶合作问题表明,通过强有力的民主程序建立多个新机构的可能性很小。
一个强大的治理制度复合体在程序合法性方面具有不同的优缺点。许多在治理制度复合体中的机构可能无法像联合国那样获得广泛的授权来管理AI,从而削弱了这些机构在国家层面的民主授权。去中心化可能导致资源有限的社会组织无法参与多个平台的活动。但应看到,治理制度复合体具有强大的民主优势,因为去中心化治理有利于考虑各种问题和利益相关者。它允许在不同治理层面提供多样化的投入,这一点尤其重要,因为合法性问题直接影响着国际机构在公民中的接受度。
强化现有的AI治理制度复合体,而非发展新的集中机构,是更可取和更现实的治理选择。这条路径并非解决全球AI治理所有挑战的灵丹妙药,但它能够促进跨多个治理层的渐进式进展,可以催化意义深远的变革。本文提出了强化现有AI治理制度复合体的建议,通过加强协调和改善程序合法性,为走向一个更强大的治理制度复杂体提供了第一步思路。
国际机构之间以及更广泛领域内的协调需要加强。联合国AI高级别咨询机构即将开展的工作旨在绘制国际AI生态系统并提供建议,这是着手解决这一问题的重要机会。英国新成立的AI安全研究所是另一种可能方案,因为它是专门为全球政策制定提供信息而建立的。然而,它是单方面建立的,并且在其他国家中反响冷淡,这表明它在成为公认的专业知识中心方面将面临困难。
经合组织可以作为提供AI经济和社会影响相关专家指导的临时代表,进而塑造国家级政策,例如制定指标、标准衡量方法以及允许跨国比较的排名。经合组织的AI工作可以包含经济影响排名、政策协调框架、良好治理指标和减少特定风险的建议。这类权威信息将支持基于证据的合作和国家间的相互督促,从而促进共识。还可以为地方和私营组织的治理努力提供信息,或被民间社会组织用于游说政府。但依赖经合组织的主要风险是,由于其主要设在欧洲,有些国家可能会忽视其成果,认为其缺乏合法性。如果由像G20这样更具代表性的组织委托经合组织执行具体项目,可以减轻这一风险。利用一个已经有关键利益相关方参与的成熟专家机构,比从头开始建立一个新的机构更可能在克服合作问题方面取得积极进展。
强化治理制度还需要通过审查现有节点是否在履行其应有的职能来改进当前规则制定中的民主程序。联合国高级别咨询机构即将开展的工作为此提供了一个契机,该工作旨在评估现有机构是否在从事适当的工作。有人建议增加民间社会对这些机构的参与,以增强其程序合法性,但监管提案的技术复杂性与民间社会行为者提出异议的程度之间存在显著负相关关系,这表明这些民间组织由于资源和专业知识的限制,不太可能做出有意义的贡献。因此,在这种情况下,仅改善组织程序可能是不够的。
为了促进更强有力的全球AI治理,有必要将讨论的重点从应建立哪种类型的国际AI机构转向更广泛的问题——即如何加强协调和促进民主程序。气候治理领域的合作经历了数十年的失败,才转向更加分散的治理模式,我们不应该在AI领域重蹈覆辙。
(全文及参考文献见International Affairs 2024年第100卷第3期,原文链接:https://academic.oup.com/ia/article/100/3/1275/7641064?login=true,本期推文为节选摘编,略有删减和编辑。)
本期策划 | 复旦大学国家智能评价与治理实验基地
供稿 | 宋欣雨 王译晗
本期编辑 | 宋欣雨
基地官网:https://statevalbase.fudan.edu.cn
· end ·