人工智能监管已成为当务之急。国际原子能机构的保障经验可以为国际人工智能机构(International Artificial Intelligence Agency,简称IAIA)的人工智能监管提供一个模式,其任务是对国家人工智能系统进行客观且独立的核查。这对于保证参与国和平发展和使用人工智能以及识别/防止危险的人工智能应用来说是必要的。
Frances Mautner Markhof, 2023 年 5 月 19 日
国际监管对于确保建立在大型语言或深度学习模型(如Chat GPT和GPT-4)上的人工智能(AI)的安全性、可靠性和透明度至关重要。
虽然欧盟和中国正在引入这种监管,但美国迄今为止一直采取了自由放任的方式,允许各个州和公司自己决定是否以及如何去监管人工智能。
为什么现在需要国际人工智能监管
创建一个国际人工智能机构(IAIA)来监管人工智能,并指导人工智能的安全和有益的发展,显然是一个紧迫的问题,这反映在伊隆·马斯克(Elon Musk)和沃伦·巴菲特(Warren Buffet)的先见之明中,即与人工智能相关的风险的严重性和规模比与核武器相关的风险更严重。
IAIA将负责人工智能的国际监管以及对国家人工智能的独立和客观核查,以确保所有人遵守国家和国际义务。这种核查将保证人工智能的开发和使用仅用于安全与和平的目的,同时识别实际/可能危险的人工智能开发和应用。
国际原子能机构的保障措施作为IAIA的典范
国际原子能机构(IAEA)在IAEA保障措施方面的经验具有独特的相关性。IAIA监管的原因和作用基本上与IAEA的保障体系和国际保障措施的基础相对应。国际原子能机构的保障措施涉及对国家保障制度的独立核查,以提供可信的保证,确保核材料、物品和设施仅用于和平目的。
IAEA的成立是为了促进和平利用核能,并通过 IAEA 保障监督核查核活动没有被用于非和平目的,例如发展核武器能力。同样,IAIA也将承担双重任务,即促进人工智能的安全与和平使用,同时核查和控制人工智能不被用于危险目的。
国际人工智能机构的义务和利益
- 参与国将负责申报所有人工智能研发、人工智能应用和相关实体的其他人工智能活动,所有这些都应遵守国家对和平和有益地使用人工智能的法律和其他承诺和义务。
- 参与国将同意建立和培训一组合格的国际检查员,授权他们检查及核实人工智能活动的申报并发现未申报的人工智能活动(类似于 IAEA 保障监督检查员对核材料和核活动所做的工作)
- IAIA 监管将提供可靠的保证,即不去追求危险或非法的人工智能目的。
- 在人工智能被怀疑或确实被用于反社会或犯罪目的情况下,监管机构可以作为提供早期预警
- 通过同意遵守国际法规并接受对其人工智能活动的国际核查,各国将有机会获得人工智能技术和技术合作,为了以安全与和平为目的开发其人工智能系统
- 严重违反 IAIA 规定的行为可能会被提交给联合国安理会(UNSC),就像严重违反 IAEA 保障措施的情况一样
国际人工智能机构的实施:一份蓝图
- 参与国同意建立 IAIA,负责检查/验证国家人工智能系统及其对相关国际规范和法规的遵守情况
- 参与国向 IAIA 提供其国家人工智能活动的声明
- IAIA使用相关技术和其他手段独立核查国家人工智能申报的完整性和正确性,以确保参与国的人工智能研发和其他AI活动是安全且和平的
- 检查和核查将在人工智能开发和应用的各个阶段进行
- IAIA 将调查并旨在发现可能的未申报/可疑的人工智能活动
- 有关人工智能检查的信息将提供给国际人工智能数据库
国际合作对创建IAIA至关重要
现在的主要任务是是否以及如何建立IAIA。欧盟、美国、中国和其他地区的人工智能法规不太可能兼容、一致或是充分的。目前还没有正在认真被讨论或制定中的国际法规。
国际合作对于创建 IAEA以及IAEA的国际保障措施至关重要,这对于建立国际AI监管机构和商定其运作方式也至关重要。
一个国家需要同意放弃与 IAIA 监管有关的少量主权,就像为实施 IAEA 保障措施一样。这将允许 IAIA 对国家人工智能系统和应用程序进行核查,并验证一个国家是否正在履行其国家和国际人工智能规定。
建立一个监管人工智能的国际机构,即IAIA,将需要政治意愿和最好的国际外交。国际合作对于实现人工智能的安全性、可靠性和透明度的国际监管是必要的,同时确保并支持目前及未来人工智能的和平且高效的生产与应用。