从布莱切利、首尔到巴黎:亲历三届人工智能峰会启示录

【文/观察者网专栏作者 曾毅】 人工智能进展对人类社会变革发挥着深刻的作用,近期在应用与服务方面给予公众的感受更是达到了前所未有的高度。而人工智能对人类可能造成的潜在安全风险,也从两百多年前玛丽·雪莱《弗兰肯斯坦》中的隐喻和阿西莫夫《我、机器人》中的叙事,迅速进入公众与政府的视野。 2015年,在波多黎各召开了人工智能安全科技领域的前沿会议。而人工智能安全作为需要国际协作解决的全球挑战,真正进入公众与政府视野,还是回到雪莱的故乡英国,图灵机与二战期间恩尼格玛密码机的诞生地布莱切利园。 2023年11月在英国举行的首届人工智能安全峰会(AI Safety Summit),最重要的成果当属《布莱切利人工智能安全宣言(The Bletchley Declaration on AI Safety)》,28国及欧盟在人工智能安全风险认知与议题上达到当时政府层面最广泛的共识。 这项共识的取得背后是与各国政府和科技界长达半年多的沟通,才推进了这个极具不确定性的议题上取得共同认知。 英美相继宣布人工智能安全研究所的成立影响广泛,但这使得许多国家的代表迷茫于不知如何选边站,可又何须选边? 我受邀主持了圆桌会议“前沿人工智能不可预知进展带来的风险”的研讨,并在公开全体会议的总结环节,有机会直面这个问题进行了发言:“我们认为每个国家都应该成立自己的人工智能安全机构。但这还不够,我们还需要建立一个涵盖全世界的人工智能安全协作网络,以期能够解决不可预知的进展和不可预知的失败。另外,这次会议我们有28国参加,我们希望能够进一步提升会议的包容性,下届能够有40国,再下届也许可以是60国”。 会后过去一年多的时间,我们看到至少十余个国家成立了人工智能安全专门的机构,韩国首尔人工智能峰会上实际已经成立了国际人工智能安全研究所网络(International Network of AISI),却将中国排除在外。而这个会议系列的包容性在首尔峰会并没有增加,直至巴黎人工智能行动峰会,正式参与的国家达到了80国以上。 2023年在布莱切利人工智能安全峰会(AI Safety Summit)公开会议主会环节发言,笔者建议成立面向国家间合作的国际人工智能安全网络 2023年在布莱切利人工智能安全峰会(AI Safety Summit)主持“前沿人工智能不可预知进展带来的风险”圆桌研讨 2024年5月人工智能首尔峰会(AI Seoul Summit)虽然由韩国与英国共同主办,但是峰会的标题中,安全已没有作为核心。但这届会议仍然取得了引人瞩目的进展,主要是宣布国际人工智能安全研究所网络的成立和面向企业的人工智能安全自愿承诺(Frontier AI Safety Commitments)。 布莱切利峰会半年内,全球人工智能安全相关机构已经逐步浮出水面,人工智能安全协作网络的提议已成为共识,人工智能安全研究所网络(Network of AISI)应运而生,然而却是在更小范围的10个国家和欧盟参与的情况下形成的决议,没有任何合理的理由,中国被排除在外。 在人工智能首尔峰会部长论坛(Ministers’ Session)上,我听到时任英国科技、创新与技术部部长对这个情况的介绍后感到完全不可接受,并在安排的学者代表发言环节进行了回应:“国家层面人工智能安全制度的建设每个国家都有不同的选择,建立单一国家级人工智能安全研究所的国家,目前已然需要面对如何解决国内人工智能安全相关机构之间竞争与协同的问题。 中国与不同部委协同的人工智能安全机构众多,更适合中国的人工智能安全相关机构组织模式是国家层面的协作网络,机构之间的互联与协作甚至可以在国家层面的人工智能安全机制复合体的协调方面发挥积极作用。 国际人工智能安全网络的概念提出甚至有来自中国的贡献,而中国被排除在这个网络之外,这不仅是不可接受的,更是自布莱切利会议努力之后历史的倒退”。 首尔会议之后,国内相关单位继续协同推进,“中国人工智能发展与安全研究网络(China AI Development and Safety Network)”在2024年9月联合国大会期间,由中国和赞比亚共同作为主办国发起的人工智能能力建设国际合作高级别会议(High-level Meeting on International Cooperation on Capacity-building of Artificial Intelligence)上,我作为学者代表首次对外宣布,会议在联合国纽约总部举行。 人工智能首尔峰会(AI Seoul Summit)部长论坛(Ministers’ Session),笔者作为学者代表发言,介绍为应对安全治理机制复合体的发展现状,中国正在探索以国家层面人工智能安全网络的形式形成政产学研协作机制 “中国人工智能发展与安全研究网络”在2024年9月联合国大会期间,由中国、赞比亚主办人工智能能力建设国际合作高级别会议上宣介 首尔峰会的另外一项重要成果是面向企业的“前沿人工智能安全承诺(Frontier AI Safety Commitments)”,这项承诺集结了来自多国处于最前沿人工智能模型研发的代表性企业。一年来,英国在承诺参与的企业方面持续发力,至今得到包括中国3家代表性企业,全球共20家领先企业的支持。 自愿承诺是企业自律自治的行为,制定并公开安全护栏与框架是人工智能企业推进人工智能安全落地重要的实践。 与此项工作以及白宫推进的人工智能企业自愿承诺相关的,来自中国人工智能产业的集体表态,则是中国人工智能产业联盟(AIIA)发起的“人工智能安全承诺”,首批得到17家中国领先人工智能企业的支持。

2月 21, 2025 - 10:13
 3749
从布莱切利、首尔到巴黎:亲历三届人工智能峰会启示录

【文/观察者网专栏作者 曾毅】

人工智能进展对人类社会变革发挥着深刻的作用,近期在应用与服务方面给予公众的感受更是达到了前所未有的高度。而人工智能对人类可能造成的潜在安全风险,也从两百多年前玛丽·雪莱《弗兰肯斯坦》中的隐喻和阿西莫夫《我、机器人》中的叙事,迅速进入公众与政府的视野。

2015年,在波多黎各召开了人工智能安全科技领域的前沿会议。而人工智能安全作为需要国际协作解决的全球挑战,真正进入公众与政府视野,还是回到雪莱的故乡英国,图灵机与二战期间恩尼格玛密码机的诞生地布莱切利园。

2023年11月在英国举行的首届人工智能安全峰会(AI Safety Summit),最重要的成果当属《布莱切利人工智能安全宣言(The Bletchley Declaration on AI Safety)》,28国及欧盟在人工智能安全风险认知与议题上达到当时政府层面最广泛的共识。

这项共识的取得背后是与各国政府和科技界长达半年多的沟通,才推进了这个极具不确定性的议题上取得共同认知。

英美相继宣布人工智能安全研究所的成立影响广泛,但这使得许多国家的代表迷茫于不知如何选边站,可又何须选边?

我受邀主持了圆桌会议“前沿人工智能不可预知进展带来的风险”的研讨,并在公开全体会议的总结环节,有机会直面这个问题进行了发言:“我们认为每个国家都应该成立自己的人工智能安全机构。但这还不够,我们还需要建立一个涵盖全世界的人工智能安全协作网络,以期能够解决不可预知的进展和不可预知的失败。另外,这次会议我们有28国参加,我们希望能够进一步提升会议的包容性,下届能够有40国,再下届也许可以是60国”。

会后过去一年多的时间,我们看到至少十余个国家成立了人工智能安全专门的机构,韩国首尔人工智能峰会上实际已经成立了国际人工智能安全研究所网络(International Network of AISI),却将中国排除在外。而这个会议系列的包容性在首尔峰会并没有增加,直至巴黎人工智能行动峰会,正式参与的国家达到了80国以上。

2023年在布莱切利人工智能安全峰会(AI Safety Summit)公开会议主会环节发言,笔者建议成立面向国家间合作的国际人工智能安全网络

2023年在布莱切利人工智能安全峰会(AI Safety Summit)主持“前沿人工智能不可预知进展带来的风险”圆桌研讨

2024年5月人工智能首尔峰会(AI Seoul Summit)虽然由韩国与英国共同主办,但是峰会的标题中,安全已没有作为核心。但这届会议仍然取得了引人瞩目的进展,主要是宣布国际人工智能安全研究所网络的成立和面向企业的人工智能安全自愿承诺(Frontier AI Safety Commitments)。

布莱切利峰会半年内,全球人工智能安全相关机构已经逐步浮出水面,人工智能安全协作网络的提议已成为共识,人工智能安全研究所网络(Network of AISI)应运而生,然而却是在更小范围的10个国家和欧盟参与的情况下形成的决议,没有任何合理的理由,中国被排除在外。

在人工智能首尔峰会部长论坛(Ministers’ Session)上,我听到时任英国科技、创新与技术部部长对这个情况的介绍后感到完全不可接受,并在安排的学者代表发言环节进行了回应:“国家层面人工智能安全制度的建设每个国家都有不同的选择,建立单一国家级人工智能安全研究所的国家,目前已然需要面对如何解决国内人工智能安全相关机构之间竞争与协同的问题。

中国与不同部委协同的人工智能安全机构众多,更适合中国的人工智能安全相关机构组织模式是国家层面的协作网络,机构之间的互联与协作甚至可以在国家层面的人工智能安全机制复合体的协调方面发挥积极作用。

国际人工智能安全网络的概念提出甚至有来自中国的贡献,而中国被排除在这个网络之外,这不仅是不可接受的,更是自布莱切利会议努力之后历史的倒退”。

首尔会议之后,国内相关单位继续协同推进,“中国人工智能发展与安全研究网络(China AI Development and Safety Network)”在2024年9月联合国大会期间,由中国和赞比亚共同作为主办国发起的人工智能能力建设国际合作高级别会议(High-level Meeting on International Cooperation on Capacity-building of Artificial Intelligence)上,我作为学者代表首次对外宣布,会议在联合国纽约总部举行。

人工智能首尔峰会(AI Seoul Summit)部长论坛(Ministers’ Session),笔者作为学者代表发言,介绍为应对安全治理机制复合体的发展现状,中国正在探索以国家层面人工智能安全网络的形式形成政产学研协作机制

“中国人工智能发展与安全研究网络”在2024年9月联合国大会期间,由中国、赞比亚主办人工智能能力建设国际合作高级别会议上宣介

首尔峰会的另外一项重要成果是面向企业的“前沿人工智能安全承诺(Frontier AI Safety Commitments)”,这项承诺集结了来自多国处于最前沿人工智能模型研发的代表性企业。一年来,英国在承诺参与的企业方面持续发力,至今得到包括中国3家代表性企业,全球共20家领先企业的支持。

自愿承诺是企业自律自治的行为,制定并公开安全护栏与框架是人工智能企业推进人工智能安全落地重要的实践。

与此项工作以及白宫推进的人工智能企业自愿承诺相关的,来自中国人工智能产业的集体表态,则是中国人工智能产业联盟(AIIA)发起的“人工智能安全承诺”,首批得到17家中国领先人工智能企业的支持。