新闻分析:首届人工智能安全峰会开得怎么样

发布时间:2024-11-22 07:22:14 来源: sp20241122

  新华社英国布莱奇利园11月3日电 新闻分析:首届人工智能安全峰会开得怎么样

  新华社记者郭爽 许凤

  首届人工智能安全峰会2日在二战期间英国的密码破译中心——布莱奇利园落下帷幕。在为期两天的会议中,近30个国家和地区的代表、多家国际组织和研究机构代表、人工智能领域知名专家和业界领袖讨论了哪些议题?收获哪些成果?

  两类人工智能 5大目标

  会议期间,美国、英国、欧盟、中国、印度等多方代表就人工智能技术快速发展带来的风险与机遇展开讨论。来自全球的约150名代表重点关注前沿人工智能的潜在风险,同时也考虑狭义人工智能的风险。前沿人工智能是指处于当前能力前沿的通用人工智能模型,可能带来技术滥用、失去控制等风险;狭义人工智能是指能力限于特定领域的人工智能模型,它们也具有潜在风险,例如生物工程领域人工智能模型可能被用于开发生物武器等。

  会议主要围绕5个目标展开讨论:第一,对前沿人工智能带来的风险和采取行动的必要性达成共识;第二,推进前沿人工智能安全国际合作,包括如何最好地支持国家框架和国际框架等;第三,推动各相关组织采取适当措施,以加强前沿人工智能安全;第四,寻求人工智能安全研究的潜在合作领域,包括评估模型能力和制定用于支持治理的新标准;第五,探讨如何确保人工智能安全发展,使人工智能在全球范围内被妥善运用。

  根据议程安排,各方代表在峰会开幕当天主要就前沿人工智能带来的风险类型、不同参与方在应对这些风险中的作用、人工智能在不同领域面临的重大发展机遇等展开跨学科对话和讨论。在会议第二天,各方代表主要讨论了人工智能的影响、如何有效合作以及如何进一步实现确保全球人工智能安全的使命。

  以国际合作应对风险

  峰会发布的《布莱奇利宣言》(下称《宣言》)强调了加强国际合作对于应对人工智能潜在风险的重要性。《宣言》指出,人工智能的许多风险本质上是国际性的,因此“最好通过国际合作来解决”。与会国家和地区同意协力打造一个“具有国际包容性”的前沿人工智能安全科学研究网络,以对尚未被完全了解的人工智能风险和能力加深理解。

  英国政府发表声明称,这是世界首个多个国家和地区达成的人工智能安全领域宣言,参会代表就前沿人工智能技术发展面临的机遇、风险和采取国际行动的必要性取得共识。

  本次峰会及其成果引发媒体、学界、业界专家的高度关注和积极评价。“《宣言》是在管理风险和实现前沿人工智能系统的好处方面迈出的重要一步。”英国剑桥大学“人工智能:未来和责任”项目负责人肖恩·奥黑盖尔塔格表示,《宣言》强调了开发前沿人工智能的参与者所肩负的“特别重大的责任”,包括拥有充足资源的科技公司以及它们所在国家的政府等。

  但也有观点认为,峰会虽然达成了指导国际合作的原则性宣言,但并未商定国际合作路线图,也没有就各国如何在应对人工智能风险问题上开展合作提出具体措施,未来需要采取更积极主动的国际合作行动。

  根据英国政府发布的声明,下届人工智能安全峰会将于一年后在法国举办,韩国将在未来6个月内联合主办一次小型虚拟峰会。

  全球对话 中国不可或缺

  本届峰会上,中国代表团的出席引人关注。多位专家强调,中国作为在人工智能研发领域领先的国家之一,在应对人工智能风险和机遇的全球讨论中不可或缺。

  世界知识产权组织数据显示,仅2022年一年,中国机构人工智能专利申请数量就多达29853项,占当年全球人工智能专利申请总量的40%以上。

  美国外交政策智库卡内基国际和平研究院院长蒂诺·奎利亚尔对媒体表示,只有中国参会,才能证明这是一次真正的全球对话。

  美国硅谷企业家埃隆·马斯克在峰会闭幕后表示,“如果中国不是(峰会)参与者,那就毫无意义。”他认为,美国、英国和中国等各方在人工智能安全方面取得共识有利于应对相关问题。

  中国科技部副部长吴朝晖率团参加本届峰会,并在1日举行的开幕式全体会议上发言。与会期间,中方代表团参与人工智能安全等问题讨论,积极宣介中方提出的《全球人工智能治理倡议》,并与相关国家开展双边会谈。

  中方表示,愿与各方一道就人工智能安全治理加强沟通交流,为推动形成普遍参与的国际机制和具有广泛共识的治理框架积极贡献智慧,切实落实全球发展倡议、全球安全倡议和全球文明倡议,促进人工智能技术更好造福人类,共同构建人类命运共同体。

(责编:徐祥丽、刘慧)