人工智能(AI)已存在数十年,但新的进步使该技术脱颖而出。专家表示,其的崛起可能会反映以前的技术革命,为全球经济增加价值数十亿美元的生产力,同时也带来了一系列新的风险,可能会颠覆全球地缘政治秩序和社会本身的性质。
管理这些风险至关重要,随着美国、欧盟(EU)等主要大国在监管这项技术方面采取越来越不同的方法,关于人工智能治理的全球辩论正在激烈进行。与此同时,人工智能的开发和部署继续以指数速度进行。
人工智能是如何定义的?
虽然没有单一的定义,但“人工智能”通常是指计算机执行传统上与人类能力相关的任务的能力。这个词的起源可以追溯到20世纪50年代,斯坦福大学计算机科学家John McCarthy使用“人工智能”一词来描述“制造智能机器的科学和工程”。对McCarthy而言,智力的标准是在不断变化的环境中解决问题的能力。
自2022年以来,所谓的生成式人工智能工具的公开使用提高了该技术的知名度,如聊天机器人ChatGPT。生成式人工智能模型从大量训练数据中提取数据,根据特定提示生成统计上可能的结果。由此类模型支持的工具可生成类似人类的文本、图像、音频和其他内容。
人工智能的另一种常用形式是通用人工智能(AGI),或“强”人工智能,指的是能够像人类一样学习和应用知识的系统。然而,这些系统尚不存在,专家们对它们究竟需要什么意见不一。
人工智能是如何发展的?
研究人员研究人工智能已有八十年历史,数学家Alan Turing和John von Neumann被认为是该学科的创始人之一。自从教授基本计算机二进制代码以来的数十年里,软件企业已经使用人工智能来为下棋计算机和在线语言翻译器等工具提供支持。
在人工智能投资最多的国家,发展历来依赖公共资金。在许多国家,人工智能研究主要由政府资助,而美国数十年来依靠国防高级研究计划局(DARPA)和其他联邦机构。近年来,美国人工智能的发展很大程度上转向了私营部门,私营部门为此投入了数千亿美元。
几乎所有政策制定者、民间社会领袖、学者、独立专家和行业领袖都同意应该治理人工智能,但对于如何治理,却意见不一。在国际上,各国政府正在采取不同的方法。
美国在2023年加强了对人工智能的管理。拜登政府继其2022年的《人工智能权利法案》之后,宣布了一项承诺十五家领先技术企业自愿采用人工智能安全共同标准[PDF],包括提供其前沿模型供政府审查。2023年10月,拜登发布了一项内容广泛的行政命令,旨在为整个行政部门安全使用人工智能制定统一的框架。一个月后,两党参议员小组提出了管理这项技术的立法。
欧盟立法者正在推进立法,引入透明度要求,并限制人工智能用于监控目的。然而,一些欧盟领导人对该法律可能阻碍欧洲创新表示担忧,并对如何执行该法律提出疑问。
一些政府已寻求在国际层面上合作监管人工智能。在2023年5月的七国集团(G7)峰会上,该集团启动了所谓的广岛进程,以制定人工智能治理的共同标准。2023年10月,联合国成立了人工智能咨询委员会,其中包括美国和中国代表,以协调全球人工智能治理。接下来的一个月,28个国家的政府参加了在英国举行的首届人工智能安全峰会。包括美国和中国特使在内的代表签署了一份联合声明,警告人工智能可能造成“灾难性”伤害,并决心共同努力“确保以人为本、值得信赖和负责任的人工智能”。中国还宣布了自己在“一带一路”倡议国家的人工智能全球治理努力。