关于人工智能(AI)你应该了解的一切

2023-12-29 发布 · 浏览200次 · 点赞0次 · 收藏0次

人工智能的突破带来了前所未有的机遇,但也带来了经济、政*和社会的颠覆。专家表示,人工智能需要监督,以确保其带来的变化是更好的。


要点:

  • 2022年,随着OpenAI开发的生成式人工智能聊天机器人ChatGPT的发布,人工智能(AI)实现了代沟式的飞跃。
  • 私营公司控制着美国大部分的人工智能开发。专家表示,这项技术将需要新的规则来最大限度地发挥其潜力,避免严重风险。
  • 人工智能在国际上的日益普及可能会重塑全球力量平衡,并可能带来严重的地缘政*后果。
简介

人工智能(AI)已存在数十年,但新的进步使该技术脱颖而出。专家表示,其的崛起可能会反映以前的技术革命,为全球经济增加价值数十亿美元的生产力,同时也带来了一系列新的风险,可能会颠覆全球地缘政*秩序和社会本身的性质。

管理这些风险至关重要,随着美国、欧盟(EU)等主要大国在监管这项技术方面采取越来越不同的方法,关于人工智能治理的全球辩论正在激烈进行。与此同时,人工智能的开发和部署继续以指数速度进行。

人工智能是如何定义的?

虽然没有单一的定义,但“人工智能”通常是指计算机执行传统上与人类能力相关的任务的能力。这个词的起源可以追溯到20世纪50年代,斯坦福大学计算机科学家John

McCarthy使用“人工智能”一词来描述“制造智能机器的科学和工程”。对McCarthy而言,智力的标准是在不断变化的环境中解决问题的能力。

自2022年以来,所谓的生成式人工智能工具的公开使用提高了该技术的知名度,如聊天机器人ChatGPT。生成式人工智能模型从大量训练数据中提取数据,根据特定提示生成统计上可能的结果。由此类模型支持的工具可生成类似人类的文本、图像、音频和其他内容。

人工智能的另一种常用形式是通用人工智能(AGI),或“强”人工智能,指的是能够像人类一样学习和应用知识的系统。然而,这些系统尚不存在,专家们对它们究竟需要什么意见不一。

人工智能是如何发展的?

研究人员研究人工智能已有八十年历史,数学家Alan Turing和John von Neumann被认为是该学科的创始人之一。自从教授基本计算机二进制代码以来的数十年里,软件企业已经使用人工智能来为下棋计算机和在线语言翻译器等工具提供支持。

在人工智能投资最多的国家,发展历来依赖公共资金。在许多国家,人工智能研究主要由政*资助,而美国数十年来依靠国防高级研究计划局(DARPA)和其他联邦机构。近年来,美国人工智能的发展很大程度上转向了私营部门,私营部门为此投入了数千亿美元。

2022年,美国总统拜登签署了《芯片和科学法案》,该法案将美国政*的支出重新集中在技术研发上。该法案将2800亿美元的联邦支出用于半导体,这是一种能够支持人工智能所需的大规模处理和数据存储能力的先进硬件。2023年1月,ChatGPT成为有史以来增长最快的消费者应用。

Eurasia Group总裁Ian Bremmer和Inflection AI首席执行官Mustafa Suleyman在《外交事务》杂志上写道,人工智能的到来“标志着一个大爆炸时刻,一场改变世界的技术革命的开始,这场革命将重塑政*、经济和社会。”

人工智能会对全球经济产生什么影响?

世界各地的企业和组织已经将人工智能工具应用到其产品中。Tesla等无人驾驶汽车制造商多年来一直在使用人工智能,依赖算法模型进行某些交易操作的投资银行,以及使用算法投放定向广告的技术企业也是如此。但在ChatGPT出现后,即使是不太注重技术的企业也开始转向生成式人工智能工具来实现客户服务等系统的自动化。在McKinsey于2023年4月进行的一项调查中,全球三分之一的企业声称正在以某种方式使用人工智能。

人工智能的广泛应用可以加速全面的技术创新。半导体产业已经蓬勃发展;在全球对半导体需求飙升的情况下,生产大部分人工智能芯片的Nvidia的股价在2023年增长了两倍多,总估值超过1万亿美元。

许多专家预计,随着人工智能行业的发展,全球经济将受益匪浅,预计未来十年全球国内生产总值(GDP)每年将增加7万亿美元。

人工智能会取代人类的工作吗?

与历史上许多其他大规模技术变革一样,人工智能可能导致生产力提高和失业之间的权衡。但与之前的突破不同,这些突破主要消除了低技能的工作,生成式人工智能可能会使白领工作面临风险,并且可能比以往任何时候都更快地取代许多行业的工作。经济合作与发展组织(OECD)称,全球四分之一的工作岗位极有可能被人工智能自动化取代。Pew Research Center的一项研究发现,这些工作往往依赖于生成式人工智能能够以与人类工人类似的质量水平完成的任务,比如信息收集和数据分析。“高度暴露”被人工智能取代的工作人员包括会计师、网络开发人员、营销专业人员和技术作家。

经合组织(OECD)表示,生成式人工智能的兴起也引发了人们对不平等的担忧,因为技术含量最高的工作似乎是最安全的,不会受到与该技术相关的干扰。但其他分析表明,低技能工人可以通过利用人工智能工具提高生产力而受益:麻省理工学院(MIT)和斯坦福大学的研究人员在2023年进行的一项研究发现,在两组人员开始使用人工智能后,经验不足的呼叫中心操作员的工作效率提高了一倍。

人工智能将如何影响气候变化?

人工智能与环境的关系既预示着危险,也预示着希望。虽然一些专家认为,生成式人工智能可以促进应对气候变化的突破,但也有人对这项技术的巨大碳足迹提出了警告。其巨大的处理能力需要能源密集型的数据中心;这些系统已经产生了相当于航空业的温室气体排放量,而且人工智能的能源消耗只会随着未来的进步而增加。

人工智能倡导者认为,开发商可以使用可再生能源来减少部分排放。Apple、Google和Meta等科技企业使用自产的可再生能源运行数据中心,并且还购买所谓的碳信用额来抵消排放避免任何依赖化石燃料的能源使用。

人们还希望人工智能可以通过加强对可再生能源的研究,和使用先进的数据分析来优化能源效率,从而帮助减少其他行业的排放。此外,人工智能还可以改善气候适应措施。例如,莫桑比克的科学家正在利用这项技术更好地预测洪水模式,加强对即将发生的灾害的预警系统。

人工智能与国家安全有什么关系?

许多专家认为,人工智能的发展是美国和中国之间争夺技术主导地位的斗争。他们认为,这场竞争的获胜者将获得经济和地缘政*优势。到目前为止,美国的政策制定者似乎都是在这个框架下运作的。2022年,拜登以国家安全为由,禁止向中国出口最强大的半导体,并鼓励美国盟友也这样做。一年后,拜登提议彻底禁止美国对中国人工智能领域的多项投资,商务部宣布了一系列新的限制措施,旨在遏制中国“人工智能的突破”。大多数专家认为,迄今为止,美国在人工智能发展方面已经超过了中国,但中国将很快缩小差距。

人工智能还可能对美国国家安全产生更直接的影响:美国国防部预计,这项技术将通过增强自主武器权力和改善战略分析,改变“战争的本质”。一些专家已经推动禁止自主致命武器。在乌克兰与俄罗斯的战争中,基辅正在部署自主操作的人工智能无人机,这是首次在一场重大冲突中使用这种技术。交战各方也可能很快依赖人工智能系统来加速战场决策或自动攻击敌方基础设施。一些专家担心这些能力可能会增加使用核武器的可能性。

此外,人工智能可能会加剧虚假信息和宣传的双重威胁,随着世界即将迎来比以往任何时候都多的人投票的一年,这一问题变得尤为重要:70多个国家(占全球人口的一半)将在2024年举行全国选举。生成式人工智能工具正在使深度造假变得更容易,而且这项技术已经出现在全球各地的竞选活动中。专家们还指出,不良行为者可能会利用人工智能创建复杂的网络钓鱼尝试,这些钓鱼尝试是根据目标的利益量身定制的,以获取对选举系统的访问权限。从历史上看,网络钓鱼一直是潜在选举黑客进入这些系统的一种方式。据美国司法部称,俄罗斯曾使用该方法干预2016年美国大选。

通用人工智能(AGI)会存在吗?

一些专家表示,称人工智能为“智能”尚不准确,因为其不涉及人类水平的推理。专家认为,其并没有创造新的知识,而是将现有的信息聚合起来,并以一种易于理解的方式呈现出来。

但这种情况可能会改变。ChatGPT背后的OpenAI是一家非营利组织,致力于确保AGI造福“整个人类”,其联合创始人Sam Altman表示停止AGI的发展是“不可能或不可取的”;2023年,Google DeepMind首席执行官Demis Hassabis表示AGI可能会在五年内到来。包括CFR高级研究员Sebastian Mallaby在内的一些专家认为,人工智能在某些任务上已经超越了人类的智能水平。2020年,DeepMind利用人工智能解决了蛋白质折叠问题,这在当时被广泛认为是最复杂、未解之谜之一。

人工智能会导致人类灭绝吗?

许多人工智能专家似乎都这么认为。2023年5月,数百名人工智能领导者,包括Anthropic、Google DeepMind和OpenAI的首席执行官,签署了一封简短的信,其中写道:“减轻人工智能带来的灭绝风险,应该与流行病和核战争等其他社会规模的风险一样,成为全球的优先事项。”

关于灭绝如何发生的一个流行理论假设,优化某项任务的指令可能会导致超级智能人工智能通过转移人类生存所需的资源来实现其目标。例如,负责减少海洋中有害藻类数量的人工智能,可能会吸收大气中的氧气,导致人类窒息。虽然许多人工智能研究人员认为这一理论是危言耸听,但其他人表示,这个例子准确地说明了强大的人工智能系统在执行其指令的过程中,可能造成巨大的、无意的伤害的风险。

这场辩论的怀疑论者认为,关注如此遥远的存在风险会混淆更直接的威胁,例如独裁监视或有偏见的数据集。世界各地的政*和企业都在扩展面部识别技术,一些分析人士担心,北京方面正在利用人工智能加强镇压。当人工智能训练数据包含过多或过少的元素时,就会出现另一个风险。根据此类数据训练的工具可能会产生偏差的结果。这可能会加剧对边缘群体的歧视,例如当人工智能驱动的租户筛选算法根据有偏见的数据进行训练时,会不成比例地拒绝向有色人种提供住房。生成式人工智能工具还可以促进混乱的公共话语——“幻觉”聊天机器人将虚假信息呈现为真实的信息,或者用可疑的人工智能生成的结果污染搜索引擎。

政*在人工智能方面做了什么?

几乎所有政策制定者、民间社会领袖、学者、独立专家和行业领袖都同意应该治理人工智能,但对于如何治理,却意见不一。在国际上,各国政*正在采取不同的方法。

美国在2023年加强了对人工智能的管理。拜登政*继其2022年的《人工智能权利法案》之后,宣布了一项承诺十五家领先技术企业自愿采用人工智能安全共同标准[PDF],包括提供其前沿模型供政*审查。2023年10月,拜登发布了一项内容广泛的行政命令,旨在为整个行政部门安全使用人工智能制定统一的框架。一个月后,两党参议员小组提出了管理这项技术的立法。

欧盟立法者正在推进立法,引入透明度要求,并限制人工智能用于监控目的。然而,一些欧盟领导人对该法律可能阻碍欧洲创新表示担忧,并对如何执行该法律提出疑问。

一些政*已寻求在国际层面上合作监管人工智能。在2023年5月的七国集团(G7)峰会上,该集团启动了所谓的广岛进程,以制定人工智能治理的共同标准。2023年10月,联合国成立了人工智能咨询委员会,其中包括美国和中国代表,以协调全球人工智能治理。接下来的一个月,28个国家的政*参加了在英国举行的首届人工智能安全峰会。包括美国和中国特使在内的代表签署了一份联合声明,警告人工智能可能造成“灾难性”伤害,并决心共同努力“确保以人为本、值得信赖和负责任的人工智能”。中国还宣布了自己在“一带一路”倡议国家的人工智能全球治理努力。

人工智能治理应该是什么样子?

CFR高级研究员Kat Duffy表示,人工智能的复杂性使得这项技术不太可能受任何一套原则的约束。提案涵盖了从全面自我监管,到各种类型的公共政策护栏等多种潜在监督级别的政策选择。

一些分析人士承认,人工智能的风险会带来不稳定的后果,但其认为这项技术的发展应该继续进行。其表示,监管机构应该对计算能力或计算能力加以限制,因为在过去十年中,计算机的计算能力增长了50亿倍,允许模型在响应人类提示时整合更多的训练数据。其他人则表示,治理应该关注眼前的问题,比如提高公众对人工智能的认识,创建道德的人工智能系统,包括防止歧视、错误信息和监视。

一些专家呼吁限制开源模型,这可能会增加对技术的访问,包括不良行为者。许多国家安全专家和领先的人工智能企业都支持这样的规定。然而,一些观察人士警告称,广泛的限制可能会导致最大的人工智能企业在成本高昂的行业中巩固自己的实力,从而减少竞争和创新。与此同时,还有建议建立一个全球框架来管理人工智能的军事用途;其中一种方法将效仿管理核技术的国际原子能机构。

人工智能的下一步是什么?

中美关系对人工智能治理的影响很大:随着北京追求一项旨在到2030年使中国成为“人工智能理论、技术和应用”的全球领导者的国家战略,华盛顿的政策制定者正在努力为人工智能发展设置护栏,同时又不损害美国的技术优势。

与此同时,人工智能技术正在快速发展。自2012年以来,计算能力每3、4个月翻一番,人工智能科学家预计,到2025年,模型的计算量将增加一百倍。

在缺乏强有力的全球治理的情况下,控制人工智能发展的企业正在行使通常只属于民族国家的权力,开创了一个技术极世界秩序。这些企业已经成为“自己的地缘政*参与者”,因此需要参与任何全球规则的设计。

人工智能的变革潜力意味着风险很高。如果有适当的保障措施,人工智能系统可以促进科学发现,治愈致命疾病,抵御气候变化的最坏影响,并开创一个全球经济繁荣的时代。

关于人工智能(AI)你应该了解的一切 - AI 资讯 - 资讯 - AI 中文社区

声明:本文转载自51CTO,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论

游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。