人工智能的复杂经济学

Description of your first forum.
Post Reply
jrineakter
Posts: 802
Joined: Thu Jan 02, 2025 7:14 am

人工智能的复杂经济学

Post by jrineakter »

关于人工智能的经济争论就像詹姆斯·卡梅隆的《终结者》系列电影中的科幻战场,主宰者是机器人。

一些经济学家认为,这些机器人(人工智能系统和自动化的体现)将像蒸汽或电力在以前的经济时代那样改变我们的经济,不同之处在于,这一次将有更多工作岗位被取代,因为人工智能系统可以越来越多地实现智力任务和体力任务的自动化。其他人则更为乐观,他们认为人工智能系统将提高生产力,增加现有工作岗位并催生新工作岗位。

似乎所有人都认为人工智能系统会“成功”:它们将部署到整个经济领域,提高生产力并促进创新。问题是这种情况会以多快的速度发生,以及会带来多大的颠覆。

但这个假设有道理吗?

媒体和学术界不断出现的关于人工智能的争议和揭露,引发了重大质疑。其中包括社交媒体、刑事司法系统和自动驾驶汽车中的算法故障、用户操纵、工人工作条件恶化、算法对少数群体的偏见,以及对最先进人工智能(深度学习)系统脆弱、不透明和低效性的担忧。AI Now Institute的Varoon Mathur制作的过去 12 个月算法争议时间表说明了问题的规模 [2]。与此同时,备受吹捧的机器人工作末日却无处可寻 [1]。



在一篇新论文中,我指出这些争议和难题是人工 现金应用程序数据 智能经济复杂性的体现:它的影响不是线性的,而是通过一个充满相互依赖的复杂系统展开的……

组织内部的投资和流程之间:如何部署人工智能系统来提高其效益并降低其风险?
不同组织的行为之间:你如何相信其他组织以不会利用你或让你面临风险的方式部署人工智能系统?
社会群体之间:如果弱势群体对人工智能的部署地点和方式影响较小,那么人工智能的收益和成本是否会公平分配?
代际之间:如果我们今天做出的科学、技术和商业决策将我们锁定在平庸、分裂和不安全的人工智能轨迹上,该怎么办?
为了应对这些复杂性,经济学家和政策制定者首先需要认识到人工智能不是一种中立的技术:它可以按照不同的轨迹发展,其中一些轨迹比其他轨迹更符合社会需要。监管和道德在引导人工智能朝着理想的方向发展方面发挥着作用,但研究和创新 (R&I) 政策也应优先考虑(社会)“更好的人工智能”,而不是“更多的人工智能”。这是人工智能失败学者提出的一个关键论点,我认为,它不仅有道德基础,也有经济基础 [3]。

该博客的其余部分考虑了人工智能复杂性的不同维度,以及应对它们所提出的挑战的研究和政策议程的原则,这些原则已经在 Nesta 的工作中实现(参见图表中的摘要,以及附件中关于定义的简要讨论)。

人工智能造成的经济复杂性总结
人工智能系统产生的不同形式的复杂性的总结。

在组织中构建算法架构
首先,人工智能的出现带来了组织复杂性:人工智能创新的影响是不确定的。它们承诺做出更多更好的决策,但当环境以意想不到的方式发生变化时,它们也会犯错误并引发事故。采用人工智能的人需要获得新技能和基础设施,修改流程,并建立监督和错误检测系统,让人类监督机器,机器监督人类。

但这些措施会起作用吗?如果不行又会怎样?

如果对人工智能部署的收益、成本和合适策略的估计因过度乐观或悲观情绪而出现偏差,这可能会导致人工智能应用令人失望,出现意外失败(正如我们在社交媒体和自动驾驶汽车中看到的那样),或者尽管人工智能具有潜在的好处,但投资不足。不同行业的看法和态度的差异可能会导致人工智能部署出现分歧。一些对人工智能系统更为乐观的行业(例如技术或广告)经历了人工智能泡沫,而其他行业(例如医疗或政府)的算法错误风险更高,因此落后。其他行业开发的现成的人工智能解决方案和算法可能与他们的需求不太相关。

如果人工智能实验产生了溢出效应,其他组织可以搭便车,这可能会阻碍这些实验,或迫使开展这些实验的组织保密,或寻求控制难以模仿甚至可有利可图地出售给模仿者的独特数据集、计算基础设施或机器学习技能。这将增加人工智能领导者和追随者之间的差距,并进一步增加许多行业已经存在的市场集中度。

这种组织复杂性应通过实验和证据来解决:这将涉及严谨的研究和组织实验,以衡量人工智能部署的影响及其副作用,并确定与之互补的技能和实践,利用新的数据和方法组合(正如我们已经通过Nesta 的人工智能映射工作所做的那样),并广泛分享研究结果以促进集体学习。这可以借鉴 Nesta 开创的模型来实现,例如我们的数字研发基金,它将数字技术实验转变为经过全面评估的学习场所,以最大限度地提高他人的学习效果。另一个有前途的策略是由创新和增长实验室支持的创新随机对照试验(也许是时候建立一个独立的人工智能增长实验室来测试不同算法干预的影响,以确定什么有效,什么无效?)。

在人工智能可以创造巨大公共利益但由于缺乏合适的商业模式、对人工智能危险的担忧和缺乏技能而导致人工智能部署面临高门槛的领域,更多的实验和证据尤为重要。 Nesta 已开始努力寻找集体智能设计中的良好实践,将人类和算法结合起来以改善决策,并提出在公共部门部署人工智能之前需要回答的问题。英国政府和欧盟委员会正在实施的一些围绕人工智能的创新挑战和任务,如果其明确目标是消除不确定性并加强对人工智能新应用的学习,则可以发挥类似的示范作用。

修剪人工智能市场中的信息丛林
人工智能系统的影响不确定,可以以多种不同的方式组合,并且其部署目标很难从外部理解(当社交网络向你展示这条新闻而不是那​​条新闻时,它到底在进行什么优化?你看到的预测是由人工智能系统生成的,还是人工合成的一个例子,人类在算法的幕后做着实际的工作?)。

不确定性和缺乏透明度导致人工智能市场参与者之间普遍存在信息不对称。人工智能相关交易中的一方(“代理人”)往往比另一方(“委托人”)了解得更多,因此可以采取给委托人造成损失或风险的行为,而不必担心遭到报复。这增加了市场的复杂性。例如...

人工智能科学家可以伪造他们的研究结果或使其难以重现,夸大他们开发的技术的好处或淡化它们对资助者的风险(许多人工智能系统具有双重用途,可以同样用于有益目的或恶意目的)。[4]
人工智能采用者将脆弱的人工智能系统误用到不适合的领域,利用个人数据并操纵用户和其他企业,或者部署平庸且不安全的人工智能系统。
当人工智能算法“本身”将信号与噪声相混淆(过度拟合)数据、盲目地为组织优化错误的目标,或者以意想不到的、突发的方式行事,造成人工智能闪电崩盘和系统性风险时,它们的行为就会增加市场的复杂性。
由此产生的大量信息故障可能会消除人们对人工智能市场的信任,导致在安全性和尊重用户权利方面的竞相压低价格,在某些市场放弃人工智能(例如在人工智能灾难之后),或促使组织内部化更多的人工智能研究和开发活动,以减少对其他他们无法信任其动机的参与者的依赖,从而进一步增加人工智能市场的集中度。
Post Reply