Page 1 of 1

该领域需要更多的自我批评

Posted: Wed Feb 19, 2025 4:51 am
by jrineakter
任何代码的首要测试是它是否能实际应用。如果不能,它就只不过是信号而已。不幸的是,许多代码在经过认真检查后就失效了,尤其是在人工智能利用非结构化训练数据的情况下。

在这些情况下,披露训练数据、识别偏见、尊重隐私或遵守 GDPR 的要求非常困难,甚至不可能。对于动态应用程序(如 Google 搜索)来说更是如此,因为它们会随着实时数据不断发展,现在远远超出了人类思维的理解能力。

然而,与任何科学一样,直面这些限制是有益的。差异迫使我们更加认真地思考。在这种情况下,认识到准则的局限性应该会鼓励我们进行更严格、更富有想象力的思考;并迫使我们超越当前准则和原则清单中令人舒服的说教。

5.道德需要与结果相联系。
我最后的担忧是,人工智能伦理方面的支出和活动突然激增,导致资源从同样重要的人工智能成果这一主题上流失。我曾在其他地方写过为什么我认为人工智能行业正在重复数字行业过去的错误:尤其是过于关注投入,而对成果关注太少。我希望投入到人工智能伦理中的一些精力和资金可以用于研究如何将人工智能与人类智能结合起来,才能最好地改善健康、教育、环境或经济。

过去的技术的一个重大教训是,它们受到社会影响。它们并非只是被动地影响社会。相反,社会以多种方式引导、限制、阻止或扭曲技术,并且始终具有道德层面。例如,对汽车施加的诸多限制 - 从驾驶考试到限速、排放规则到酒后驾驶法 - 在一定程度上是道德的,但最好将其理解为社会对话的一部分,以找出社会如何获得新技术的优势而不会造成太多危害。由此产生的规则都不能从抽象的道德原则或准则中推导出来。但它们都具有道德层面。

我很想听听人工智能伦理领域的人士对我的五条 智利电话号码数据 建议的回应。我的观点都不是放弃人工智能伦理的理由。恰恰相反。对人工智能的对错进行严肃、反思性的调查将变得越来越重要。

但我们需要改变方法。这个故事的寓意在某种程度上相当简单(在前面提到的《自然》杂志最近的概述中也体现了这一点)。道德更多的是一种习惯或肌肉,而不是一种准则(无论在哪种意义上)。它是一种思考和推理的方式,而不是一个僵化的框架。它是在现实生活中培养起来的,它更像是判例法而不是宪法。我们——我们所有人——都需要在这方面变得更加熟练。但目前的方法可能会妨碍而不是帮助这些重要的对话。

[这篇关于道德的文章是为了补充我最近写的其他关于人工智能的文章,包括关于如何监管​​人工智能的提案、关于数据信托的提案; 关于政府应如何使用人工智能的概述;关于人工智能和公民社会的提案;以及为什么我认为人工智能研究应该更多地关注结果而不是投入。 Nesta 关于人工智能工作的概述可以在这篇文章中找到。我在我的书《 Big Mind》中阐述了关于围绕智能的新学科和实践的更广泛论点,这本书将于今年秋天以平装本出版]