
在我们急于了解和接触人工智能的过程中,我们陷入了一个诱人的陷阱:将人类的特征归因于这些强大但本质上非人类的系统。这种将人工智能拟人化的倾向不仅仅是人类天性中无害的怪癖——它正在成为一种越来越危险的倾向,可能会在关键方面影响我们的判断。商界领袖将人工智能学习与人类教育进行比较,以证明培训实践的合理性,而立法者则根据有缺陷的人机类比制定政策。这种将人工智能人性化的倾向可能会不恰当地影响各个行业和监管框架的关键决策。
在商业领域,以人类的眼光看待人工智能导致企业高估人工智能的能力,或低估人类监督的必要性,有时甚至会造成代价高昂的后果。在版权法领域,这种风险尤其高,因为拟人化思维导致人们将人类学习与人工智能训练进行比较时存在问题。
语言陷阱
听听我们是如何谈论人工智能的:我们说它“学习”、“思考”、“理解”甚至“创造”。这些人类术语听起来很自然,但却具有误导性。当我们说人工智能模型“学习”时,它并不是像人类学生一样获得理解。相反,它对大量数据进行复杂的统计分析,根据数学原理调整神经网络中的权重和参数。没有理解、顿悟时刻、创造力的火花或实际的理解——只有越来越复杂的模式匹配。
这种语言上的花招不仅仅是语义上的。正如论文《生成式人工智能的合理使用虚幻案例》中所述:“使用拟人化语言来描述人工智能模型的开发和运作是扭曲的,因为它暗示模型一旦经过训练,就会独立于它所训练的作品内容运行。”这种混淆会产生实际后果,主要是当它影响法律和政策决策时。
认知脱节
拟人化人工智能最危险的方面或许在于它掩盖了人类和机器智能之间的根本差异。虽然一些人工智能系统擅长特定类型的推理和分析任务,但当今人工智能讨论中占主导地位的大型语言模型(LLM)(我们在此重点关注)是通过复杂的模式识别来运作的。
这些系统处理大量数据,识别和学习单词、短语、图像和其他输入之间的统计关系,以预测序列中的下一个内容。当我们说它们“学习”时,我们描述的是一个数学优化过程,可以帮助它们根据训练数据做出越来越准确的预测。
看看Berglund 及其同事的研究中这个引人注目的例子:一个用“A 等于 B”的材料训练的模型,通常无法像人类一样推理出“B 等于 A”的结论。如果人工智能得知瓦伦蒂娜·捷列什科娃是第一位进入太空的女性,它可能会正确回答“瓦伦蒂娜·捷列什科娃是谁?”,但无法回答“谁是第一位进入太空的女性?”。这一限制揭示了模式识别和真正推理之间的根本区别——预测可能的单词序列和理解其含义之间的区别。
版权难题
这种拟人化偏见在有关人工智能和版权的持续争论中具有特别令人不安的影响。微软首席执行官萨蒂亚·纳德拉最近将人工智能训练与人类学习进行了比较,他认为如果人类可以从书本中学习而不会涉及版权问题,那么人工智能也应该能够做到同样的事情。这一比较完美地说明了拟人化思维在有关道德和负责任的人工智能的讨论中的危险性。
有人认为,需要修改这一类比,以理解人类学习和人工智能训练。当人类读书时,我们不会复制它们——我们理解并内化概念。另一方面,人工智能系统必须制作作品的实际副本——通常是未经许可或付费获得的——将它们编码到其架构中,并维护这些编码版本以使其正常运行。这些作品不会像人工智能公司经常声称的那样在“学习”后消失;它们仍然嵌入在系统的神经网络中。
商业盲点
拟人化的人工智能不仅会降低运营效率,还会给商业决策带来危险的盲点。当高管和决策者认为人工智能比人类更“有创造力”或“聪明”时,这可能会导致一系列危险的假设和潜在的法律责任。
高估人工智能的能力
拟人化带来风险的一个关键领域是内容生成和版权合规。当企业认为人工智能能够像人类一样“学习”时,他们可能会错误地认为人工智能生成的内容不会产生版权问题。这种误解可能会导致公司:
- 部署无意中复制受版权保护材料的人工智能系统,使企业面临侵权索赔
- 未能实施适当的内容过滤和监督机制
- 错误地认为人工智能可以准确区分公共领域和受版权保护的材料
- 低估了内容生成过程中人工审核的必要性
跨境合规盲点
当我们考虑跨境合规时,人工智能的拟人化偏见会带来危险。正如 Daniel Gervais、Haralambos Marmanis、Noam Shemtov 和 Catherine Zaller Rowland 在《问题的核心:版权、人工智能培训和法学硕士》一文中所解释的那样,版权法严格遵循地域原则,每个司法管辖区都有自己的规则,规定什么构成侵权以及适用哪些例外情况。
版权法的地域性特征造成了复杂的潜在责任网络。公司可能会错误地认为他们的人工智能系统可以自由地从不同司法管辖区的受版权保护的材料中“学习”,而没有意识到在一个国家合法的训练活动在另一个国家可能构成侵权。欧盟在其《人工智能法案》中认识到了这一风险,特别是通过第 106 条,该法案要求在欧盟提供的任何通用人工智能模型都必须遵守欧盟关于训练数据的版权法,无论训练发生在何处。
这很重要,因为拟人化人工智能的能力可能会导致企业低估或误解其跨境的法律义务。人工智能像人类一样“学习”的舒适虚构掩盖了人工智能训练涉及复杂的复制和存储操作的现实,这些操作会在其他司法管辖区触发不同的法律义务。这种对人工智能实际运作的根本误解,加上版权法的地域性,给全球运营的企业带来了重大风险。
人力成本
最令人担忧的成本之一是拟人化人工智能带来的情感代价。我们看到越来越多的人对人工智能聊天机器人产生情感依恋,将它们视为朋友或知己。这对那些可能分享个人信息或依赖人工智能获得其无法提供的情感支持的弱势群体来说尤其危险。人工智能的回应虽然看似富有同情心,但只是基于训练数据的复杂模式匹配——没有真正的理解或情感联系。
这种情感脆弱性也可能体现在专业环境中。随着人工智能工具越来越融入日常工作,员工可能会对这些系统产生不适当的信任,把它们当作真正的同事而不是工具。他们可能会过于随意地分享机密的工作信息,或者出于错误的忠诚感而不愿报告错误。虽然这些情况目前仍是个别现象,但它们凸显了在工作场所将人工智能拟人化可能会影响判断,并对系统产生不健康的依赖,尽管这些系统的反应很复杂,但却无法真正理解或关心员工。
摆脱拟人化陷阱
那么我们该如何前进呢?首先,我们需要更精确地描述人工智能。我们不应该说人工智能“学习”或“理解”,而应该说它“处理数据”或“根据训练数据中的模式生成输出”。这不仅仅是迂腐的说法——它有助于阐明这些系统的作用。
其次,我们必须根据人工智能系统的现状而非我们想象中的样子来评估它们。这意味着既要承认它们强大的能力,也要承认它们的基本局限性。人工智能可以处理大量数据,识别人类可能忽略的模式,但它无法像人类那样理解、推理或创造。
最后,我们必须制定框架和政策,解决人工智能的实际特征,而不是想象中的人类特质。这在版权法中尤为重要,因为拟人化思维可能导致有缺陷的类比和不恰当的法律结论。
前进的道路
随着人工智能系统在模仿人类输出方面变得越来越复杂,将其拟人化的诱惑也会越来越强烈。这种拟人化偏见影响着我们评估人工智能能力和评估其风险等方方面面。正如我们所见,它延伸到版权法和商业合规方面的重大实际挑战。当我们将人类的学习能力归因于人工智能系统时,我们必须了解它们的基本性质以及它们处理和存储信息的技术现实。
了解人工智能的真正含义——复杂的信息处理系统,而不是类似人类的学习者——对于人工智能管理和部署的各个方面都至关重要。通过摆脱拟人化思维,我们可以更好地应对人工智能系统的挑战,从道德考量和安全风险到跨境版权合规和训练数据治理。这种更精确的理解将有助于企业做出更明智的决策,同时支持围绕人工智能的更好的政策制定和公共讨论。
我们越早认清人工智能的本质,就越能更好地应对其在全球经济中产生的深远社会影响和实际挑战。
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/ni-ren-hua-ren-gong-zhi-neng-jiang-lei-ren-sheng-wu-wu-ren