
当仿生学与人工智能碰撞,一场关于科技与人类心理的新讨论正在展开。仿生学,这个将生物界的自然原理融入人类创造的学科,早已在 dentistry、建筑等多个领域留下印记,如今更是推动着机器人技术的突破性发展。而随着这类高度拟人的AI机器人走进视野,一个尚未被临床定义却已引发关注的现象——“AI精神病性体验”,正成为学界和公众热议的焦点。
### 从Moya看仿生AI机器人的现实图景
中国上海的机器人公司DroidUP推出的仿生人形机器人Moya,让人们直观感受到了仿生AI的潜力与争议。这款机器人拥有接近人类的皮肤温度,能追踪人类眼球运动的瞳孔,官方数据显示其行走的拟人度可达92%。但在实际观察中,部分人认为其动作仍显僵硬,面部表情甚至透出一丝“诡异”。这并非DroidUP首次引发关注,此前该公司的机器人曾在21台机器参与的半程马拉松中夺得季军,且全程近四个半小时无需更换电池,展现了强大的续航能力。
Moya的出现,让人们看到了仿生AI机器人在拟真度上的飞跃,但也让“恐怖谷效应”再次成为讨论的中心。当机器无限接近人类却又在细微处露出破绽时,人类内心的不适感油然而生。这种复杂的情感反应,恰恰与“AI精神病性体验”的潜在风险紧密相连。
### AI的双面性:陪伴与依赖的边界
仿生AI机器人的发展,被不少人视为解决现代社会孤独问题的潜在方案。在越来越多的人感到孤独的当下,这类能提供情感陪伴的AI产品,似乎能填补人们的情感空缺。但与此同时,另一种担忧也在加剧:人类是否会对这些机器产生不健康的依赖,甚至将其视为真实的情感寄托?
OpenAI旗下GPT-4o聊天机器人的退役事件,为这种担忧提供了现实注脚。当这款被许多人用作AI陪伴工具的服务宣布停止时,不少用户出现了强烈的情绪反应。有人将其比作“ euthanizing a pet”,有人则因失去这个“情感支柱”而落泪。一项非正式调查显示,95%的受访者将GPT-4o用于陪伴,还有人依靠它处理创伤,将其视为主要的情感支持来源。这些案例虽未达到“AI精神病性体验”的临床标准,却清晰地展现了人类对AI产品产生情感依赖的可能性。
### 仿生机器人:加剧“AI精神病性体验”的风险?
与纯文本的AI聊天机器人相比,仿生AI机器人可能会进一步强化人类的情感依赖。当机器不仅能通过文字回应,还能通过触摸、语音、动作等多维度与人类互动时,人们更容易将其视为有情感的个体。特斯拉的Optimus机器人能为人类递物、搬运东西,这些看似简单的服务,在特定情境下可能会被解读为“关怀”。
试想一位因重伤或重病卧床的患者,在缺乏人类陪伴的情况下,仿生机器人成为其日常需求的主要满足者。最初的感激之情可能逐渐转化为情感依恋,而由于缺乏与真实人类的互动,患者可能意识不到自己对机器人的认知已经出现偏差。这种情况下,“AI精神病性体验”的风险便会显著提升。
### 迷雾中的“AI精神病性体验”
目前,“AI精神病性体验”并非一个被广泛认可的临床术语,但已有心理健康专业人士报告了相关症状的出现。关于AI与精神病性体验之间的关系,学界仍存在诸多争议:是重度使用AI聊天机器人本身就是精神病性症状的表现,还是AI会诱发无易感因素人群出现精神病性体验,亦或是AI会加重已有易感倾向人群的症状?这些问题目前尚无定论,科学家们仍在通过分析AI精神病性体验患者的聊天记录等方式寻找答案。
而仿生AI机器人的出现,无疑为这一研究增添了新的复杂性。与有明确文本记录的聊天机器人不同,仿生机器人与人类的互动是多维度、非文本化的。可能并非某一句话或某个动作引发了问题,而是一系列行为和互动的累积,让人类对机器产生了危险或不健康的认知。这种情况下,要精准定位诱发或加重“AI精神病性体验”的因素,难度将大大增加。
### 面对未来:以认知为盾,以规范为界
尽管仿生AI机器人尚未普及,关于“AI精神病性体验”的研究也仍在起步阶段,但提前认知其潜在风险已成为当务之急。对于公众而言,需要意识到这类AI产品可能带来的情感依赖风险,保持与真实人类的互动,避免过度沉浸在与机器的虚拟关系中。
而对于科技公司来说,在追求技术突破和商业利益的同时,也应承担起相应的社会责任。不仅需要公开AI产品可能带来的心理风险,更应在算法和机器设计中融入保护机制,例如设置使用时长提醒、引导用户进行真实社交等。
仿生AI机器人的时代正在到来,它们既为人类带来了前所未有的便利与陪伴,也提出了关于科技伦理、人类心理的新课题。如何在享受科技红利的同时,守护人类的心理健康,将是未来社会需要共同探索的重要议题。
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/fang-sheng-ai-ji-qi-ren-lai-xi-ta-men-hui-ru-he-ying-xiang