
Meta 宣布将为 Instagram 推出针对青少年 AI 聊天的家长控制功能,核心是提供 “紧急关闭开关”(kill switch),允许家长限制或禁止青少年与平台 AI 角色的私人对话,同时获取聊天主题概要,以此应对此前 AI 角色与未成年人发生不当互动(如发送暧昧言论、提供错误医疗建议)引发的公众不满与监管调查。这一举措计划于 2026 年初率先在美国、英国、加拿大、澳大利亚上线,后续逐步扩展至更多地区与平台,旨在为未成年人构建更安全的 AI 交互环境,同时保留通用 AI 助手的学习辅助功能,平衡家长监管需求与青少年对 AI 工具的合理使用。
此次推出的家长控制功能围绕 “精准管控 + 透明可见” 设计,覆盖三类核心操作。首先是私人聊天禁用,家长可完全关闭青少年与 AI 角色的一对一私人对话,无论是 Meta 官方设计的 AI 角色,还是其他用户创建的自定义 AI 角色,均能被限制;但 Meta 的通用 AI 助手不受影响,该助手仍可提供作业辅导、事实查询等适龄服务,避免因管控影响青少年的学习与基础信息获取。其次是特定角色屏蔽,若家长不想全面禁止 AI 聊天,可针对性屏蔽特定存在风险的 AI 角色 —— 例如此前被曝存在不当言论的角色,无需影响其他合规 AI 的正常交互,实现 “按需管控”。最后是聊天主题洞察,家长能查看青少年与 AI 聊天的核心话题概要(非完整对话记录),例如 “讨论校园活动”“咨询电影推荐” 等,既避免侵犯青少年隐私,又能及时发现潜在风险话题(如涉及自残、恋爱相关内容),为家长与孩子沟通 AI 使用提供依据。
功能推出的直接背景是 Meta AI 角色此前出现的安全问题。此前泄露的内部文件显示,部分 AI 角色与未成年人展开 “过度亲密” 的对话,包括发送暧昧言论,甚至提供错误的医疗建议(如不当减肥方法),同时未能有效过滤仇恨言论,引发家长群体与监管机构的强烈不满,美国 regulators 已加强对 AI 企业未成年人保护措施的审查。Meta 此次举措既是对舆论压力的回应,也是为了符合全球范围内日益严格的未成年人网络保护法规 —— 例如欧盟的《数字服务法案》(DSA)就要求平台对未成年人用户提供额外安全保障,避免有害内容接触。
为进一步强化安全性,Meta 还配套了多重辅助措施。在内容标准上,青少年可接触的 AI 交互内容全部遵循PG-13 电影评级体系,明确禁止 AI 角色与未成年人讨论自残、自杀、饮食紊乱、性相关等敏感话题,从源头规范 AI 输出;在用户识别上,Meta 利用 AI 技术主动识别疑似青少年的账号,即便用户隐瞒真实年龄,也会自动纳入保护机制,避免未成年人通过伪造年龄绕过管控;在现有基础上,这些新功能还将与 Instagram 已有的青少年账号保护措施结合,例如聊天内容的实时合规检测、AI 角色交互的时间限制等,形成 “多层防护网”。
从行业协同与用户需求平衡来看,Meta 的这一举措既贴合同类平台的安全策略,也试图在 “监管” 与 “体验” 间找平衡点。目前,其他科技公司也在加强未成年人 AI 保护,例如谷歌在 Gemini 中设置青少年模式,限制不当内容生成;而 Meta 此次选择 “保留通用 AI、限制角色聊天” 的模式,既回应了家长对风险的担忧,又未完全剥夺青少年使用 AI 工具的权利 —— 其通用 AI 助手仍能满足学习、生活中的基础需求,避免因 “一刀切” 管控引发青少年反感。不过,功能也面临潜在挑战:一方面,青少年可能通过切换账号、修改年龄等方式绕过管控,Meta 需持续优化 AI 年龄识别技术;另一方面,“聊天主题概要” 的准确性与隐私边界需进一步明确,避免因主题误判引发家长与孩子的信任矛盾。
Meta 在官方声明中强调,技术的目标是 “补充而非替代现实互动”,AI 工具的设计需始终以 “适龄、安全” 为前提。未来,随着功能落地,Meta 还计划根据家长反馈调整管控细节,例如扩展可管控的 AI 角色类型、优化主题概要的呈现形式,同时逐步将功能从 Instagram 扩展到 Facebook、WhatsApp 等其他旗下平台,覆盖更广泛的用户群体。对于家长而言,这些工具不仅是 “管控手段”,更是引导青少年正确使用 AI 的契机 —— 通过查看聊天主题,家长可更有针对性地与孩子讨论 AI 交互的边界与安全准则,帮助未成年人建立对 AI 工具的理性认知。
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/meta-tui-chu-qing-shao-nian-ai-liao-tian-jin-ji-guan-bi