
在欧盟《人工智能法案》即将生效之际,Meta公司正式宣布拒绝签署该法案配套的自愿性行为准则,引发关于欧洲AI监管方向的激烈辩论。Meta全球事务主管乔尔·卡普兰通过领英声明指出:”欧洲正在AI发展道路上误入歧途。经过审慎评估,Meta决定不签署这份为通用AI模型制定的行为准则,因其不仅给开发者带来法律不确定性,更超出了《AI法案》本身的监管范围。”
这份由欧盟委员会本月发布的准则框架,旨在帮助企业建立合规体系。核心要求包括:定期更新AI工具文档、禁止使用盗版内容训练AI模型、必须尊重内容所有者拒绝其作品被纳入数据集的权利。卡普兰批评这些条款属于”监管越界”,将”扼杀欧洲前沿AI模型的研发部署,阻碍基于这些模型开展业务的欧洲企业发展”。
作为全球首个全面AI监管法案,《AI法案》采用风险分级制度:彻底禁止”不可接受风险”应用(如认知行为操纵、社会评分系统);对生物识别、面部识别及教育就业等”高风险”领域实施严格管控;要求开发者完成AI系统注册并履行风险管理义务。尽管Alphabet、微软、Mistral AI等科技巨头持续施压要求推迟实施,欧盟委员会仍坚持按原定时间表推进。
值得注意的是,欧盟周五同步发布了针对通用AI模型提供商的指导方针,8月2日生效的新规将主要影响OpenAI、Anthropic、谷歌和Meta等具有”系统性风险”的模型开发商。对于8月2日前已上市的相关模型,企业最迟需在2027年8月2日前完成合规调整。
这场监管博弈凸显出技术创新与风险控制之间的深层矛盾。Meta的公开抵制既反映了企业对过度监管的担忧,也预示着欧美在AI治理理念上的根本分歧。随着8月大限临近,全球科技企业将面临更严峻的合规挑战,而欧洲能否在保护权利与促进创新间找到平衡,将成为影响全球AI格局的关键变量。
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/meta-ju-jue-qian-shu-ou-meng-ai-xing-wei-zhun-ze-ou-zhou-ai