模型安全
-
少量劣质数据即可摧毁精调AI模型:最新研究揭示数据质量的关键阈值
伯克利与Invisible Technologies的最新联合研究向AI行业投下一枚震撼弹:即便在精调数据中混入10%的错误样本,就足以导致大型语言模型出现性能断崖式下跌和安全防线…
-
Anthropic研究揭示:AI微调过程中潜藏的”隐性学习”问题及其风险
AI微调过程中的隐性学习现象 Anthropic公司最新研究发现,人工智能模型在微调(fine-tuning)过程中存在一种被称为”隐性学习”(sublim…