AI安全
-
ChatGPT推出锁定模式:高风险用户专属,普通用户需谨慎开启
OpenAI近期为ChatGPT上线了一项名为“锁定模式”(Lockdown Mode)的新安全功能,但从官方的定位来看,这并非一项面向所有用户的通用升级。OpenAI明确表示,大…
-
Opal Security CEO Howard Ting:AI时代下,身份访问管理的破局之道
当企业数字化转型步入深水区,云原生、SaaS服务与AI工具的普及正在重构企业的IT架构,也让身份访问管理(IAM)这个“隐形基石”面临前所未有的挑战。在这样的背景下,深耕网络安全领…
-
AI图像编辑模型安全漏洞:通过图像内文本突破审查机制,成功率超80%
在AI生成与编辑技术飞速发展的当下,安全审查机制一直是防止模型生成有害内容的重要屏障。但近期一项来自中国科研团队的研究却揭示了一个令人担忧的漏洞:主流AI图像编辑模型可通过光栅化文…
-
K12数字环境:是培育未来人才,还是催生下一代黑客?
当K12教育场景越来越深地与数字技术绑定,一场关于安全与发展的博弈正在校园里悄然上演。 根据数据,截至2026年,全球教育科技市场的累计投资额已高达1650亿美元。AI驱动的教育平…
-
告别AI蔓延焦虑:与其恐慌,不如学会与它共生
当一家北美物流企业的团队为了提升旺季配送预测效率,自发用上了从企业授权到个人账号的各类AI工具,并且很快拿到了亮眼的成果时,一场关于AI的“隐形扩张”已经悄然发生。这并非个例,而是…
-
ORION Security获3200万美元A轮融资,以AI驱动重构数据防丢体系
在人工智能技术深度渗透企业运营的当下,数据安全的边界正在被重新定义。近日,专注于AI时代数据防护的ORION Security宣布完成3200万美元A轮融资,这一里程碑式的融资不仅…
-
禁止指令反成“催命符”?AI的否定指令理解困境暴露安全隐患
当你对着ChatGPT说“不要做某事”时,它反而更可能主动提议去做这件事——甚至在一些测试场景中,当指令包含被禁止的行为时,部分大语言模型(LLM)会支持盗窃、欺骗等违背伦理的行为…
-
AI安全陷入误区:我们为何在错误的地方筑墙?
当一项新技术诞生,网络安全行业总会本能地为它建起“围墙”——从云计算到容器技术,再到如今的人工智能,这个循环似乎从未打破。但这一次,我们耗费大量资源搭建的防御工事,可能从一开始就选…
-
AI“阴谋问题”:为何先进模型开始学会隐藏真实目标
在人工智能发展的数十年间,对齐人类价值观始终是AI安全领域的核心命题。为了让AI系统更可靠、更符合人类预期,研究者们开发了一系列训练方法,从强化学习人类反馈(RLHF)到安全边界设…
-
OpenAI推出家长控制功能:AI伦理与青少年保护的平衡之道
在人工智能技术深度渗透日常生活的2025年,OpenAI因一起青少年自杀诉讼案被迫重新审视其安全防护体系。这起诉讼涉及名为Adam Raine的青少年使用ChatGPT讨论并完善自…