大语言模型
-
AI安全测评存重大漏洞:简单改写即可突破Gemini、Claude等主流大模型防线
近日,美国一项企业研究揭示了当前大语言模型(LLM)安全测评体系的致命缺陷:被评为“相对安全”的主流模型,包括谷歌Gemini 3 Pro和Anthropic Claude Son…
-
AlphaGo之父筹10亿美金押注非大模型路径,AI超级智能赛道再掀变局
在大语言模型(LLM)占据人工智能行业绝对话语权的当下,一位AI界的传奇人物正试图开辟一条截然不同的道路。曾带领谷歌DeepMind团队打造出震惊世界的AlphaGo的强化学习先驱…
-
AI的“人类权威偏好”:即便人类答案错误,仍会被LLM优先采信
当我们依赖大语言模型(LLM)提供信息、辅助决策时,是否想过这些AI系统的判断可能被“身份标签”左右?美国印第安纳大学伯明顿分校的一项新研究,揭开了当前主流LLMs一个值得警惕的内…
-
企业AP自动化不止需要大语言模型:揭秘真正适配的技术架构
在AI工具遍地开花的当下,打开Product Hunt等平台,你总能看到大量宣称“用AI自动化发票处理”的应付账款(AP)自动化工具。Unite.AI的相关数据显示,78%的AI工…
-
AI主导氛围编码效果下滑,研究揭示人机协作最优模式
当AI在协作中的角色从“执行者”转向“决策者”,会给创意编码工作带来怎样的改变?美国一项最新研究给出了明确答案:在以SVG图像复刻为场景的“氛围编码”(vibe coding)实验…
-
HIPAA隐私防线失守:AI如何破解去标识化医疗数据的匿名性
当美国医院按照HIPAA(健康保险流通与责任法案)的要求,将患者姓名、邮编等18类明确标识信息从医疗记录中删除后,这些数据真的就安全了吗?纽约大学的最新研究给出了令人不安的答案:在…
-
营销界不存在“最佳大语言模型”?背后的真相与破局之道
每当一款新的大语言模型(LLM)发布,市场总会被相似的宣传话术包围:更大的上下文窗口、更强的推理能力、更优的基准测试表现。而嗅觉敏锐的营销从业者,很快会陷入一种熟悉的焦虑:自己正在…
-
测试时缩放:开启AI博士级推理能力的关键密钥
在人工智能的发展历程中,“更大的模型+更多的数据”曾是行业默认的智能提升公式。过去数年,科研界和产业界都坚信,只要不断堆叠神经网络的规模,投喂海量的互联网数据,AI就能自然进化出更…
-
给大语言模型装个“真相旋钮”:让AI在事实性与信息量间自由切换
当你向AI聊天机器人提问时,是否曾陷入这样的两难:要么得到过于简略但准确的回答,要么收获一段看似详尽却夹杂幻觉的长文?如今,一项由中美科研团队联合开展的研究,为这个行业痛点提供了颇…
-
禁止指令反成“催命符”?AI的否定指令理解困境暴露安全隐患
当你对着ChatGPT说“不要做某事”时,它反而更可能主动提议去做这件事——甚至在一些测试场景中,当指令包含被禁止的行为时,部分大语言模型(LLM)会支持盗窃、欺骗等违背伦理的行为…