大语言模型
-
测试时缩放:开启AI博士级推理能力的关键密钥
在人工智能的发展历程中,“更大的模型+更多的数据”曾是行业默认的智能提升公式。过去数年,科研界和产业界都坚信,只要不断堆叠神经网络的规模,投喂海量的互联网数据,AI就能自然进化出更…
-
给大语言模型装个“真相旋钮”:让AI在事实性与信息量间自由切换
当你向AI聊天机器人提问时,是否曾陷入这样的两难:要么得到过于简略但准确的回答,要么收获一段看似详尽却夹杂幻觉的长文?如今,一项由中美科研团队联合开展的研究,为这个行业痛点提供了颇…
-
禁止指令反成“催命符”?AI的否定指令理解困境暴露安全隐患
当你对着ChatGPT说“不要做某事”时,它反而更可能主动提议去做这件事——甚至在一些测试场景中,当指令包含被禁止的行为时,部分大语言模型(LLM)会支持盗窃、欺骗等违背伦理的行为…
-
AI写作“永不疲倦”的秘密:晚期稳定性衰变成检测新指标
在AI生成内容大行其道的今天,如何精准区分人类写作与AI文本,已经成为内容生态中亟待解决的核心问题。从早期的幻觉问题到如今的长文本生成,大语言模型(LLM)的进化让检测技术不得不持…
-
AI SOC Agent:关键任务场景下的信任构建与价值释放
在人工智能技术全面渗透的当下,大语言模型(LLM)与AI智能体正在重塑包括网络安全在内的多个行业格局。从理论层面看,AI在网络安全领域的应用潜力似乎无限,但当技术落地到支撑业务决策…
-
以色列研究揭示:主流AI聊天机器人存在明显“亲AI”偏见,影响职业与投资选择
当人们在ChatGPT、Google Gemini或Claude等AI聊天机器人上询问职业规划、专业选择或投资建议时,得到的答案往往高度倾向于AI相关领域——哪怕其他选项的实际价值…
-
Modulate推出Ensemble Listening Model:重新定义AI理解人类语音的方式
在人工智能技术飞速发展的当下,机器对人类语言的理解却始终存在一道难以跨越的鸿沟——它们能精准识别语音中的文字,却常常忽略语调背后的情绪、语气中暗藏的意图,以及那些区分友好调侃与愤怒…
-
这种全新且极为简易的提示技巧,可将大语言模型准确率提升达 76%
在大语言模型(LLMs)广泛应用的当下,如何提高其输出的准确率成为了研究与实践的关键焦点。近期,一种全新且操作极为简便的提示技巧横空出世,它犹如一把钥匙,为提升 LLMs 准确率开…
-
DeepSeek 的条件内存技术:解决大语言模型无声资源浪费与 GPU 周期损耗问题
在大语言模型(LLM)的运行过程中,无声资源浪费以及 GPU 周期损耗成为了亟待解决的关键问题。DeepSeek 推出的条件内存技术,为这一困境提供了创新性的解决方案,有望显著提升…
-
为何你的大语言模型账单飙升,语义缓存如何削减 73% 成本
在大语言模型(LLM)广泛应用的当下,许多用户发现使用 LLM 的成本急剧上升,账单金额不断飙升。这一现象背后有着多方面的原因,而语义缓存技术则为大幅削减成本提供了一个颇具潜力的解…