LLM
-
OpenAI:延长模型“思考时间”有助于对抗新出现的网络漏洞
通常,开发人员专注于减少推理时间(即 AI 收到提示和提供答案之间的时间间隔),以便更快地获得洞察。 但谈到对抗鲁棒性,OpenAI 的研究人员表示:不要这么快下结论。…
-
超越 RAG:缓存增强生成如何降低较小工作负载的延迟和复杂性
检索增强生成 (RAG) 已成为定制大型语言模型 (LLM) 以处理定制信息的实际方法。然而,RAG 需要前期技术成本,而且速度可能很慢。现在,得益于长上下文 LLM 的进步,企业…
-
人工智能中的幻觉:葛兰素史克如何解决药物开发中的关键问题
生成式人工智能已成为许多行业的关键基础设施,医疗保健也不例外。然而,随着葛兰素史克等组织不断突破生成式人工智能所能实现的界限,它们面临着重大挑战——尤其是在可靠性方面。幻觉,即人工…
-
从意图到执行:微软如何将大型语言模型转变为行动导向型人工智能
大型语言模型 (LLM)改变了我们处理自然语言处理的方式。它们可以回答问题、编写代码和进行对话。然而,它们在处理实际任务时却力不从心。例如,LLM 可以指导您购买夹克,但不能为您下…
-
Google DeepMind 研究人员推出新基准以提高 LLM 真实性并减少幻觉
幻觉,即事实不准确的回答,继续困扰大型语言模型 (LLM)。当模型被赋予更复杂的任务,并且当用户寻求具体且高度详细的回答时,模型尤其会失效。 这是数据科学家一直努力克服的一个挑战…
-
Nvidia 发布了可分析视频的 AI 代理蓝图
今天,作为首席执行官黄仁勋 (Jensen Huang)在CES 2025开幕主题演讲的一部分, Nvidia推出了可分析视频的 AI 代理蓝图。 由 Metropolis 提供支…
-
Meta 提出新的可扩展记忆层,可提高知识水平并减少幻觉
随着企业继续在各种应用中采用大型语言模型 (LLM),他们面临的关键挑战之一是提高模型的事实知识并减少幻觉。在一篇新论文中,Meta AI的研究人员提出了“可扩展的内存层”,这可能…
-
2025 年企业 AI 成功剧本:从代理到评估
2025 年将成为企业 AI 的关键一年。过去的一年见证了快速创新,今年也将如此。这使得重新审视您的AI战略以保持竞争力并为客户创造价值变得比以往任何时候都更加重要。从扩展 AI …
-
研究表明,人工智能聊天机器人可以检测种族,但种族偏见会降低回应同理心
麻省理工学院、纽约大学和加州大学洛杉矶分校的研究人员开发了一种方法,以帮助评估 GPT-4 等大型语言模型是否足够公平,可以在临床上用于心理健康支持。 借助匿名性和陌生人的陪伴,数…
-
需要研究假设吗?问问人工智能。
麻省理工学院的工程师开发了人工智能框架来识别可以推动生物启发材料发展的证据驱动假设。 提出独特且有前景的研究假设是任何科学家的基本技能。这也可能很耗时:新博士生可能会在项目的第一年…