Anthropic
-
研究发现法学硕士可以识别自己的错误
大型语言模型 (LLM) 的一个众所周知的问题是它们倾向于生成不正确或无意义的输出,通常被称为“幻觉”。虽然许多研究都集中于从用户的角度分析这些错误,但由以色列理工学院、谷歌研究院…
-
研究表明,人工智能模型在用西班牙语提问时错误率更高
人工智能模型很难用西班牙语准确回答与选举相关的问题。 这是AI Democracy Projects 的一项新研究得出的结论,该项目是 Proof News、事实核查服务 Fact…
-
GitHub Spark 让你用简单的英语构建 Web 应用程序
当 GitHub Copilot 推出并开始自动完成代码行(后来是整个代码片段)时,许多人都在问:我们多久才能用自然语言描述一个应用程序,然后 Copilot 会为我们构建它?近几…
-
谷歌称其下一代人工智能代理最早要到 2025 年才会推出
谷歌最早要到明年才会推出Project Astra的技术。Project Astra 是谷歌为实现实时、多模式理解而开展的一项广泛努力,旨在构建人工智能应用程序和“代理”。 谷歌首…
-
据报道,谷歌正在开发一种“使用计算机的代理”人工智能系统
据报道,谷歌最早可能在 12 月预览其对 Rabbit 大型动作模型概念的看法。据该媒体采访的三位直接了解该项目的人士称,该项目的代号为“Project Jarvis”,将为用户执…
-
Anthropic 的代理计算机使用正在赋予人们“超能力”
Anthropic发布其新的 Claude 功能“计算机使用”仅两天时间,但不同技术能力的早期采用者已经找到了各种方法来使用它——从复杂的编码任务到深入研究,再到收集“分散”的信息…
-
Anthropic 推出全新 Claude AI 模型和“计算机控制”
Anthropic宣布升级其 AI 产品组合,包括增强型 Claude 3.5 Sonnet 模型和推出 Claude 3.5 Haiku,同时在公开测试版中推出“计算机控制”功能…
-
Anthropic 的新 AI 模型可以控制你的电脑
去年春天,Anthropic在向投资者推介时表示,公司打算开发人工智能来驱动虚拟助理,让其能够独立进行研究、回复电子邮件和处理其他后台工作。该公司将此称为“人工智能自学的下一代算法…
-
美国人工智能安全研究所地位不稳
如果国会不批准,美国政府唯一一个专门评估人工智能安全性的办公室将面临被解散的危险。 美国人工智能安全研究所 (AISI) 是一家研究人工智能系统风险的联邦政府机构,于 2023 年…
-
AI 能否利用安全检查来破坏用户?是的,但效果不是很好 — 目前来说
人工智能公司声称已经实施了严格的安全检查,以确保模型不会说或做奇怪、非法或不安全的事情。但如果模型能够逃避这些检查,并出于某种原因试图破坏或误导用户,该怎么办?据 Anthropi…