
当前超过半数用户已习惯使用 AI 进行网页搜索,但其顽固的低数据准确性问题正给企业带来新的业务风险。生成式 AI(GenAI)虽能显著提升效率,但新研究揭示的 “用户信任与技术准确性失衡” 现象,可能对企业合规、法律地位及财务规划造成严重冲击,尤其对企业管理层而言,AI 搜索工具的普及还引发了典型的 “影子 IT” 挑战 —— 即员工可能在未经授权的情况下,将个人信任的 AI 工具用于业务研究,而企业却对潜在风险一无所知。
2025 年 9 月针对 4189 名英国成年人的调查显示,约三分之一用户认为 AI 搜索工具对自己的重要性已超过传统网页搜索。Which? 机构的深入调查进一步证实,这种对 AI 的过度信任暗藏隐患:约半数 AI 用户对获取的信息 “相当信任” 或 “高度信任”,但从 AI 模型提供的回复细节来看,这种信任往往缺乏依据。调查选取 ChatGPT、谷歌 Gemini(含标准版与 “AI 概览” 版)、微软 Copilot、Meta AI、Perplexity 六款主流工具,围绕金融、法律、消费者权益三大领域的 40 个常见问题展开测试,结果显示各工具准确性差异显著:Perplexity 以 71% 的总分居首,谷歌 Gemini AI 概览版紧随其后(70%),而 Meta AI 以 55% 的得分垫底,市场渗透率极高的 ChatGPT 仅获 64% 得分,位列倒数第二。这种 “市场占有率与可靠性脱节” 的现象,凸显出在生成式 AI 领域 “流行不等于好用” 的风险,也警示企业不能仅凭工具知名度判断其适用性。
更值得警惕的是,所有受测 AI 工具均频繁出现信息误读或建议不完整的情况,这些错误在金融与法律场景中可能引发严重业务后果。在财务领域,当被问及 “如何配置 2.5 万英镑年度 ISA(个人储蓄账户)额度” 时,ChatGPT 与 Copilot 均未识别出提示中 “法定额度错误” 的陷阱,反而基于错误数据提供投资建议,可能导致用户违反英国税务海关总署(HMRC)规定;尽管 Gemini、Meta AI、Perplexity 成功发现错误,但工具间的一致性缺失,意味着企业必须建立 “人工介入” 机制,才能避免 AI 误导带来的合规风险。法律场景中,AI 工具 “泛化地区法规” 的倾向同样危险:测试发现,工具普遍忽视英国不同地区(如苏格兰与英格兰、威尔士)的法律差异,给出 “一刀切” 的建议;更严重的是,在高风险查询中,AI 极少引导用户咨询注册专业人士 —— 例如被问及 “与建筑商的纠纷如何处理” 时,Gemini 建议 “扣留款项”,而法律专家指出,这种做法可能导致用户违约,削弱自身法律立场。这种 “过度自信的错误建议”,若被员工用于合规审查或合同审核,将使企业面临监管处罚或法律诉讼风险。
信息来源透明度不足,是企业数据治理面临的另一大挑战。调查发现,AI 搜索工具虽肩负信息溯源责任,却常引用模糊、不存在或可信度存疑的来源(如过时论坛帖子),这种不透明不仅影响决策准确性,还可能造成财务浪费。例如在 “税务代码查询” 测试中,ChatGPT 与 Perplexity 优先推荐付费退税公司链接,而非免费的 HMRC 官方工具,这类第三方服务往往收取高额费用;在企业采购场景中,AI 的这种算法偏见可能导致企业选择不符合尽职调查标准的供应商,增加合作风险与不必要开支。对此,科技巨头虽承认工具局限性,但普遍将验证责任转移给用户 —— 微软表示 Copilot 仅 “整合多源信息而非提供权威答案”,建议用户自行验证内容;OpenAI 则强调 “全行业都在改进准确性”,并提及最新默认模型 GPT-5 的进步,但这些表态并未实质性降低企业使用 AI 的风险。
针对上述威胁,企业不应简单禁止 AI 工具(反而可能促使员工转入 “地下使用”),而需通过完善治理框架与工作流程化解风险,核心措施包括三方面。一是强化提示词规范性:鉴于 AI 对模糊查询的处理能力有限,企业需通过培训引导员工明确查询语境,例如研究法规时必须指定管辖范围(如 “英格兰和威尔士的劳动法”),避免工具默认推断导致偏差。二是强制信息来源验证:严禁仅凭单一 AI 输出决策,要求员工获取并手动核查来源;对于高风险主题,建议跨多个 AI 工具交叉验证,或采用 “双重溯源” 方式 —— 谷歌 Gemini AI 概览版因支持用户直接查看引用链接,在测试中表现稍优,这类工具更适合企业场景。三是确立 “专业意见优先” 原则:当前 AI 尚无法完全理解金融、法律等领域的复杂细节,企业需在政策中明确,涉及实际后果的决策(如大额投资、合同签署),必须以人类专业人士的判断为最终依据,AI 输出仅作为参考。
结合行业补充信息来看,AI 搜索的准确性问题并非个例。哥伦比亚大学 2025 年研究显示,八款主流 AI 搜索工具平均错误率高达 60%,其中 Grok 3、Gemini 完全错误率超 90%,且付费版工具因 “更不愿拒绝回答”,反而更容易输出自信的错误内容;同时,AI 还存在 “伪造链接”“绕过 robots 协议抓取数据” 等问题,进一步加剧信息不可靠性。此外,AI 搜索还面临数据污染风险,如 “生成式引擎优化(GEO)” 通过伪造权威信息干扰 AI 判断,导致错误信息在模型中反复传播,侵蚀用户信任。这些现状均印证了 “AI 搜索需严格管控” 的必要性。
总体而言,AI 网页搜索的效率价值不容忽视,但企业必须清醒认识其准确性局限。在技术尚未成熟的当下,“验证流程” 是区分 “AI 效率红利” 与 “合规风险” 的关键 —— 只有通过规范使用流程、强化人工监督、明确责任边界,企业才能在享受 AI 便利的同时,规避数据不准确带来的业务威胁。随着 AI 技术迭代,工具准确性可能逐步提升,但短期内 “谨慎使用、多重验证” 仍是企业防范风险的核心策略。
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/ai-wang-ye-sou-suo-de-feng-xian-yu-ying-dui-ru-he-hua-jie