企业中的人工智能:全面核算成本

企业中的人工智能:全面核算成本

人工智能已不再是理论层面的新奇技术,如今已与企业核心系统并列,成为基础设施的一部分。然而,许多人对 AI 的认知仍局限于公共大型语言模型(LLMs)和聊天机器人,认为其是可在浏览器中随意使用、用完即弃的工具,这种片面认知忽略了 AI 领域更广泛的模型与技术 —— 这些技术能以更低风险、更高效率改善业务成果。事实上,企业应像评估其他重大基础设施投资一样看待 AI,从项目初期就清晰考量成本、收益与运营风险。要让 AI 真正发挥作用,需投入资源构建高质量数据管道、完善可观测性体系、建立治理机制,并培养专业人才确保 AI 与业务目标对齐。若在此过程中偷工减料,未来必将付出更高代价。

在 AI 成本的实际增长模式方面,企业团队常存在 “线性增长” 的认知误区,认为 AI 工作量翻倍,成本也会随之翻倍。但现实中,AI 的投入、成本与产出之间的关系往往并非简单线性关联,甚至会出现令人意外的独立变化。以 AI 处理长文档为例,当要求 AI 一次性读取长文档时,它需要考量每个词语与其他所有词语的关联。在多数主流 LLMs 中,这种处理方式所需的工作量及对应的成本,并非如人们直觉般随输入长度翻倍而翻倍,而是大致随输入长度的平方增长。理解这类基础特性对控制 AI 部署成本至关重要。例如,某日常处理大量文本的监管机构,若从项目设计初期就采用图搜索或检索管道技术,而非将整篇文档直接输入模型,终端用户体验仍能保持 “提出问题,几秒内获得答案” 的便捷性,与公共聊天机器人无异,既能满足高管对即时交互的需求,又能大幅减少系统不必要的运算,显著降低算力成本。

AI 支出在企业内部的分布也较为分散,技术选择仅是其中一部分,更关键的是企业对 AI 的整体部署思路。在许多企业中,数据准备工作由工程部门负责,合规审查归法律部门,云支出由平台或基础设施团队管理,而模型选择、配置及微调通常由少数专业操作人员把控。每个部门仅关注自身负责的工作环节与对应的预算项目,AI 支出因此分散在不同成本中心 —— 这边是算力费用,那边是外包人员工时费,还有部分成本隐藏在多个团队的 “日常业务” 人力投入中。由于数据分散在各个成本中心,单个 AI 项目的完整落地成本难以在单一部门的核算中体现,极易被低估。在这种情况下,AI 成本可能会悄然失控,核心原因便是缺乏统一的成本追踪机制。

对于企业而言,合理的 AI 成本管理策略并非拒绝 AI,也不是将其视为万能技术,而是应从期望达成的业务成果出发,反向规划 AI 部署方案。并非所有业务场景都需要采用尖端、高运行成本的大型通用模型,许多任务可借助成熟的机器学习技术(这类技术也属于 AI 范畴),在现有基础设施上完成。企业可从小型试点项目入手,在评估总拥有成本时,不能仅关注模型使用费用,还需全面纳入算力成本、系统集成工作量、工程师工时、变革管理投入及合规审查成本。试点的核心目标是选择能产生可接受结果的最小、最简单模型,而非想当然地认为 “模型越强大,收益就越多”。AI 并非单一技术,而是由多种技术与工具组成的集合,可通过不同方式应用。以这样的视角看待 AI,能打破其因亮眼成果带来的神秘感,让企业更负责任、更有效地发挥 AI 的价值。

在 AI 部署过程中,人与软件的协作不可或缺,即便未被正式提及,实际工作开展也依赖这种协作模式。当前,AI 正朝着更具智能体特性的方向发展 —— 这类工具能串联多个任务步骤、调用其他系统,且无需过多人工指令,但这并未改变人机协作的本质,反而对工作流程中 “人的环节” 提出了更高要求。企业容易过度信任这类智能体工具,当系统流畅且自信地呈现答案时,人们往往会默认其正确性。若将此类工具直接引入工作流程,却未开展充分培训、未明确使用边界、未建立合理核查机制,系统可能会悄然产生一系列小错误。而每个错误都需要人工发现、分析并修正,从表面数据看,AI 似乎提升了效率,但实际上存在 “隐性成本”—— 员工需花费额外时间弥补 AI 造成的问题。在面向客户或受监管的场景中,这些小错误还可能损害企业声誉。无论 AI 工具以何种方式交付或使用,其输出结果的责任最终仍由企业承担,日常操作中则由使用工具的员工负责。只有明确这一点,AI 工具才能真正发挥实用价值。

更优的模式是构建 “人机协同” 体系:专业人员明确掌控业务成果,将 AI 用于加速适配其能力的工作环节,如内容总结、文档起草、数据分类与信息检索。即便仍需进行部分核查与修正,经过合理引入和管理的 AI,仍能为工作流程带来显著提升 —— 提升效率、增强一致性,并扩大团队的业务处理能力,这是团队仅靠人力难以实现的。

即便企业在 AI 技术选择上合理、使用效率较高,随着 AI 应用的深入,用于治理的支出在总 AI 支出中的占比也会不断上升,甚至超过基础算力成本。对于在欧盟运营的企业,《人工智能法案》对此有明确要求。该法案采用 “基于风险” 的监管思路,且监管范围不仅限于面向公众的产品,企业内部用于招聘晋升、员工管理监控及部分安全相关决策的 AI 系统,也可能被纳入监管范畴,这意味着企业需满足风险管控、文档记录、操作日志留存及人工监督等方面的要求。其他地区也在朝着类似方向推进监管,尽管具体规则存在差异,但整体趋势一致:大型企业需明确掌握 AI 的应用范围、具体功能及管控方式。

这一监管趋势的实际影响是,企业内部 AI 项目如今必须承担强制性的治理工作。每个新的 AI 应用场景都可能需要开展新的风险或影响评估,增加监控环节,同时还要应对合规、审计及风险部门提出的各类问题。这些治理工作产生的成本不会体现在模型使用数据中,但却是必须投入的真实成本。需要强调的是,这并非企业拒绝 AI 的理由,而是提醒企业:AI 驱动的内部业务流程,其运行成本不仅包括模型调用费用,治理成本与监管合规成本已成为总拥有成本的重要组成部分。

企业 AI 部署失败的案例中,常见问题是 AI 系统在演示环境与实际大规模应用场景中的表现存在差距。在受控环境下,面对有限范围的问题和经过筛选的 “友好数据”,AI 系统的表现可能无可挑剔,此时企业极易误以为系统已具备处理某类完整工作的能力。但问题往往在后续暴露 —— 当系统面临真实场景中的多样需求与海量数据时,如处理异常查询、应对情绪紧张的用户、处理不完整记录及复杂边缘情况,演示阶段隐藏的缺陷便会显现,具体表现为回答偏离方向、遗漏关键细节、陷入支持循环、处理时间延长,进而逐渐侵蚀用户信任。从企业内部数据看,“处理查询数量”“节省时间” 等指标可能看似良好,但终端用户的实际体验却可能截然不同。

若企业从精心打磨的演示或小型试点直接过渡到大规模推广,将 “受控环境下的成功” 视为系统具备广泛部署条件的证据,极易酿成代价高昂的错误。在现实场景中,用户会提出复杂问题、提供不完整数据,且对工具功能存在自身预期。若企业未做好预期管理,也未在系统工作流程中设计备用方案与问题升级机制,将面临双重损失:既要承担系统开发成本,又要投入额外资源处理后续的支持需求、修正错误、应对客户投诉,并挽回受损的信任。即便 AI 技术在理论层面看似先进,若不能结合实际用户需求与业务流程制定务实的部署方案,投资回报便会迅速缩水。

反之,若企业从项目初期就设计具备明确边界、明确人工责任的 AI 系统,其能实现人力团队难以企及的目标:几秒内扫描海量信息、发现多年数据中的隐藏规律、以人力无法达到的规模处理常规决策。关键在于,企业要想获得这些收益,就必须在追求 AI 潜力的同时,理性看待技术在实际应用中的表现。

综上,文章并非反对企业应用 AI,而是倡导企业以对待其他关键业务系统的严谨态度看待 AI。合理应用 AI 能帮助小型团队提升业务规模、发现人工难以察觉的数据规律,并拓展专业判断的应用范围。但要实现这些价值,企业需明确 AI 的应用范围、全面核算成本,并建立完善的治理机制。这要求企业在模型与架构选择上深思熟虑,投入资源完善数据体系与可观测性建设,同时设计 “人机协同” 的业务流程。

“快速行动,打破陈规” 这一口号适用于人类团队处理人类规模的系统:出现问题时,可回滚版本、修复漏洞后继续推进。但当 AI 深度融入与客户、员工或公众相关的决策流程后,这种激进思路可能引发更严重的问题 —— 问题扩散更快、影响范围更广,且修复难度极大。速度固然重要,AI 也能在这方面提供支持,但企业必须同时清晰考量风险、成本与责任。

完全消除 AI 的成本与风险并不现实,但企业在 AI 应用上的态度存在明显差异:部分企业依赖零散的实验项目,另一部分则以审慎方式将 AI 融入运营,确保能清晰追踪从投入到成果的链路。面对多样的业务问题与目标,不存在能解决所有问题的 “万能 AI 方案”。企业要有效应用 AI,就必须做到场景专业化、操作受监督,并严格界定应用范围。

原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/qi-ye-zhong-de-ren-gong-zhi-neng-quan-mian-he-suan-cheng-ben

Like (0)
王 浩然的头像王 浩然作者
Previous 14小时前
Next 2025年11月22日

相关推荐

发表回复

Please Login to Comment