
一项针对市场研究行业的新调查揭示了一个矛盾现象:AI 在该领域的普及速度惊人,同时其可靠性问题也持续困扰从业者。由 The Harris Poll 旗下研究平台 QuestDIY 于 2025 年 8 月对 219 名美国市场研究与洞察专业人士开展的调查显示,98% 的从业者已将 AI 工具融入工作,其中 72% 的人每天或更频繁地使用 AI。这组数据既展现了 AI 对行业的变革潜力,也暴露了其难以忽视的可靠性短板。
调查结果勾勒出行业正面临的双重压力:一方面,企业对更快获取商业洞察的需求日益迫切;另一方面,为确保准确性,研究者不得不花费大量精力验证 AI 生成的所有内容。尽管超过半数(56%)的研究者表示,使用 AI 工具每周至少能节省 5 小时,但近四成(39%)的人坦言 “对有时会出错的技术依赖度不断上升”;另有 37% 的人指出 AI “带来了数据质量或准确性方面的新风险”;31% 的人表示该技术 “增加了复查或验证 AI 输出结果的工作量”。
生产力提升与可信度不足之间的脱节,在研究行业形成了一种 “妥协平衡”:从业者为获得时间节省和能力增强,不得不时刻警惕 AI 的错误。这种动态可能从根本上改变洞察工作的开展方式,重塑行业工作流程。
数据显示,AI 在市场研究领域从实验性工具转变为基础设施的速度创下纪录。在日常使用 AI 的人群中,39% 的人每天使用一次,33% 的人 “每天使用多次或更多”。 Adoption 节奏还在加快:80% 的研究者表示,与六个月前相比,现在使用 AI 的频率更高;71% 的人预计未来六个月会进一步增加使用量;仅有 8% 的人认为自己对 AI 的使用会减少。The Harris Poll 研究产品总经理埃里卡・帕克(Erica Parker)向 VentureBeat 表示:“尽管 AI 能提供出色的辅助和机遇,但人类判断仍至关重要。未来将是一种协作模式:AI 加速任务执行、快速挖掘发现,而研究者确保质量,并提供高水平的咨询性洞察。”
AI 在处理大规模数据方面的优势,使其成为研究者的得力助手。调查显示,AI 的主要应用场景集中在数据相关任务:58% 的研究者用其分析多个数据源,54% 用于分析结构化数据,50% 用于自动化洞察报告生成,49% 用于分析开放式调查反馈,48% 用于总结研究发现。这些传统上耗时费力的工作,如今只需几分钟就能完成,效率提升显著。
除了节省时间,研究者还反馈工作质量得到切实改善。约 44% 的人认为 AI 提高了准确性,43% 的人表示 AI 帮助他们发现了原本可能遗漏的洞察,43% 的人提到洞察交付速度加快,39% 的人认为 AI 激发了创造力。绝大多数(89%)的研究者表示 AI 让他们的工作生活变得更好,其中 25% 的人认为这种改善 “非常显著”。
然而,同一调查也揭示出从业者对 AI 可靠性的深切担忧,担忧清单涵盖多个方面:39% 的研究者表示对易出错技术的依赖增加,37% 提及数据质量或准确性的新风险,31% 提到额外的验证工作,29% 对工作安全性感到不确定,28% 则认为 AI 引发了数据隐私和伦理方面的担忧。报告指出,“当被要求以开放式回答说明对 AI 的最大不满时,准确性是研究者最常提及的问题”。一位研究者精准概括了这种矛盾:“我们借助 AI 推进工作的速度越快,就越需要检查方向是否正确。”
这种 “节省时间的同时又产生新工作” 的悖论,反映了当前 AI 系统的一个基本特征:它们能生成看似权威的输出,却可能包含研究者所称的 “幻觉内容”—— 即被当作事实呈现的虚构信息。在市场研究行业,这种问题尤为棘手:该行业的可信度建立在严谨方法论之上,错误的数据可能导致客户做出代价高昂的商业决策。QuestDIY 总经理加里・托皮奥尔(Gary Topiol)在报告中表示:“研究者将 AI 视为初级分析师,它具备速度和广度优势,但需要监督和判断。”
“AI 如初级分析师” 这一比喻,精准描绘了行业当前的运作模式。研究者将 AI 输出视为需要资深人员审核的草稿,而非成品。这种工作流程虽为 AI 应用设置了防护栏,却也凸显了该技术的局限性。
当被问及哪些因素会限制工作中对 AI 的使用时,研究者将数据隐私和安全担忧列为最大障碍,有 33% 的受访者提及这一点。这种担忧并非空穴来风:研究者处理的敏感数据包括客户敏感信息、企业专有商业数据,以及受《通用数据保护条例》(GDPR)、《加州消费者隐私法案》(CCPA)等法规约束的个人身份信息。将这些数据输入 AI 系统(尤其是基于云的大型语言模型),会引发一系列合理疑问:谁掌控这些信息?这些信息是否可能被用于训练竞争对手可获取的模型?
其他重要障碍还包括:尝试和学习新工具的时间(32%)、培训需求(32%)、集成挑战(28%)、内部政策限制(25%)以及成本(24%)。另有 31% 的人将 AI 使用缺乏透明度列为担忧,这可能会给向客户和利益相关者解释研究结果带来困难。
透明度问题格外棘手。当 AI 系统生成分析结果或洞察时,研究者往往无法追溯其得出结论的过程 —— 这与科学方法强调的可复现性和清晰方法论相冲突。部分客户已采取应对措施,在合同中加入 “禁止使用 AI” 条款,这迫使研究者要么完全避开 AI 技术,要么以不严格违反合同条款但可能模糊伦理界限的方式使用 AI。帕克在报告中提到:“上手体验比功能堆砌更重要。限制 AI 使用的最大障碍是学习和培训所需的时间。打包好的工作流程、模板和指导性设置,比不断增加功能更能快速推动 AI 的使用。”
尽管面临这些挑战,研究者并未放弃 AI,而是在探索负责任使用 AI 的框架。调查显示,行业共识模式是 “人类主导、AI 支持的研究”:AI 处理编码、数据清理、报告生成等重复性任务,人类则专注于解读、制定策略和评估商业影响。
约三分之一(29%)的研究者将当前工作流程描述为 “人类主导,AI 提供大量支持”,31% 的人将其描述为 “主要由人类完成,AI 提供部分帮助”。展望 2030 年,61% 的研究者预计 AI 将成为 “决策支持伙伴”,其功能将进一步扩展,包括生成式功能(用于起草调查和报告,56%)、AI 驱动的合成数据生成(53%)、核心流程自动化(如项目设置和编码,48%)、预测分析(44%)以及更深入的认知洞察(43%)。
报告描述了一种新兴的分工模式:研究者将转变为 “洞察倡导者”—— 他们负责验证 AI 输出、将研究发现与利益相关者面临的挑战关联起来,并将机器生成的分析转化为推动商业决策的战略叙事。在这种模式下,技术执行在研究者价值主张中的重要性下降,而判断力、语境理解和叙事能力变得更为关键。托皮奥尔在报告中强调:“AI 能挖掘出被遗漏的洞察,但仍需要人类判断哪些才是真正重要的。”
市场研究行业的 AI 应用经验,可能预示着其他知识工作领域的类似趋势 —— 在这些领域,AI 同样有望加速分析和综合工作。作为 AI 的早期采用者,研究者已将 AI 融入日常工作,他们的经历为其他领域提供了关于机遇与陷阱的宝贵经验。
首先,速度确实至关重要。报告中引用的一位精品机构研究负责人描述了实地调查后实时查看结果的体验:“提交调查方案后,我亲眼看着调查数量不断增加,当天下午就完成了。这种周转速度令人惊叹。” 这种高效性能让研究者在几小时内而非几周内回应商业问题,使洞察在决策仍在进行时发挥作用,而非在决策结束后才姗姗来迟。
其次,生产力提升虽真实存在,但并不均衡。每周节省 5 小时对个人贡献者而言,意味着显著的效率提升,但如果这些时间被用于验证 AI 输出或纠正错误,节省的时间便会消失。净收益取决于具体任务、AI 工具质量以及用户在提示和审查 AI 工作方面的技能水平。
第三,研究工作所需的技能正在发生变化。报告指出,未来研究者需具备的核心能力包括文化洞察力、战略叙事能力、伦理管理能力,以及所谓的 “探究性洞察倡导能力”—— 即提出正确问题、验证 AI 输出、并以最大化商业影响的方式呈现洞察的能力。尽管技术执行仍很重要,但随着 AI 承担更多机械性工作,其区分从业者水平的作用正在减弱。
调查中最引人注目的发现或许是:尽管 AI 被广泛采用,信任问题却依然存在。在大多数技术的 Adoption 曲线中,随着用户经验积累和工具成熟,信任会逐渐建立。但对于 AI,研究者却在大量使用工具的同时,不断质疑其可靠性 —— 这种动态源于 AI 的特性:大多数时候表现出色,但会突然且不可预测地出错。
这带来了一项看不到终点的验证负担。与可被识别并修复的传统软件漏洞不同,AI 系统的概率性本质意味着,对于相同输入,系统可能生成不同输出,这使得建立可靠的质量保证流程变得困难。
33% 的研究者将数据隐私担忧列为 AI Adoption 的最大障碍,这反映了信任的另一个维度。研究者不仅担心 AI 输出是否准确,还担心输入 AI 系统的敏感数据会面临何种风险。报告称,QuestDIY 的应对方案是将 AI 直接构建到通过 ISO/IEC 27001 认证的研究平台中,而非要求研究者使用 ChatGPT 等通用工具 —— 这类工具可能会存储并利用用户输入数据进行模型训练。
托皮奥尔在报告中描述 AI 最具价值的应用领域时表示:“核心在于大规模分析 —— 融合多个数据源、处理结构化和非结构化数据、实现报告自动化。”
报告将 2026 年定位为行业转折点:届时 AI 将从研究者使用的工具,转变为更类似团队成员的角色 —— 作者称之为 “协同分析师”,它将参与研究过程,而非仅仅加速特定任务。
这一愿景的实现,依赖于 AI 能力的持续提升,尤其是在研究者目前认为技术尚不成熟的领域。尽管目前已有 41% 的研究者使用 AI 进行调查设计,37% 用于编程,30% 用于提案创建,但大多数研究者认为这些场景仍有提升空间。这意味着,一旦工具可靠性提高或工作流程更完善,AI 在这些领域的应用还有很大增长潜力。
人类主导的模式似乎可能持续。帕克在报告中表示:“未来将是人类主导,AI 作为可信赖的协同分析师。” 但 “人类主导” 的实际含义可能会发生变化。如果 AI 处理大部分分析任务,研究者专注于验证和战略解读,那么该职业可能会更接近编辑工作,而非科学分析 —— 研究者将负责整理和解读机器生成的洞察,而非从零开始生成洞察。
托皮奥尔在报告中指出:“AI 为研究者提供了向价值链上游移动的空间 —— 从数据收集者转变为洞察倡导者,专注于最大化商业影响。”
这种转变究竟是行业地位的提升,还是技能要求的降低,在一定程度上取决于技术的发展方向。如果 AI 系统变得更透明、更可靠,验证负担可能会减轻,研究者就能专注于更高层次的思考;如果 AI 仍保持不透明且易出错的特性,研究者可能会陷入无尽的循环 —— 不断检查自己无法完全信任或解释的工具所生成的内容。
调查数据显示,研究者正通过积累 “职业肌肉记忆” 来应对这种不确定性:他们逐渐了解 AI 擅长哪些任务、容易在哪些地方出错,以及每种输出需要多少监督。这种通过日常使用和偶尔失误积累的隐性知识,可能会像统计素养或调查设计原则一样,成为该行业的核心能力。
然而,根本矛盾仍未解决。研究者的工作节奏比以往任何时候都快,能在几小时内而非几周内交付洞察,还能处理没有 AI 就无法完成的分析任务。但与此同时,他们也承担着前代研究者从未面临的新责任:在强大却不可预测的机器与做出数百万美元决策的商业领导者之间,充当质量控制层。
行业已做出选择,拥抱 AI 变革。但更艰难的挑战还在后面:证明人类判断力能跟上机器速度,并且这种不稳定合作所产生的洞察,值得客户给予信任。
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/98-shi-chang-yan-jiu-zhe-ri-chang-shi-yong-ai-que-you-si