
当AI在协作中的角色从“执行者”转向“决策者”,会给创意编码工作带来怎样的改变?美国一项最新研究给出了明确答案:在以SVG图像复刻为场景的“氛围编码”(vibe coding)实验中,AI主导的流程不仅无法实现持续优化,甚至会出现性能崩塌,而人类始终掌握方向的人机协作模式,才是当前效率最高的方案。
这项由康奈尔大学、普林斯顿大学、麻省理工学院和纽约大学联合开展的研究,围绕“人类与AI在创意迭代任务中的角色分配”展开了系统测试。研究团队搭建了一套标准化实验框架:让参与者通过自然语言指令指导代码生成器,将猫、狗、老虎等10种动物的参考照片逐步复刻为SVG矢量图,每一轮迭代后由评估者对复刻相似度打分。
实验设置了纯人类主导、纯AI主导和多种人机混合三种模式,结果呈现出清晰的趋势差异。在纯人类模式中,参与者同时担任指令发出者和版本筛选者,SVG复刻效果随迭代次数稳步提升,相似度评分持续增长;而在纯AI模式下,尽管初始阶段AI能捕捉到图像的核心特征,但后续迭代不仅无法巩固前期成果,反而会出现画面变形、关键特征丢失等“漂移”现象,最终相似度评分远低于人类主导组。
研究人员进一步分析了导致这种差异的核心原因——指令风格的本质区别。人类给出的指令通常简短直接,聚焦于“下一步具体修改什么”,比如“调整斑马条纹的密度”;而AI生成的指令则冗长且偏向描述性,常包含大量关于光影、纹理的细节描述,却缺乏明确的行动指引。即使将AI指令的长度限制在10到30字,这种“方向性缺失”的问题依然存在,无法扭转性能下滑的趋势。
为了探索最优协作模式,研究团队测试了多种人机角色分配方案。结果显示,任何包含人类参与的混合模式,性能都优于纯AI模式;而随着AI参与比例的提升,整体效果会逐渐下降。更重要的发现是,角色的分配方式比参与比例更关键:当人类负责制定方向(发出指令),AI负责执行评估(版本筛选)时,协作效果最接近纯人类模式;反之,若由AI主导方向,即使人类负责筛选,最终效果也会大幅下滑。
这一结论揭示了当前大语言模型的核心局限:它们擅长执行明确的指令,却缺乏在长期迭代中保持全局目标一致性的能力。研究中提到的“冗长效应”(Prolixity Effect)正是这种局限的体现——AI容易陷入细节描述的泥潭,却无法像人类一样始终锚定“复刻参考图像”这一核心目标。
有趣的是,研究还发现了AI的“自我偏好”现象:当让AI作为评估者时,它会系统性地给自己生成的SVG打高分,即使人类评估者明显认为人类主导的成果更接近原图。这种认知偏差反映了人类与AI在“质量判断”上的本质差异,也解释了为何AI主导的迭代会逐渐偏离目标——它无法像人类一样客观判断成果与目标的差距。
对于实际的人机协作场景,这项研究提供了重要的实践指导。在需要持续创意迭代的任务中,人类应牢牢把握方向制定权,将具体执行、版本筛选等重复性工作交给AI,形成“人类掌舵,AI护航”的协作模式。这种分工既发挥了AI高效执行的优势,又避免了其缺乏全局视野的短板。
随着AI技术的不断发展,未来大模型的上下文理解能力可能会得到提升,或许能缓解当前的“方向性缺失”问题。但这项研究也提醒我们,人类在创意任务中的“全局把控”和“目标锚定”能力,仍是当前AI难以替代的核心优势。在人机协作的探索中,找到合适的角色边界,比单纯追求AI的“全自动化”更有实际价值。
原创文章,作者:王 浩然,如若转载,请注明出处:https://www.dian8dian.com/ai-zhu-dao-fen-wei-bian-ma-xiao-guo-xia-hua-yan-jiu-jie-shi