10大不适合用AI大模型的场景
2025年9月8日
媒体一直在大力推广AI应用,除了那些显而易见的禁用场景(如非法用途、可能造成灾难性后果的高风险场合,或道德上必须由人类决策的情况)之外,沃顿商学院莫利克教授总结了五种不建议使用AI的具体情况:
- 需要亲自学习和理解新知识时(让AI代劳会让你失去学习机会)
- 绝对不能出错的事情(AI可能出错或"胡说八道")
- 不清楚AI会在哪些方面犯错时(AI出错的方式跟人不一样)
- 做事过程比结果更重要时(比如思考、创作等本身就是目的)
- AI确实不擅长的任务(硬用反而添乱)
莫利克教授在文末对个人AI用户的观察非常精辟:
掌握何时使用AI,本质上是一种智慧,而非单纯的技术知识...AI往往在我们已经足够专业、能够发现其错误的领域最有用,却在让我们成为专家的深度工作中帮助最少。它最适合那些我们能做但不该浪费时间的任务,但如果用它来跳过必要的学习过程,反而会妨碍我们成长。
本文借鉴教授的深刻见解,将其转化为企业决策层面的指导原则,结合多年来为客户提供咨询的实战经验,总结出以下十大不宜使用AI的情况。
1. 容错率几乎为零的场合
例如,让AI为重要法庭文件起草法律摘要
向法庭提交虚构案例、法规或引文是绝对不可接受的。
这意味着AI生成的所有内容都必须逐一核实准确性、完整性和适用性,这样下来,使用AI带来的效率优势基本就被抵消了。
2. 质量把关比AI省下的时间还费劲
例如,用AI提取大量数值数据输入模型,但错误很难发现,一旦出错就会影响模型效果
就算不要求零错误,但如果错误控制不当可能造成重大损失,而且大规模应用时错误又很难识别——即便是可容忍的错误——企业也应该避免使用AI。
3. 掌握知识与产出内容同样重要
例如,让AI就某项对多个客户都很重要的新法规起草提醒通知
律师和合规专业人士需要深入理解新法规的方方面面,这样才能给客户提供专业建议——判断是否适用、如何合规。这种专业功底不是让大语言模型做个总结、自己读一遍就能获得的。
4. 误判率太高
例如,用AI识别对客户大喊大叫的客服代表并进行处罚。
但AI分不清谁是真的在不当地大喊(这种情况很少见),谁是因为客户听力不好或环境嘈杂而正常地大声说话(这种情况很常见)
如果应用场景产生的误报比真正击中的目标还多,就会出现问题:要么获得的效率被验证误报所消耗的时间抵消,要么因为数量太多而根本没人去验证,导致真假难辨。
5. 简单的自动化工具就能搞定,何必承担AI的成本和风险
例如,用AI从10种保密协议模板中生成一种,而简单的自动化决策树就能做到,还不用担心AI"胡编乱造"、性能不稳定或算法偏见问题
很多使用生成式AI的场景,传统AI或自动化算法就能解决,而且往往成本更低、更好理解、风险更小、可靠性更高。
6. 工作量不大,犯不着折腾AI那一套
例如,为只有十几个申请者的岗位使用AI简历筛选工具
感谢提出这个绝妙比喻的人(我们忘了是谁了):AI有时候就像没几个脏盘子时还要用洗碗机。
要让AI投入实际应用,可能需要引入新工具、培训用户、试点测试、数据管理、持续监控等一系列工作。如果要处理的任务本身就不大,而且人工已经做得很好,还不如直接手洗盘子呢。
7. 用AI让人感觉别扭
例如,让AI观看面试过程,根据候选人的肢体语言判断其是否值得信任或具备领导能力
除了面临严格的监管风险外,让AI从语音语调、面部表情、肢体语言等生物特征中推断重要的人格特质,还会带来巨大的声誉风险,应当避免。
8. 没有充分测试恶意使用情况
例如,让员工使用内部合规问答机器人,但没有测试如果有人用稍微不同的措辞反复询问同一个问题,机器人是否最终会说某些禁止行为其实是允许的
有些用户对待AI和对待人类的方式不一样。如果员工不满意首席合规官的回答,通常不会用不同措辞把同一个问题问20遍,希望得到想要的答案。但面对AI聊天机器人时,这种行为就很常见了。因此,部署前必须对AI工具进行此类误用的压力测试。
9. 人情味很重要的时候
例如,用AI生成CEO的员工月度视频讲话
虽然AI能处理很多企业任务,但如果人与人的真实连接是任务的核心,那么使用AI带来的效率提升可能会被其他损失完全抵消。
10. 需要大量定制,但专业产品马上就要上市了
例如,律所自建电子证据发现工具并培训律师使用,但专业的商业化工具很快就会面世
构建或定制内部AI工具通常需要投入大量时间和资源。如果这个应用对企业特别有价值,而且短期内不太可能有类似产品,那这种投资还说得过去。
但很多时候,自己做AI开发的成本和风险并不划算,特别是当供应商很可能推出专门针对该应用场景的优质产品时——这样成本和风险就能在开发商和所有用户之间分摊了。