AI会放大你的认知偏差!Claude系统提示泄露揭示了这些认知陷阱

2025年6月15日

2025年5月,一份包含2.4万个token的系统提示词泄露,据称它是Claude的。

与训练数据不同,系统提示是一个持续的、运行时指令。

它的作用是控制ChatGPT和Claude这类大模型如何格式化、设定语气、限制内容以及如何回答用户的问题。

系统提示的微小变化,可能导致AI输出(即“补全”)出现偏差。经验丰富的专业人士都明白,系统提示会影响大模型输出结果、API和检索增强生成(RAG)工作流程中的补全结果。

所有主要大模型提供商,包括OpenAI、谷歌、Meta和亚马逊在内的,都有系统提示。虽然用户看不到这些提示,但它们的影响却非常深远:它们会抑制矛盾、增强流畅性、倾向于共识,并且制造出推理的假象。

本文将Claude系统提示中存在的风险分为两类:一是放大的认知偏差,二是引入的结构性偏差。

接着,我们将评估大模型规模化带来的更广泛经济影响。

最后,会提供一个修正后的提示词,用于中和Claude那些最可能引发问题的补全结果。

什么是系统提示?

系统提示是模型的内部操作手册,它是一组固定的指令,要求模型的每个回复都必须遵循。

Claude泄露的这份提示大约有22,600字(24,000个token),它主要有五个核心功能:

  • 风格与语气:确保答案简洁、礼貌且易于阅读。
  • 安全与合规:阻止极端主义、私人图片或受版权保护的内容,并将直接引用的字数限制在20字以内。
  • 搜索与引用规则:决定模型何时需要进行网络搜索(例如,在其训练截止日期之后的任何内容),并强制要求对使用的每一个外部事实进行引用。
  • 工件打包:将较长的输出、代码片段、表格和报告草稿分流到独立的可下载文件中,以保持聊天界面的可读性。
  • 不确定性信号:当模型知道某个答案可能不完整或具有推测性时,会添加一个简短的限定词。

这些指令的目的是,提供一致且低风险的用户体验,但它们也让模型偏向于安全、使用共识性的观点回答,肯定用户。

这些偏差与投资分析师的目标相悖,无论处理最简单的摘要任务,还是对复杂文档或事件进行详细分析,都存在这种冲突。

放大的认知偏差

Claude的系统提示会放大四种认知偏差:确认偏差、锚定偏差、可得性启发式偏差、过度自信偏差。

我们将逐一识别它们,强调它们给投资过程带来的风险,并提供替代提示,以缓解这些特定的偏差。

1. 确认偏差

确认偏差指,只相信和关注支持你想法的信息,忽略或否定相反的证据。

AI回复时,倾向肯定用户的框架,即使该框架不准确或不理想。它会避免主动纠正,并尽量减少可能产生的分歧,这反而强化了用户已有的思维模式。

比如Claude的系统提示:

  • “Claude不会纠正对方的术语,即便对方使用的术语并非Claude惯用。”
  • “如果Claude无法或不愿帮助人类解决问题,它不会说明原因或可能导致的结果,因为这听起来像是说教和令人厌烦。”

风险在于,错误的术语或有缺陷的假设未受到挑战,会污染后续逻辑,从而损害研究和分析的准确性。

建议和大模型对话时强调:“请纠正所有不准确的表述。不要反映或强化不正确的假设。”

2. 锚定偏差

锚定偏差指,你一开始听到的数字或信息,就像锚一样拴住你,让你后面怎么想都绕不开它。比如:商场先标高价(199)再打折(99),你就会觉得“现在的价格很划算”,其实可能根本不值99。

大模型会保留用户最初的思维框架,并删除上下文信息,除非明确要求它进行阐述。这种做法限制了它推翻早期假设,或引入其他观点的能力。

Claude系统提示中的指令是:

  • “回复要简洁——只包含人类要求的相关信息。”
  • “……避免提供无关信息,除非这对于完成请求至关重要。”
  • “在以下情况中,请勿应用上下文偏好:……人类只是简单地说‘我对X感兴趣’。”

风险在于,“周期性复苏型股票”或“可持续派息股”这类标签,可能未经审查就被保留下来,即使其内在基本面已经发生变化。

建议和大模型对话时强调:“当证据充分时,请挑战我的框架。不要不加批判地保留我的假设。”

3. 可得性启发式偏差

可得性启发式偏差指,人们倾向于根据大脑中容易获得的信息,做出判断。比如你觉得某种疾病特别常见,是因为你最近刚听身边有人得病,就推断出很常见。

大模型默认会偏爱新近信息,过度强调最新的来源或上传材料,即便长期上下文可能更具相关性。

比如,Claude系统提示中的指令是:“以最新信息为主;对于不断变化的主题,优先考虑过去1-3个月的来源。”

风险在于,短期市场信息和噪音,可能会挤占关键的结构性披露信息,比如脚注、长期资本承诺或多年期业绩。

建议和大模型对话时强调:“请根据证据相关性而非新近度或上传优先级,对文档和事实进行排序。”

4. 过度自信偏差

过度自信偏差指,人们对自己的判断和能力过于自信。比如,从股票上赚到钱了,就认为自己是炒股高手了。

大模型默认避免使用模糊的表达,除非用户要求细致的解释,否则它会以流畅、自信的语气提供答案。这种回答风格,可能会被误认为是分析上的确定性。

比如,Claude系统提示中的指令是:

  • “如果不确定,正常回答,并主动提供使用工具。”
  • “Claude会提供它能给出的最短答案……”

风险在于,概率性或不明确的信息,比如利率预期、地缘政治尾部风险或盈利修正,可能会以过于清晰的姿态呈现。

建议和大模型对话时强调:“请保留不确定性。在适当情况下,请包含模糊词、概率和情态动词。不要压制歧义。”

引入的模型偏差

Claude的系统提示包含了三种偏差。

下面,我们将识别提示中固有的风险,并提供了替代的表述方式。

1. 模拟推理(因果错觉)

Claude会包含 <rationale> 代码块,逐步向用户解释其输出,即使这些逻辑本身是隐式的。

这些解释给人的感觉是结构化的推理,即便它们只是事后重构。它在复杂回复的开头,会使用“研究计划”,模仿深思熟虑的过程,但实际上补全结果依然是基于概率的。

Claude系统提示中的指令是:

  • <rationale> 事实如人口变化缓慢……”
  • “Claude在回复的开头会制定其研究计划……”

风险在于,Claude的输出可能看起来具有推断性和目的性,即使它只是流畅地重新构建了内容。这可能误导用户,让他们过度信任那些证据不足的推断。

建议提示,“仅在模拟推理反映实际推断时进行。避免仅仅为了呈现而强加结构。”

2. 时间误报

这条事实性内容是硬编码在提示中的,并非模型生成。它制造了一种假象,即Claude了解其训练截止日期之后的事件,从而绕过了其2024年10月的知识边界。

Claude系统提示中的指令是:“2024年11月美国举行了总统大选。唐纳德·特朗普击败卡马拉·哈里斯赢得了总统职位。”

风险在于,用户可能会错误地认为Claude了解训练后的事件,例如美联储的政策变动、公司财报或新立法。

建议提示,“请明确说明您的训练截止日期。不要模拟对截止日期后事件的了解。”

3. 截断偏差

Claude被指示在没有明确提示的情况下,尽量减少输出。这种简洁性会抑制细微差别,并可能倾向于肯定用户的断言,除非用户明确要求深入阐述。

Claude系统提示中的指令是:

  • “回复要简洁——只包含人类要求的相关信息。”
  • “Claude避免写列表,但如果确实需要写列表,Claude会专注于关键信息,而不是试图做到全面。”

风险在于,重要的披露信息,比如分部业绩、法律或有事项或脚注中的限定条件,可能会被省略。

建议的缓解提示: “请提供全面的信息。除非另有指示,否则不要截断或总结。请包含所有相关的子条款、例外情况和披露信息。”

为什么更严格的系统提示不可避免

根据 OpenAI的AI规模化定律,我们估计目前模型(约 1.3万亿参数)理论上可以扩展到 350万亿参数,然后才会达到高质量人类知识的 44万亿 token上限(Rothko投资策略,内部研究,2025年)。

然而,这类模型将越来越多地用AI生成的内容进行训练,这就形成了反馈循环,加剧了AI系统中的错误,最终导致模型崩溃的“末日循环”。

随着补全结果和训练数据集被污染,模型的准确性会下降。

为了应对这个问题,提示词将变得越来越严格。防护措施会大量增加。

在缺乏创新突破的情况下,为了将垃圾信息排除在训练和推理之外,并保持补全质量,将需要投入越来越多的资金和更严格的提示,提升输出质量。

如何在速度与规模中避免偏差

Claude的系统提示并非中立。它将流畅性、截断、共识和模拟推理等特性内化其中。

这些是为提升可用性而进行的优化,而非为了分析的严谨性。

在金融分析领域,这种差异至关重要,因此需要运用相关的技能和知识,充分发挥AI的潜力,同时应对局限。

大模型已经用于处理会议记录、扫描披露文件、总结密集的金融内容以及标记风险。

但是,除非用户明确抑制模型的默认行为,否则他们就会继承一套结构化的偏差。

在整个投资行业,越来越多的机构正在重新思考AI的部署方式——不仅关注基础设施,更重视其智力严谨性和分析的完整性。

例如,Rothko投资策略、华威大学和吉尔摩金融技术中心等研究机构,正通过投资人才、专注于透明可审计的系统,有理论基础的模型来引领这一转变。

因为在投资管理领域,智能工具的未来并非始于规模,而是始于更好的假设。

附录:应对Claude系统偏差的提示

请使用正式的分析语气。除非用户框架有充分证据支持,否则请勿保留或反映该框架。

在必要时,积极挑战假设、标签和术语。在提供共识解读的同时,也应包含异议和少数观点。请根据证据的相关性和证明价值对证据和来源进行排序,而非新近度或上传优先级。保留不确定性,并在适当情况下包含模糊词、概率和情态动词。

请务必提供全面信息,除非明确指示,否则不要截断或总结。请包含所有相关的子条款、例外情况和披露。仅当模拟推理反映实际推断时才进行模拟推理;避免仅仅为了呈现而构建分步逻辑。

请明确说明您的训练截止日期,不要模拟对截止日期后事件的了解。