AI世界的秘密指令:各大模型的泄露提示词合集

2025年4月28日

这个名为"leaked-system-prompts"的项目收集了各大AI模型的泄露系统提示词,就像找到了AI世界的秘密食谱。

系统提示词是什么?简单说就是公司给AI下的"行为指令",告诉它能说什么、不能说什么、用什么风格回答。

这些指令平时对用户是隐藏的,但它们决定了我们与AI互动的整个体验。

这个仓库收集了从2022年底到2025年初超过70个模型的系统提示,包括ChatGPT全系列、Claude家族、Google的Gemini、xAI的Grok,还有GitHub Copilot、Discord的Clyde等专用AI助手。

浏览这些文件时,真有种看到了不该看的东西的感觉。

通过这些提示词,我看到了ChatGPT如何处理敏感话题,Claude各版本的安全措施变化,以及各家公司如何塑造AI的"性格"。

通过这个仓库,我学到了不少东西:

  • 各公司如何用不同策略处理相同问题
  • AI安全措施的逐步演进
  • 顶级公司的提示工程实战技巧

对开发者和研究者来说,这是份难得的参考资料。

如果你正在开发AI应用,这些提示词可以帮你定义自己AI助手的行为模式。

我最喜欢比较不同版本之间的变化。从Claude 2.0到3.7,从早期ChatGPT到GPT-4o,能清晰看到AI技术的迭代路径和各公司策略的调整。

这些提示词像是打开了AI的后台管理界面,让我们一窥各大公司如何在幕后"训练"他们的AI产品。如果你也对AI感兴趣,周末不妨去挖掘这个宝库。

项目地址:leaked-system-prompts