01 · 期待管理

为什么对 AI 期待过高反而会让你失望

第一次用 ChatGPT 或类似工具的人,往往会有两种截然不同的反应:一种是「这东西简直是神仙」,另一种是「就这?根本不好用」。

这两种极端反应,都源于同一个问题——期待和现实不匹配。

觉得 AI 是神仙的人,往往在用它试了几次之后会转为失望:「不是说能写文章吗,怎么写出来这么普通?」「不是说能回答问题吗,怎么有时候答非所问?」然后从「AI 无所不能」跳到「AI 根本不行」这个极端。

期待管理是 AI 使用最重要的第一课。

AI 既不是神仙,也不是废物。它是一个在大量文本数据上训练出来的语言模型,擅长某些任务,不擅长另一些任务。对它的能力有过高期待,用错了场景,然后因为失望而彻底放弃——这是大多数人没能持续用好 AI 的根本原因。

反过来,如果你从一开始就知道它能做什么、不能做什么,用它擅长的方式去用它,你会发现它确实是一个强大的工具——但这个「强大」是有边界的。

02 · 过度神化

AI 最常见的「过度神化」有哪些

关于 AI 的过度神化主要来自媒体报道和营销宣传,整理出最常见的五类:

神化一:AI 会「思考」

AI 生成文字的过程是统计预测,不是思考。它不知道自己在说什么,只是在计算「下一个词最可能是什么」。它没有意图、没有动机、没有自我意识。

神化二:AI 说的都是对的

这是最危险的误解。AI 有幻觉问题——它会非常自信地编造不存在的事实、数字、人名、文献。它追求的是「听起来正确」,不是「事实正确」。

神化三:AI 可以完全替代某个职业

AI 可以替代某些具体任务,但一个职业包含几十上百种不同任务。AI 能做一部分工作,但「替代整个职业」在大多数场景下还是夸张宣传。

神化四:AI 知道所有事情

AI 的知识有截止日期(训练数据的日期),它不知道最新发生的事情,不知道你的公司、你的工作、你的具体情况。它是一个通用的语言模型,不是实时查询系统。

一个特别需要警惕的场景:用 AI 查法律、医疗、金融等高风险领域的具体问题。AI 生成的答案看起来专业、流畅、自信,但完全可能是错误的。在这些领域,AI 只能作为了解概念的起点,绝对不能作为最终决策的依据。
03 · 正确期待

建立对 AI 正确期待的方法

知道 AI 被过度神化的地方之后,怎么建立对 AI 实际能力的正确认知?

一个简单的心法:把 AI 当成「一个特别勤奋但缺乏常识的实习生」。

这个实习生读完了全世界所有的书和文章,所以知识面极广;它特别听话,你让它做什么它就做什么;但它没有真实世界的经验,不知道自己的边界,有时候会把完全不存在的事情说得像真的一样。

知道这一点,你就知道该怎么用它了:给它明确的任务、清晰的指令、充足的背景信息,然后你作为「上级」来审核它的输出。这样人机配合的效率是最高的。

入门阶段的三个具体建议:
第一,先从低风险场景开始。用 AI 帮你写生日祝福、写邮件草稿、翻译一段旅游文字——这些场景出错的后果几乎为零,你能放心验证 AI 的输出,慢慢积累对它的直觉。

第二,永远核实重要信息。如果 AI 给你的信息涉及重要事实——某个日期、某条法规、某个数据——自己去查证一遍。养成这个习惯能避免被 AI 幻觉误导。

第三,关注它擅长什么,而不是抱怨它不擅长什么。AI 不擅长创意爆发、不擅长真正创新——但它极度擅长信息整合、快速初稿、格式模仿。找对你自己的使用场景,比学任何技巧都重要。
记住这几点就够了