用AI取代自己
我是如何学会停止担忧并爱上GPT的。
我知道AI草稿出了问题,是在我同意每一句话却完全不信任它的时候。
它有着正确的形状:自信的开头、整洁的工作流、乐观的结论。它使用了所有体面的词汇:生产力、创造力、协作、管道。听起来像是有人用一份关于我实际体验的宣传册,替换了我的实际体验。
而这,恰恰就是整个问题所在。
AI写作的危险不在于它总是糟糕。危险在于,它可以在尚未赢得一个观点之前,就变得看似流畅。
这篇文章正是那个阶段的产物。我当时用GPT来生成课程大纲、横幅概念、测验提示、重写、摘要和翻译实验。有些效果不错,有些节省了数小时,有些则产出了那种平淡无味的专业糊状物——让段落里的每个人都听起来像利益相关者。
我需要的不是更少的AI,而是更多的摩擦。
第一道伤疤
第一个真正的错误,是把“看起来完成”当成了思考的证据。
我会要求一个课程大纲,十秒钟内就得到一份条理清晰的东西。那种清晰令人沉醉。糟糕的空白页让它的空洞显而易见;而一份不错的AI草稿,却用良好的语法掩盖了缺失的决策。
然后我审阅它,发现常见的问题:
- 例子在技术上正确,但毫无记忆点
- 测验问题测试的是词汇,而非判断力
- 解释回避了学习者真正需要的那一个难点
- 语气已经滑向了企业式的日光
没有什么是灾难性的错误。那才是最可怕的部分。一切都太“恰到好处”了。
AI真正擅长的事
一旦我不再把初稿当作成品,AI就变得有用得多。
我把它当作一种压力工具来使用:
- 找出模糊部分:“这节课中有哪些主张缺乏支撑?”
- 生成错误答案:“一个聪明的初学者会因为什么错误理由选择什么?”
- 改变受众:“向一个从未用过Postgres的React开发者解释这个。”
- 制造对比:“给出三个这个建议失效的例子。”
- 压缩混乱:“把这些笔记变成大纲,不要添加新主张。”
这些提示并不取代判断力。它们让判断力更容易施展。模型非常擅长生成表面。我的工作是决定哪些表面值得变成结构。
管道,加上护栏
这个幸存下来的工作流,远不如旧版本那么光鲜:
-
收集原始素材
我从笔记、代码、链接、截图以及我试图解决的具体学习者困惑开始。 -
让AI组织,而非决策
它能归纳想法、揭示缺失的步骤、建议章节。我不会让它不经过斗争就选定论点。 -
自己写尖锐的部分
开头、决策规则、示例和结尾需要人的品味。这些地方是文章赢得信任的关键。 -
用AI拷问草稿
我会问:哪些听起来很泛泛?哪些假设过多?持怀疑态度的读者会反对什么?示例在哪里失效? -
保持作品诚实
如果一个段落可以出现在任何SaaS博客上,那就重写或删除。
最后一条规则承担了大量工作。
测验改变了我的想法
写测验是AI真正对我有用的地方。
不是因为它能写出完美的问题。它不能。它喜欢明显的干扰项、意外的歧义,以及轻描淡写绕过误解的解释。
但它能快速生成一个可能的错误答案集合。然后我可以看着列表问:其中哪些代表了真实的学习者错误?
这就是有用的协作。模型产出黏土。我来决定它是碗、砖头还是垃圾填埋场。
用“取代自己”来思考,这个框架错了
标题是个玩笑,但框架错了。
我并不是在用AI取代自己。我是在取代自己流程中那些早已机械化的部分:初稿分组、替代措辞、翻译支架、测验选项草稿、图像概念、摘要整理。
我无法取代的部分,正是读者在缺失时能察觉到的部分:品味、伤疤、优先级、怀疑精神,以及愿意说“这个听起来不错,但它是假的”的勇气。
AI让我更快了。更重要的是,它让我更容易看到自己的一些弱点。代价是,我现在必须更加刻意地避免发布那些仅仅“表现得像散文”的散文。
这个交易,我能接受。