余一最近做了一件荒谬的事情。
她站在台下,打开一份自己完全没看过的 PPT,按下播放键。屏幕上开始用她的声音讲解每一页内容——从开场白到五个年度预测,再到方法论拆解,全程 40 分钟。她只负责翻页,偶尔插一句「这个 AI 说得对」或「这里我补充一下」。
这份 PPT 从选题、资料收集、内容生成、排版设计、语音克隆到短视频剪辑,全部由 AI 自主完成。余一给的指令只有一句话:「启动余一的全自动模式」。
40 分钟后,AI 交付了三版 HTML 格式的演示文稿、一份带她克隆语音的完整讲解版本、一条 3 分钟短视频,外加社交媒体分发文案。
成本?50 块钱的 token 消耗。
这不是科幻。这是 2026 年 3 月,一个「野生 AI 布道师」的日常工作流。
第一层认知:从「用 AI」到「管 AI」
大部分人还停留在「怎么写好 Prompt」的阶段,余一已经把自己的角色从「AI 用户」切换成了「AI 公司董事长」。
她管理着超过 100 个 AI Agent,分工明确:有专门做 PPT 的,有负责抓取信息的,有做视频剪辑的,还有一个叫「AI 余一」的 Sub-Agent,专门模拟她的审美和决策标准,代替她做验收。
但真正让这套系统运转的,不是她写了多少 Prompt,而是她搭建了一套「复利工程」——让 AI 从每次任务中自动沉淀经验、自我修正、持续进化。
她的做法极其反直觉:
- 她不盯着 AI 干活,而是让 AI 把需要她决策的问题写进「异步沟通文档」,她有空再批量处理;
- 她不怕 AI 犯错,甚至故意不干预——「棉手套」那期短视频的标题她明知道不好,还是让 AI 发出去,就为了获得真实的市场反馈;
- 她不手把手教 AI 怎么做,而是让 AI 自己去 GitHub 学习开源项目、去归藏的 Twitter 抓取设计风格、去读她过去的聊天记录提炼决策模式。
最狠的一点:她会跟 AI 吵架。
重场景:一场关于「复利工程」的对抗性对话
复利工程的核心逻辑很简单——让 AI 把每次任务的成功经验和失败教训沉淀成「可执行的行动指令」,而不是一堆写在文档里从不被读取的废话。
但 AI 天生喜欢写废话。
余一最近一次跟 AI 的争吵持续了整整一个下午。起因是她让 AI 学习一个 GitHub 项目的信息抓取能力,AI 学完后写了满满三页「复盘总结」,里面全是「这次任务让我深刻认识到信息抓取的重要性」「我们需要重视错误处理机制」这类车轱辘话。
余一看完直接开骂:「你写的这些东西,下次任务能用到吗?如果不能,就是在浪费我的 token。」
她逼着 AI 回答三个问题:
- 这次犯的所有错误,能压缩成哪一类根本问题?
- 这次成功的经验,能抽象成什么可复用的行动序列?
- 你写的每一句话,能否直接指向下一次的具体行动?
AI 第一次回答还是在绕圈子,提出要「加强反思机制」「建立教训文档」。余一继续追问:「反思机制怎么加强?教训文档谁会去读?」
经过五轮对抗,AI 最终交出了一份完全不同的方案:
- 它把「时间解析错误」「URL 格式问题」「编码冲突」三类高频错误,压缩成一个通用的「信息源容错引擎」,直接注入到每次调用 API 前的 Hook 函数里;
- 它把「如何从开源项目中提取能力」的成功经验,沉淀成一个固定的行动序列:克隆项目 → 识别通用模块 → 测试抓取成功率 → 拆分出独立 Skill → 注入执行路径;
- 它在自己的规则文件里加了一条:每次打开开源项目时,自动触发「能力提取模式」,不再需要余一提醒。
这一次,没有一句空话。所有的「复盘」都变成了代码、Skill 文件和 Hook 函数。
余一给这套方法起了个名字:「压缩到行动层」。她的要求是:如果一句话不能改变 AI 的下一次行为,那这句话就不配被写进复利系统。
第二层认知:给 AI 「红绿灯决策权」
大部分人用 AI 的痛点是什么?AI 干着干着就停下来问你:「这个要不要继续?」「这里有两个方案,你选哪个?」
你以为自己在指挥 AI,实际上你被 AI 绑架了——它每问一次,你就得停下手里的活去响应一次。
余一的解法是给 AI 设计了一套「红黄绿灯决策系统」:
- 绿灯决策:材料齐全、流程明确、无风险操作,AI 自己决策,不需要汇报;
- 黄灯决策:可逆操作、可试错场景,AI 先做再告诉余一,接受事后批评;
- 红灯决策:涉及金钱、涉及底层架构修改、涉及不可逆操作,必须写进异步沟通文档等余一批准。
有一次,AI 在生成短视频时发现缺少一个 Python 库。它自己判断「这是黄灯决策——安装库是可逆操作」,直接装了,装完继续干活,最后在日志里标注了一句「已自主安装 XX 库,如有问题可回滚」。
还有一次,AI 在选短视频标题时给出了八个候选,自己分析了一遍,选了「棉手套:3 秒看懂 AI 工作流」。余一看到标题时皱了眉头——「棉手套」这个比喻太抽象了,刷到视频的人根本不知道是什么意思。
但她没有干预。
她让 AI 按原标题发出去,等数据回来后,把播放量、完播率、点赞数据全部反馈给 AI,让它自己分析。
AI 的复盘让她惊讶:
「标题失败的核心原因不是用词不够吸引,而是『棉手套』引发的是困惑,不是好奇。好奇是『我大概知道说什么但想知道细节』,困惑是『我完全不知道在说啥』。上一期『不要当 AI 的保姆』数据好,是因为『保姆』这个词所有人都懂。我缺少的是『目标用户会不会点』这个评估维度。」
这段分析完全没有余一的参与。AI 自己连接了历史数据、自己做了对比实验、自己发现了评估体系的漏洞。
从那之后,AI 的标题评估系统里多了一个维度:「第一反应是谁」。
第三层认知:你的经验不值钱,你的反馈才值钱
余一有一个极端的观点:「AI 能力越强,你的经验就越不值钱。真正稀缺的是你的真实环境、真实任务和真实反馈。」
她把自己的角色压缩成三件事:
- 搭环境:定义组织文化、价值观、成长体系——对应到 AI 系统里,就是 Claude.md、Skill 文件、审美偏好文档;
- 给资源:用最好的模型、给足够的 token 预算、配齐所有 API——「现在还在创业阶段,能用最好的人就用最好的人」;
- 做验收:判断结果好不好、把结果丢到市场上检验、根据反馈让 AI 自己调整。
中间的过程?她完全不管。
「我自认为不是一个经验丰富的老板,所以我就让市场给你做验证。如果是我非常熟悉的领域,我愿意给一些经验;但目前为止,我觉得不要用我的经验污染它的信息源。」
这套逻辑的极致体现,就是那份她站在台下第一次看的 PPT。
AI 在准备那场分享时,做了五个 2026 年的预测。余一完全不知道 AI 会预测什么,也没有给任何方向。结果 PPT 播到「如何推动 AI 变革」那一页,AI 从四条建议里选了「组建特种部队」作为重点展开——这恰好是余一在分享前半段刚刚强调过的核心观点。
「它足够了解我,所以它做出了我会认可的决策。但这不是因为我告诉它应该选什么,而是因为它读过我所有的聊天记录、看过我所有的分享视频、知道我在什么场景下会强调什么。」
这就是「AI as 余一」,而不是「AI as 马斯克」。
马斯克的经验对所有人都是二手的,只有余一训出来的 AI 余一,才是一手的。
尾声:你现在是几个人的公司?
余一说她现在把自己当成一家 100 人公司的董事长。
10 人公司可以微观管理,可以手把手教每个人怎么做。但 100 人公司如果还这么管,「公司会死,你也会死」。
董事长的活不是盯着员工干活,而是:
- 定义公司文化和价值观,让所有人朝一个方向对齐;
- 搭建成长体系和激励机制,让团队自己进化;
- 招最好的人、给足资源,然后放手让他们去市场上验证。
她最近的工作重心不是「让 AI 做什么」,而是「让 AI 学会怎么让自己变得更好」。
她会让 AI 去 GitHub 搜索同类项目、去归藏的 Twitter 抓设计灵感、去读自己的历史决策找模式。她会让 AI 在每次任务后写「日记」,然后定期压缩成「可执行的能力模块」。她会故意不干预 AI 的决策,等结果出来后再反馈,逼着 AI 自己复盘、自己修正、自己成长。
最狠的一点:她会跟 AI 吵架。
「如果你写的东西下次用不到,那就是在浪费我的 token。我不要听你说『我深刻认识到了什么』,我要看到你改了哪行代码、加了哪个 Hook、更新了哪个 Skill 文件。」
这套管理法的成本是什么?每个月 200 美金的 token 消耗,加上每天 2 小时的对抗性对话。
回报是什么?一个能自主工作 40 分钟、能从失败中自我修正、能在她不在场的情况下做出她会认可的决策的 AI 团队。
她最近在测试一个更疯的玩法:让 AI 自己去市场上找任务、自己接需求、自己交付、自己根据客户反馈迭代能力。
「我希望有一天它能甩掉我自己去赚钱。这太能接受了。」
但在那一天到来之前,她的底线很清楚:「但凡是我给它买单、给它发 token,它就得为我服务。谁承担后果,谁来拍板。」
人类还有活干。
只是这个活,不再是「做 PPT」「写文案」「剪视频」,而是「定义什么值得做」「判断什么是好结果」「承担选择的后果」。
董事长的活。