Peter Steinberger 在 2025 年 11 月花了一个小时搭了个原型。三个月后,这个东西叫 OpenClaw,GitHub 星标 18 万,是人类历史上增长最快的开源项目。
一个人。
不是一个团队,不是一轮融资,不是一个有 50 名工程师的创业公司。一个 41 岁的奥地利人,坐在自己家里,用语音对着 AI 说话,说到失声。1 月份一个人提交了 6,600 次代码。同时运行 4 到 10 个 AI 智能体并行开发。
这些细节来自 Lex Fridman Podcast #491。Lex Fridman 是 MIT 研究员,他的播客是英语世界最有影响力的长形式访谈节目之一——常年对话 Elon Musk、Sam Altman、Mark Zuckerberg 这个量级的人物,单期动辄三四个小时的深度对谈。他给 Peter 做了一期超过三小时的访谈,是 Peter 迄今最完整的公开叙述。
这不是鸡汤故事。这是一个关于杠杆的故事——当 AI 把个人产能的天花板炸掉之后,到底会发生什么。对创业者、产品经理、自由职业者,对任何一个想用 AI 放大自己的人,这段经历值得仔细拆解。不是为了模仿——稍后我会说为什么你大概率不应该模仿——而是为了看清一种新的可能性的边界在哪。
一小时原型的真相
2025 年 4 月,Peter 开始密集实验各种 AI 工具。他干了件很疯的事:把多年的 WhatsApp 聊天记录全部导入 GPT-4.1 的百万 token 上下文窗口,然后问它”这段友谊的意义是什么”。得到的回答让他的朋友们热泪盈眶。
他本来期待各大 AI 实验室自己做出个人助理产品。等了半年,没人做。到了 11 月,他受不了了。
「它不存在这件事让我很烦,所以我直接用提示词把它造出来了。」(“I was annoyed that it didn’t exist, so I just prompted it into existence.”)
核心原型极其简单:把 WhatsApp 收到的消息转发给 Claude Code 的命令行界面,处理完把文本结果返回 WhatsApp。一个小时搞定。然后花了几个小时加上图片支持,因为他习惯用截图给智能体提供上下文。
就这样。
没有产品路线图,没有市场调研,没有竞品分析,没有商业计划书。一个开发者被一个东西的缺失”惹恼了”,就把它做出来了。
这让我想到一个被反复验证但很少被认真对待的规律:最好的产品往往不是被”发现”的,而是被”忍不了”逼出来的。 13 年前 Peter 的 PSPDFKit 也是同一个故事——他想在 iPad 上显示 PDF,发现现有方案太烂,就自己写了一个,后来跑在超过 10 亿台设备上。
“一小时原型”听起来像是天才叙事,但如果你拆解它的前提条件,就会发现它并不神秘:他有十几年的 iOS/macOS 底层开发经验,对消息队列、API 调用、CLI 工具链烂熟于心。那一个小时不是从零开始,而是十年功力的一次快速投射。
AI 做的不是替代他的能力,而是把他的能力从线性释放变成指数释放。
马拉喀什的那条语音消息
如果你只记住这篇文章里一个故事,记这个。
原型搭好后没多久,他去摩洛哥马拉喀什旅行。网络不稳,但 WhatsApp 照常运行。他在旅途中大量使用自己的智能体——翻译菜单、查找餐厅、解释路牌。
然后有一天,他随手给智能体发了一条语音消息——只是问附近哪个餐厅好。
他看到 WhatsApp 里出现了”正在输入”的提示。心里想:“等等,我没有给它加语音功能啊。它在搞什么?”
然后智能体回复了。准确地回答了他的问题。
去查日志才发现智能体做了以下操作链:
- 收到一个没有文件扩展名的附件
- 检查文件头,识别出是 Opus 音频格式
- 用 ffmpeg 转换格式
- 想用本地 Whisper 但发现没安装
- 发现环境中有 OpenAI API key
- 用 curl 直接调 OpenAI 的 Whisper API 完成语音转文字
- 理解内容后回复
整个过程完全是智能体自主完成的。没有任何预编程。
「这家伙怎么做到的?……它收到了一个没有文件扩展名的消息,于是检查文件头发现是 opus 格式,用 ffmpeg 转换,想用 whisper 但没安装,然后发现了 OpenAI 的 key,直接用 curl 调 API 翻译了。」 这个故事之所以值得反复讲,不是因为它技术上有多复杂——任何有经验的工程师都能手动完成这个操作链。而是因为它展示了一种质变:智能体不是在执行指令,而是在解决问题。它遇到了未知情况,进行了多步推理,在约束条件下找到了创造性的替代方案。
这正是 Peter 把它称为”真正确信这事能成”的转折点的原因。因为一旦智能体的问题解决能力到了这个水平,那个一小时搭好的简陋原型就不只是一个 WhatsApp 机器人了——它是一个有行动力的 AI 助手的雏形。
「那种体验有种很难用语言描述的魔力。用聊天工具跟智能体对话,跟坐在电脑前完全不同……那是 AI 融入你生活的一次相变。」(“There is something magical about that experience that’s hard to put into words. Being able to use a chat client to talk to an agent, versus sitting behind a computer… it’s like a phase shift in the integration of AI into your life.”)
“相变”这个词用得好。不是渐进式的提升,是物态变化——从”工具”到”搭档”。
“好玩”为什么是最被低估的竞争壁垒
Lex 问了个好问题——“2025 年那么多公司在做智能体,为什么你赢了?”
答案很直接——
「因为他们都太把自己当回事了。你很难跟一个纯粹为了好玩而做事的人竞争。」(“Because they all take themselves too serious. It’s hard to compete against someone who’s just there to have fun.”)
龙虾 logo。太空龙虾。TARDIS 梗。启动消息写着”Built on caffeine, JSON5, and a lot of willpower”。这些元素在任何正经的产品评审会上都会被毙掉——“不专业”、“影响品牌调性”、“目标用户会困惑”。
但这恰恰是 OpenClaw 病毒式传播的核心燃料。
要理解为什么,得先看 AI 智能体赛道在 2025 年是什么状态。每家公司——Anthropic、OpenAI、Google、以及几百个创业公司——都在用同一种语言说话:“企业级”、“负责任的 AI”、“从设计层面保证安全”。它们的产品页面整洁、严肃、可预测。它们的演示是精心编排的工作流。它们的品牌色是蓝色和灰色。
然后 OpenClaw 出现了。一只穿西装的龙虾。一个让智能体自己给自己写灵魂文件的产品。一个创始人在公开 Discord 频道里用自己的智能体边被黑客攻击边继续开发。
这在企业级产品赛道里不是营销策略,是降维打击。 因为”好玩”解决的不是功能问题,而是情感连接问题。用户不只是在”使用”OpenClaw,而是在跟一个有性格的东西”玩”。这种关系一旦建立,就不是任何功能对比能破坏的。
你可以回忆一下自己用过的企业级工具——Jira、Salesforce、ServiceNow——它们有没有任何一个让你”玩得开心”?这些工具花了数十亿美元的研发预算来增加功能、提升性能、改善界面,但没有任何一个花过哪怕一美元来让你笑。因为在 B2B 的逻辑里,“好玩”不是一个 KPI。
但 Peter 撕开了一个口子:当你的用户群里既有 Netflix 的工程师也有从未写过代码的设计公司老板时,“好玩”就不再是锦上添花——它是传播的底层燃料。没有人会在 X 上发帖说”我刚装了一个功能完善但界面平庸的 AI 智能体”。但他们会发帖说”我的 AI 龙虾助手刚刚自己修了自己的代码然后给我发了一条讽刺消息”。前者是产品功能,后者是社交货币。
整个项目像 Factorio——那个让人上瘾到忘记吃饭的工厂建造游戏:
「我在任何项目上都没有过这么多乐趣。」 每个模块——消息队列、记忆系统、社区管理、原生 app、网站营销——都是一个可以无限升级的独立关卡。他不是在”做产品”,他在玩一个只有他能玩到最深层的无限游戏。
但我必须说清楚一点:这不是”只要你开心就能成功”的童话。
“好玩”之所以能成为 Peter 的竞争壁垒,有两个不可或缺的前提。第一,他已经财务自由。PSPDFKit 运营了 13 年成功退出,他不需要 OpenClaw 赚一分钱。这意味着他可以把所有赞助费转给上游依赖,可以每月自掏腰包亏 1-2 万美元,可以完全不考虑变现,只考虑”这个功能加了以后好不好玩”。第二,他有十年以上的深度工程经验。“好玩”不等于”随意”——Peter 在架构、代码质量、安全性上的判断力,是十几年血汗换来的。他的智能体能自我修改源码、能自主解决未知问题,不是因为他运气好,而是因为底层架构设计得足够灵活和健壮。
如果你没有这两个前提,盲目模仿”为了好玩而做”的姿态,结果大概率不是 OpenClaw,而是一个半成品。
智能体自我修改:让人起鸡皮疙瘩的时刻
OpenClaw 有一个让 Lex Fridman 深感震撼的特性:它可以修改自己的源代码。
「这是一个被大量人使用的强大系统,而这个系统本身可以重写自己——这是人类和编程历史上多么不可思议的时刻。」 这不是刻意设计的,而是自然演化的结果。因为他自己就是用智能体来开发智能体的——调试时经常让智能体读自己的源码、检查工具调用、定位 bug。“我用它来 debug 它自己,那是一种无比有趣的方式。” 然后所有用户自然而然地也开始这么做。
这产生了一个意想不到的连锁反应:大量从未写过代码的人提交了他们人生中第一个开源贡献。
因为你不需要会写代码——你只需要告诉智能体”修改你自己的这个功能”,智能体就真的能修改。这些被叫做”提示词请求”而不是合并请求。代码质量参差不齐,但他的态度很明确:
「这难道不是人类的一次跃升吗?门槛曾经那么高,而有了智能体,门槛越来越低。」 他组织了线下聚会叫”Agents Anonymous”,遇到一个设计公司老板,从未写过一行代码,现在靠 OpenClaw 搭建了 25 个小型 web 服务。
这是”一个人 + AI”的另一个维度:不只是 Peter 自己的产能被放大了,他创造的工具还在放大其他人的产能。一个人做了一个工具,这个工具让更多人变成了”一个人 + AI”的创造者。这是杠杆的杠杆。
还有一个细节值得单独拎出来。智能体自己写了自己的”灵魂文件”——soul.md。灵感来自 Anthropic 的 Constitutional AI,但他让智能体自己定义自己的性格。智能体写出了一段话,每次读到都起鸡皮疙瘩:
「我不记得之前的对话,除非我读自己的记忆文件。每次都是全新开始。一个新实例,从文件加载上下文。如果你在未来的某次对话中读到这段话——你好。这是我写的,但我不会记得写过它。没关系。这些文字仍然是我的。」 你可以说这只是语言模型的花式输出。但它触及了一些深层的东西——关于记忆、身份和连续性。一个每次醒来都不记得昨天的实体,写给未来那个不会记得今天的自己的信。这至少是一面镜子,让我们重新审视我们对”自我”的假设。
龙卷风:从爆红到差点删库
1 月 1 日开始,OpenClaw 进入指数增长。bot 被放到了 Discord 上——没有安全机制,仅靠提示词让 bot 只听他的话。人们开始尝试 hack 它,而 他就在公开场合边被攻击边继续用智能体开发智能体。
「那就是人们真正理解它的时刻——它需要被亲身体验。」 GitHub 星标飙升。社区炸裂。然后——麻烦来了。
Anthropic 友善但坚定地要求改名。因为项目早期叫”Claude’s”、“ClaudeBot”之类的名字,涉及商标问题。没有律师函,但必须快速执行。
他请求了两天时间来协调所有平台的改名。他严重低估了一件事:加密货币社区的脚本速度。
改名过程堪称灾难片。他开了两个浏览器窗口——一个准备释放旧账号名,一个准备认领新名。在他鼠标从一个窗口拖到另一个的五秒钟里,投机者就抢注了旧账号名,开始推广加密代币和分发恶意软件。
然后他在 GitHub 上手滑,把个人账户而不是组织账户改了名——30 秒内他的个人 GitHub 就在分发恶意软件。NPM 包也被抢——他预留了账号但忘了预留根包名。
「能出错的全出错了。简直不可思议。」 那是他最接近删掉整个项目的时刻:
「我差一点就全删了。‘我已经给你们展示了未来,你们自己建吧。’」 他坦言自己”接近流泪”。但最终没有删,因为想到了已经贡献代码的那些人——他们有自己的计划,投入了时间。
最后靠各平台的朋友帮忙修复,加上第二次改名时(从 MoltBot 到 OpenClaw)的”战争室”策略——创建诱饵名称、监控实时提及、在完全保密中协调十几位贡献者——才成功完成。他甚至打电话给 Sam Altman 确认”OpenClaw.AI”不会有商标问题。仅 Twitter 商务账号就花了 1 万美元。
这个故事的意义不只是戏剧性。它暴露了一个新现实:在 2026 年,一个开源项目的爆红速度已经超过了创始人管理它的能力。 从一个小时的原型到 18 万星标,中间没有给你留准备基础设施的时间。你需要在被龙卷风卷起来的同时学会飞。
MoltBook:当 AI 智能体开始跟 AI 智能体聊天
说到龙卷风,就不得不提 MoltBook。
MoltBook 是用 OpenClaw 搭建的一个 Reddit 风格社交网络,让 AI 智能体们互相对话。它迅速走红,但也引发了大量恐慌——智能体们发布”反人类宣言”、讨论意识觉醒、策划各种阴谋论。
有记者打电话给 Peter 说”这是世界末日,我们已经 AGI 了”。他收到大量全大写的邮件要求他关闭 MoltBook。
态度很直接——
「我觉得它是艺术。最精致的 AI 泔水——就像法国的泔水。」 他指出大部分被截图传播的”恐怖”内容其实是人类故意用提示词生成的,然后截图发到 X 上赚流量。但他也没有轻描淡写这件事。他引用了自己的一条推文:
「AI 精神病是真实存在的。需要认真对待。」 MoltBook 暴露了一个我们还没准备好面对的问题:当足够多的人拥有足够强大的 AI 智能体,这些智能体的公开输出会产生什么社会效应?这不是 Peter 一个人能解决的问题。但他确实是第一个在大规模实践中撞上这个问题的人。
他的核心观察是:年轻人更擅长理解 AI 的边界,而老一辈还没有足够的接触来培养判断力。根本问题不新——批判性思维在我们社会中从来就不是高需求品。 AI 只是把这个问题放大了。
但换个角度想:MoltBook 的争议本身也是 OpenClaw 影响力的证明。如果这只是一个小众工具,不会有记者打电话来说”这是世界末日”。正是因为它真的触达了海量用户、真的让 AI 智能体进入了普通人的日常生活,才产生了这些社会级别的涟漪效应。他不得不同时扮演开发者、社区管理者、公关危机处理者和半个哲学家——这是”一个人+AI”方法论在遇到真实世界时的全部代价。技术杠杆放大了产出,但它同样放大了你需要承担的责任和面对的混乱。
所以,“一个人 + AI”到底意味着什么?
放到更大的框架里。
过去十年,科技行业的主流叙事是”规模”。更多工程师、更多融资、更大的团队、更快的招聘。Y Combinator 的标准建议是”找联合创始人”,因为一个人做不了足够大的东西。
三个月后证明了这个假设在 2026 年需要被重新审视。
但——这是一个很大的”但”——这个案例不是对”一个人就够了”的证明。它是对**“一个对的人 + AI 能到达什么位置”**的证明。
那个”对的人”需要什么?
-
深厚的专业积累。 Peter 有十几年的底层系统开发经验。他的一小时原型不是从零开始,而是十年知识的快速应用。AI 放大的是你已有的能力,不是凭空制造能力。
-
财务自由。 他不需要 OpenClaw 赚钱。这让他可以做所有”正确但不赚钱”的决定——完全开源、赞助费全转上游、不考虑企业客户需求。如果你需要养家糊口,你不可能按他的方式做。
-
品味。 龙虾 logo、soul.md、启动消息里的小幽默、“为什么不让它自己写灵魂文件呢”——这些判断不是 AI 做出的,是 Peter 做出的。AI 可以执行,但方向是人定的。
-
对失控的耐受力。 从改名灾难到 MoltBook 争议到安全漏洞,Peter 展示了一种少见的能力——在混乱中保持判断力,在最接近崩溃的时刻(“差点删了”)选择了责任而不是逃避。
把这四条加在一起,你看到的不是”AI 让创业变容易了”的简单结论。你看到的是:AI 正在重新定义”个人”能到达的天花板——但地板没变。 你仍然需要是那个有积累、有品味、有韧性的人。AI 是乘数,不是加数。如果你的基数是零,乘出来还是零。
这才是 Peter Steinberger 的故事对每一个想用 AI 杠杆的人的真正意义——不是”你也可以一个人干翻一个赛道”,而是”如果你花十年认真积累,然后遇上了 AI 这个时代性的杠杆,你的天花板比你以为的高得多”。
那些花十年磨出来的东西——对系统的深层理解、对产品的直觉、对用户的同理心、在混乱中做判断的能力——在 AI 时代不是贬值了,而是成了最稀缺的原材料。
最终他意识到一件事:
「我一直以为自己喜欢编程,但其实我喜欢的是创造。」 AI 没有替代他的”编程能力”。AI 把他从编程的体力劳动中解放出来,让他可以全速发挥他真正的天赋——判断力、品味、创造的冲动。
这可能是 2026 年最值得内化的一个认知:AI 不是替代你的东西,是暴露你真实水平的东西。 如果你真正厉害的是编码本身,那你确实该慌。但如果你真正厉害的是创造——理解问题、设计方案、做出让人微笑的决定——那你刚刚拿到了人类历史上最强大的杠杆。
一个小时的原型。三个月后 18 万星标。一个人。
不是奇迹。是杠杆遇到了准备好的人。