给 AI 编程助手装上"超能力"——Superpowers 框架深度解析
Superpowers 是一套技能框架 + 开发方法论,强制 AI 在写代码前先问清楚需求、确认设计、拆分任务、执行 TDD。它不是让 AI 写得更快,而是让 AI 写得更对。

给 AI 编程助手装上"超能力"——Superpowers 框架深度解析
It starts from the moment you fire up your coding agent. As soon as it sees that you're building something, it *doesn't* just jump into trying to write code.
你有没有过这样的经历:让 AI 帮你写代码,它二话不说就开始敲,结果写出来的东西完全不是你想要的?
或者更糟——代码能跑,但没测试、没文档、结构混乱,最后还得你花几倍的时间来收拾残局?
最近我发现了一个叫 **Superpowers** 的项目,它给这个问题提供了一套完整的解决方案。用了一周后,我感觉自己的 AI 编程工作流彻底被重塑了。
一、功能:它到底是什么?
简单说,Superpowers 是一套**技能框架 + 开发方法论**,专门用来提升 AI 编程助手(Claude Code、Cursor、Codex、OpenCode)的工作质量。
它不是一个新的编程工具,而是一套"行为规范"——告诉 AI 在写代码之前应该先做什么、怎么做、什么时候停下来问你。
核心技能清单
┌─────────────────────────────────────────────────────────┐
│ 🎯 规划阶段 │
├─────────────────────────────────────────────────────────┤
│ brainstorming → 通过提问帮你理清真实需求 │
│ writing-plans → 把大任务拆成 2-5 分钟的小块 │
└─────────────────────────────────────────────────────────┘
↓
┌─────────────────────────────────────────────────────────┐
│ 🛠️ 执行阶段 │
├─────────────────────────────────────────────────────────┤
│ subagent-driven-development → 多子代理并行开发 │
│ test-driven-development → 强制 TDD 红 - 绿 - 重构循环 │
│ using-git-worktrees → 隔离分支工作区 │
└─────────────────────────────────────────────────────────┘
↓
┌─────────────────────────────────────────────────────────┐
│ ✅ 验收阶段 │
├─────────────────────────────────────────────────────────┤
│ requesting-code-review → 任务间自动审查 │
│ finishing-a-branch → 合并/PR 决策工作流 │
│ systematic-debugging → 四阶段根因分析 │
└─────────────────────────────────────────────────────────┘它是怎么工作的?
- **你提出需求**:"帮我加个登录功能"
- **brainstorming 触发** → AI 不会马上写代码,而是先问你:
- "你想要的登录是哪种?邮箱/密码、OAuth、还是无密码?"
- "需要记住登录状态吗?"
- "有什么安全要求?"
- **设计确认** → 把拆分成小块的设计方案给你看,让你签字确认
- **生成计划** → 把任务拆成精确到具体文件、具体代码的步骤
- **执行开发** → 子代理逐个完成任务,每个任务都走 TDD 流程
- **自动审查** → 任务之间自动 review,有问题立即反馈
- **收尾合并** → 验证测试、决定合并策略、清理工作区
整个过程,AI 不再是"想到哪写到哪",而是像一支训练有素的工程团队。
二、价值:它解决了什么问题?
问题一:AI 太"积极"了
大多数 AI 编程助手有个共同毛病——**急于写代码**。
你刚说"我想加个功能",它下一秒就开始生成代码。但问题是:你真正想要什么,可能连你自己都没想清楚。
Superpowers 的 `brainstorming` 技能强制 AI 在写代码之前先停下来,通过苏格拉底式的提问帮你理清需求。
使用前:AI 直接开写 → 发现方向错了 → 重写 → 再发现有问题 → 循环...
>
使用后:先问清楚 → 确认设计 → 一次性写对
问题二:代码没有测试
这是 AI 生成代码最致命的问题之一。没有测试的代码=定时炸弹。
`test-driven-development` 技能强制执行 **RED-GREEN-REFACTOR** 循环:
1. 写一个会失败的测试(RED)
2. 写最少的代码让测试通过(GREEN)
3. 重构代码,保持测试通过(REFACTOR)
4. 提交如果你试图跳过测试直接写代码,它会**删掉你写的代码**,让你重新来过。
问题三:上下文丢失,任务越做越乱
大任务拆不好,AI 做着做着就忘了最初要干嘛。
`writing-plans` 把任务拆成**2-5 分钟能完成的小块**,每一块都有:
- 精确的文件路径
- 完整的代码示例
- 明确的验证步骤
任务示例:
- 文件:src/auth/login.ts
目标:实现邮箱密码登录函数
验收:运行 npm test -- login 全部通过问题四:AI 连续工作几小时,最后发现方向错了
这是最痛苦的——让 AI 跑了两个小时,结果发现它从一开始就理解错了。
`requesting-code-review` 在任务之间自动审查,发现问题立即报告,按严重程度分级:
- 🔴 **严重问题**:阻塞进度,必须修复
- 🟡 **中等问题**:建议修复,但可以继续
- 🟢 **小问题**:记录在案,后续优化
三、实用性:真的能用吗?
安装体验
不同平台的安装方式不一样:
**Claude Code**(插件市场):
/plugin marketplace add obra/superpowers-marketplace
/plugin install superpowers@superpowers-marketplace**Cursor**:
/plugin-add superpowers**Codex / OpenCode**:
需要手动获取安装脚本,按照文档一步步来。
整体来说,Claude Code 和 Cursor 用户的体验最流畅,一行命令搞定。
实际使用场景
我试了几个典型场景:
"帮我加个导出 CSV 功能" | brainstorming → writing-plans → TDD | 先问导出格式、数据量、是否异步,然后出计划,最后 TDD 实现
"这个接口时不时超时" | systematic-debugging | 四阶段排查:复现→定位→修复→验证
"把用户系统重构一下" | using-git-worktrees → 子代理开发 | 自动创建工作分支,多个子代理并行重构
一些真实的感受
**好的地方:**
- ✅ 真的会先问再写,不再盲目开干
- ✅ TDD 强制执行,测试覆盖率有保障
- ✅ 任务拆分很细,AI 不容易跑偏
- ✅ 审查环节确实能 catching 问题
**需要适应的地方:**
- ⚠️ 流程比较长,简单改动会觉得繁琐
- ⚠️ 需要习惯"先签字确认再执行"的节奏
- ⚠️ 子代理运行时间较长,需要耐心等待
适合谁用?
**强烈推荐:**
- 用 AI 做正经项目开发的人
- 希望代码有测试、可维护的人
- 经常被 AI 生成代码坑的人
**可能不适合:**
- 只想快速生成 snippets 的人
- 做原型验证、throwaway 代码的人
- 不喜欢被流程约束的人
总结
用一句话概括 Superpowers:
**它不是让 AI 写得更快,而是让 AI 写得更对。**
这个项目的核心理念其实是把人类工程师的最佳实践(TDD、代码审查、任务拆分、隔离开发)变成 AI 必须遵守的"行为规范"。
对我来说,最大的价值不是某个具体技能,而是它强制 AI 在写代码之前**先停下来思考**。这个停顿,往往决定了一个项目是走向成功还是变成一坨屎山。
如果你也在用 AI 编程,而且受够了"AI 写的代码不能用"这个问题,Superpowers 值得一试。
**项目地址:** github.com/obra/superpowers
**官方博客:** Superpowers for Claude Code
**作者:** Jesse Vincent (@obra)