Google Agent Skills — 用工程纪律驯服 AI 编程
AI 编程工具的能力迭代很快,但用过一段时间你会发现一个共性问题:模型越强,越喜欢走捷径。拿到任务就往前冲,不考虑项目长期稳定性,也不管后续迭代维护——这恰好是初级开发者和资深工程师之间最大的差距。
问题出在哪
AI 写代码的能力已经很强了,但它缺少一样东西:工程纪律。
一个资深工程师拿到需求,不会立刻开始写代码。他会先梳理需求边界,评估影响范围,拆分任务优先级,写完代码跑测试,做 code review,确认安全性,最后才上线。
AI 不会。它拿到 prompt 就开干,干完就交活。至于代码能不能维护、有没有安全隐患、测试覆盖率够不够——那是你的事。
Agent Skills 做了什么
谷歌 Gemini 团队主管 Addy Osmani 开源了 Agent Skills,项目发布后迅速拿下 23000+ GitHub Star。
它的核心思路很简单:把资深工程师的工作习惯封装成技能包,让 AI 每一步都按工程规范干活。
这些技能并非凭空编造,大多源自 Google 内部的工程方法论(《Software Engineering at Google》)。
20 个技能,覆盖完整开发链路
Agent Skills 围绕软件开发生命周期设计,包含 20 个 Skill + 7 个 Slash 命令 + 3 个 Agent 人设,覆盖六个阶段:
| 阶段 | 对应命令 | 作用 |
|---|---|---|
| 定义 | /spec | 需求梳理,明确边界 |
| 规划 | /plan | 任务拆分,评估优先级 |
| 构建 | /build | 增量实现,保持代码一致性 |
| 验证 | /test | 跑测试,确保质量 |
| 评审 | /review | 代码审查,发现潜在问题 |
| 发布 | /ship | 上线部署,全面检查 |
三个 Agent 人设
在执行 /ship 部署上线时,三个预设 Agent 会并行开工:
- code-reviewer — 出具代码评审报告
- test-engineer — 出具测试报告
- security-auditor — 出具安全评估报告
三份报告汇总后给出是否可以上线的结论,相当于上线前对本次修改做一次全面体检。
和同类工具有什么区别
市面上类似的项目不少,三个代表性的放在一起比较:
| 项目 | 核心思路 | 一句话总结 |
|---|---|---|
| Spec Kit | 先写清楚再动手,用规范文档约束 AI | 用文档定 AI |
| Superpowers | 把需求→计划→测试→互查全部串成流水线 | 用流程带 AI |
| Agent Skills | 把工程师的工作习惯拆成可组合的 Skill | 用纪律管 AI |
三者目标一致——让 AI 写出能交付到生产环境的代码。区别在于切入角度:文档驱动、流程驱动、还是纪律驱动。
具体选哪个取决于你的使用场景。如果你需要的是"让 AI 每一步都靠谱",Agent Skills 的可组合设计会更灵活。
怎么用
Claude Code(两行命令):
/plugin marketplace add addyosmani/agent-skills
/plugin install agent-skills@addy-agent-skills
Cursor:把对应的 SKILL.md 复制到 .cursor/rules/ 目录即可。
另外还支持 Gemini CLI、Windsurf、GitHub Copilot、Codex 等主流 AI 编程工具,项目 docs 目录里有对应的接入指南。
我的看法
模型能力在增强,但 Agent Skills 这类项目依然不断涌现,说明大家对 AI 写出来的代码到底能不能放心交付,心里还是没底。
这很正常。对团队来说,一份能稳定交付、可持续迭代的代码,远比让 AI 随手生成一段代码有价值。
Agent Skills 没有试图让 AI 变得更聪明,而是把资深工程师那股「稳、准、狠」的习惯沉淀下来,让 AI 在每个环节有规可循。对每天都在用 AI 协作写代码的人来说,这种工具比模型升级来得更实在。
