--- url: /sre/planning/skill-value.md --- # 大模型自动生成的 Skill 有价值吗?复用、治理、降方差 根据 Claude Code 官方文档的定义,Skill 作为 OpenClaw 生态中的核心组件,其底层本质并不神秘——它只是将零散凌乱的大模型提示词进行了深度结构化与固化封装而已。 而在当前的圈子里,最炙手可热的标杆玩法莫过于 `create-skill` 工具:也就是让大模型自行生成一组专属的 Skill,并立刻投入日常业务使用。这种“套娃式”的做法,就好比先请一位行业专家(大模型本人)出具一份标准的工作流程防线(SOP),接着再让它原封不动地照着这份 SOP 去机械执行。然而,如此繁复重叠的操作路线,到底是在创造实质性的提效价值,还是在制造空转的摩擦? ![封面配图](/images/img-skill-autogen/cover-image.png) ## Skill 应用场景介绍 为了写一篇“如何用大模型提升写作效率”的文章,临时在对话框里把要求说得很细:字数、结构、标题套路、配图位置、概述字数…… 当时确实能跑通,但第二天换了个选题,同样的“套路”又得重新说一遍;更糟的是,漏掉一个约束(比如概述字数或配图路径规则),产出的质量就明显漂。 这类问题很容易引出一个念头:干脆让大模型先“自动生成一个 skill”,再按 skill 去执行,是不是更好? 直觉上可能会受到质疑:不就是把一次执行拆成“两段”吗?先写 skill,再照 skill 做事,为什么会更快、更好? 先把结论放在前面: **自动生成 skill 只有在“复用 + 降方差 + 治理”成立时才值钱;否则确实只是增加摩擦。** ## 效果展示 以“写公众号文章”这种强流程任务为例,两条路径的差别不在“第一次能不能做出来”,而在“第 2 次、第 10 次还能不能稳定做出来”。 路径 A:不使用 skill * 提问 → 大模型临时理解 → 临时决策 → 临时执行。 * 优点:启动快;适合一次性问题。 * 缺点:约束容易漏;输出风格、结构、口径波动大;靠每次人工补充提醒。 路径 B:使用 skill(或把流程固化成 skill) * 提问 → skill 提供 SOP 与硬约束 → 大模型在护栏内决策 → 执行。 * 优点:结构稳定;硬规则不易漏;可迭代为团队资产。 * 缺点:前置成本;写错会“固化错误”。 所以,**skill 的价值不是“让第一次更聪明”,而是“让后续每次更稳定、更便宜、更可控”。** ## 核心痛点 “自动生成 skill 并直接使用”常常不值,通常踩在三个硬问题上: 1. **两段式开销** :自动生成 skill 本质是一次“抽象与文档化”,它会消耗额外 token 与交互轮次。 2. **缺少校验** :没有人为校验就直接使用,skill 往往夹带隐含前提;一旦前提不成立,输出会系统性跑偏。 3. **领域业务相关** :skill 真正值钱的部分,是业务约束、口径、规范、禁区、验收标准;这些通常不是模型凭空生成就能可靠命中的。 因此,**“生成后立刻用”更像是在做一件没有验收的“代码重构”:重构本身不产生业务价值,价值来自后续复用与质量收益;但如果重构有 bug,后果还更大。** 什么时候它会变得很值:把一次成功执行变成资产。把“自动生成 skill”变得有价值,需要把它从“写一份流程”升级为“建立一个可复用闭环”。这里有一个实用的判断公式: * **复用频率高** (同类问题会重复出现) * **质量方差大** (不固化就容易漂) * **出错成本高** (漏规则就会返工,或踩合规口径风险) * **可固化部分多** (任务中存在大量稳定步骤与硬约束) 满足越多条,越值得把流程固化成 skill;反之就不要做。 ## 步骤教学 更合理的“两阶段”,如果确实想用大模型辅助“生成 skill”,建议把它做成“先跑通,再沉淀”的闭环,而不是“先生成,再尝试执行”。 ### 留住执行轨迹 先在没有 skill 的情况下完成一次高质量交付,并记录两类信息: * **稳定步骤** :每次都要做的(比如:搜资料 → 写正文 → 出标题 → 排版 → 写概述)。 * **不稳定决策** :每次会变的(比如:选题角度、案例选择、受众假设)。 ### 固化稳定步骤 把“稳定步骤”写进 skill,把“不稳定决策”留给模型。skill 适合承载的是“护栏”,不是“代替思考”。典型写法是: * 固化硬约束:字数区间、结构模板、输出格式、配图规则、概述字数等。 * 固化检查清单:发布前自检项(是否有概述、是否有 5 个标题、是否插图路径正确)。 * 留出自由度:选题角度、案例取舍、表达风格(除非明确要固定)。 ### 明确验收标准 把验收标准写清楚,否则无法迭代。skill 里至少要有一段“Done 的定义”,例如: * 正文 1500 至 2000 字(或按项目标准)。 * 至少 2 至 3 个备选标题 + 5 个爆款标题。 * 概述约 80 字,用 `---` 分隔。 * 插图使用相对路径 `/images/img-xxx/`,文件名英文。 ### 回放与验证 用 3 个样例问题回放验证,不要只用一个问题验证。用 3 个不同但同类的输入回放,检查: * 是否稳定产出同一结构? * 是否稳定命中硬约束? * 是否出现“固化错误”(比如把某个不想要的口吻写死)? ### 降低自由度 当发现某些步骤重复、且容易出错时,再把它们下沉为更确定的资源: * 写作模板、排版模板放到 `assets/`。 * 需要确定性处理的步骤放到 `scripts/`(例如批量插图、统一命名、生成封面图的脚本)。 * 业务口径、术语表、禁用表达放到 `references/`,按需加载。 这样 skill 才会越用越省事,而不是越用越臃肿。 ![Skill 固化闭环](/images/img-skill-autogen/skill-autogen-loop.svg) ## 总结 如果把大模型当作一个“聪明但不稳定的新人”,skill 就是使其稳定输出的护栏,承载着领域知识、合规口径、验收标准以及工程化的脚本入口。 **skill 必然是领域相关、业务相关的** ,因此它的生命周期往往有且只有两种健康模式: * **从发现走向复用** :通过寻找并引入社区中已有的优质 skill,站在巨人的肩膀上解决通用痛点。 * **从生成走向微调** :大模型自动生成 skill 仅仅是一个起草动作,真正要发挥其降本增效的长期价值,必须经过使用者的“自适应微调”。 **只有把实际执行中特有的业务约束、口径标准、易错点进行人工干预与固化,才能产生真正贴合场景的知识资产。** “自动生成并直接用”往往只是一种美好的幻觉。未经自适应微调的 skill 只是一份未经测试的代码草案;而经过沉淀与打磨的 skill,才是能让团队效率产生质变的数字底座。 ![总结配图](/images/img-skill-autogen/summary-assets.png) *** ## 备选标题 * 自动生成 skill 真的有用吗:从“多一步”到“省十步” * 先生成再执行 vs 先执行再沉淀:skill 的正确打开方式 * skill 的价值不在提示词:在复用、治理与降方差 * 还在每次手写提示词?用 skill 把同一套路复用 10 次 * 为什么“自动生成 skill”常常没用?因为少了这一步验证 * 3 个判断标准:这件事值不值得固化成 skill * 把大模型当新人带:skill 才是真正的数字员工 SOP * 先跑通再固化:两阶验证闭环大幅降低返工率