过去一年,大模型的能力边界在快速扩张。Claude、GPT、Gemini 在 benchmark 上的差距越来越小,使用门槛也在不断降低。但一个有趣的现象出现了:同样的模型,不同人用出来的效果差异巨大。
一个懂 SQL 的数据分析师,和一个不懂 SQL 的小白,用同一个大模型查询数据,前者可能 5 分钟出结果,后者可能要反复解释半小时。问题就出现在经验和专业知识。
而现在出现了一个最简单粗暴的方式,把经验和专业打包成 Skill,让每个人都能发挥大模型全部能力。
就好比福特汽车流水线,把装配流程拆解成 84 个步骤,每个工人只需要掌握一个步骤,结果生产效率就提升了。
Skill 做的事情也一样:把需要人类重复解释的工作,变成可复用的技能包。人们不需要“理解”,只需要“执行”。
正是这种对经验平权的渴望,引爆了技术圈对 Skill 的狂热追捧。
如果你最近浏览 GitHub 的热门项目,会发现“Skill”几乎成了出现频率最高的关键词。大家不再津津乐道于谁写出了更精妙的 Prompt,而是开始热衷于构建和分享自己封装好的 Skill 。从 Anthropic 官方维护的标准库,到开发者自制的各种独家 Skill,这种趋势像野火一样蔓延。
TRAE 选择在这个时间点上线 Skill 功能,恰逢其时的成为了“引爆点”,其通过极简的操作,让 Skill 使用门槛降低,真正推动了“专家经验”的普惠化,让 Skill 热潮从技术圈涌向每个人的工作流。
1
告别“一次性对话”,Skill 成为稳定生产力
也许很多人会质疑:“Skill 不就是把 Prompt 写长一点吗?”这个说法只对了一半。Prompt 和 Skill 在本质上存在着维度的差异。
Prompt 是“一次性”的耗材。 它像是一道随口的命令,生命周期仅限于当前的对话窗口。一旦开启新对话,或者上下文过长,AI 就会失忆,你必须从头再来。
而 Skill 是“可复用”的资产。 它是被沉淀下来的数字智慧。你只需要编写一次,就可以在未来的无数次对话中重复调用,且和 MCP 不同,Skill 不占用宝贵的上下文窗口。
Prompt 就像是你每次出门打车都要给司机指路,而 Skill 就像是直接在司机的导航仪里存了一个“回家”的快捷键,以后上车只需要说这两个字,司机就能走出最精准的路线。
Skill 的核心价值,在于将人类专家的“隐性知识”显性化。它能做到普通 Prompt 很难兼顾的三件事:
-
强制标准化: 它给 AI 装上了一套规则。比如强制 AI 在写代码时严格遵循特定的 Lint 规范,或者在写 PRD 时必须包含“数据埋点”章节。无论运行多少次,输出的格式永远统一且合规。
-
自动化工作流: 它能把复杂的链式操作串联起来。将“读取 CSV、清洗脏数据、生成分析图表”这三个独立步骤封装在一个 Skill 里,一键执行,无需人工分步干预。
-
知识沉淀: 你可以把自己的独门绝技打包成 Skill 分享给团队。新来的同事加载了这个 Skill,瞬间就能拥有和你一样的代码审美和业务逻辑。
当然,并不是所有的对话都需要封装成 Skill。如果你只是想问“今天天气如何”或者“解释一下什么是量子力学”,直接用 Prompt 就绰绰有余。
真正值得花时间封装成 Skill 的,往往有几个很直观的特征。
最常见的一种,是你已经对同一套逻辑反复解释过很多次,比如某个固定结构的 SQL 查询,每次都要重新描述一遍思路。
另一种情况是任务本身就很难一步完成,它天然需要拆解、推理、再调用工具,如果每次都靠临时 Prompt 把流程串起来,不仅费力,还极容易出错。
最后一种,就是对结果要求十分苛刻,格式、字段等必须要规范,这时就不能让模型自由发挥,需要 Skill 进行规范。
可以说,Skill 不是为了更聪明,而是为了更稳定。