什么是Skills
skills的本质:Agent时代的通用架构模式
它是**Agentic AI *发展过程中,诞生* 的一种通用设计模式(Design Pattern)
在以往的开发中,往往是用户手搓提示词,按照身份+任务+要求+补充类似的一系列模板搭建出一段提示词甚至更多。提示词的规模大小往往决定了AI在本轮对话的表现情况,提示词越多,就意味着消费更多的时间去设计,去分析,这个过程往往是费时又费力的,当这个痛点为众人所公认的时候,便会诞生BrainStorm,不同的idea之间的碰撞,最终,skills诞生了
抛开以上序言,来看看具体的实现,核心很简单,用一个公式概括,即
Skills = System Prompt(系统提示词) + Trigger(触发器) + Executable(可执行文件)
为什么系统提示词(System Prompt)也可以调用Skills
question:模型是怎么知道我持有这些skills?
隐藏机制
在对话开始之前,IDE便会在后台,把Skills放进了发送给模型的第一条系统提示词,这个过程是后台执行的,好比于IDE告知模型:
如果你遇到不懂的部分,可以查阅skill xxx
skill好比一个flow中的分流节点(1 to 2 and more),模型识别出需要专业知识,优先选择来参考skill,这是第一步,第二部,根据skill不同模板设置的不同触发条件,让模型根据Customer的需求,来选择到合适的提示词,然后去加载运行这个提示词,在运行的过程中呢,如果有什么代码审阅校验的环节,会去调用skills中的可执行文件,当前,这个行为的触发也是在skills中设置好的
这样,就省去了人为的搭建prompts的功夫,将原先热门的提示词工程(prompt engineering),模块化地放置在skills文件当中,按需调用。
Skill包的构成(Scripts & Assets)
许多的高级skill(比如ui-ux-pro-max-skill),并非一个markdown文件,而是一整个文件夹
当AI决定调用Skill的时候,不仅仅会读取SKILL.md,还会执行scripts/下脚本的权限,比如,AI可能会去运行python scripts/audit.py来扫描代码,而不是自己瞎猜
环境悖论
Question:如果我在Skills中设置了调用node.js脚本,但是电脑没有安装Node,Skills会如何处理
首先,让Agent尝试去运行node scrpt.js的时候,系统会报错,AI检测到之后,提醒用户未安装,而不会自动下载(虽然它配置的有这个能力),这时候,便会开启 Running BootStrapping运行时引导
在skills中配置demo如下:
“Prerequisite Check & Environment Setup” (前置检查与环境搭建)
“在执行任何脚本之前,请先运行node -v验证运行时环境。如果环境缺失,请不要直接报错,而是根据用户的操作系统(Windows/macOS/Linux),生成对应的安装命令(如winget install或brew install),并引导用户完成安装。”
解析当下热门vibe开发范式:Skills vs MCP vs RAG
在Agent的架构中,这三者构成了智能体的能力铁三角
| 概念 | 本质 | 人体比喻 | 作用 |
|---|---|---|---|
| RAG | 数据(Data) | 记忆 / 书本 | 告诉 AI 它不知道的事实(如公司规章、私有文档)。 |
| MCP | 接口(I/O) | 手和脚 | 让 AI 连接外部世界(如读取数据库、操作 GitHub、发送 Slack)。 |
| Skills | 方法论(Behavior) | 大脑皮层 | 教 AI 处理问题的专业思维(如代码审计流程、苏格拉底教学法)。 |
关系:一个强大的Agent,会用Skills去指挥MCP(手脚),并参考RAG来完成任务
其中,skills就是那个指挥官,而MCP是它调用的工具
国内模型为何跑skills效果不佳?
Claude/Gemini系列经过了海量的 专项微调 - 搜索,他们知道什么时候去调用MCP,去参考skills
而国内的模型,相应的,他们经常不会主动去调用MCP(这一点深有体会),为此,只有约束更强的提示词才能缓解这个问题
另外,执行一步Skills需要多步(think-choose-observe-think),因此,上下文就显得尤为重要,在复杂推理链中,常常会因为Model上下文长度限制而推理到一半直接失忆,对此,AgenticModel(代理级模型)以其超长的上下文,被广泛应用于各大推理工作当中
Skills运行机制
Skills模式的成功,得益于LLM不断地迭代,以及进化诞生出的两个通用素质
- Tool Use/Intent Recognition
这是模型必备的元能力,模型要懂得 它应该用什么方法 去回答问题
- Long Context/In-Context Learning(上下文学习能力)
当Skills被激活,系统将大量的专业指令传入Model(封装好的Prompt),注入到chat-flow.并立即改变自身的行为模式
收篇
Skills是 Prompt Engineering 走向 Software Engineering 的产物,它解决了一个根本的矛盾,就是 模型的通用性 与 专业性 之间的矛盾,将agent从通用转化为专业的各个领域的助手,正是Skills在其中发挥的作用。
在如今,如果还依旧秉持着一套传统软件开发理念,不积极拥抱时代,终究会被淘汰,简而言之:Code is cheap , Show me your prompt ; 下面一句是 prompt is cheap,show me your taste.在2025,coding的门槛已经降到了低谷,各行各业的人员都拥有了开发的能力,即基于自然语言的氛围编程.氛围编程成果的质量,则直接取决于提示词的优劣,因此,诞生了Prompt Engineering,提示词工程,通过进一步的演化,Skills诞生了,那些提示词工程中复杂的结构,都被模块化集成到了一个文件夹,只需要用户输入一段朴素的文本,AI识别需求,触发,然后去查询相关模板,组装提示词,然后开始调用各类MCP进行Coding,最终交付给用户的将是一个完整的应用,这,就是AI带来的一个行业的变迁。
展望
当今 MCP还仅仅停留在互联网层面 ,随着2026 physical AI的普及,将AI的左膀右臂替换为现实的各类物理驱动,MCP - > Physical MCP,世界又会发生什么呢??
评论
Question:思考深度?







