Skip to content

weapp-vite ai console

AI 学习入口 /ai

以三条主线组织:MCP 连接能力、Skill 统一工程实践、LLMS 喂给上下文。

MCP

让 AI 能读代码并执行验证

先接入服务,再让 AI 调 tools,避免纯口头建议。

stdio(推荐)

weapp-vite mcp --workspace-root /absolute/path/to/weapp-vite

streamable-http(URL 连接)

weapp-vite mcp --transport streamable-http --host 127.0.0.1 --port 3088 --endpoint /mcp --workspace-root /absolute/path/to/weapp-vite
  1. 先配置客户端,确认 `tools/list` 能看到 MCP tools。
  2. 再按需调用 `search_source_code` / `read_source_file`。
  3. 最后执行脚本或 CLI,形成可验证闭环。

Skill

给 AI 挂载工程化工作流

统一技能入口,让团队在同一套规则下协作与交付。

安装 Skills(推荐)

npx skills add sonofmagic/skills

安装后可直接调用

$weapp-vite-best-practices
$weapp-vite-vue-sfc-best-practices
$wevu-best-practices
$native-to-weapp-vite-wevu-migration
  • $weapp-vite-best-practices
  • $weapp-vite-vue-sfc-best-practices
  • $wevu-best-practices
  • $native-to-weapp-vite-wevu-migration
  1. 先安装 `sonofmagic/skills`,再进入具体任务。
  2. 让 AI 明确调用对应 Skill,减少自由发挥偏差。
  3. 配合 MCP 让结果从“建议”变成“可执行 + 可验收”。

LLMS

为模型提供稳定、完整上下文

按“索引 -> 全文 -> 结构化索引”逐层加载,降低噪声。

推荐喂给顺序

1) /llms.txt
2) /llms-full.txt
3) /llms-index.json
4) 结合 MCP tools 继续定位与验证
  1. 开场加载 `/llms.txt` 建立目录语义。
  2. 命中主题后再读取 `/llms-full.txt` 深入细节。
  3. 工具链或脚本联动时优先消费 `/llms-index.json`。

Released under the MIT License.