🤖AI & 大模型
22,267
177

moe-training

使用 DeepSpeed 或 HuggingFace 训练混合专家(MoE)模型。适用于计算资源有限时训练大规模模型(相比密集模型降低成本 5 倍)、实现像 Mixtral 8x7B 或 DeepSeek-V3 这样的稀疏架构,或在不按比例增加计算资源的情况下扩展模型容量。涵盖 MoE 架构、路由机制、负载均衡、专家并行和推理优化。

#machine-learning#deepspeed#huggingface
分享
快速安装
>_npx skills add davila7/claude-code-templates
技术文档
正在加载文档...
仓库
仓库davila7/claude-code-templates
Star22,267
最后更新2026年3月7日
相关技能
271,400
6,331

find-skills

帮助用户根据查询发现和安装代理技能。

vercel-labs
vercel-labs/skills
46,800
19,561

agent-browser

AI代理浏览器自动化CLI工具。

vercel-labs
vercel-labs/agent-browser
34,600
79,803

browser-use

自动化浏览器交互,用于网页测试、表单填写、截图和数据提取。

browser-use
browser-use/browser-use
32,600
86,065

skill-creator

创建有效AI技能的指南,扩展Claude的能力。

anthropics
anthropics/skills
24,400
55,506

brainstorming

用于在创意工作前探索用户意图和需求的头脑风暴技能。

obra
obra/superpowers