271,400
6,331
find-skills
帮助用户根据查询发现和安装代理技能。

使用Flash Attention优化Transformer注意力机制,实现2-4倍的速度提升和10-20倍的内存减少。适用于训练/运行长序列(>512 token)的Transformer模型,遇到GPU内存问题或需要更快推理时。支持PyTorch原生SDPA、flash-attn库、H100 FP8和滑动窗口注意力。
npx skills add davila7/claude-code-templates帮助用户根据查询发现和安装代理技能。

AI代理浏览器自动化CLI工具。

自动化浏览器交互,用于网页测试、表单填写、截图和数据提取。

创建有效AI技能的指南,扩展Claude的能力。

用于在创意工作前探索用户意图和需求的头脑风暴技能。
