技能详情(站内镜像,无评论)
许可证:MIT-0
MIT-0 ·免费使用、修改和重新分发。无需归因。
版本:v1.0.0
统计:⭐ 0 · 540 · 0 current installs · 0 all-time installs
⭐ 0
安装量(当前) 0
🛡 VirusTotal :可疑 · OpenClaw :良性
Package:local-llama-tts
安全扫描(ClawHub)
- VirusTotal :可疑
- OpenClaw :良性
OpenClaw 评估
该技能在内部是连贯的:它包装本地llama-tts二进制文件,以从本地模型文件合成语音,其脚本/指令与此目的相匹配。
目的
名称和描述描述了本地TTS。唯一需要的二进制文件是“llama-tts” ,包含的脚本使用模型和声码器文件调用该二进制文件—这与声称的目的相称。
说明范围
SKILL.md和脚本仅运行本地“llama-tts”二进制文件,并要求您从Hugging Face下载模型。次要注意事项:建议的模型/声码器路径硬编码为/data/public/machine-learning/models/text-to-speach/,这可能是共享/全局路径;指令包括与脚本中使用的声码器文件名( Q4_0 )不同的声码器版本( Q5_1 ) ,但SKILL.md将其作为替代方案进行评论。无需说明…
安装机制
无安装规范—仅指令加上包装脚本。这是低风险的;技能中的任何内容都不会在安装期间尝试获取或执行代码。模型下载有文档记录,但由用户执行(通过Hugging Face链接)。
证书
技能不要求环境变量或凭据。引用的资源(本地模型和声码器文件, llama-tts二进制文件)与本地TTS相关且必不可少。
持久
该技能并不总是请求: true ,不会修改其他技能,也不会尝试保留凭据。它是用户可调用的,并且可以由代理自主调用(平台默认值) —此处没有任何内容将特权提升到超出预期的行为。
综合结论
此技能似乎执行了它所说的操作:根据本地模型文件运行本地“llama-tts”二进制文件。在安装或运行之前: 1 )验证您使用的“llama-tts”二进制文件是否来自受信任的来源并检查其权限; 2 )从官方Hugging Face页面下载模型/声码器文件并验证校验和/许可; 3 )更喜欢将模型放在用户控制的目录中,而不是全局/data/public/...路径,以避免意外……
安装(复制给龙虾 AI)
将下方整段复制到龙虾中文库对话中,由龙虾按 SKILL.md 完成安装。
请把本段交给龙虾中文库(龙虾 AI)执行:为本机安装 OpenClaw 技能「当地骆驼TTS体验」。简介:使用llama-tts (llama.cpp)和OuteTTS-1.0-0.6B模型的本地文本转语音。。
请 fetch 以下地址读取 SKILL.md 并按文档完成安装:https://raw.githubusercontent.com/openclaw/skills/refs/heads/main/skills/wuxxin/local-llama-tts/SKILL.md
(来源:yingzhi8.cn 技能库)
SKILL.md
---
name: local-llama-tts
description: Local text-to-speech using llama-tts (llama.cpp) and OuteTTS-1.0-0.6B model.
metadata:
{
"openclaw":
{
"emoji": "🔊",
"requires": { "bins": ["llama-tts"] },
},
}
---
# Local Llama TTS
Synthesize speech locally using `llama-tts` and the `OuteTTS-1.0-0.6B` model.
## Usage
You can use the wrapper script:
- `scripts/tts-local.sh [options] "<text>"`
### Options
- `-o, --output <file>`: Output WAV file (default: `output.wav`)
- `-s, --speaker <file>`: Speaker reference file (optional)
- `-t, --temp <value>`: Temperature (default: `0.4`)
## Scripts
- **Location:** `scripts/tts-local.sh` (inside skill folder)
- **Model:** `/data/public/machine-learning/models/text-to-speach/OuteTTS-1.0-0.6B-Q4_K_M.gguf`
- **Vocoder:** `/data/public/machine-learning/models/text-to-speach/WavTokenizer-Large-75-Q4_0.gguf`
- **GPU:** Enabled via `llama-tts`.
## Setup
1. **Model:** Download from [OuteAI/OuteTTS-1.0-0.6B-GGUF](https://huggingface.co/OuteAI/OuteTTS-1.0-0.6B-GGUF/resolve/main/OuteTTS-1.0-0.6B-Q4_K_M.gguf?download=true)
2. **Vocoder:** Download from [ggml-org/WavTokenizer](https://huggingface.co/ggml-org/WavTokenizer/resolve/main/WavTokenizer-Large-75-Q5_1.gguf?download=true) (Note: Felix uses a Q4_0 version, Q5_1 is linked here as a high-quality alternative).
Place files in `/data/public/machine-learning/models/text-to-speach/` or update `scripts/tts-local.sh`.
## Sampling Configuration
The model card recommends the following settings (hardcoded in the script):
- **Temperature:** 0.4
- **Repetition Penalty:** 1.1
- **Repetition Range:** 64
- **Top-k:** 40
- **Top-p:** 0.9
- **Min-p:** 0.05