openclaw 网盘下载
OpenClaw

技能详情(站内镜像,无评论)

首页 > 技能库 > 当地骆驼TTS体验

使用llama-tts (llama.cpp)和OuteTTS-1.0-0.6B模型的本地文本转语音。

数据与表格

许可证:MIT-0

MIT-0 ·免费使用、修改和重新分发。无需归因。

版本:v1.0.0

统计:⭐ 0 · 540 · 0 current installs · 0 all-time installs

0

安装量(当前) 0

🛡 VirusTotal :可疑 · OpenClaw :良性

Package:local-llama-tts

安全扫描(ClawHub)

  • VirusTotal :可疑
  • OpenClaw :良性

OpenClaw 评估

该技能在内部是连贯的:它包装本地llama-tts二进制文件,以从本地模型文件合成语音,其脚本/指令与此目的相匹配。

目的

名称和描述描述了本地TTS。唯一需要的二进制文件是“llama-tts” ,包含的脚本使用模型和声码器文件调用该二进制文件—这与声称的目的相称。

说明范围

SKILL.md和脚本仅运行本地“llama-tts”二进制文件,并要求您从Hugging Face下载模型。次要注意事项:建议的模型/声码器路径硬编码为/data/public/machine-learning/models/text-to-speach/,这可能是共享/全局路径;指令包括与脚本中使用的声码器文件名( Q4_0 )不同的声码器版本( Q5_1 ) ,但SKILL.md将其作为替代方案进行评论。无需说明…

安装机制

无安装规范—仅指令加上包装脚本。这是低风险的;技能中的任何内容都不会在安装期间尝试获取或执行代码。模型下载有文档记录,但由用户执行(通过Hugging Face链接)。

证书

技能不要求环境变量或凭据。引用的资源(本地模型和声码器文件, llama-tts二进制文件)与本地TTS相关且必不可少。

持久

该技能并不总是请求: true ,不会修改其他技能,也不会尝试保留凭据。它是用户可调用的,并且可以由代理自主调用(平台默认值) —此处没有任何内容将特权提升到超出预期的行为。

综合结论

此技能似乎执行了它所说的操作:根据本地模型文件运行本地“llama-tts”二进制文件。在安装或运行之前: 1 )验证您使用的“llama-tts”二进制文件是否来自受信任的来源并检查其权限; 2 )从官方Hugging Face页面下载模型/声码器文件并验证校验和/许可; 3 )更喜欢将模型放在用户控制的目录中,而不是全局/data/public/...路径,以避免意外……

安装(复制给龙虾 AI)

将下方整段复制到龙虾中文库对话中,由龙虾按 SKILL.md 完成安装。

请把本段交给龙虾中文库(龙虾 AI)执行:为本机安装 OpenClaw 技能「当地骆驼TTS体验」。简介:使用llama-tts (llama.cpp)和OuteTTS-1.0-0.6B模型的本地文本转语音。。
请 fetch 以下地址读取 SKILL.md 并按文档完成安装:https://raw.githubusercontent.com/openclaw/skills/refs/heads/main/skills/wuxxin/local-llama-tts/SKILL.md
(来源:yingzhi8.cn 技能库)

SKILL.md

打开原始 SKILL.md(GitHub raw)

---
name: local-llama-tts
description: Local text-to-speech using llama-tts (llama.cpp) and OuteTTS-1.0-0.6B model.
metadata:
  {
    "openclaw":
      {
        "emoji": "🔊",
        "requires": { "bins": ["llama-tts"] },
      },
  }
---

# Local Llama TTS

Synthesize speech locally using `llama-tts` and the `OuteTTS-1.0-0.6B` model.

## Usage

You can use the wrapper script:
- `scripts/tts-local.sh [options] "<text>"`

### Options
- `-o, --output <file>`: Output WAV file (default: `output.wav`)
- `-s, --speaker <file>`: Speaker reference file (optional)
- `-t, --temp <value>`: Temperature (default: `0.4`)

## Scripts

- **Location:** `scripts/tts-local.sh` (inside skill folder)
- **Model:** `/data/public/machine-learning/models/text-to-speach/OuteTTS-1.0-0.6B-Q4_K_M.gguf`
- **Vocoder:** `/data/public/machine-learning/models/text-to-speach/WavTokenizer-Large-75-Q4_0.gguf`
- **GPU:** Enabled via `llama-tts`.

## Setup

1. **Model:** Download from [OuteAI/OuteTTS-1.0-0.6B-GGUF](https://huggingface.co/OuteAI/OuteTTS-1.0-0.6B-GGUF/resolve/main/OuteTTS-1.0-0.6B-Q4_K_M.gguf?download=true)
2. **Vocoder:** Download from [ggml-org/WavTokenizer](https://huggingface.co/ggml-org/WavTokenizer/resolve/main/WavTokenizer-Large-75-Q5_1.gguf?download=true) (Note: Felix uses a Q4_0 version, Q5_1 is linked here as a high-quality alternative).

Place files in `/data/public/machine-learning/models/text-to-speach/` or update `scripts/tts-local.sh`.

## Sampling Configuration
The model card recommends the following settings (hardcoded in the script):
- **Temperature:** 0.4
- **Repetition Penalty:** 1.1
- **Repetition Range:** 64
- **Top-k:** 40
- **Top-p:** 0.9
- **Min-p:** 0.05