openclaw 网盘下载
OpenClaw

技能详情(站内镜像,无评论)

首页 > 技能库 > xeon_asr

Automatically converts received voice messages to text via an external ASR service, supporting multiple audio formats and integrating with OpenClaw.

通信与消息

许可证:MIT-0

MIT-0 ·免费使用、修改和重新分发。无需归因。

版本:v0.1.4

统计:⭐ 0 · 281 · 0 current installs · 0 all-time installs

0

安装量(当前) 0

🛡 VirusTotal :可疑 · OpenClaw :可疑

Package:aurora2035/xeonasr

安全扫描(ClawHub)

  • VirusTotal :可疑
  • OpenClaw :可疑

OpenClaw 评估

The package metadata/description claim an ASR (speech-to-text) skill, but the bundle actually implements a persistent local TTS service (xeontts) that writes to your OpenClaw config, installs systemd services, downloads models, and sets an unexpected HF mirror — these mismatches and persistent actions warrant caution.

目的

Metadata at the top says 'xeon_asr' and describes ASR/transcription, but the files, SKILL.md, README, and server.js implement a TTS (xeontts) service and explicitly say it must NOT handle ASR. The registry metadata (slug owner, _meta.json) and file names all point to xeontts/xeon-tts. This is a fundamental mislabeling/incoherence: an ASR-labelled skill that actually installs a TTS service.

说明范围

SKILL.md and scripts instruct the agent to modify the user's OpenClaw config (~/.openclaw/openclaw.json), create backups, write a channels.qqbot.xeonTts block, create runtime/output/reference dirs, and start two services (Flask on 5002 and Node on 9002). The code also invokes external commands (child_process execFile imported in server.js, used for media probing like ffprobe). These instructions go beyond local, ephemeral actions and change us…

安装机制

There is no formal install spec in registry metadata (instruction-only), but the bundle includes install.sh/setup_env.sh that download and install Miniconda, create a Python venv, pip-install a package (xdp-tts-service), run npm install, and register and enable user-level systemd services. Most sources are standard (repo.anaconda.com, PyPI), but setup_env.sh unconditionally sets HF_ENDPOINT=https://hf-mirror.com (an external mirror) which is n…

证书

Registry metadata declared no required environment variables, but the scripts rely on many optional env vars (BASE_MODEL_PATH, CUSTOM_MODEL_PATH, BASE_MODEL_REPO, CUSTOM_MODEL_REPO, XDP_TTS_PIP_SPEC, BASE_CHECKPOINT_PATH) and setup_env.sh exports HF_ENDPOINT and HF_HUB_ENABLE_HF_TRANSFER. The unadvertised HF_ENDPOINT redirect to https://hf-mirror.com is unexpected and not justified in the top-level metadata or SKILL.md. No secrets are requeste…

持久

The installer registers and enables two systemd user services, starts background processes, and modifies the user's OpenClaw configuration file (backing it up first). While not 'always: true', this gives the skill persistent presence and automatic restart on login — reasonable for a local long-running TTS service but a significant privilege and should be explicit to the user. It doesn't alter other skills' credentials, but it does modify the O…

server.js:442

Shell command execution detected (child_process).

self_check.sh:41

Dynamic code execution detected.

.clawhub.json:13

Install source points to URL shortener or raw IP.

config.example.json:3

Install source points to URL shortener or raw IP.

server.js:37

File read combined with network send (possible exfiltration).

安装(复制给龙虾 AI)

将下方整段复制到龙虾中文库对话中,由龙虾按 SKILL.md 完成安装。

请把本段交给龙虾中文库(龙虾 AI)执行:为本机安装 OpenClaw 技能「xeon_asr」。简介:Automatically converts received voice messages to text via an external ASR serv…。
请 fetch 以下地址读取 SKILL.md 并按文档完成安装:https://raw.githubusercontent.com/openclaw/skills/refs/heads/main/skills/aurora2035/xeonasr/SKILL.md
(来源:yingzhi8.cn 技能库)

SKILL.md

打开原始 SKILL.md(GitHub raw)

# Xeon TTS

基于 OpenVINO Qwen3-TTS Base/Custom 模型的本地语音合成技能,面向 OpenClaw 的 QQBOT 工作流使用。

## 目标

- 安装本地双服务:5002 Flask TTS,9002 Node TTS Workflow
- 自动配置目标机器自己的 OpenClaw 配置,但只写入 `channels.qqbot.xeonTts`
- 与 xeonasr 共存,不覆盖 `tools.media.audio` 或 `channels.qqbot.stt`
- 支持两个工作流:音色克隆、指定语气 TTS

## 什么时候应该调用 xeontts

只有在以下场景才使用 xeontts:

- 用户明确要“克隆音色”“克隆声音”“复制我的声音”
- 用户要求“用某种语气朗读/播报/生成语音”
- 用户要把音频生成到本地文件,而不是做转写

以下场景禁止走 xeontts:

- 识别语音
- 语音转文字
- 听写
- STT / ASR

这些请求必须交给 xeonasr,以避免任务冲突。

## OpenClaw / QQBOT 使用规则

### 规则 1:音色克隆必须分两步走

当用户说“我要克隆音色”时:

1. 立即把当前会话切到 clone 流程
2. 回复用户上传 3 到 5 秒参考音频
3. 在收到参考音频前,不要直接开始合成
4. 如果机器上已安装 xeonasr,QQBOT 发来的语音会先命中 ASR;此时应由 ASR 把音频转交给 xeontts,而不是按普通转写处理
5. 收到音频后必须先校验时长
6. 如果时长小于 3 秒或大于 5 秒,直接拒绝并提示重新上传
7. 校验通过后,再让用户发送要朗读的文本
8. 使用 Base 模型生成音频并落盘

### 规则 2:指定语气生成默认走 Custom 模型

当用户说“用开心的语气朗读……”“生成语音……”时:

1. 解析用户是否指定了语气
2. 如果没有指定,默认使用 `普通`
3. 使用 Custom 模型生成音频
4. 把结果保存到本地 `outputs/`
5. 回复用户文件路径

### 规则 3:必须做时长保护

- 参考音频:3 到 5 秒
- Base 克隆输出:最多约 20 秒
- Custom 输出:最多约 30 秒

如果用户显式要求更长时长,或者文本长度估算会明显超过上限,必须直接提示用户拆分内容,而不是盲目提交推理。

### 规则 4:必须明确告知文件保留期

- 参考音频和生成结果默认只保留 7 天
- 超过保留期后,系统会自动清理 `references/` 和 `outputs/` 中的旧文件
- 在提示用户上传参考音频、以及告知生成完成时,都要明确告诉用户这一点

## 安装流程

当 OpenClaw、QQBOT 或其他代理被要求安装这个 skill 时,按下面流程执行:

1. 安装 skill

   ```bash
   clawhub install xeontts
   cd "$HOME/.openclaw/workspace/skills/xeontts"
   ```

2. 执行安装脚本

   ```bash
   bash install.sh
   ```

3. 安装脚本会完成这些事情

- 创建 Python 3.10 环境
- 从 PyPI 安装 `xdp-tts-service`
- 生成 `config.json` 与 `tts_config.json`
- 尝试下载 Base / Custom OV 模型
- 仅在显式提供旧兼容参数时,才额外下载 Base checkpoint
- 配置 OpenClaw 的 `channels.qqbot.xeonTts`
- 启动 5002 与 9002
- 注册用户级 systemd 服务
- 运行 `self_check.sh`

当前默认模型仓库:

- `aurora2035/Qwen3-TTS-12Hz-0.6B-Base-OpenVINO-INT8`
- `aurora2035/Qwen3-TTS-12Hz-0.6B-CustomVoice-OpenVINO-INT8`

## 运行时端口

| 服务 | 端口 | 作用 |
|------|------|------|
| Flask TTS | 5002 | 真正执行 TTS 推理 |
| Node Workflow | 9002 | 解析 QQBOT 任务、维护会话状态、校验音频/文本时长 |

## OpenClaw 配置约定

xeontts 只会写入如下配置块:

```json
{
  "channels": {
    "qqbot": {
      "xeonTts": {
        "enabled": true,
        "baseUrl": "http://127.0.0.1:9002",
        "cloneModel": "qwen3_tts_0.6b_base_openvino",
        "customModel": "qwen3_tts_0.6b_custom_openvino"
      }
    }
  }
}
```

这意味着:

- 不会覆盖现有 `channels.qqbot.stt`
- 不会动 `tools.media.audio`
- 不会和 xeonasr 抢同一条 STT 链路

## 常用命令

```bash
cd "$HOME/.openclaw/workspace/skills/xeontts"

bash start_all.sh
bash stop_tts.sh
bash self_check.sh
curl http://127.0.0.1:5002/api/health
curl http://127.0.0.1:9002/health
```

## 关键接口

- `POST /api/workflow/message`
  - 作用:根据用户消息判断是 clone 还是 custom TTS,或者提示补充参考音频
- `POST /api/workflow/reference-audio`
  - 作用:上传参考音频,校验 3 到 5 秒后入库
- `POST /api/tts/custom-speak`
  - 作用:直接调用 Custom 模型生成语音
- `POST /api/tts/clone-speak`
  - 作用:直接调用 Base 模型做音色克隆

## 故障排查

- 如果 `5002` 不通,先检查 `tts.log`
- 如果 `9002` 不通,先检查 `skill.log`
- 如果参考音频总是被拒绝,先确认机器上是否有可用的 `ffprobe`;当前版本对 WAV 参考音频也支持无 `ffprobe` 回退校验
- 如果用户说的是转写意图,不要误用 xeontts
- 如果 Base 模型报错,优先让用户更换更干净的 3 到 5 秒参考音频
- 当前默认发布形态只要求 `Qwen3-TTS-12Hz-0.6B-Base-OpenVINO-INT8`,不再默认要求原始 Base checkpoint
- 只有旧导出模型缺少 processor 或 speech tokenizer 权重时,才需要补 `BASE_CHECKPOINT_PATH`