openclaw 网盘下载
OpenClaw

技能详情(站内镜像,无评论)

首页 > 技能库 > Chen Openai Whisper

使用Whisper CLI实现本地语音转文本(无API密钥)。

媒体与内容

许可证:MIT-0

MIT-0 ·免费使用、修改和重新分发。无需归因。

版本:v1.0.0

统计:⭐ 0 · 33 · 1次当前安装· 1次历史安装

0

安装量(当前) 1

🛡 VirusTotal :良性 · OpenClaw :良性

Package:cs995279497-byte/chen-openai-whisper

安全扫描(ClawHub)

  • VirusTotal :良性
  • OpenClaw :良性

OpenClaw 评估

该技能是本地Whisper CLI的纯指令包装;其要求( whisper二进制)和指令与所述目的一致且相称。

目的

名称/描述说“使用Whisper CLI的本地语音到文本” ,该技能只需要“whisper”二进制文件,并显示CLI的使用情况。要求低语二进制文件并提供BREW安装符合所声称的目的。

说明范围

SKILL.md指示代理对本地音频文件运行whisper CLI ,并注明模型已下载到~/.cache/whisper。这些说明不要求提供不相关的文件、环境变量或外部端点。注意:文档声明“--model”默认为“turbo” ,这是经典Whisper发行版的不寻常型号名称—您可能需要验证特定BREW包支持的型号名称。

安装机制

安装使用Homebrew公式( 'openai-whisper' ) ,与任意下载相比风险较低。但是,自制配方可以来自不同的水龙头—在安装之前验证配方来源(官方自制/核心与第三方水龙头)。

证书

未请求任何环境变量、凭据或配置路径。这与本地CLI转录技能相称。

持久

技能并非始终启用,也不会请求提升或持久的权限。它确实会导致模型在首次运行时缓存到~/.cache/whisper (磁盘使用率) ,这是本地模型下载的正常行为。

综合结论

这项技能是围绕本地Whisper CLI的指导包装,看起来很连贯。安装前: 1)确认哪个Homebrew水龙头提供了“openai-whisper”公式(首选官方Homebrew/核心或受信任的水龙头)。2)首次使用时应将大型模型文件下载到~/.cache/whisper —确保您有磁盘空间,并适应音频衍生模型的本地存储。3)验证包支持的型号名称( RE…

安装(复制给龙虾 AI)

将下方整段复制到龙虾中文库对话中,由龙虾按 SKILL.md 完成安装。

请把本段交给龙虾中文库(龙虾 AI)执行:为本机安装 OpenClaw 技能「Chen Openai Whisper」。简介:使用Whisper CLI实现本地语音转文本(无API密钥)。。
请 fetch 以下地址读取 SKILL.md 并按文档完成安装:https://raw.githubusercontent.com/openclaw/skills/refs/heads/main/skills/cs995279497-byte/chen-openai-whisper/SKILL.md
(来源:yingzhi8.cn 技能库)

SKILL.md

打开原始 SKILL.md(GitHub raw)

---
name: chen-openai-whisper
description: Local speech-to-text with the Whisper CLI (no API key).
homepage: https://openai.com/research/whisper
metadata: {"clawdbot":{"emoji":"🎙️","requires":{"bins":["whisper"]},"install":[{"id":"brew","kind":"brew","formula":"openai-whisper","bins":["whisper"],"label":"Install OpenAI Whisper (brew)"}]}}
---

# Whisper (CLI)

Use `whisper` to transcribe audio locally.

Quick start
- `whisper /path/audio.mp3 --model medium --output_format txt --output_dir .`
- `whisper /path/audio.m4a --task translate --output_format srt`

Notes
- Models download to `~/.cache/whisper` on first run.
- `--model` defaults to `turbo` on this install.
- Use smaller models for speed, larger for accuracy.