whisper.cpp
This commit is contained in:
36
README.md
36
README.md
@ -47,4 +47,38 @@ pip install --upgrade torch torchvision torchaudio --index-url https://download.
|
||||
Dentro de minimal_server
|
||||
```bash
|
||||
python -m server.stt_server --model large-v2 --rt-model tiny --initial_prompt=''
|
||||
```
|
||||
```
|
||||
|
||||
---
|
||||
## whisper.cpp (C++)
|
||||
whisper.cpp es una implementación en C++ del modelo Whisper. Es ligera, rápida, no requiere Python y puede correr en tiempo real en CPU.
|
||||
|
||||
### Instalación y compilación
|
||||
Clonar el repositorio:
|
||||
|
||||
```bash
|
||||
git clone https://github.com/ggerganov/whisper.cpp
|
||||
cd whisper.cpp
|
||||
```
|
||||
|
||||
Compilar el binario:
|
||||
```bash
|
||||
make
|
||||
```
|
||||
|
||||
Esto genera el binario main en la carpeta `/build/bin/`.
|
||||
|
||||
### Descargar modelos
|
||||
```bash
|
||||
# Modelo pequeño (rápido, menos preciso)
|
||||
wget https://huggingface.co/ggerganov/whisper.cpp/resolve/main/ggml-tiny.bin
|
||||
|
||||
# Modelo más preciso
|
||||
wget https://huggingface.co/ggerganov/whisper.cpp/resolve/main/ggml-large-v2.bin
|
||||
```
|
||||
|
||||
### Ejemplo de uso desde consola
|
||||
Este comando transcribe el archivo audio.wav usando el modelo tiny.bin.
|
||||
```bash
|
||||
./build/bin/whisper-cli -m models/ggml-tiny.bin -f ejemplo/audio.wav -l es
|
||||
```
|
||||
|
Reference in New Issue
Block a user