diff --git a/README.md b/README.md index 1cb7b72b..f0a7c974 100644 --- a/README.md +++ b/README.md @@ -47,4 +47,38 @@ pip install --upgrade torch torchvision torchaudio --index-url https://download. Dentro de minimal_server ```bash python -m server.stt_server --model large-v2 --rt-model tiny --initial_prompt='' -``` \ No newline at end of file +``` + +--- +## whisper.cpp (C++) +whisper.cpp es una implementación en C++ del modelo Whisper. Es ligera, rápida, no requiere Python y puede correr en tiempo real en CPU. + +### Instalación y compilación +Clonar el repositorio: + +```bash +git clone https://github.com/ggerganov/whisper.cpp +cd whisper.cpp +``` + +Compilar el binario: +```bash +make +``` + +Esto genera el binario main en la carpeta `/build/bin/`. + +### Descargar modelos +```bash +# Modelo pequeño (rápido, menos preciso) +wget https://huggingface.co/ggerganov/whisper.cpp/resolve/main/ggml-tiny.bin + +# Modelo más preciso +wget https://huggingface.co/ggerganov/whisper.cpp/resolve/main/ggml-large-v2.bin +``` + +### Ejemplo de uso desde consola +Este comando transcribe el archivo audio.wav usando el modelo tiny.bin. +```bash +./build/bin/whisper-cli -m models/ggml-tiny.bin -f ejemplo/audio.wav -l es +```