whisper.cpp
This commit is contained in:
		
							
								
								
									
										36
									
								
								README.md
									
									
									
									
									
								
							
							
						
						
									
										36
									
								
								README.md
									
									
									
									
									
								
							| @ -47,4 +47,38 @@ pip install --upgrade torch torchvision torchaudio --index-url https://download. | ||||
| Dentro de minimal_server | ||||
| ```bash | ||||
| python -m server.stt_server --model large-v2 --rt-model tiny --initial_prompt='' | ||||
| ``` | ||||
| ``` | ||||
|  | ||||
| --- | ||||
| ## whisper.cpp (C++) | ||||
| whisper.cpp es una implementación en C++ del modelo Whisper. Es ligera, rápida, no requiere Python y puede correr en tiempo real en CPU. | ||||
|  | ||||
| ### Instalación y compilación | ||||
| Clonar el repositorio: | ||||
|  | ||||
| ```bash | ||||
| git clone https://github.com/ggerganov/whisper.cpp | ||||
| cd whisper.cpp | ||||
| ``` | ||||
|  | ||||
| Compilar el binario: | ||||
| ```bash | ||||
| make | ||||
| ``` | ||||
|  | ||||
| Esto genera el binario main en la carpeta `/build/bin/`. | ||||
|  | ||||
| ### Descargar modelos | ||||
| ```bash | ||||
| # Modelo pequeño (rápido, menos preciso) | ||||
| wget https://huggingface.co/ggerganov/whisper.cpp/resolve/main/ggml-tiny.bin | ||||
|  | ||||
| # Modelo más preciso  | ||||
| wget https://huggingface.co/ggerganov/whisper.cpp/resolve/main/ggml-large-v2.bin | ||||
| ``` | ||||
|  | ||||
| ### Ejemplo de uso desde consola | ||||
| Este comando transcribe el archivo audio.wav usando el modelo tiny.bin. | ||||
| ```bash | ||||
| ./build/bin/whisper-cli -m models/ggml-tiny.bin -f ejemplo/audio.wav -l es | ||||
| ``` | ||||
|  | ||||
		Reference in New Issue
	
	Block a user