Numba (GPU CUDA Python)

Donde habías estado toda mi vida

Paso de usar tensor para transcode de imagen/video y linguística sin CUDA desde que leí esto


We wanted to announce that Vosk 33 speech recognition server now supports GPU decoding. With CUDA and NVIDIA cards it can accurately recognize up to 300 streams in parallel on a single machine in real-time. If you are using Vosk with Asterisk and look to process more data, try it out.

You need a modern GPU card (like GTX1080) and CUDA11.4 installed to try it.
You can run the server with a simple docker command:

docker run --runtime=nvidia -p 2700:2700 alphacep/kaldi-en-gpu


Pues lo hice, lo desmonté y ahora estoy a esto >< de implementar traducciones y transcripciones para ayudar en un flujo de trabajo real.

 

Pues como tiendo a linux.....

https://numba.pydata.org/numba-doc/dev/cuda/

https://developer.nvidia.com/blog/numba-python-cuda-acceleration/

https://linuxconfig.org/how-to-install-the-nvidia-drivers-on-ubuntu-22-04


Pues para lo pobres como yo, no tengo un pc cuántico, pero calculo que no veas


La trampa de la personalización infinita