Executando verificação de segurança...
1

E aí, Brunão! No Ollama, existem modelos que são quantizados. A quantização envolve a conversão de pesos de modelos de alta precisão para formatos de menor precisão, como FP8, permitindo que eles funcionem sem a necessidade de GPUs potentes, utilizando apenas a CPU.

Apesar de não serem tão precisos, vale a pena fazer alguns testes caso você ainda não tenha feito.

Carregando publicação patrocinada...