Executando verificação de segurança...
1

Sofro do mesmo problema... Placa de vídeo (GPU) AMD. Ent poucos modelos são compatíveis, rodar o ollama somente na CPU fica inviável.
Existe o llama.cpp q compila o lamma em c++ e tem compatibilidade com GPUs AMD usando o Vulkan como "renderizador". Vc pode tentar isso. Existe tbm o GPT4ALL, talvez consiga algum resultado...

Outras opções seria usar APIs mais em conta, como deepSeek, maritaca ai (focado em ptbr).
Existe tbm o gemini api gratuita, porém tem limitações de uso, portanto para uso mais complexos vai estourar o limite...

Existe tbm a possibilidade de procurar modelos alternativos no huggingface q possuem melhor desempenho com GPU. É algo q estarei pesquisando em breve.

Vms ser sinceros, esses llms estão longe de serem democráticos, principalmente para treinamento e finetunnig. Sem falar a desvalorização do real em relação ao dolar, oq complica tudo

Carregando publicação patrocinada...