Beta da VULTR? Conte mais...
Respondendo a "Localmente uso o ollama com llama3.1:8b com o a..." dentro da publicação Hugging Face lança modelos de IA que operam com menos de 1 GB de RAM
0
2
Nenhum segredo aqui: na VULTR estao disponibilizando um beta aberto para uso de IA (menu serveless / inference)
No deploy da instancia, cobram US 10 por 50M tokens - modelos: llama3.1:70b e llama3.3:70b e outros.
Alem disso, ofertam US 250 para deploy de GPU.
Vale a pena pra brincar.
0
Top, obrigado pela dica...