Executando verificação de segurança...
1

Lidando com IA e Extração de Dados com Ollama LLMs

Opa pessoal! Recentemente, enfrentei alguns desafios ao tentar extrair dados de uma string para JSON no meu projeto. O exemplo foi o seguinte:

Entrada:

"Hoje eu joguei God of War, por 10 horas seguidas"

Saída:

{
  "jogo": "God of War",
  "tempo": "10 horas"
}

Desafio 1 - Tempo de Resposta:

O primeiro obstáculo foi o tempo de resposta da IA. Eu estava utilizando a ferramenta da Ollama localmente e, após alguns testes, percebi que o número de parâmetros do modelo afeta diretamente a velocidade. Para o meu caso, modelos com 2B de parâmetros funcionaram muito bem. Lembre-se, quanto menos parâmetros, mais "limitada" pode ser a resposta da IA, então recomendo algo entre 2B e 7B para equilibrar velocidade e capacidade.

Desafio 2 - Formatação da Resposta:

A segunda barreira foi garantir que a IA me retornasse apenas um JSON, sem explicações extras. No começo, tentei colocar no prompt algo como “SOMENTE O JSON, SEM DESCRIÇÕES!”, mas isso nem sempre funcionava. A solução foi usar a opção format: "json", que forçou a IA a responder apenas em formato JSON.

Correção de Erros:

Também fiz um pequeno tratamento na resposta, removendo json que aparecia no início da string, para garantir que o retorno fosse 100% limpo.

Aqui está o código que usei:

{
    prompt: prompt,
    stream: false,
    temperature: 0.0,
    model: "llama3.2",
    format: "json",
}

Conclusão:

Espero que esse pequeno ajuste ajude quem esteja enfrentando dificuldades semelhantes. Se alguém tiver dicas ou soluções adicionais, sinta-se à vontade para compartilhar!

Carregando publicação patrocinada...