O que preciso saber sobre LLMs para fazer um "tuning" eficiente?
Olá, pessoal!
Após brincar com os principais serviços, peguei esse final de semana pra estudar pra valer sobre o tema. Vi sobre o que de fato são os modelos, inference engine, utilizei o llama.cpp para carregar os modelos localmente... enfim, foi um dia puxado XD.
Mas mesmo após os estudos, os únicos parâmetros que consegui entender bem foi a Temperatura, TopP e o MaxOutputTokens. Os demais, todavia, achei muito confusos de compreender.
Vocês costumam "brincar" com esses parâmetros pra realizar o tuning das LLMs de vocês ou existem formas mais eficientes?
Sou realmente muito novo no tema então ainda me sinto perdido. Agradeço desde já! :-)