Empresas de IA reconhecem que métodos atuais de treinamento atingiram limitações
Essas companhias estariam enfrentando atrasos e desafios inesperados ao buscar modelos de linguagem cada vez maiores, explorando novas técnicas de treinamento para que algoritmos possam “pensar” de maneira mais similar aos humanos. Cientistas e pesquisadores acreditam que essas abordagens, que sustentam o recém-lançado modelo “o1” da OpenAI, podem transformar a corrida tecnológica em IA, além de impactar significativamente a demanda por recursos essenciais para essas empresas, como energia e tipos de chips especializados.
Ilya Sutskever, cofundador da OpenAI e da Safe Superintelligence (SSI), afirma que os ganhos obtidos com a ampliação do pré-treinamento — etapa em que um modelo aprende padrões e estruturas de linguagem a partir de uma vasta quantidade de dados não rotulados — chegaram a um ponto de saturação. Sutskever não revelou detalhes sobre as novas abordagens de sua equipe, mas menciona que a SSI está desenvolvendo alternativas para ampliar o pré-treinamento de maneira mais eficiente.
Laboratórios de IA de grande porte têm enfrentado frustrações e resultados aquém do esperado na busca por um modelo que supere o GPT-4 da OpenAI, lançado há quase dois anos, conforme apontam fontes próximas ao setor. As “execuções de treinamento” para esses modelos podem custar dezenas de milhões de dólares, exigindo operação simultânea de centenas de chips e enfrentando altas chances de falhas devido à complexidade do hardware. Como o desempenho final só é conhecido após meses de processamento, a incerteza sobre os resultados é um desafio adicional. Outro fator complicador é o consumo massivo de dados, pois os modelos já exauriram quase todas as fontes de dados de fácil acesso. Além disso, a escassez de energia tem dificultado a execução de treinamentos, dada a enorme demanda energética desse processo.
Para superar esses entraves, pesquisadores têm apostado no “cálculo no momento da inferência”, técnica que aprimora modelos existentes durante o uso real (fase de inferência). Em vez de optar imediatamente por uma única resposta, o modelo gera e avalia múltiplas alternativas em tempo real, escolhendo a melhor opção. Essa abordagem permite que os modelos usem maior capacidade de processamento em tarefas complexas, como problemas matemáticos, programação e operações que exigem raciocínio avançado. Segundo Noam Brown, pesquisador da OpenAI, um bot que “pensa” por 20 segundos em uma rodada de pôquer apresentou o mesmo ganho de desempenho que um modelo escalado em 100 mil vezes e treinado por 100 mil vezes mais tempo. Essa é a técnica implementada pela OpenAI em seu modelo “o1”.