Novo LLM open source supera o GPT3.5 em diversos benchmarks
Desenvolvido pela startup Mistral AI, o “Mixtral 8x7B” também supera o supera o “Llama 2 70B” na maioria dos benchmarks, com a vantagem de a inferência – ato de utilizar uma rede neural para fornecer respostas após ela ter sido treinada – ser seis vezes mais rápida. A janela de contexto é de 32k tokens e possui um forte desempenho na geração de código. O modelo é limitado, entretanto, ao inglês, francês, italiano, alemão e espanhol.