Obrigado por compartilhar este projeto incrível, estou realmente impressionado com os resultados e vejo um potencial enorme nele. É uma pena que, embora o projeto se baseie em tecnologias abertas, ele mesmo não seja aberto, ou estou perdendo algo? Eu também gostaria de me apoiar nesses 'ombros de gigantes'. Recentemente critiquei aqui no Tabnews como muitos aplicativos 'inteligentes' são apenas uma interface para o GPT da OpenAI, mas isso é completamente o oposto.
Tenho algumas perguntas, talvez você possa responder ou não. Como você integra isso na transmissão ao vivo? Presumo que esteja usando OBS. Como você renderiza na web, suponho que possa adicionar isso como uma fonte, o que é legal. Vê alguma utilidade ou forma de integrar a API de script em Python/Lua de alguma maneira? Além disso, como você interage com o chat do Twitch? É através de IRC ou de outra forma?
Enquanto estou verdadeiramente impressionado com a sincronização labial, imagino que a principal 'atração' das VTubers seja a reação às emoções, certo? Você vê alguma direção ou pesquisa em que seu modelo de IA possa incorporar isso? E sobre renderizar essas emoções no avatar? Como última pergunta, gostaria de saber se você experimentou com diálogos em português
Gostaria de ler qualquer outra coisa que você queira compartilhar sobre estes pontos. E, finalmente, enquanto ler/responder perguntas é ótimo, como você vê o futuro para esse agente realmente apresentar uma transmissão ao vivo?
Parabéns pelo excelente projeto e estou ansioso para ouvir grandes coisas sobre ele no futuro!
Um abraço e bons estudos!