WoolBall - Fala para Texto distribuído, Modelo que codifica e +
Salve pessoal!
Queria trazer algumas atualizações massa no Wool Ball, resumindo o esforço deste mês, começando pela mais impactante
Fala para texto distribuído
Agora conseguimos extrair o texto de áudios de até 2GB fragmentando seu processamento por momentos de silêncio.
Na prática significa que ao invés de um navegador processar um áudio completo, dessa vez diversos navegadores processam simultaneamente cada parte do áudio
Modelos alternativos
- 3 novos modelos de geração de texto
- SmolLM2-135M-Instruct
- Qwen2.5-0.5B-Instruct
- Qwen2.5-Coder-0.5B-Instruct
- 1 novo modelo de reconhecimento de fala
- Whisper-tiny_timestamped
Com isso ganhamos 2 novas capacidades
- Gerar código com comando de linguagem natural
- Marcar os tempos de uma fala capturada em texto
Nova Documentação
A forma antiga de lidar com a especificação da API era muito complexa então adotamos um produto open-source para gerir nossa documentação, o https://mintlify.com
Além disso, um salve super especial para o @mezzoDio
que construiu o primeiro SDK open-source da plataforma: https://github.com/bugadoz/woolball-library
Melhorias de UI
Demos um grau nas páginas públicas, principalmente na home.
Longe da excelência, o foco é trazer mais facilidade na compreensão e busca de elementos chave.
- Melhoria na disposição dos modelos
- Melhoria na precificação
- Separação de contexto API / Navegador como Servidor
- Adição das publicações já realizadas
- Melhoria na vizualização das Demonstrações
Contribuição
Continuamos na busca por fortalecer a rede de navegadores ativos, criando um programa de recompensas que incentiva a colaboração.
🔗 Seu navegador é uma placa solar digital
Além disso estamos focando na criação de uma página de exemplos & demonstrações de uso da API, então convidamos os interessados em somar forças e aprender ou se aprofundar no uso de IA em projetos web à se juntar a comunidade: