Executando verificação de segurança...
11

🧶 - Últimas melhorias & 🪡 Programa Linhas

Hey pessoal, queria trazer o conjunto de funcionalidades que trabalhei nos últimos dias e compartilhar sobre os próximos passos do projeto.

Ouvindo o TabNews

No post de lançamento houve interesse no uso das ferramentas Text-to-Speech e Speech-to-Text.

Pensando nisso decidimos incluir modelos de geração de fala em inglês e espanhol, expandindo um pouco o leque dentro dos idiomas mais populares.

O reconhecimento de fala em texto usa o modelo whisper-base da própria OpenAI e já tem capacidade de reconhecer mais de 90 idiomas.

moranguinho nos mostrou a falta de visibilidade dos modelos disponíveis, por isso agora todos os modelos estão linkados na homepage.

Linkamos para o modelo original, mas utilizamos uma versão ONNX.

Nesse artigo explico um pouco o que é ONNX


Também foi levantado sobre a possibilidade de rodar qualquer modelo do hugging face, e na prática é possível, ao converter o modelo para ONNX

Porém cada modelo pode ter comportamentos e exigências de hardware diferentes, assim o WoolBall também faz a curadoria alinhando performance e qualidade do resultado.

Então, não planejamos ser possível usar qualquer modelo, mas queremos oferecer uma gama de variedade, diferente de como é agora com praticamente 1 modelo por tipo tarefa.

Ouvindo Dados

Desde o lançamento a 11 dias,

sem contar comigo ou conhecidos

  • 57 pessoas criaram conta
  • 5 pessoas usaram algum serviço via API
  • 12 pessoas processaram tarefas em seus navegadores.

São números humildes e perfeitos para capturar qualquer problema antes de uma possível alta escala.

2 problemas foram identificados e corrigidos, na medida do possível.

Redis atingindo limite de memória

Apesar do nosso backend ser escrito em .NET, tinhamos um arquivo program de 1500 linhas que basicamente fazia tudo. Na pressa de criar um MVP acabamos criando operações ineficientes como excesso de informações e falta de tratamento de erros para limpar valores.

O que seria um rápido ajuste se tornou uma refatoração completa ;'(

Agora o redis tem demonstrado constância no consumo de memória e parei de receber e-mails do redis.io dizendo que o limite estava próximo de ser atingido.

Experiência do Navegador

Percebemos que, novos nós se uniram na tarefa de processar tarefas, o que é o máximo, porém observamos que algumas tarefas não estavam sendo concluídas com sucesso.

Todo desenvolvimento e validação acontece em diversos navegadores através de um Macbook M2 Pro de 16GB de RAM, isso quer dizer que a compatibilidade com outros sistemas operacionais ou quais os requisitos mínimos, ainda são desconhecidos.

Buscando suprir esse gap temos pensado formas de garantir a estabilidade do serviço e permitir que o máximo de dispositivos se tornem compatíveis.

Assim, criamos uma etapa prévia na página de processar modelos, que valida quais modelos aquele navegador é capaz de realizar tarefas garantindo que só receberá as que é capaz.

Aqui tem muito a ser explorado.

Próximos passos

A última atualização implementada foi tornar a página multi-idioma, servindo conteúdo em inglês e espanhol, você pode adicionar o querystring culture=en ou es em qualquer página para conferir.

Essa última ação está muito ligada ao que eu acredito que devem ser minhas próximas ações em relação ao produto.

A curto prazo, e tenho tentado pensar sempre em como gerar impacto em curto prazo, vejo que permitir a validação global do produto seja o divisor de águas para saber se eu arquivo esse projeto como portfólio ou continuar investindo energia, tempo, sangue, suor e lágrimas.

Com validação global quero dizer, postar no Hacker News, e outras plataformas comuns para lançamentos.

Pra isso eu preciso da ajuda de vocês

Programa Linhas

Linhas porque, olhando de forma individual, uma pessoa com um navegador ativo, não representa um grande poder computacional.

Porém juntos podem formar uma rede tão poderosa que questionaria a necessidade de data centers.

Hoje na plataforma, o saldo a receber pode ser transformado em crédito para usar a API, mas, desde o princípio, fazemos a promessa que esse saldo poderá ser sacado em dinheiro real.

O programa Linhas tem o objetivo acelerar a possibilidade de sacar o saldo de processamento realizado, remunerando os membros do programa que realizarem alguns desafios.

A curto prazo é garantir que teremos Navegadores o suficiente para atender um possível pico de demanda ao anunciar o projeto em plataformas internacionais.

A longo prazo é garantir que os que acreditaram na plataforma no início terão vantagens e recompensas equivalentes.

🪡 Programa Linhas

Obrigado

Obrigado a todos que tem lido meus posts e incentivado o Woolball

Tem um espaço no discord que gerencio para tratar do woolball, me ajudema dar uma movimentada la.

Ou, por favor, deixe alguma opnião, sugestão, critica, etc..

Carregando publicação patrocinada...
4

Obrigado por me citar.

Gostaria de sugerir uma outras mudanças simples na tela de demonstração:
1 - Adicionar o menu para retornar à tela inicial.
2 - No momento pelo que entendi, a demonstração realiza o chamado da api. Mas do processo de chamar até receber demora um tempo considerável, e como usuário eu só quero saber o resultado final para saber se está dentro do que preciso para meu projeto, depois vou verificando as outras questões.

Vejo dois caminhos para esse caso, um seria que a demonstração fosse realizada apenas do modelo que selecionar.

A segunda e mais interessante, na minha opnião, seria deixar preparado 3 a 5 resultados prontos e quando o usuário selecionar o que quer testar, exibir um dos 3 ou 5 resultados randomicamente.

Também tenho uma dúvida sobre o quanto podemos personalizar a resposta que recebemos da api, por exemplo a de texto para fala, há como definir o tom, sotaque e gênero do áudio gerado?

Uma última sugestão, no caso de modelo a ser adicionado, seria um modelo de interpretação de imagem, capaz de compreender características e objetos da imagem.

Fique a vontade para discordar de mim, minhas falas são baseadas apenas na minha opinião.

1

Ótimas opniões, sem duvida vamos considerar!

Sobre o ponto da demonstração, tenho a intenção de criar exemplos mais independentes e flexíveis mas acho que existe um certo charme em ser uma chamada real.

Sobre validar o resultado final, é um tema relativamente amplo, penso que podemos suprir esse gap criando conteúdos com casos de uso aplicados, mas até por não ser especialista em machine learning, corro o risco de me equivocar ou até limitar a capacidade dos modelos.

De qualquer forma, trazer aleatoriedade, e a possibilidade de interação nas demonstrações me parece ser algo que vai gerar muito valor, obrigado pelo conselho!

Também tenho uma dúvida sobre o quanto podemos personalizar a resposta que recebemos da api, por exemplo a de texto para fala, há como definir o tom, sotaque e gênero do áudio gerado?

Entrando no detalhe do text-to-speech, é curioso o tanto de modelos novos de todas as categorias de tarefas surgiram após o lançamento, o OuteTTS se tornou compartivel com o nosso sistema a alguns dias e apresenta uma qualidade incrível, porém não tem suporte a português.

O que usamos agora é mais limidado nesse sentido, mas ele pode evoluir e outros podem surgir rapidamente.

modelo de interpretação de imagem

Perfeito, 2 novos muito hypados foram lançados, paligemma2 da Google e o SmolVLM da HuggingFace e vai ser um prazer integra-los na plataforma.

Obrigado de novo pela contribuição! seria um prazer ouvir mais ideias no nosso discord ;)

1
1

salve,acabo de criar o curl para deixar rodando a cada 1 segundo o acesso ao processo da sua api, quero saber se dessa forma ajudo ao processo de dados?,quero contribuir pois tenho um vps e possuo uma rede social na qual quero implatar o zero-shot no chat dele , ao processar modelos gero créditos para a conta? eu nao entendi muito bem como funciona.

1

Perfeito, Mezzo, qualquer interação com o projeto conta positivamente e nos ajuda a coletar dados.

E obrigado pela duvida!

Ao processar modelos você gera "saldo a receber" com a promessa de que se o projeto der certo, será possível sacar em dinheiro real.

Enquanto isso não acontece o usuário já pode converter o saldo em créditos para usar a API ou acumular até que sacar se torne uma opção.

O programa Linhas serve como uma acelerador dessa realidade.

1

Boa,estou tentando ser um incentivador usando meus recursos atuais para usar a ferramenta em minha rede,assim ao processar os modelos posso ajudar a você e a rede que possuo .
outra questão amigo,ao abrir o painel de processos de modelo não vejo qualquer alteração mesmo deixando aberto por um tempo. tenho uma sugestão,porque você não gera uma api somente para essa situação que retornasse uma resposta em json sobre os dados que estão sendo processados,seria talvez mais acessivel também. é uma sugestão mas posso estar bastante equivocado .

1

Agradeço demais!

Sobre não ter alteração na tela de processamento, de fato a experiência nessa tela não está nada amigável, mas a ideia é que enquanto ela está aberta, alguns insights individuais e coletivos vão ser exibidos em tempo real. Além disso, claro, ainda temos pouco uso da api.

Sobre a sua sugestão, seria um prazer poder ouvir mais e com calma, se importaria de entrar em contato comigo através de alguma plataforma? pode ser pelo discord ou pelo linkedin

2