Executando verificação de segurança...
1

Estamos juntos FabioSmuu!!

A gente tem que criar esse conteúdo de ML mesmo na comunidade brasileira!

Sobre a parte de convergir em menos tempo por não ter valores aleatórios, não acredito que seja assim porque o backpropagation geralmente utiliza algoritmos que punem valores mais discrepantes para toda a rede.

O dropout vai servir para corrigir ainda mais esses valores discrepantes e não ocorrer um possível overfit.

Carregando publicação patrocinada...
2

Sim, mas ai você esta trabalhando encima de conceitos já existentes.

Isso não se aplicaria se os valores fossem gerados de forma matemática.

A idéia neste caso seria criar uma metodologia viável para este tipo de comportamento, mas sim você esta certo a respeito de valores randomicos, mas acredito que isso não daria toda a liberdade e controle numa rede com um conceito novo.

mesmo assim é sempre bom termos ambos os pensamentos soltos, afinal, tudo é conteúdo 😌

1

Sim sim, é verdade!

Sobre os pesos iniciarem aleatórios ou partirem de pesos avaliados, já houve uma tentativa, porém não chegava na solução ideal.

Não me lembro exatamente o artigo, mas vale dar uma olhada.