Executando verificação de segurança...
5

Pesquisadores criam solução que permite o treinamento on-device de redes neurais convolucionais com memória inferior a 256 KB

Segundo cientistas do MIT e do MIT-IBM Watson AI Lab, treinar e adaptar um modelo na borda possibilita que ele aprenda e melhore continuamente suas previsões durante a vida útil do aplicativo. O problema, no entanto, é que dispositivos de borda geralmente são limitados em memória e poder de processamento.

Os algoritmos inteligentes e a estrutura que a equipe desenvolveu são capazes de reduzir a quantidade de computação necessária para treinar um modelo.

Uma das partes da solução é um sistema que pula o cálculo de gradiente de camadas e subtensores menos importantes, usando um algoritmo para identificar apenas os pesos mais importantes a serem atualizados durante cada rodada de treinamento.

A equipe também usou quantificação para reduzir o tamanho dos pesos, diminuindo a quantidade de memória necessária para treinamento e inferência.

Por fim, foi utilizado um sistema de treinamento leve, Tiny Training Engine (TTE), que implementou esses algoritmos em um microcontrolador simples.

Com essa combinação, a equipe conseguiu treinar um modelo de visão computacional para detectar pessoas em imagens. Ele foi capaz de concluir a tarefa após apenas 10 minutos de treinamento.

Carregando publicação patrocinada...