Google DeepMind anuncia modelos de IA para robôs
A DeepMind apresentou os modelos Gemini Robotics e Gemini Robotics-ER, desenvolvidos para aprimorar a capacidade dos robôs de interagir com o mundo físico de forma mais eficaz e precisa do que os sistemas anteriores. A empresa afirma que essa tecnologia pode viabilizar aplicações avançadas, incluindo assistentes robóticos mais humanizados.
Ambos os modelos são baseados no Gemini 2.0. O Gemini Robotics integra habilidades de visão-linguagem-ação (VLA), permitindo que os robôs processem informações visuais, compreendam comandos em linguagem natural e realizem movimentos físicos. Já o Gemini Robotics-ER foca no chamado “raciocínio incorporado”, com uma compreensão espacial aprimorada.
Com essa tecnologia, os robôs conseguem executar desde tarefas simples, como pegar uma banana e colocá-la em uma cesta, até atividades mais complexas, antes consideradas inviáveis, como dobrar cuidadosamente uma raposa de origami ou fechar um zíper sem danificá-lo.
Um dos diferenciais do sistema é sua capacidade de realizar novas tarefas para as quais não foi especificamente treinado, o que pode torná-lo útil em ambientes imprevisíveis no futuro.
A DeepMind não divulgou um cronograma de lançamento nem detalhes sobre possíveis aplicações comerciais. Os modelos permanecem em fase de pesquisa.