Executando verificação de segurança...
1

OpenAI publica estudo delineando novo modelo para geração de imagens

Enquanto modelos de difusão – como os utilizados no DALL-E e Stable Diffusion – são treinados para subtrair ruídos em milhares de etapas até chegar a um resultado satisfatório, o “modelo de consistência” faz isso em uma única etapa, tornando-se ordens de magnitude mais rápido e eficiente, possibilitando sua execução em dispositivos como smartphones.

Duas fileiras de cinco imagens, sendo a primeira delas com bastante ruído e a última totalmente limpa. As imagens mostram o mesmo quarto espaçoso, com uma cama de casal grande posicionada do lado direito, com a cabeceira encostada na parede, embaixo de um quadro com uma pintura abstrata. O chão é de assoalho cinza escuro, com um tapete branco felpudo cobrindo uma boa parte. Ao fundo, há uma grande porta de correr de vidro, mostrando uma mureta logo atrás e um céu noturno, com a lua brilhando em meio a algumas nuvens. Mesmo na imagem com mais ruído de todas (a primeira da primeira fileira), é possível enxergar a composição do quarto.

Mesmo quando a imagem é composta principalmente por ruído ou dados, os modelos de consistência vão direto para o resultado final.

Carregando publicação patrocinada...