Executando verificação de segurança...
2

Stability AI lança versão 2.0 do Stable Diffusion

A atualização adota um novo encoder para geração de imagens a partir de texto com resolução de até 768x768 pixels, um upscaler que pode aumentar em 4 vezes a resolução de imagens, um novo modelo de difusão que pode deduzir a profundidade de uma imagem e um novo modelo de inpainting guiado por texto, que facilita a troca de partes da imagem.

A mesma imagem de um filhote de tigre com pelagem branca. A da direita está bem mais nítida.

Esquerda: imagem de 128 x 128. Direita: imagem com resolução 512 x 512, produzida pelo Upscaler.

Uma representação do que o modelo de difusão de profundidade de imagem pode fazer: a imagem de um boneco 3D vermelho em frente a um púlpito se transformou em um stormtrooper, um personagem com textura de abacaxi, um bebê usando um gorro de lã marrom e um robô vermelho com expressão simpática. A aparência do púlpito também se adaptou à cada versão da imagem.

O modelo de difusão de profundidade pode fazer uma imagem de entrada (à esquerda) produzir várias outras (à direita).

Carregando publicação patrocinada...
2

O Stable Diffusion está incrível. Lembro-me que o DALL-E 2 foi a primeira IA de imagem que eu tinha visto e achava ótima, depois foram surgindo as outras ainda melhores. Isso tudo já é relativamente acessível, gastando poucos reais para gerar algumas imagens, mas acredito que se torne cada vez mais acessível 🎉