Executando verificação de segurança...
5

Agora o ChatGPT pode ajudar um deficiente visual no seu dia a dia

É isso mesmo que você leu. O ChatGPT agora pode ajudar pessoas cegas a atravessarem a rua, pegar um Uber, ônibus, narrar um jogo de futebol para elas, descrever lugares históricos, enfim. Parece loucura, né? Mas este é apenas um dos poderes do novo modelo, GPT-4o anunciado hoje, 13/05 pela OpenAI

A OpenAI fez uma live hoje (13/05) para demonstrar o modelo mais poderoso que eles já lançaram, o GPT-4o, e na boa, com certeza não existe nada no mercado ainda.

GPT-4o, este "ó" vem de "omni", o que indica que o modelo é multidimensional, aceitando tanto entrada de texto como imagem, mas é claro que isso é "pouco" para o poder do GPT-4o, além dele ser tão inteligente quanto o GPT-4T Turbo, ele tem melhor visão a ainda é 50% mais barato.

Mas o deficiente visual que você comentou?

Vamos falar disso agora, o fato do GPT-4o ser tão avançado na visão e ser muito rápido nas respostas, dá a ele o super-poder de acessar o mundo real em tempo real. Sim, em tempo real ele consegue executar ações como por exemplo: descrever um carro que está em movimento e avisar o deficiente visual que o carro chegou. Demais, não é?

Eu não tenho ninguém próximo a mim que passe por problemas cotidiano por não ter a visão, mas imagino o quão sofrido pode ser e não "apenas" sofrido, mas cara, pois, um adestrar um cão para ser o seu cão guia é uma grana, já vi reportagens.

Agora imagina só o ChatGPT podendo direcionar a esta pessoa, poder dar a ela uma vida ainda mais confortável, eu diria.

Você pode tá se perguntando, tá, mas como você sabe disso? Vou compartilhar com você o link da apresentação da OpenAI, mas antes deixa eu te dizer mais alguns benefícios que este novo modelo nos trás.

  1. Pode cantar: Sim, ele pode cantar e de forma afinada viu;
  2. Pode detectar emoções: Uma respiração profunda, por exemplo;
  3. Interagir com o mundo real: O ChatGPT pode acessar a câmera do seu smartphone e descrever exatamente e com muitos detalhes, o que está se passando no mundo real;
  4. Tradução simultânea: Ele pode traduzir em tempo real o que está ouvindo, por exemplo, de inglês para português;

Enfim, esse são alguns dos novos recursos do novo modelo da OpenAI, o GPT-4o. Ah! Já ia esquecendo, a sua base de conhecimento é mais atual que a do GPT-4 Turbo, abril/2023, contra, outubro/2023.

Espero ter ajudado,

Até+

Carregando publicação patrocinada...