Executando verificação de segurança...
2

OpenAI cancela o3 e focará no GPT-5

A OpenAI decidiu cancelar o lançamento do o3 para concentrar seus esforços no desenvolvimento do GPT-5. O modelo estava previsto para ser lançado entre fevereiro e março deste ano, segundo Kevin Weil, diretor de produtos da empresa.

O CEO Sam Altman afirma que a decisão visa simplificar a oferta de produtos, eliminando a necessidade de escolha entre diferentes modelos dentro do ChatGPT. A empresa quer que a IA “simplesmente funcione” sem complicações para os usuários.

Quando o GPT-5 for lançado ao público, ele permitirá acesso ilimitado para todos os usuários, enquanto assinantes do ChatGPT Plus terão acesso a um nível superior de inteligência e usuários do plano Pro poderão utilizá-lo em um nível ainda mais avançado. O GPT-5 integrará voz, tela, busca e pesquisa profunda.

Antes disso, a OpenAI lançará o GPT-4.5, codinome Orion, nas próximas semanas. Segundo Altman, esse será o último modelo da empresa sem capacidade de raciocínio.

1

Eu não manjo muito de IA, e por isso eu não entendi esse trecho:

esse será o último modelo da empresa sem capacidade de raciocínio.

É algo como o DeepSeek faz quando analisa as conversas anteriores para formular uma resposta melhor?

1

bom dia, sr.

raciocínio, na minha visão, é a abordagem de chain of thoughts, que, no caso, é mera análise de diversas "falas" da própria LLM a qual busca o melhor caminho. exemplo:

crie um CRUD de users com login e logout em nestjs para mim, conectando a um banco de dados, considerando boas práticas e princípio de MVP. seja exaustivo. aja conforme as melhores práticas amplamente consagradas e defendidas.

  1. deverei considerar as operações de criar, ler, atualizar e deletar usuários; (1000 tokens, e gera-se texto intermediário, o qual será utilizado para alimentar o próximo prompt em cadeia.)
  2. deverei criar entidade de usuário, com os campos de uuid, name, email, password, createdAt, isDeleted, deletedAt, lastLoginAt; (1200 tokens, e gera-se texto intermediário, o qual será utilizado para alimentar o próximo prompt em cadeia.)
  3. deverei utilizar dtos com class validator e class transformer para validar e transformar requisições e respostas; (800 tokens)
  4. deverei utilizar métodos de controller e services para o módulo users; (2500 tokens)
  5. deverei utilizar express-session para garantir manejo de sessões utilizando-se de um módulo auth com métodos de controller e service, com seus respectivos guards para devolver, cancelar e receber cookies. (2500 tokens)
  6. ao dealmeida, deverei justificar e sugerir como próximos passos o uso de redis para persistência de sessões, como instalar e executar a aplicação, a importância de certificados SSL e como emitir um via Let's Encrypt, o deploy a uma vps ubuntu linux via painel facilitado tal como o coolify, e perguntar o que dealmeida gostaria de fazer em seguida. (1000 tokens)

total: 1.000+1.200+800+2.500
+2.500+1.000 = 9000 tokens?
não.

como cada conteúdo gerado é utilizado para o próximo prompt, pois são cadeias de "pensamentos" (chain of thoughts, então a conta seria assim:
(1.000×6)+(1.200×5)+(800
×4)+(2.500×3)+(2.500×2)
+(1.000×1) = 28.700

28700 tokens para fazer o CRUD, desde que eu force text completion.
quem gera as frases de pensamento deve ser uma LLM que comece sempre os textos como "deverei planejar", "deverei fazer", "deverei utilizar", etc, a fim de garantir uma boa geração de texto, sem "preguiças", as quais a própria OpenAI força.
após, a partir de uma LLM enriquecida/treinada/fine-tuned, podemos gerar o texto (código) para cada prompt em específico conforme o texto injuntivo de "pensamento".

para que isto funcione, é necessário criar prompts fazendo uso das funções da linguagem da apostila de português do ensino médio, pois o que um LLM textual-generativo gera é texto baseado em línguas, logo vale a regra.

1

É realmente algo que eu notei no DeepSeek quando testei. No modo DeepThink (acredito que seja esse o nome, não me recordo precisamente), ele começa a analisar da mesma forma que você representou.

Diferente do DeepSeek, o ChatGPT tem mais maturidade para isso. Estou ansioso para ver o resultado disto!

1

Programmer404, atualmente, se você quiser usar um modelo de raciocínio, você precisa selecionar o “o1” ou o “o3-mini”, por exemplo. Segundo Altman, o GPT-5 virá com o raciocínio implementado por padrão, sem a necessidade de escolher essa funcionalidade.

No GPT-4.5, ainda será necessário escolher a opção de raciocínio.

2

Ah, agora eu entendo melhor conforme eu li os comentários. Isto faz referência ao botão "reason" que já existe a um tempo, correto? Eu não sabia que já era ativadado por padrão nos modelos "o1" e "o3-mini".

Bom, IA cada vez se torna algo ainda mais incrível a cada dia que passa, apesar de poucos anos desde sua liberação ao público geral em 2022.

1

sobre o outro tópico, analisar as conversas anteriores é realizar uma pesquisa por similaridade semântica ou contextual, e existem diferentes ferrsmentas para isso, tal como o planejamento RAG (favor pesquisar).

1
1

Parece uma bagunça, mas na prática a OpenAI chegou a conclusão que todo o modelo virá com pensamento, não será algo a parte.

Basicamente só tiveram que escolher se seria GPT ou O. No Final será tudo GPT-5, basicamente um O3 melhorado pegando idéias do DeepSeek.