Executando verificação de segurança...
1

Eu não manjo muito de IA, e por isso eu não entendi esse trecho:

esse será o último modelo da empresa sem capacidade de raciocínio.

É algo como o DeepSeek faz quando analisa as conversas anteriores para formular uma resposta melhor?

Carregando publicação patrocinada...
1

bom dia, sr.

raciocínio, na minha visão, é a abordagem de chain of thoughts, que, no caso, é mera análise de diversas "falas" da própria LLM a qual busca o melhor caminho. exemplo:

crie um CRUD de users com login e logout em nestjs para mim, conectando a um banco de dados, considerando boas práticas e princípio de MVP. seja exaustivo. aja conforme as melhores práticas amplamente consagradas e defendidas.

  1. deverei considerar as operações de criar, ler, atualizar e deletar usuários; (1000 tokens, e gera-se texto intermediário, o qual será utilizado para alimentar o próximo prompt em cadeia.)
  2. deverei criar entidade de usuário, com os campos de uuid, name, email, password, createdAt, isDeleted, deletedAt, lastLoginAt; (1200 tokens, e gera-se texto intermediário, o qual será utilizado para alimentar o próximo prompt em cadeia.)
  3. deverei utilizar dtos com class validator e class transformer para validar e transformar requisições e respostas; (800 tokens)
  4. deverei utilizar métodos de controller e services para o módulo users; (2500 tokens)
  5. deverei utilizar express-session para garantir manejo de sessões utilizando-se de um módulo auth com métodos de controller e service, com seus respectivos guards para devolver, cancelar e receber cookies. (2500 tokens)
  6. ao dealmeida, deverei justificar e sugerir como próximos passos o uso de redis para persistência de sessões, como instalar e executar a aplicação, a importância de certificados SSL e como emitir um via Let's Encrypt, o deploy a uma vps ubuntu linux via painel facilitado tal como o coolify, e perguntar o que dealmeida gostaria de fazer em seguida. (1000 tokens)

total: 1.000+1.200+800+2.500
+2.500+1.000 = 9000 tokens?
não.

como cada conteúdo gerado é utilizado para o próximo prompt, pois são cadeias de "pensamentos" (chain of thoughts, então a conta seria assim:
(1.000×6)+(1.200×5)+(800
×4)+(2.500×3)+(2.500×2)
+(1.000×1) = 28.700

28700 tokens para fazer o CRUD, desde que eu force text completion.
quem gera as frases de pensamento deve ser uma LLM que comece sempre os textos como "deverei planejar", "deverei fazer", "deverei utilizar", etc, a fim de garantir uma boa geração de texto, sem "preguiças", as quais a própria OpenAI força.
após, a partir de uma LLM enriquecida/treinada/fine-tuned, podemos gerar o texto (código) para cada prompt em específico conforme o texto injuntivo de "pensamento".

para que isto funcione, é necessário criar prompts fazendo uso das funções da linguagem da apostila de português do ensino médio, pois o que um LLM textual-generativo gera é texto baseado em línguas, logo vale a regra.

1

É realmente algo que eu notei no DeepSeek quando testei. No modo DeepThink (acredito que seja esse o nome, não me recordo precisamente), ele começa a analisar da mesma forma que você representou.

Diferente do DeepSeek, o ChatGPT tem mais maturidade para isso. Estou ansioso para ver o resultado disto!

1

sobre o outro tópico, analisar as conversas anteriores é realizar uma pesquisa por similaridade semântica ou contextual, e existem diferentes ferrsmentas para isso, tal como o planejamento RAG (favor pesquisar).

1

Huum. Então o gerenciamente de memória do ChatGPT tem de ser melhor controlado para contextualizar mais a resposta também. Acredito que eu peguei a ideia.

1

Programmer404, atualmente, se você quiser usar um modelo de raciocínio, você precisa selecionar o “o1” ou o “o3-mini”, por exemplo. Segundo Altman, o GPT-5 virá com o raciocínio implementado por padrão, sem a necessidade de escolher essa funcionalidade.

No GPT-4.5, ainda será necessário escolher a opção de raciocínio.

2

Ah, agora eu entendo melhor conforme eu li os comentários. Isto faz referência ao botão "reason" que já existe a um tempo, correto? Eu não sabia que já era ativadado por padrão nos modelos "o1" e "o3-mini".

Bom, IA cada vez se torna algo ainda mais incrível a cada dia que passa, apesar de poucos anos desde sua liberação ao público geral em 2022.