Eu não manjo muito de IA, e por isso eu não entendi esse trecho:
esse será o último modelo da empresa sem capacidade de raciocínio.
É algo como o DeepSeek faz quando analisa as conversas anteriores para formular uma resposta melhor?
Eu não manjo muito de IA, e por isso eu não entendi esse trecho:
esse será o último modelo da empresa sem capacidade de raciocínio.
É algo como o DeepSeek faz quando analisa as conversas anteriores para formular uma resposta melhor?
bom dia, sr.
raciocínio, na minha visão, é a abordagem de chain of thoughts, que, no caso, é mera análise de diversas "falas" da própria LLM a qual busca o melhor caminho. exemplo:
crie um CRUD de users com login e logout em nestjs para mim, conectando a um banco de dados, considerando boas práticas e princípio de MVP. seja exaustivo. aja conforme as melhores práticas amplamente consagradas e defendidas.
total: 1.000+1.200+800+2.500
+2.500+1.000 = 9000 tokens?
não.
como cada conteúdo gerado é utilizado para o próximo prompt, pois são cadeias de "pensamentos" (chain of thoughts, então a conta seria assim:
(1.000×6)+(1.200×5)+(800
×4)+(2.500×3)+(2.500×2)
+(1.000×1) = 28.700
28700 tokens para fazer o CRUD, desde que eu force text completion.
quem gera as frases de pensamento deve ser uma LLM que comece sempre os textos como "deverei planejar", "deverei fazer", "deverei utilizar", etc, a fim de garantir uma boa geração de texto, sem "preguiças", as quais a própria OpenAI força.
após, a partir de uma LLM enriquecida/treinada/fine-tuned, podemos gerar o texto (código) para cada prompt em específico conforme o texto injuntivo de "pensamento".
para que isto funcione, é necessário criar prompts fazendo uso das funções da linguagem da apostila de português do ensino médio, pois o que um LLM textual-generativo gera é texto baseado em línguas, logo vale a regra.
É realmente algo que eu notei no DeepSeek quando testei. No modo DeepThink (acredito que seja esse o nome, não me recordo precisamente), ele começa a analisar da mesma forma que você representou.
Diferente do DeepSeek, o ChatGPT tem mais maturidade para isso. Estou ansioso para ver o resultado disto!
sobre o outro tópico, analisar as conversas anteriores é realizar uma pesquisa por similaridade semântica ou contextual, e existem diferentes ferrsmentas para isso, tal como o planejamento RAG (favor pesquisar).
Huum. Então o gerenciamente de memória do ChatGPT tem de ser melhor controlado para contextualizar mais a resposta também. Acredito que eu peguei a ideia.
Programmer404
, atualmente, se você quiser usar um modelo de raciocínio, você precisa selecionar o “o1” ou o “o3-mini”, por exemplo. Segundo Altman, o GPT-5 virá com o raciocínio implementado por padrão, sem a necessidade de escolher essa funcionalidade.
No GPT-4.5, ainda será necessário escolher a opção de raciocínio.
Ah, agora eu entendo melhor conforme eu li os comentários. Isto faz referência ao botão "reason" que já existe a um tempo, correto? Eu não sabia que já era ativadado por padrão nos modelos "o1" e "o3-mini".
Bom, IA cada vez se torna algo ainda mais incrível a cada dia que passa, apesar de poucos anos desde sua liberação ao público geral em 2022.