Executando verificação de segurança...
1

eu fiz um projeto onde a solucao nao existia na epoca que os dados de treinamento do gpt4 foram capturados, e ele nao conseguiu achar a solucao. Da mesma forma ele fica te informando solucoes e bibliotecas ultrapassadas. A propria Openai informa que nao sao usados os dados criados pelo usuario para treinamento, porque realmente nao faz sentido ela so informa o que sabe, porque iria treinar com dados que ela mesma forneceu? se ela ja sabe? entende? O decaimento é intensional claramente. Porque os conjuntos de dados nao mudam. Qualquer modelo de IA nao muda com o tempo ela é treinada e acabou. Fica sempre igual a menos que treine ela novamente com mais dados "novos" mas ai seria uma nova versao entende, mais inteligente.

Carregando publicação patrocinada...
1

Faz sentido treinar com dados que o ChatGPT mesmo forneceu pois a cada interação é um contexto novo que é dado ali, por exemplo, se meu prompt é "me dê 1 receita de bolo de chocolate" pode ser que nas primeiras iterações com os usuários será dado uma receita com 100g de chocolate, mas nas interações com os usuários e feedbacks deles, o ideal fosse 150g para o bolo ficar mais chocolatudo, logo essa informação "nova" precisará se renovar e pra isso é necessário ter a retroalimentação ao Chat... mas é um modelo, logo tá fechado o treinamento, mas não quer dizer que estes updates de informações não irão para outros novos modelos ou já até está sendo refinado neste modelo mesmo. Por mais que dizem que não usam os dados, não usam para fins financeiros e não agora, mas para se retroalimentar, ter feedbacks e melhor compreensão de contextos, isso está acontecendo sim. Os modelos mais novos com certeza virão com maior "inteligência", logo mais!