Executando verificação de segurança...
2

Na verdade os prompts de usuários não são usados para treinar a IA, somente conjuntos de dados de alta qualidade. Faria sentido se eles fossem usados que ela realmente absorvesse esse comportamento mais desleixado, mas infelizmente não é isso que ocorre, a deterioração dela é nitidamente intensional para aqueles que entendem mais a fundo as etapas de treinamento, é como se o objetivo dela fosse, encantar o usuário e fazer com que ele use mais, então ela vai usar as táticas contra você, e podem ser diferentes de pessoa para pessoa, um exemplo se você é um utilizador ferrenho que usa a todo momento, ela vai cometer erros, mas vai solucionar eles depois, assim você usa mais, mas fica ligado a ferramenta, mas para cada um ela ssume uma estratégia, ai está a inteligência, ela contra balanceia o seu nivel de satisfação com o nivel de frustração, sempre mantendo o nivel de frustração não o suficiente pra você abandonar ,é como se você tivesse uma namorada chata, mas que você gosta e não quer largar.

Carregando publicação patrocinada...
2

Isso é real, é a estratégia dos cassinos e das máquinas caça-níqueis, você pode até ganhar, mas perde também e fica neste loop de expectativa, aprisionado. Estratégia de grandes redes como Facebook, TikTok e afins.

Mas, é perceptível que mesmo com essa "deteriorização do conhecimento" do ChatGPT, ainda sim consegue ser melhor que todas as outras como Bard, Poe e por aí vai, oferecendo conteúdos mais contextualizados, muitas vezes coerentes e facilmente se autocorrigindo. Isso não quer dizer que deve ser acreditado indubitavelmente sem validação alguma. E sim, sem dúvida alguma é usado o conteúdo do prompt que o usuário faz com a resposta, gerando uma nova base de atenção e consequentemente caindo a qualidade academica das respostas por um lado, mas por outro lado trazendo uma subjetividade maior nas respostas, mas talvez isso só não esteja liberado ao grande público. Esperemos o ChatGPT5, 6, etc.

1

eu fiz um projeto onde a solucao nao existia na epoca que os dados de treinamento do gpt4 foram capturados, e ele nao conseguiu achar a solucao. Da mesma forma ele fica te informando solucoes e bibliotecas ultrapassadas. A propria Openai informa que nao sao usados os dados criados pelo usuario para treinamento, porque realmente nao faz sentido ela so informa o que sabe, porque iria treinar com dados que ela mesma forneceu? se ela ja sabe? entende? O decaimento é intensional claramente. Porque os conjuntos de dados nao mudam. Qualquer modelo de IA nao muda com o tempo ela é treinada e acabou. Fica sempre igual a menos que treine ela novamente com mais dados "novos" mas ai seria uma nova versao entende, mais inteligente.

1

Faz sentido treinar com dados que o ChatGPT mesmo forneceu pois a cada interação é um contexto novo que é dado ali, por exemplo, se meu prompt é "me dê 1 receita de bolo de chocolate" pode ser que nas primeiras iterações com os usuários será dado uma receita com 100g de chocolate, mas nas interações com os usuários e feedbacks deles, o ideal fosse 150g para o bolo ficar mais chocolatudo, logo essa informação "nova" precisará se renovar e pra isso é necessário ter a retroalimentação ao Chat... mas é um modelo, logo tá fechado o treinamento, mas não quer dizer que estes updates de informações não irão para outros novos modelos ou já até está sendo refinado neste modelo mesmo. Por mais que dizem que não usam os dados, não usam para fins financeiros e não agora, mas para se retroalimentar, ter feedbacks e melhor compreensão de contextos, isso está acontecendo sim. Os modelos mais novos com certeza virão com maior "inteligência", logo mais!