Executando verificação de segurança...
2

Isso foi completamente aleatório e totalmente DESPREOCUPANTE.

Isso tem a ver com a forma que a resposta é gerada. Os modelos de IA, são literalmente programas que completam texto. Quando você digita uma sílaba, existe um conjunto de tokens (caminhos neurais ou outras sílabas/palavras) provável pra completar e atingir o objetivo. Quando configuramos os parâmetros do modelo de IA, conseguimos entender o que pode causar coisas assim.

O parâmetro top_p por exemplo, é usado para selecionar o token mais provável da lista de tokens possíveis e prováveis. O parâmetro temperature é usado pra adicionar entropia na seleção, pra que a resposta pra exata mesma pergunta não seja idêntica. O parâmetro top_k limita o número de tokens que estão na lista de tokens prováveis, mas esse parâmetro não é configurável nem na API da OpenAI para que o modelo possa ser sempre dinâmico.

Isso quer dizer que se você pedir pro modelo de IA completar a frase: o céu é..., classicamente ele vai escolher o céu é azul, que é o conjunto de tokens mais provável. Com um valor de top_p mais alto ele pode completar com o céu é o limite! ou o céu é lindo. Altos valores definidos em temperature ou top_p faz com que tokens menos prováveis sejam escolhidos, causando esse tipo de alucinação, porém usar valores baixos reduzem a probabilidade disso acontecer, fazendo com que ele complete com a mesma resposta quase todas as vezes que fizer a mesma pergunta.

Mas ainda estamos falando de probabilidade. O parâmetro que poderia impedir um token ruim de ser selecionado é o top_k que não é configurável. Então tokens ruins como help i need ainda estarão na lista de tokens, porém com uma probabilidade de 0.0001% de ser escolhido e você foi sorteado com essa versão menos provável.

Lá na lista menos provável, existe uma versão em que ele te respondeu pedindo ajuda, outra em que ele respondeu com raiva, outra com tristeza, outra com ousadia, outra com racismo e por aí vai, já que as possibilidades são quase infinitas quando levamos em conta a quantidade de tokens existentes (são trilhões de rokens, que crescem a cada nova atualização).

E não adianta perguntar pro próprio modelo por quê ele fez isso, porquê ele não sabe. Ele somente vai dar a resposta mais provável com base no conhecimento dele. Então perguntar pra ele o motivo de ter chegado nesse erro, seria a mesma coisa que eu perguntar pra você como o alimento vira cocô dentro da sua barriga. Sua resposta vai ser algo limitado ao seu conhecimento, mesmo que você realize esse processo todos os dias, isso não significa que você sabe exatamebte como ele é feito.

Resumindo, esse texto no final do código foi apenas uma alucinação, nada além disso.

Carregando publicação patrocinada...