Executando verificação de segurança...
3

OpenAI admite que detectores de escrita por IA não funcionam

Esses sistemas não conseguem distinguir de forma confiável entre conteúdo gerado por máquinas e humanos, frequentemente resultando em falsos positivos. A empresa também reforçou que o ChatGPT não possui a capacidade de reconhecer se um texto foi escrito por uma IA ou não.

Carregando publicação patrocinada...
2

Isso se dá pela lei de que na IA nada se cria, nada se perde, tudo se transforma 😂.

O que a GPT e outras IAs tem feito é reescrever/refazer o que os humanos já falaram/fizeram, então é de se esperar que não se desvie do padrão do que um humano falaria, mesmo nos momentos que ela é "burra", devaneia ou escreve um texto como uma criança de 7 anos, podemos assumir que existem humanos que fariam o mesmo texto.

Logo uma ferramenta para validar se um texto é feito por humano ou reescrito por uma IA já é falha desde a concepção da ideia que seria possível criar uma ferramenta para isso.

1

É só pedir para a IA fazer o texto e você modificar algumas partes depois, no final ninguém sabe quem fez o texto 😎😂

0
2

Muito pelo contrário, é fácil perceber se um texto foi escrito por IA, mas não é tão fácil assim fazer um sistema que detecte de forma automática.

0

Contrarie. A maquina é muito melhor para processamento de identificação de padrão, nem é necessária uma IA para isso, e com as IAs isso se torna mais fácil ainda. Logo, se você consegue identificar algo, é porque percebeu um padrão, e sabendo desse padrão facilmente conseguiria criar um roteiro de verificação para validar se o autor do texto é IA ou Humano.

Mesmo existindo textos que visualmente consideramos que foi feito por uma ia, por ser muito pragmático, por exemplo, não podemos excluir a probabilidade que aquele texto tem de ter sido criado por um humano. E a depender do teu prompt/input para IA, e do modelo utilizado, os textos se tornam menos perceptíveis que foram feitos por uma IA

2

Para uma pessoa bem treinada é difícil um texto passar despercebido, pelo menos com as IAs atuais. Elas tem um "sotaque" muito simples de se perceber:

  • Falam apenas o óbvio
  • Repetem exatamente o que foi perguntado
  • Repetem os mesmos termos várias vezes
  • Escrevem demais (enchem muita linguiça)
  • Não contém erros ortográficos

Muitas vezes já peguei textos feitos por IA aqui no Tabnews e é relativamente simples de se percebe-los. Claro que podem existir alguns da qual eu não tenha percebido, mas outros perceberam. IAs generativas não são mais algo novo como eram há 9 meses atrás, todos já estão de saco cheio de ver textos gerados por elas e do alarmismo desnecessário propagado por leigos. Por isso que fica cada dia mais fácil de se identificar textos gerados por elas.

Contudo, fazer isso de forma automática não é nada simples. Não é simplesmente um "criar um roteiro de validação", existem muitas variáveis envolvidas nesse processo, variáveis essas que o cérebro humano consegue lidar de forma muito mais eficiente e precisa que qualquer computador. Sempre existem ruídos ao tratar os dados de entradas para um modelo e é aí que surgem muitos falsos positivos e falsos negativos, o que para um sistema como esse seria fatal.