Executando verificação de segurança...
2

Parece sim, mas pode não ser. Pode ser parcialmente. Eu sei que algumas pessoas são mais espertas e não vão dar ^C^V. Não importa se esta é ou não, a questão geral é mais importante.

Até que se prove o contrário, e a única forma seria o autor confessar. Não se engane, não tem outra forma. Então o autor pode até mentir que não será fácil ser desmascarado. Eu tendo a usar a ideia da lei, todo mundo é inocente até que se prove o contrário. Se ele não confessar que usou pelo menos parcialmente, eu vou tomar como texto de autoria dele.

Mas ainda assim, vou analisar a situação, como uma hipótese de ter usado ChatGPT, conforme a desconfiança apresentada.

Esta parece ser porque ela é asséptica como o ChatGPT costuma ser, mas pode ser só estilo da pessoa. Ela tem erros porque não consegue fazer uma análise mais profunda ou dar detalhes, como o ChatGPT faz, mas humanos fazem muito isso também, então fica complicado. Ela é estruturada demais, mas algumas pessoas têm o cérebro assim, para o bem ou para o mal, então ela fará certas coisas muito bem e falharão muito quando precisa de um pensamento que exige uma cognição mais sofisticada.

Pegando um exemplo: "pode executar várias tarefas complexas, como tradução, resumo e geração de conteúdo. Sua utilidade não se limita apenas a tarefas mecânicas e simplistas.".

  • Tradução não é complexa, é mecânica e, embora dê um resultado muito bom, melhor que um tradutor medíocre, é algo simples de fazer.
  • Ele faz resumos simplistas, e pra melhorar dá muito trabalho. Resumo ainda é mecânico, ainda mais um simplista. Não é infrequente ele piorar o conteúdo no resumo. Ele faz melhor que um humano com baixa qualificação faria, mas é o mesmo que acontece com música, só porque ele faz música "tão boa ou melhor" que as atuais populares, não quer dizer que ela faça música boa.
  • A geração de conteúdo dele é bem ruim, até por ser feita de forma mecânica e simplista. Ele até acerta, mas não consegue pegar os pontos que realmente importam a não ser com muito trabalho. Ele gera conteúdo extremamente raso, em geral pior que um humano faria, só faz isso mais rápido.
  • Então a conclusão não é baseada em fatos reais, ele erra em classificar algo mecânico e simplista como se fosse complexo. Algo que o ChatGPT faz muito. Mas humanos também cometem esse tipo de erro aos montes. Então fica difícil afirmar quem escreveu.

As outras afirmações vão pelo mesmo caminho ou são simplistas demais, até caindo em obviedades.

Meu maior temor é justamente as pessoas começarem usar o ChatGPT para dar uma base rasa, que é só o que ele pode fazer e enfeitar para parecer algo mais autoral. O problema da humanidade nunca foi gerar textos, foi pensar. Se você pensar e mandar o ChatGPT gerar um bom texto com seu pensamento, talvez saia um resultado bom. Se você mandar ele pensar e você dar um texto mais humano, aí é muito preocupante. É disso que eu falo. Porque ele não é capaz de pensar. E muita gente está achando que ele pode fazer isso, mesmo discursando que não acha isso. Caso contrário não usaria dessa forma.

Eu prefiro todos esses defeitos, mas 100% criados por um ser humano. Melhor ainda sem esses defeitos, criados por quem for. Se a IA começar a fazer análises precisas, corretas, profundas, sem viés, cuidadosas, democráticas a melhor acepção da palavra, eu soltarei rojões.

Eu sei que estou cada vez mais cauteloso com o que as pessoas postam. Só não vai mudar tanto porque nunca comprei fácil teses mal fundamentadas.

Carregando publicação patrocinada...
2

Que coisa, essa tecnologia mal acabou de surgir e já criou outro problema: além dela não ser 100% confiável, as ferramentas para detectar textos feitos por ela também não são... :-P