Nem sempre ele é sutil. Mas é sutil quando tudo parece ser algo bom. E pode não ser. Um especialista sabe que é não é bom, um leigo não sabe, e sutilmente acaba se enganando porque o texto é semrpe muito bem escrito. Ser bem escito passa credibilidade. A forma costuma ter mais valor no cérebro das pessoas do que o conteúdo, podemos ver o tempo todo em toda internet.
Em TI eu consigo ver erros mais facilmente, porque não sou leigo, em questões de saúde eu não consigo, precisaria de um especialistas falar. Por isso eu ignoro completamente, porque eu não posso separar o joio do trigo. Eu não posso acreditar em algo que não posso atestar confiabilidade.
O probelma todo é justamente as pessoas atribuirem por padrão que ele é confiável e se alguém achar um problema é que deve "provar" que tem, quando deveria ser o contrário, ele é inconfiável e quem quiser acreditar que prove que o ChatGPT falou algo certo. Quando começar acontecer em tudo ficará bom. Ou pelo menos que em cada lugar que alguém publique algo do ChatGPT, diga que é dele, alguns fazem e outros não, e até que fique claro para todo mundo o que ele é ou não é, que faça a ressalva sobre essa confiabilidade.
Não dá para dar risada quando ele narra uma corrida de Formula 1 que acabou de acontecer com um texto completamente fansasioso como se fosse verdade e achar que quando ele não faz algo tão óbvio, que parece certo, não seja hilário também. Se a pessoa não domina o assunto ela nunca sabe onde está sendo enganada, e quanto mais parece certo mais arriscado é, esse é todo o problema.
No momento que as pessoas questionarem o ChatGPT em vez de questionar quem o questiona, tudo ficará bem porque estamos saindo da histeria.