Executando verificação de segurança...
2

Quão errado é usar o ChatGPT no trabalho?

Boa madrugada pessoal! Esse é meu primeiro post, e é uma dúvida.
A dúvida do título é porque recentemente vi um depoimento de alguém que falou do ChatGPT em uma entrevista de emprego, e basicamente ele tomou um esporro por isso.
Aí fiquei pensando se eu estava errado em usar, pois direto quando tem algo que me dá muito trabalho pensar pra resolver, eu peço pra ele fazer da forma que mais economizar recursos e otimizada possível (as vezes não funciona haha), então testo, e se funcionar, parto pra frente.
Isso é errado? Ou realmente é preciso passar horas pensando na solução de um problema?

Carregando publicação patrocinada...
3

Zero erro.

Errado é o entrevistador. Porém, se você quer uma vaga em um lugar com alguém tão despreparado, você tem que responder e fazer tudo o que ele quer ouvir. O que é algo muito difícil. Tentar adivinhar o que o outro quer é algo perto do impossível. Por isso eu prefiro ser eu mesmo, com cuidado, com atenção a tudo o que está acontecendo, e se der errado, ótimo, eu não queria mesmo.

Sim, eu não quero um emprego em um lugar ruim. Nem todo mundo tem esse privilégio ou nem isso, também é questão de coragem, e saber administrar isso. Tudo tem um preço a pagar, cada um sabe o preço que quer pagar.

Usar o ChatGPT pode ser útil e deve ser usado se você tem resultados bons.

Eu estou com dificuldade de obter bons resultados, por isso estou esperando ele melhorar mais. Pode ser que eu eu seja burro? Pode ser. Mas eu me dei bem tanto tempo fazendo coisas complexas, entendendo o mundo tão bem, sendo reconhecido pelo que faço, e sempre pesquisei, fui curioso, questionador, aprendi tanta coisa, que fico achando estranho eu usar o ChatGPT errado e um monte de gente usa certo.

Ele já me ajudou. Mas me tomou tanto tempo tantas vezes que desanimei um pouco e estou usando bem menos. Isso vai mudar no futuro. Estou tentando usar mais o Copilot. Ainda é falho, mas parece ajudar um pouco mais. Provavelmente ajuda mais inexperientes.

O problema do ChatGPT é que ele não inspira muita confiança. Você tem que desconfiar de tudo, mas especialmente dele. Isso é chato e trabalhoso.

Então o grande problema é que você pode estar usando ele errado, então aí é errado usar no trabalho. Minha observação é que a maioria das pessoas estão usando errado, seja pela excessiva confiança nos resultados, seja na dependência dele, que é um problema sociológico que não vou entrar aqui porque é complexo, mas já falei em outras postagens e vai levar a sociedade à ruína se nada mudar, e será lento. Na verdade, já começou antes de IA existir de fato. O acesso fácil à informação é prejudicial à saúde. Só de perguntar aqui já pode atrofiar o cérebro. Por isso eu prefiro responder do que perguntar, isso me faz pensar, e treinar a comunicação, onde eu sou deficiente. Ainda que perguntas podem me ajudar muito, e em dado momento sei usar para me ajudar.

O ser humano precisa tomar cuidado com ferramentas que evitam o que ele precisa fazer por conta própria. Carro, elevador, escada rolante e outros meios de transporte já criaram problemas para todos. Pelo menos inventaram a academia para compensar. Precisamos inventar algo para as pessoas compensar o esforço que o ChatGPT vai evitar. De que adianta a pessoa economizar minutos usando o ChatGPT e depois gastar horas fazendo coisas sem utilidade prática só para treinar o cérebro melhor? Por enquanto eu não vejo as pessoas usando academias para compensar o ChatGPT.

Existem pessoas radicais em tudo. Parece que há uma "conspiração" da humanidade como um todo para isso se intensificar cada vez mais em qualquer assunto. Então tem os aderentes ao ChatGPT até a última ponta e tem os negacionistas dele. Todas essas pessoas estão erradas, como em qualquer assunto (ou quase). O equilíbrio, a posição mais central costuma ser sempre melhor, até porque ela permite mais flexibilidade e mudança.

Você pode estar usando errado? Estatisticamente eu diria que sim. Mas se eu e você comemos juntos dois peixes por semana então eu sei que você come 2 peixes sozinho. Quando morre 1000 pessoas é estatística, quando uma delas é quem você ama, não é mais. Entendeu? Se usar certo, ótimo" Mas será que sabe avaliar isso? A maioria não sabe.

Se usar errado, tem que levar esporro mesmo :D Mas eu não posso dizer se isso é verdade ou não. O entrevistador também não.

Pense positivo, na próxima encontrará um lugar melhor para trabalhar.

Faz sentido para você?

Espero ter ajudado.


Farei algo que muitos pedem para aprender a programar corretamente, gratuitamente. Para saber quando, me segue nas suas plataformas preferidas. Quase não as uso, não terá infindas notificações (links aqui).

1

Bem-vindo, mano!
O problema acredito que os empregadores possam ter é na questão da confiabilidade, por você estar "compartilhando" código que muitas vezes é confidencial em uma plataforma. Acredito que a utilização em si não seja um problema, até pq nós programadores, sempre utilizamos fóruns e plataformas para nos auxiliar e tirar dúvidas durante o processo de desenvolvimento, o ChatGPT acaba sendo mais uma ferramenta.

1

Sinceramente eu uso o chatGPT só pra tarefa repetitiva. Última vez que usei foi pra fazer um dicionário traduzindo 100 retorno de erro.
A base de código que eu uso tem 5k de arquivos. Nem faz sentido tentar jogar no gpt pra resolver algum problema.

1
1

Antes do ChatGPT a grande maioria usava o google e acabava clicando em alguma pergunta feita no stackoverflow. Não tem nada de errado em fazer esse tipo de "pesquisa" usando o chatgpt ou google. Para a maioria não existe diferença nenhuma. Uma coisa que você deve se questionar é se você entende o código que você está copiando e colando. Você conseguiu entender a lógica? Você conseguiu aprender? Ou você só está querendo uma solução e nada mais? Sempre tentar usar essas pesquisas como um meio de aprendizado, nunca como uma solução imediata. Gaste alguns minutos tentando entender como o código está solucionando seu problema e por qual motivo você não estava conseguindo resolver sozinho.

1

Cara, creio que varia muito de opinião para opinião.
Trabalho para uma agência onde o patrão já reclamou com a secretaria ao saber que ela usa GPT para geração de textos, sequer sabe que uso no código nem mesmo acho necessário ele saber já que sou eu quem faço tudo, porem uso apenas o GPT para coisas simples coisas que eu perderia mais tempo codando doq escrevendo 1 ou 2 linhas de texto para o GPT me retornar a base daquilo que preciso.

Agora dizendo de praticidade, já tentei usar o GPT para coisas mais complexas, porem por alguma razão ele sempre me retorna códigos e soluções legadas ou bugadas dito isso por experiência própria prefiro recorrer a ele apenas para coisas mais simples como mencionei a cima.

Sinceramente creio que não há mal algum em usar o GPT no seu trabalho, apenas ter consciência de que aquilo é um retorno genérico e que se deve averiguar antes de cogitar usar em produção.

1

O problema não é se é errado ou certo, mas saber usar do jeito certo, saber fazer as perguntas certas e nã osó isso saber validar as respostas, não confiar 100% nas respostas devido a alta taxa de erros, para quem sabe usar do jeito certo é uma ferramenta muito boa, mas no seu trabalho o errado é colocar dados pessoais ou da empresa no input do chat, mas para outras coias que nao sejam dados da empresa acredito qeu não há problemas.

1

Tem pessoas que ainda não conseguem lidar com inovações, pois não há muita diferença em usar o chatGPT ou o google, ambos são fontes de informação que é usado por nós.
A diferença é que o chatgpt vai usar sua pesquisa para aprender mais, então colocar um código real da empresa (regras de negocio ) não é recomendado.

Eu particularmente ainda prefiro ver documentações das linguagens/framework ou o StackOverflow. O chatGPT ainda não tive bons resultados, preciso ficar refinando muito a conversa até ter algo que sirva.

1

O ChatGPT e outras IA do mesmo tipo ainda são um tabu em muitos lugares, empresas, recrutadores e profissionais ainda não sabem lidar exatamente com isso e a questão do vazamento de informações que podem ser processadas e assimiladas de alguma forma por essas IA gera um medo de certa forma "racional" pelas empresas.

Mas falando da área de desenvolvimento acho que o maior problema não é esse, o que eu vejo como problema é que muitos devs "terceirizam" a execução da tarefa/demanda para as IA. Não para ganhar tempo mas por não saber resolver.

Vou citar o que você disse para dar um exemplo:

Isso é errado? Ou realmente é preciso passar horas pensando na solução de um problema?

Quando é errado:

  • Não entendeu o problema de forma clara, e já jogou no GPT ou similar para ter uma resposta
  • Não pesquisou nada antes de partir para uma geração automática para a solução
  • Não tem conhecimento suficiente para saber se o que foi proposto pelo GPT é aplicavél ou pode gerar problemas direta ou indiretamente
  • Não realizar testes em cima disso
  • Usar dados reais da empresa, clientes e etc

Quando não é errado:

  • Para ENTENDER melhor o problema e a partir de uma situação mais clara continuar o trabalho por si mesmo ou até mesmo continuar sendo auxiliado pelo GPT
  • Para ganhar tempo, mas de uma coisa que você já tem domínio e saberia fazer sozinho (por exemplo, os getters e setters que algumas IDEs fazem)
  • Para testar cenários, por exemplo, como ficaria o código se usar lib/técnica X ou invés de Y
  • Criar testes que você não chegou a pensar, por exemplo, o GPT pode te sugerir um teste enviando um determinado campo string ao invés de número e isso ser um teste que você não pensou em escrever

Veja que nos exemplos que eu coloquei, o que na minha visão é o certo é quando o programador tem controle sobre o que está sendo feito sem comprometer dados da empresa. Isso é usar as IAs como ferramentas ou até mesmo como pair programming.

A partir do momento que a IA está fazendo coisas que você não entende, ou você passa para ela definir coisas que você mesmo nem entendeu a princípio, aí sim está gerando um problema para o projeto, para o time, para o contratante e claro para você mesmo.

1

Eu não acho que a utilização é errada, eu uso bastante e me ajuda demais, principalmente quando estou migrando de frameworks, tipo trabalhei muito tempo em React, tudo de React ta na minha cabeça e agora estou indo para o Vue.js. Eu amo fazer perguntas do tipo: "me mostra como faz um useEffect do React só que no Vue.js" e então o ChatGPT me da uma solução com o "watch" do Vue. Resumindo: eu uso muito pra coisas assim.

Agora o que tem que ter cuidado é em copiar e colar código confidencial da empresa. Isso eu nunca fiz e não recomendo, mesmo que seja uma função que não tenha nenhuma chave exposta ou coisa assim. Normalmente quando você vai trabalhar você assina um contrato de confidencialidade, mandar código de algum projeto da empresa pro ChatGPT faz você quebrar essa clausula e pode dar justa causa.

Ou realmente é preciso passar horas pensando na solução de um problema?

As vezes você vai passar horas (ou dias) pensando na solução de um problema sim, as vezes não. As vezes o GPT vai ser útil e as vezes não.

O GPT não deve ser um divisor de águas na hora de vc programar, você quem deve dividir a água, o GPT vai ser, sei la, talvez uma máquina que faz uma super condução de vento que quando você ligar apontado pro rio vai te ajudar a dividir a água, mas ainda assim você tem que segurar ele forte para não acabar tombando.

Eu inventei essa analogia agora do nada, mas é isso, espero que tenha ajudado haha.

1

Não há problema algum em utilizar desde que você não forneça informações sigilosas da empresa como insumos para conseguir a sua resposta, pois o chatgpt utiliza os prompts inputados no acesso público para treinar o seu modelo e isso se caracteriza como vazamento de informações e pode inclusive custar seu emprego.