De Sênior a Arqueólogo Digital: Por que a IA está nos transformando em caçadores de bugs “alucinados”

Antes de você pegar sua tocha, seu forcado, foices etc e correr para os comentários me chamar de “inimigo do progresso” e queira fazer uma fogueira, vamos deixar uma coisa bem clara: eu uso Inteligência Artificial.

Uso o ChatGPT, o Copilot e o que mais aparecer. A IA é uma ferramenta incrível, um “copiloto” sensacional. O problema começa quando a gente larga o volante, vai para o banco de trás tirar um cochilo e espera que o copiloto — que não tem carteira de motorista — dirija sozinho na serra em dia de neblina.

Inclusive tenho livros na Amazon sobre IA e alguns ensinam u pouco a usar de forma mais consciente (recomendo inclusive ). Feito o disclaimer para afastar os sem noção, vamos falar da realidade do desenvolvimento de software em 2025.

Você tem a sensação de que o código está ficando mais “sujo”? Não é coisa da sua cabeça.

Um estudo massivo realizado pela GitClear (analisando 153 milhões de linhas de código alteradas entre 2020 e 2023) trouxe um dado alarmante: a taxa de código que é escrito e logo em seguida descartado ou reescrito está explodindo.


De Sênior a Arqueólogo Digital: Por que a IA está nos transformando em caçadores de bugs “alucinados”

Vamos começar tirando o elefante da sala (ou o servidor do rack, para mantermos a temática): eu não sou contra a Inteligência Artificial. Muito pelo contrário. Eu uso o ChatGPT, o Copilot e qualquer ferramenta que prometa automatizar a parte chata do meu trabalho. A IA é, sem dúvida, a revolução mais impactante na nossa área desde a invenção do compilador.

Porém, existe uma linha tênue entre usar uma parafusadeira elétrica para agilizar o trabalho e entregar uma motosserra ligada na mão de uma criança e esperar que ela construa uma casa na árvore. O que estamos vendo em 2024/2025 não é apenas “ajuda”, é uma terceirização perigosa do pensamento lógico.

Se antes nosso trabalho era escrever código, hoje estamos nos tornando Arqueólogos Digitais. Passamos o dia escavando repositórios, espanando a poeira de funções geradas em segundos por um LLM e tentando decifrar o hieróglifo moderno: “Por que a IA importou essa biblioteca que não existe?”.

O Grande “Code Churn”: Escrevendo muito, aproveitando pouco

Você tem a sensação de que o código está ficando mais “sujo”? Não é coisa da sua cabeça.

Um estudo massivo realizado pela GitClear (analisando 153 milhões de linhas de código alteradas entre 2020 e 2023) trouxe um dado alarmante: o “Code Churn” — a taxa de código que é escrito e logo em seguida descartado ou reescrito — está explodindo.

O que isso significa na prática? Estamos gerando montanhas de código “descartável”. A facilidade de dar um Tab e aceitar a sugestão do Copilot faz com que devs (especialmente os mais inexperientes) adicionem blocos inteiros sem crítica. O resultado é um software inchado, difícil de manter e que, estatisticamente, tem uma qualidade inferior ao código “artesanal” de 5 anos atrás. A “Dívida Técnica” não está mais sendo paga em parcelas; estamos pegando empréstimos com agiotas a juros de 100% ao dia . E sim, como empréstimo com agiota onde você corre risco de vida, neste caso quem corre risco é sua carreira ou sua empresa

Alucinações de Pacotes: O Pesadelo de Segurança

Aqui a coisa deixa de ser engraçada e fica perigosa. O termo “alucinação” na IA é quando ela inventa fatos. No código, ela inventa dependências.

Pesquisadores de segurança (como a equipe da Vulcan Cyber e Bar Lanyado) descobriram uma técnica de ataque chamada “AI Package Hallucination”. Como funciona?

  1. O desenvolvedor pede à IA uma solução para um problema complexo.
  2. A IA sugere um código que importa uma biblioteca fictícia, ex: import arangodb-async-driver (nome inventado, mas que parece real).
  3. O desenvolvedor confia, tenta instalar e vê que não existe.
  4. O GOLPE: Hackers monitoram essas alucinações comuns, criam pacotes maliciosos exatamente com esses nomes sugeridos pela IA e publicam nos repositórios oficiais (NPM, PyPI).
  5. Quando o dev roda o npm install ou pip install, ele baixa um malware para dentro da empresa, cortesia de uma sugestão do ChatGPT.

Isso não é ficção científica. É um vetor de ataque real criado pela confiança cega na ferramenta. Lembre-se que tem sem em algum local do mundo alguém com tempo livre suficiente e ser mal intencionado para pensar alguma dúzia de maneiras de aproveitar algum brecha para fazer algo errado. Não duvide nunca da capacidade humana , nem pro bem, nem pro mal….

O Caso Samsung: Quando o Segredo Industrial vira Treino de IA

Lembra quando dissemos para usar a IA com moderação? Em 2023, a Samsung aprendeu isso da pior forma.

Em um esforço para otimizar o trabalho, engenheiros da divisão de semicondutores da empresa colaram códigos-fonte confidenciais e notas de reuniões inteiras dentro do ChatGPT para pedir ajuda com correções e resumos. O problema? Ao fazer isso, eles enviaram segredos industriais para os servidores da OpenAI, onde esses dados poderiam (teoricamente) ser usados para treinar o modelo. Resultado: A Samsung baniu o uso de IA generativa em dispositivos da empresa e correu para criar sua própria IA interna.

Isso ilustra o fenômeno do “Shadow AI”: o desenvolvedor, na ânsia de entregar a tarefa logo, joga as regras de segurança pela janela (e o código proprietário junto).

A Era da “Programação Orientada a Fé”

Estamos vivendo a ascensão do Faith-Driven Development (Desenvolvimento Orientado a Fé). Funciona assim:

  1. Digita o prompt.
  2. Copia o código.
  3. Cola na IDE.
  4. Reza para compilar.

Se der erro, a solução não é ler a documentação ou entender a lógica. A solução é copiar o erro, colar de volta no chat e perguntar: “Deu erro, arruma aí”. Isso cria um ciclo vicioso onde o programador perde a capacidade de entender a causa raiz dos problemas. Se o oráculo (a IA) não souber a resposta, o projeto trava.

Conclusão: O Humano como “Safety Net”

A IA veio para ficar e quem não usar vai ficar para trás. Isso é certo e não tem pra onde correr. Mas a profissão de desenvolvedor está mudando. Estamos deixando de ser pedreiros de código para nos tornarmos inspetores de obra.

O valor de um profissional de TI hoje não está na velocidade com que ele digita, mas na capacidade de olhar para o que a máquina cuspiu e dizer: “Isso aqui vai ferrar em produção daqui a três meses” ou “Essa biblioteca nem existe, a IA ta viajando de novo”.

Use a IA. Abuse da produtividade dela. Mas nunca, jamais, entregue as chaves da produção para ela sem antes fazer uma auditoria forense no que foi produzido. Afinal, quando o servidor cair às 3 da manhã de um sábado, o ChatGPT não vai atender o telefone. Quem vai ter que resolver é você.

Imagine 1 hora para fechar o expediente no antes de um possível recesso de fim de ano, você ja se vendo no transito pra praia feliz da vida e um destes “frankenstein” resolve acordar e começa ai suas piores 24 horas da sua vida para fazer voltar sua aplicação rodar minimamente bem para quando voltar do recesso resolver ela 100%.

Aposto que não vai ser divertido como este texto.

Para não dizer que sou contra IA algumas recomendações (sim os dois primeiros são meus)

IA EXPLICADA: A tecnologia que está redefinindo o mundo: Um livro que abre a caixa-preta da IA. Ele explica os conceitos de forma profunda, mas simples.

  • O diferencial: Não se preocupe, você não vai precisar de um doutorado em matemática para ler. Ele foca em explicar como a “mágica” acontece e como esses modelos “pensam” (ou fingem pensar), sem te afogar em fórmulas complexas.

Código 3x Mais Rápido: O Playbook Real para IA na Produção: Esta é a prova definitiva de que sim, eu uso IA (e não tenho nada contra, muito pelo contrário!).

  • O que você vai encontrar: Exemplos práticos de como usar a IA como uma ferramenta de produtividade, não de preguiça. O livro cobre desde o levantamento de requisitos (ajudando a identificar falhas no que o cliente pediu), passando pela arquitetura (considerando restrições financeiras e técnicas), até chegar no desenvolvimento de código pouco mais limpo, testes unitários e documentação. É o guia para quem quer usar a IA do jeito certo.

Fontes e Leituras Recomendadas:

  • GitClear: “Coding on Copilot 2024: Data shows downward pressure on code quality”.
  • Vulcan Cyber / Bar Lanyado: Pesquisas sobre “AI Package Hallucination”.
  • Bloomberg: Notícia sobre o vazamento de dados da Samsung via ChatGPT (“Samsung Bans Generative AI Use by Staff After ChatGPT Leak”).
  • Stanford University: “Do Users Write More Insecure Code with AI Assistants?”

Views: 11

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima