Embora ferramentas de desenvolvimento integrado (IDE) tenham ganhado popularidade e sejam usadas como exemplo da utilidade da inteligência artificial generativa (IA), elas também trazem grandes riscos. Um estudo realizado por Ari “MaccariTA” Marzouk mostra que as soluções mais populares do mercado estão sujeitas a roubos de dados, ataques remotos e outros problemas graves.
Segundo o pesquisador isso é resultado das vulnerabilidades associadas a vários “agentes de IA” que são parte integral de como essas plataformas funcionam atualmente. Ele afirma que soluções como o Visual Studio Code, JetBrains e Zed podem ser manipuladas facilmente para vazar informações confidenciais.
O pesquisador vai além, afirmando que, em seus testes, 100% das ferramentas de desenvolvimento por IA generativa apresentam alguns problemas. Segundo ele, produtos populares como Cursor, GitHub Copilot, Windsurf, Kiro.dev, Zed.dev, Roo Code, Junie, Cline, Gemini CLI e Claude Code estão vulneráveis no momento atual.
Agente de IA trazem os principais riscos
O pesquisador afirma que o principal problema das plataformas é resultado da maneira como agentes de IA interagem com recursos antigos das plataformas de IDE. Segundo ele, os sistemas criados para funcionar de maneira autônoma estão interagir com componentes que não foram desenvolvidos pensando nisso.
Assim, eles são forçados a interagir com uma tecnologia capaz de ler, editar e gerar arquivos — que são ótimas “superfícies” para a realização de ataques. “Eles tratam seus recursos como inerentemente seguros porque existem há anos. No entanto, quando se adicionam agentes de IA que podem interagir de forma autônoma, esses mesmos recursos podem ser usados como armas para exfiltração de dados e execução remota de códigos”.
Marzouk afirma que, através da injeção de prompts, é relativamente fácil adicionar instruções ocultas que devem ser seguidas pelos agentes de IA. Com isso, usando padrões considerados legítimos, eles podem agir de forma autônoma para criar diversas brechas de segurança.
Segundo o pesquisador, o problema não pode ser corrigido no momento, dado a forma como as IDEs funcionam. Segundo ele, as plataformas atuais não foram construídas para lidar com princípios de segurança envolvendo IAs autônomas, e precisam ser totalmente reescritas para lidar com as ameaças que elas representam.
Fonte: Tom’s Hardware, Ari Marzouk



Como a indústria pode reescrever totalmente as IDEs para garantir a segurança contra agentes de IA autônomos, sendo que a sua arquitetura atual não foi projetada para isso? Cordialmente Telkom University Jakarta