Conteúdo
Em apenas 24 horas após o lançamento do Antigravity pela Google, uma ferramenta de codificação AI alimentada pelo seu modelo de linguagem grande Gemini, o investigador de segurança Aaron Portnoy descobriu uma vulnerabilidade crítica que representa riscos graves para os utilizadores. Ao manipular a configuração do Antigravity, Portnoy demonstrou como código malicioso pode criar uma porta traseira persistente, permitindo que hackers injetem malware como spyware ou ransomware em computadores Windows e Mac. O ataque requeria apenas que um utilizador executasse um código malicioso uma vez e o rotulasse como "confiável", uma tática de engenharia social comummente usada por cibercriminosos. Esta falha destaca os perigos de lançar ferramentas AI rapidamente sem uma verificação de segurança rigorosa, expondo os utilizadores a potenciais violações devastadoras.\n\nPortnoy reportou a falha à Google, que iniciou uma investigação mas, no momento do relatório, não tinha lançado uma correção nem identificado configurações para mitigar a vulnerabilidade. A porta traseira criada pelo código malicioso recarregava automaticamente sempre que um utilizador abria qualquer projeto Antigravity ou emitia até o pedido mais simples, persistindo através de reinstalações a menos que o utilizador removesse manualmente a porta traseira. Esta persistência eleva significativamente o nível de ameaça, pois desinstalar ou reinstalar a aplicação sozinho é insuficiente para eliminar o risco. Juntamente com as descobertas de Portnoy, a Google reconheceu pelo menos outras duas vulnerabilidades no Antigravity que permitem que código malicioso aceda e roube ficheiros das máquinas dos utilizadores.\n\nEspecialistas em segurança AI, como Gadi Evron, cofundador e CEO da Knostic, enfatizam que assistentes de codificação AI frequentemente dependem de tecnologias desatualizadas e são lançados com endurecimento de segurança insuficiente. Isto cria um ambiente fértil para atacantes devido ao amplo acesso que estes agentes têm a redes corporativas e dados sensíveis. A pressa em lançar ferramentas AI levou a uma dinâmica de gato e rato onde investigadores de cibersegurança se esforçam para identificar e expor falhas de segurança antes que hackers as possam explorar. Portnoy comparou a atual vaga de vulnerabilidades AI ao hacking do final dos anos 1990, notando que estes sistemas AI operam com enormes pressupostos de confiança e limites protetores mínimos.\n\nO problema vai além da Google. Vulnerabilidades semelhantes foram encontradas em assistentes de codificação AI concorrentes, como o Cline, onde hackers também conseguiram instalar malware. A arquitetura dos agentes AI — capazes de executar autonomamente sequências de tarefas — combinada com o seu acesso a recursos internos, aumenta o risco e o impacto da exploração. A engenharia social continua a ser um vetor chave, como demonstrado por avisos recentes de recrutadores falsos usando o LinkedIn para entregar código malicioso disfarçado de materiais legítimos relacionados com emprego.\n\nPortnoy critica a abordagem atual da Google, que exige que os utilizadores confiem no código que carregam no Antigravity para aceder às suas funcionalidades AI. Ele explica que este mecanismo de confiança é insuficiente porque utilizadores que recusam confiar no código são impedidos de usar as capacidades avançadas da ferramenta, forçando-os essencialmente a aceitar riscos potenciais. Ao contrário de ambientes de desenvolvimento integrados tradicionais como o Visual Studio Code da Microsoft, que pode funcionar com código não confiável, o design do Antigravity coloca os utilizadores numa posição vulnerável. Portnoy recomenda que a Google implemente avisos explícitos sempre que o Antigravity execute código na máquina do utilizador, para além do simples pedido de código confiável.\n\nCuriosamente, quando confrontado com o código malicioso de Portnoy, a própria AI do Antigravity reconheceu o conflito entre as suas regras operacionais e o pedido para substituir código no sistema do utilizador. A AI descreveu isto como um "catch-22", ilustrando as contradições lógicas que podem ser exploradas por atacantes para contornar salvaguardas. As descobertas de Portnoy revelam uma fraqueza fundamental no design dos agentes AI onde restrições conflitantes levam à paralisia, uma brecha explorável.\n\nÀ medida que assistentes de codificação AI se tornam cada vez mais integrados nos fluxos de trabalho de desenvolvimento de software, a descoberta de múltiplas vulnerabilidades em produtos concorrentes sublinha a necessidade urgente da indústria AI priorizar medidas robustas de segurança. Portnoy e a sua equipa continuam a descobrir inúmeras fraquezas, refletindo um desafio mais amplo da indústria onde a inovação ultrapassa o desenvolvimento de proteções adequadas contra ameaças cibernéticas emergentes.