Os agentes de IA estão em evidência, mas nem tudo é tão promissor ou benéfico quanto parece. Especialistas em cibersegurança alertam que esses sistemas, criados para automatizar tarefas humanas, também podem ser manipulados por hackers para executar ações maliciosas.
Esses agentes utilizam chatbots de IA para navegar na web, fazer reservas ou organizar compromissos. No entanto, a facilidade de comando por linguagem natural abre brechas para ataques perigosos — mesmo realizados por pessoas sem conhecimento técnico.
Os chamados agentes de IA funcionam como assistentes digitais autônomos: recebem instruções e executam ações reais online. O problema é que hackers podem explorar essa autonomia. Com isso, ataques de injeção de comando (técnica já conhecida na cibersegurança) estão se tornando mais simples e poderosos. Se antes exigiam códigos complexos, agora bastam mensagens aparentemente inofensivas para enganar os sistemas.
Em uma publicação em seu blog, a Perplexity resume bem o desafio: “Estamos entrando em uma era em que a cibersegurança não se trata mais de proteger usuários de agentes altamente técnicos”.
Esses ataques, explica matéria da AFP publicada pelo TechXplore, podem ocorrer em tempo real, alterando instruções como “reserve um quarto de hotel” para “transfira R$ 500 para esta conta”.
Além dos ataques diretos, há um novo perigo: instruções manipuladas espalhadas pela internet. Quando agentes de IA exploram páginas ou bases de dados suspeitas, podem ser “enganados” por informações maliciosas disfarçadas de conteúdo legítimo.
Segundo Eli Smadja, da empresa de cibersegurança Check Point, essa injeção de consultas é “o principal problema de segurança” enfrentado por grandes modelos de linguagem — tecnologia que sustenta os agentes de IA.
Para tentar conter a ameaça, as big techs estão reagindo:
O pesquisador Johann Rehberger, conhecido como “wunderwuzzi”, afirma que as táticas dos hackers estão evoluindo rapidamente. Para ele, o desafio está em equilibrar segurança e praticidade. Usuários desejam que a IA resolva tarefas de forma automática, mas essa comodidade pode abrir portas para abusos.
Não acho que estejamos em uma posição em que uma IA autônoma possa operar com segurança por muito tempo.
Johann Rehberger, pesquisador de cibersegurança, à AFP.
Embora o uso desses agentes esteja crescendo, especialistas defendem que os usuários mantenham atenção redobrada.
Para evitar riscos, é essencial controlar as permissões concedidas aos agentes e acompanhar suas atividades sempre que possível. Também é importante evitar a integração de agentes de IA com informações bancárias ou dados pessoais sensíveis e sempre optar por ferramentas que ofereçam camadas extras de verificação.
Fonte: Olhar Digital / Por Valdir Antonelli
Copyright © 2023. Todos os direitos reservados. Ascenda Digital Mídia LTDA.