Lisboa, 17 de dezembro de 2025 – A inteligência artificial (IA) generativa está a transformar a forma como as organizações operam, a acelerar a deteção de ameaças, a automatizar fluxos de trabalho e a permitir operações em escala. Mas esta evolução também traz riscos: os cibercriminosos estão a usar IA para lançar ataques mais sofisticados, ultrapassando mecanissmos de defesa tradicionais.
O Digital Threats Report 2025 da Microsoft revela que ciberatacantes da Rússia, China, Irão e Coreia do Norte duplicaram o uso de IA para lançar ciberataques e espalhar desinformação. Hoje, a IA é utilizada para traduzir e-mails de phishing para inglês fluente, gerar vídeos deepfake de executivos e automatizar malware que se adapta em tempo real para evitar deteção.
Esta tendência já está a impactar as organizações a nível global, sendo que 66% das empresas estão a desenvolver ou a planear desenvolver aplicações personalizadas de IA generativa, enquanto 88% admitem estar preocupadas com ataques indiretos de prompt injection. Além disso, 80% dos líderes empresariais identificam a fuga de dados sensíveis via IA como uma das principais ameaças[footnoteRef:5]. Estes números refletem a urgência de reforçar estratégias de segurança e implementar medidas específicas para ambientes de IA.
À medida que a IA generativa se integra nos fluxos de trabalho empresariais, surgem desafios estruturais que exigem uma resposta estratégica. A maioria das aplicações assenta na cloud, o que as torna vulneráveis a ataques que exploram fragilidades na infraestrutura, nos modelos ou nas aplicações para comprometer dados sensíveis ou a integridade dos sistemas. A dependência de grandes volumes de dados também aumenta o risco de fuga de informação e dificulta a aplicação de políticas de governação em ambientes complexos e dispersos. Além disso, os modelos nem sempre respondem de forma previsível, e inputs maliciosos podem desencadear ações inesperadas, abrindo caminho para ataques sofisticados.
Perante este cenário, a Microsoft identificou cinco ciberameaças da IA generativa que estão a redefinir estratégias empresariais:
1. Ataques de envenenamento (Poisoning attacks): São ataques que manipulam ou corrompem dados de treino para influenciar o comportamento do modelo e comprometer a sua precisão, fiabilidade ou responsabilidade ética. Os atacantes podem injetar informação falsa, modificar ou eliminar partes do dataset para alterar a forma como o modelo responde às consultas.
2. Ataques de evasão (Evasion attacks): Estes contornam sistemas de segurança da IA ao modificar ou manipular dados de entrada de forma impercetível para o modelo. Exemplos incluem ocultar spam dentro de imagens para ultrapassar filtros. Estes ataques podem ser direcionados (para provocar um erro específico) ou não direcionados (para gerar qualquer tipo de erro). Jailbreaks de modelos são um tipo comum de evasão.
3. Extração funcional (Functional extraction): Através deste mecanismo, os atacantes interrogam repetidamente os modelos e usam as respostas para recriar e treinar modelos equivalentes. Estes modelos “substitutos” podem depois ser analisados para preparar ataques ao sistema original.
4. Ataques de inversão (Inversion attacks): Semelhantes à extração funcional, este tipo de ataque distingue-se por ter o objetivo de inferir parâmetros ou a arquitetura do modelo. Através do mesmo, os atacantes podem permitir reconstruir dados de treino ou obter informações sensíveis sobre atributos específicos, servindo também como base para outros ataques.
5. Ataques de Prompt Injection: Os atacantes utilizam prompts maliciosos para manipular o modelo e levá-lo a executar ações não intencionadas ou prejudiciais. Estes prompts são concebidos para ignorar instruções originais e seguir apenas os comandos do atacante.
Apostar na defesa proativa para ambientes multicloud e IA é essencial para garantir cibersegurança
Com a IA generativa a introduzir novos riscos e comportamentos imprevisíveis, a cibersegurança moderna exige uma abordagem integrada que correlacione sinais entre aplicações, infraestrutura e utilizadores. A plataforma Cloud-Native Application Protection Platform (CNAPP), por exemplo, simplifica esta complexidade ao reunir ferramentas como Cloud security posture management (CSPM), Cloud Infrastructure Entitlement Management (CIEM), e Cloud Workload Protection Platform (CWPP), que ajudam a garantir a visibilidade total sobre as ameaças e permitem uma resposta rápida às mesmas.
O Microsoft Defender for Cloud é um exemplo claro desta estratégia proativa, oferecendo proteção end-to-end, ao identificar configurações incorretas, monitorizar vulnerabilidades e detetar ameaças específicas de IA, como jailbreaks e fuga de dados, em tempo real, aproveitando mais de 100 biliões de sinais diários da Microsoft Threat Intelligence2. Esta integração é essencial para manter a confiança num cenário de ciberameaças em rápida evolução.
À medida que a IA generativa se torna cada vez mais importante, os líderes de segurança precisam de evoluir as suas estratégias. A Microsoft ajuda as organizações a unificar a segurança e a governança em todo o ciclo de vida das aplicações de cloud e IA. Com visibilidade abrangente, priorização proativa de riscos e deteção e resposta em tempo real, a Microsoft protege os ativos modernos de cloud e IA, desde o código até ao tempo de execução, enquanto ajuda a cumprir as regulamentações e normas em constante evolução.
Mais detalhes sobre as cinco ameaças de cibersegurança da IA e recomendações para mitigá-las podem ser consultados na versão completa do e-book “5 Generative AI Security Threats You Must Know About”.
SOBRE A MICROSOFT
Microsoft (Nasdaq "MSFT" @microsoft) cria plataformas e ferramentas robustecidas por Inteligência Artificial para entregar soluções inovadoras que correspondam às necessidades crescentes dos nossos clientes. Enquanto empresa de tecnologia está comprometida com a democratização do acesso a Inteligência Artificial de forma responsável, mantendo a missão de capacitar todas as pessoas e organizações no planeta para atingir mais.


