A IA está rapidamente a tornar-se a espinha dorsal do nosso mundo, prometendo produtividade e inovação sem precedentes. Mas à medida que as organizações implementam agentes de IA para desbloquear novas oportunidades e impulsionar o crescimento, também enfrentam um novo tipo de ameaça à segurança cibernética.
existem muitos Jornada nas Estrelas Fãs da Microsoft, incluindo eu. Um de nossos líderes de engenharia me presenteou com um suporte de papelão em tamanho real dados Que está escondido ao lado da porta do meu escritório. Então, quando olho para esse recorte, penso no grande dilema da segurança da IA: a IA será nossa melhor amiga ou nosso pior pesadelo? Inspirando-se na dualidade do oficial Android dadose seu gêmeo malvado ciência em Jornada nas Estrelas universo, os agentes de IA atuais podem fortalecer suas defesas de segurança cibernética — ou, se mal gerenciados — derrubá-las.
A chegada dos agentes é real. Pesquisa IDC(1) prevê que 1,3 mil milhões de agentes estarão em circulação até 2028. Ao pensarmos no nosso futuro agente na IA, a dualidade de dados e conhecimento parece ser uma óptima maneira de pensar sobre quais agentes de IA iremos enfrentar e como evitar agentes duais que desprezam o controlo e a confiança. Os líderes devem considerar os três princípios e adaptá-los para atender às necessidades específicas da sua organização.
1. Reconheça o novo cenário de ataque
A segurança não é apenas uma questão de TI – é uma prioridade no nível da diretoria. Ao contrário do software tradicional, os agentes de IA têm potencial para serem mais dinâmicos, adaptativos e autónomos. Isso cria riscos únicos.
Devemos aceitar que a IA pode sofrer abusos além do que experimentamos com software tradicional. Empregamos agentes de IA para realizar tarefas bem-intencionadas, mas aqueles com amplos privilégios podem ser usados por malfeitores para abusar do acesso, como o vazamento de dados confidenciais por meio de operações automatizadas. Chamamos isso de problema do “deputado confuso”. Os agentes de IA “pensam” em termos de linguagem natural, onde instruções e dados estão fortemente interligados, muito mais do que o software típico com o qual interagimos. Os agentes no modelo generativo dependem da análise dinâmica de toda a linguagem humana (ou mesmo não humana), tornando difícil distinguir operações seguras bem conhecidas de novas instruções introduzidas através de manipulação maliciosa. Os riscos são agravados quando agentes ocultos – não autorizados ou órfãos – acessam a imagem. E, como vimos com Traga seu próprio dispositivo (BYOD) e outras ondas tecnológicas, qualquer coisa que você não possa inventariar e contabilizar amplia os pontos cegos e aumenta o risco.
2. Pratique confiança zero agente
Os agentes de IA podem ser novos como impulsionadores de produtividade, mas ainda podem ser gerenciados de forma eficaz usando princípios de segurança estabelecidos. Tive ótimas conversas sobre isso aqui na Microsoft com líderes como o cofundador da DeepMind e agora o vice-presidente executivo e CEO da Microsoft AI. Mostafa frequentemente compartilha uma maneira de pensar sobre isso, que ele descreve em seu livro onda que se aproxima, Em termos de contenção e alinhamento.
Controle significa simplesmente que não confiamos cegamente em nossos agentes de IA e que limitamos significativamente todos os aspectos do que eles fazem. Por exemplo, não podemos permitir que os privilégios de acesso de um agente excedam sua função e finalidade — esta é a mesma abordagem de segurança que adotamos para contas, software e dispositivos de funcionários, aos quais nos referimos como “privilégio mínimo”. Da mesma forma, nunca confiamos implicitamente no que um agente faz ou como ele se comunica — tudo deve ser observado — e quando isso não é possível, os agentes não têm permissão para operar em nosso ambiente.
Alinhamento é o controle positivo das intenções de um agente de IA, por meio de seus prompts e dos modelos que utiliza. Devemos usar apenas agentes de IA treinados para prevenir tentativas de corrupção, padrões e co Específico da missão A proteção de segurança está incorporada no próprio modelo e no prompt usado para invocar o modelo. Os agentes de IA devem resistir às tentativas de desvio dos usos autorizados. Eles devem ser executados em um ambiente de contenção que monitore de perto os desvios da finalidade pretendida. Tudo isso requer uma identidade forte do agente de IA e uma clara propriedade responsável dentro da organização. Como parte da governança da IA, cada agente deve ter uma identidade e devemos saber quem é responsável por quê na organização. alinhado comportamento
A contenção (privilégio mínimo) e o alinhamento parecerão familiares às equipes de segurança corporativa, pois se alinham com alguns princípios básicos. Confiança zero. A confiança zero agente envolve “violar suposições” ou nunca confiar implicitamente em nada, verificar explicitamente quem são as pessoas, dispositivos e agentes antes de receberem acesso e limitar o acesso apenas ao que é necessário para executar uma tarefa. Embora o Agentic Zero Trust inclua, em última análise, recursos de segurança mais profundos, é uma boa visão geral discutir a contenção e o alinhamento nas conversas sobre estratégia de segurança em IA com as partes interessadas seniores para manter todos fundamentados no gerenciamento de novos riscos. Os agentes continuarão a aderir e a se adaptar – alguns podem se tornar agentes duplos. Podemos nos proteger por meio de regulamentação adequada.
3. Construir uma cultura de inovação segura
A tecnologia por si só não resolverá a segurança da IA. A cultura é o verdadeiro superpoder quando se trata de gerenciar riscos cibernéticos — e os líderes têm a capacidade única de moldá-la. Comece com conversas abertas: inclua os riscos e o uso responsável da IA nas conversas cotidianas. Mantenha-o multifuncional: jurídico, compliance, RH e outros devem ter um lugar à mesa. Invista na aprendizagem contínua: treine as equipes sobre os fundamentos da segurança da IA e esclareça as políticas para eliminar o ruído. Por fim, adote a experimentação segura: dê às pessoas permissão para aprender e inovar sem criar riscos.
As organizações que prosperam tratarão a IA como uma companheira de equipa e não como uma ameaça – construindo confiança através da comunicação, aprendizagem e melhoria contínua.
O caminho a seguir: o que toda empresa deve fazer
A IA não é apenas mais um capítulo – é uma reviravolta na história que muda tudo. As oportunidades são enormes, mas os riscos também. A ascensão da IA exige segurança generalizada, e os executivos fazem da segurança cibernética uma prioridade diária. Isto significa combinar sistemas técnicos fortes com educação contínua e liderança clara, para que a consciência de segurança influencie todas as escolhas. As organizações mantêm a segurança ambiental quando:
- Faça da segurança da IA uma prioridade estratégica.
- Enfatize a contenção e o alinhamento para cada agente.
- Exija identidade, propriedade e governança de dados.
- Construa uma cultura que proteja a inovação.
E será importante tomar um conjunto de medidas práticas:
- Atribua um ID e um proprietário a cada agente de IA, assim como os trabalhadores precisam de crachás. Garante rastreabilidade e controle.
- Documente o propósito e o escopo de cada agente.
- Monitore ações, entradas e saídas. Mapeie os fluxos de dados antecipadamente para definir benchmarks de conformidade.
- Mantenha os agentes em um ambiente seguro e aprovado – sem “fábricas de agentes” desonestas.
A frase de chamariz para cada empresa é: Revise sua estrutura de governança de IA agora. Exigências de transparência, responsabilidade e melhoria contínua. O futuro da segurança cibernética é humano e máquina – lidere com propósito e deixe a IA ser sua aliada poderosa.
Na Microsoft, sabemos que temos um papel importante a desempenhar na capacitação dos nossos clientes nesta nova era. Em maio, apresentamos ID do Agente Microsoft Intra Como forma de ajudar os clientes a dar aos agentes uma identidade única desde o momento em que são criados no Microsoft Copilot Studio e no Azure AI Foundry. Usamos IA no Defender e no Security Copilot, juntamente com os enormes sinais de segurança que coletamos, Campanhas de phishing expostas e derrotadas e outros ataques que os cibercriminosos podem usar como pontos de entrada para comprometer os agentes de IA. Também estamos comprometidos com uma abordagem de plataforma com agentes de IA, ajudando os clientes a usar com segurança agentes da Microsoft e de terceiros em suas jornadas, evitando a complexidade e o risco que advém do malabarismo com muitos painéis e consoles de gerenciamento.
Estou animado com várias outras inovações que compartilharemos Microsoft Ignite No final deste mês, clientes e parceiros também.
Podemos não estar nos comunicando com os dados na ponte USS Enterprise Ainda assim, mas como tecnólogo, nunca foi tão emocionante do que ver esta fase da trajetória da IA nos nossos locais de trabalho e nas nossas vidas. Como líder, compreender as principais oportunidades e riscos ajuda a criar um mundo mais seguro para pessoas e agentes trabalharem juntos.
Observação
(1) IDC Data Snapshot, patrocinado pela Microsoft, 1,3 bilhão de agentes de IA até 2028, maio de 2025 #US53361825




