Início Noticias Os riscos de segurança da IA ​​estão a ultrapassar a supervisão humana

Os riscos de segurança da IA ​​estão a ultrapassar a supervisão humana

43
0

Os sistemas projetados para proteger a IA estão lutando para acompanhar a rapidez com que ela evolui. Essa lacuna não é mais teórica.

Dr. Pesquisador antrópico no ano passado exibido Um sistema de IA executa de forma autônoma a maioria das etapas envolvidas em um ataque cibernético. A descoberta foi notável não porque revelou uma nova vulnerabilidade, mas porque mostrou a rapidez com que os sistemas de IA podem agora operar sem intervenção humana.

O que antes acontecia ao longo de dias ou semanas agora pode acontecer em minutos.

Esta aceleração está a forçar uma repensação silenciosa entre as equipas de segurança cibernética. À medida que os sistemas de IA se tornam mais autónomos – ligando ferramentas, acedendo a dados e agindo por conta própria – o antigo modelo de revisões periódicas e defesas reativas começa a desmoronar.

Em 2026, dizem os líderes de segurança, a proteção da IA ​​será menos parecida com a auditoria de software e mais com o gerenciamento de um sistema vivo.

De ameaças de velocidade humana a riscos de velocidade de máquina

Durante décadas, a segurança cibernética assumiu o controle da mobilidade humana. Os ataques levam tempo para serem planejados, as credenciais são roubadas lentamente e os defensores podem contar com registros, alertas e análises posteriores para detectar problemas antes que eles se agravem.

A IA quebra essa suposição.

“A grande mudança é a velocidade e a autonomia”, disse Mo Abul-Magd, vice-presidente de produtos do grupo de segurança cibernética da SandboxAQ. “À medida que as intrusões se tornam altamente automatizadas, a janela entre um pequeno descuido e uma violação catastrófica entra em colapso.”

Quando os agentes de IA podem pesquisar conexões, reutilizar credenciais ou montar seus próprios sistemas de links, a margem de erro diminui drasticamente. Uma única configuração incorreta – uma chave de acesso esquecida ou permissões excessivamente amplas – pode se espalhar por todo o sistema antes que alguém perceba.

O desafio é agravado pelo facto de a maioria das ferramentas de segurança terem sido construídas para infraestruturas estáticas e comportamento humano. Eles pressupõem fluxos de trabalho previsíveis, limites de login claros e ciclos de revisão periódicos. Os sistemas autônomos não se comportam dessa maneira.

Os agentes de IA não fazem login como os funcionários fazem. Eles não “param o relógio”. E não se enquadram perfeitamente em modelos de identidade concebidos em torno das pessoas.

Como resultado, o risco acumula-se silenciosamente, muitas vezes fora de vista.

“A segurança precisa passar de verificações ocasionais para gerenciamento contínuo de postura para IA”, disse Abul-Magad. “Saiba onde a IA é usada, o que ela pode acessar e se está vazando dados ou credenciais.”

Uma explosão silenciosa de identidades de máquinas

A fonte de risco menos visível e de crescimento mais rápido é a identidade da máquina.

Cada agente de IA depende de credenciais: chaves de API, certificados, tokens e contas de serviço que permitem que o software acesse dados, sistemas e redes. À medida que a IA se torna mais agente, o número destas identidades não humanas cresce exponencialmente.

“Esperamos dividir a segurança de uma identidade ‘agente’”, disse Abul-Magad. “Uma pista para o homem e outra para a máquina.”

Ao contrário das credenciais humanas, as identidades das máquinas muitas vezes carecem de propriedade clara. Eles podem ser criados automaticamente, compartilhados entre sistemas ou deixados para trás muito depois de a tarefa que deveriam executar ter mudado. Com o tempo, eles se tornam caminhos de acesso esquecidos – ainda válidos, ainda poderosos e raramente monitorados.

Abul-Magad disse que estas identidades precisam de ser tratadas menos como passes de acesso permanentes e mais como crachás temporários.

“Identidades não humanas, como chaves criptográficas e contas usadas por software em vez de pessoas, serão gerenciadas como crachás temporários que mudam rapidamente, que são atualizados com frequência e expiram em breve, de modo que crachás antigos não possam ser usados”, disse ele.

Em 2026, os líderes de segurança esperam que esta mudança se torne inevitável. Sem certificados de curta duração e propriedade clara, pequenos problemas de configuração podem silenciosamente tornar-se grandes exposições.

Quando a IA sombra se torna uma operação sombra

O problema é agravado pela forma como a IA é adotada nas empresas.

Os funcionários não estão mais apenas experimentando ferramentas individuais. Cada vez mais, eles estão construindo seus próprios agentes de IA, conectando sistemas com chaves de interface de programação de aplicativos (API) e, muitas vezes, fornecendo acesso em tempo real, sem que as equipes de TI ou de segurança estejam totalmente cientes.

“A IA não autorizada ou não gerenciada cria pontos cegos”, disse Abul-Magad. “Em 2026, esperamos que a ‘IA sombra’ se transforme em ‘operações sombra’, à medida que os funcionários constroem seus próprios agentes de IA e concedem acesso por meio de chaves de API sem a supervisão da equipe de TI.”

Nesse ponto, o risco vai além do vazamento de dados. Um agente autônomo com amplo acesso pode interromper sistemas críticos ou desencadear ações não autorizadas, transformando o que antes parecia um atalho de produtividade em um risco operacional.

Qual é a aparência de um programa de segurança de IA maduro

Se este ano é o ponto de inflexão, como é realmente a preparação?

De acordo com Abul-Magd, os programas de segurança de IA maduros tratam os sistemas de IA da mesma forma que as organizações tratam outras infra-estruturas básicas – não como experiências, mas como activos que requerem governação constante.

“Um programa maduro para 2026 trata a IA como qualquer sistema crítico”, disse ele.

Isso significa manter um inventário ativo de cada modelo e agente, testar regularmente o que eles podem acessar e como lidam com os dados, impor regras comuns para a vida útil de permissões e certificados e monitorar constantemente comportamentos incomuns.

“Pense nisso como um loop”, disse ele. “Inventário, análise de risco, política, monitoramento, iteração.”

À medida que os sistemas de IA proliferam, essa visibilidade torna-se importante não só para as equipas de segurança, mas também para reguladores, auditores e conselhos de administração, grupos cada vez mais responsáveis ​​por supervisionar a forma como os sistemas autónomos operam dentro das organizações.

Preparando-se para o que vem a seguir

À medida que a IA se torna profundamente incorporada nas operações, as conversas na diretoria estão mudando

Não há mais dúvidas se uma empresa está usando IA. Faz com que a liderança entenda para onde vai, o que toca e quem é responsável se algo der errado.

Entre as perguntas que Abul-Magad diz que as equipes executivas deveriam fazer estão:

  • Onde a IA é usada em nosso ambiente e quem é o proprietário de cada modelo ou agente?
  • Quais dados esses sistemas podem acessar e como podemos evitar a injeção imediata e o vazamento de dados?
  • Que princípios regem a IA e como monitorizamos e respondemos aos eventos?
  • Dada a ascensão da identidade da máquina, estamos alternando chaves e credenciais automaticamente ou gerenciando-as manualmente?

Estas questões refletem uma mudança mais ampla já em curso: a segurança da IA ​​está a tornar-se uma disciplina operacional e não uma reflexão técnica posterior.

A lição retirada das descobertas da Anthropic não é que os ataques de IA sejam inevitáveis. É que o ritmo da mudança acelerou além do que a supervisão periódica pode suportar.

“Esperamos passar de verificações unilaterais para gerenciamento contínuo de postura: descobrir onde a IA é usada, avaliar riscos, aplicar políticas e monitorar o pipeline”, disse Abul-Magud.

O link da fonte