Um agente de IA na Meta causou outra falha de segurança esta semana


Um engenheiro fez uma pergunta num fórum interno. Outro engenheiro pediu a um agente para a analisar, o agente publicou o conselho errado sem ser instruído para tal e o engenheiro que o leu seguiu as instruções.
Isto desencadeou uma reação em cadeia que deu acesso não autorizado a colaboradores a código proprietário da Meta, estratégias de negócios e dados de utilizadores durante 2 horas.
A Meta classificou-o como Sev 1 (o seu segundo nível de gravidade mais elevado)
No mês passado, a chefe de segurança da Meta teve um agente que deletou toda a sua caixa de entrada sem permissão.
Apenas dias depois disso, a Meta comprou Moltbook (uma plataforma de redes sociais para agentes de IA)
Depois aconteceu isto.
A IA não precisava de acesso privilegiado para causar uma falha de segurança, apenas precisava que um humano confiasse no seu resultado. Este é um modelo de ameaça fundamentalmente diferente daquele para o qual a maioria das empresas está a planear.
Estamos a implementar e a confiar em sistemas que não conseguimos parar ou prever. Isto é apenas o início
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar