A Anthropic enfrenta escrutínio à medida que o vazamento do código do Claude expõe 512 mil linhas de código interno

À medida que cresce a preocupação com a segurança da IA, o vazamento do código do claude colocou a Anthropic sob um escrutínio intenso por parte de programadores e investigadores de todo o mundo.

A Anthropic confirma exposição do código-fonte interno

Na terça-feira, a Anthropic confirmou que, inadvertidamente, publicou parte do código-fonte interno da sua ferramenta de codificação por IA, o Claude Code. A empresa descreveu o incidente como um “problema de empacotamento da publicação causado por erro humano, e não uma violação de segurança”, salientando que não ocorreu qualquer comprometimento por parte de terceiros.

De acordo com analistas independentes de cibersegurança, a exposição envolveu aproximadamente 1.900 ficheiros e cerca de 512.000 linhas de código. Além disso, os especialistas referiram que o assistente é executado diretamente dentro dos ambientes de desenvolvimento, onde pode aceder a informação sensível, o que aumentou as preocupações sobre um possível uso indevido.

A situação escalou rapidamente depois de uma publicação no X ter partilhado uma ligação para o material vazado. Logo nas primeiras horas de terça-feira, essa publicação já tinha ultrapassado 30 milhões de visualizações, aumentando drasticamente a visibilidade do repositório vazado e levando especialistas em segurança a examinar os ficheiros.

Implicações de segurança e preocupações de atacantes

Programadores e investigadores começaram a analisar a base de código vazada para compreender como o Claude Code é arquitetado e como a Anthropic pretende evoluir o produto. No entanto, alguns profissionais de segurança levantaram imediatamente questões sobre o que atacantes sofisticados poderiam fazer com um conhecimento detalhado dos sistemas internos.

A empresa de cibersegurança Straiker alertou, num post de blog, que os adversários podem agora estudar como os dados se movem através do pipeline interno do Claude Code. Dito isto, a empresa avisou que esta visibilidade pode permitir a alguém conceber cargas úteis que persistam ao longo de sessões longas, criando efetivamente uma backdoor oculta dentro de um fluxo de trabalho do programador.

Estes avisos intensificaram os receios mais amplos da indústria sobre a segurança em caso de fuga de código. Além disso, os analistas salientaram que ferramentas que operam dentro de ambientes de desenvolvimento, com acesso profundo a repositórios e infraestruturas, constituem um alvo particularmente atrativo para agentes maliciosos.

Um segundo incidente de dados da Anthropic em menos de uma semana

Este vazamento não foi um revés isolado para a Anthropic. Apenas alguns dias antes, a Fortune noticiou que a empresa tinha, por acidente, tornado milhares de ficheiros internos acessíveis ao público, assinalando um incidente separado de dados da anthropic que antecedeu a publicação do código-fonte.

Segundo relatos, esses ficheiros anteriores incluíam um rascunho de post de blog que descrevia um modelo de IA em preparação conhecido internamente como “Mythos” e “Capybara”. O rascunho referia que o modelo experimental poderia introduzir riscos notáveis de cibersegurança, algo que se tornou ainda mais sensível à luz da subsequente exposição do código-fonte.

Em resposta a ambos os acontecimentos, a Anthropic afirmou que está a implementar salvaguardas adicionais para evitar erros semelhantes. Além disso, a empresa reiterou que não esteve envolvido qualquer dado sensível de clientes nem credenciais em nenhum dos incidentes, numa tentativa de tranquilizar clientes empresariais e reguladores.

Claude Code em números e impacto no mercado

A Anthropic disponibilizou o Claude Code ao público geral em maio do ano passado, posicionando-o como um assistente de IA que ajuda os programadores a desenvolver funcionalidades, corrigir bugs e automatizar tarefas repetitivas. O lançamento marcou um impulso significativo da empresa para o lucrativo mercado de ferramentas de software com IA.

A tração comercial do produto tem sido rápida. Em fevereiro, a Anthropic informou que o Claude Code tinha alcançado uma receita a uma taxa superior a $2,5 mil milhões. No entanto, este valor extraordinário também aumentou as apostas para a postura de segurança da Anthropic à medida que mais empresas integram o assistente nos seus fluxos de trabalho.

A pressão competitiva intensificou-se à medida que rivais respondem a esse crescimento. OpenAI, Google e xAI alocaram todos recursos substanciais para construir os seus próprios assistentes de codificação, na esperança de capturar uma fatia do mercado em expansão e de competir diretamente com a ferramenta de referência da Anthropic.

Fundação, reputação e próximos passos após o vazamento do claude code

Fundada em 2021 por antigos executivos e investigadores da OpenAI, a Anthropic construiu a sua reputação em torno da sua família de modelos de IA Claude e na ênfase na segurança. O vazamento do claude code colocou agora essa narrativa de segurança sob pressão, mesmo quando a empresa insiste que a causa raiz foi operacional e não adversarial.

A empresa disse que está a implementar verificações de empacotamento mais rigorosas, controlos de acesso e procedimentos de revisão para publicações que envolvem repositórios internos. Dito isto, especialistas em segurança argumentam que as plataformas de IA modernas exigem defesas contínuas e em camadas, dado o seu profundo nível de integração nos ambientes de desenvolvimento e a crescente sofisticação dos potenciais atacantes.

O porta-voz da Anthropic sublinhou que a organização está a tomar medidas concretas para garantir que este tipo de incidente não se repita. Em resumo, os vazamentos recentes realçam a rapidez com que as empresas de IA em crescimento precisam de equilibrar lançamentos agressivos de produtos com práticas rigorosas de higiene de segurança para manter a confiança.

XAI0,02%
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar