Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
A Anthropic enfrenta escrutínio à medida que o vazamento do código do Claude expõe 512 mil linhas de código interno
À medida que cresce a preocupação com a segurança da IA, o vazamento do código do claude colocou a Anthropic sob um escrutínio intenso por parte de programadores e investigadores de todo o mundo.
A Anthropic confirma exposição do código-fonte interno
Na terça-feira, a Anthropic confirmou que, inadvertidamente, publicou parte do código-fonte interno da sua ferramenta de codificação por IA, o Claude Code. A empresa descreveu o incidente como um “problema de empacotamento da publicação causado por erro humano, e não uma violação de segurança”, salientando que não ocorreu qualquer comprometimento por parte de terceiros.
De acordo com analistas independentes de cibersegurança, a exposição envolveu aproximadamente 1.900 ficheiros e cerca de 512.000 linhas de código. Além disso, os especialistas referiram que o assistente é executado diretamente dentro dos ambientes de desenvolvimento, onde pode aceder a informação sensível, o que aumentou as preocupações sobre um possível uso indevido.
A situação escalou rapidamente depois de uma publicação no X ter partilhado uma ligação para o material vazado. Logo nas primeiras horas de terça-feira, essa publicação já tinha ultrapassado 30 milhões de visualizações, aumentando drasticamente a visibilidade do repositório vazado e levando especialistas em segurança a examinar os ficheiros.
Implicações de segurança e preocupações de atacantes
Programadores e investigadores começaram a analisar a base de código vazada para compreender como o Claude Code é arquitetado e como a Anthropic pretende evoluir o produto. No entanto, alguns profissionais de segurança levantaram imediatamente questões sobre o que atacantes sofisticados poderiam fazer com um conhecimento detalhado dos sistemas internos.
A empresa de cibersegurança Straiker alertou, num post de blog, que os adversários podem agora estudar como os dados se movem através do pipeline interno do Claude Code. Dito isto, a empresa avisou que esta visibilidade pode permitir a alguém conceber cargas úteis que persistam ao longo de sessões longas, criando efetivamente uma backdoor oculta dentro de um fluxo de trabalho do programador.
Estes avisos intensificaram os receios mais amplos da indústria sobre a segurança em caso de fuga de código. Além disso, os analistas salientaram que ferramentas que operam dentro de ambientes de desenvolvimento, com acesso profundo a repositórios e infraestruturas, constituem um alvo particularmente atrativo para agentes maliciosos.
Um segundo incidente de dados da Anthropic em menos de uma semana
Este vazamento não foi um revés isolado para a Anthropic. Apenas alguns dias antes, a Fortune noticiou que a empresa tinha, por acidente, tornado milhares de ficheiros internos acessíveis ao público, assinalando um incidente separado de dados da anthropic que antecedeu a publicação do código-fonte.
Segundo relatos, esses ficheiros anteriores incluíam um rascunho de post de blog que descrevia um modelo de IA em preparação conhecido internamente como “Mythos” e “Capybara”. O rascunho referia que o modelo experimental poderia introduzir riscos notáveis de cibersegurança, algo que se tornou ainda mais sensível à luz da subsequente exposição do código-fonte.
Em resposta a ambos os acontecimentos, a Anthropic afirmou que está a implementar salvaguardas adicionais para evitar erros semelhantes. Além disso, a empresa reiterou que não esteve envolvido qualquer dado sensível de clientes nem credenciais em nenhum dos incidentes, numa tentativa de tranquilizar clientes empresariais e reguladores.
Claude Code em números e impacto no mercado
A Anthropic disponibilizou o Claude Code ao público geral em maio do ano passado, posicionando-o como um assistente de IA que ajuda os programadores a desenvolver funcionalidades, corrigir bugs e automatizar tarefas repetitivas. O lançamento marcou um impulso significativo da empresa para o lucrativo mercado de ferramentas de software com IA.
A tração comercial do produto tem sido rápida. Em fevereiro, a Anthropic informou que o Claude Code tinha alcançado uma receita a uma taxa superior a $2,5 mil milhões. No entanto, este valor extraordinário também aumentou as apostas para a postura de segurança da Anthropic à medida que mais empresas integram o assistente nos seus fluxos de trabalho.
A pressão competitiva intensificou-se à medida que rivais respondem a esse crescimento. OpenAI, Google e xAI alocaram todos recursos substanciais para construir os seus próprios assistentes de codificação, na esperança de capturar uma fatia do mercado em expansão e de competir diretamente com a ferramenta de referência da Anthropic.
Fundação, reputação e próximos passos após o vazamento do claude code
Fundada em 2021 por antigos executivos e investigadores da OpenAI, a Anthropic construiu a sua reputação em torno da sua família de modelos de IA Claude e na ênfase na segurança. O vazamento do claude code colocou agora essa narrativa de segurança sob pressão, mesmo quando a empresa insiste que a causa raiz foi operacional e não adversarial.
A empresa disse que está a implementar verificações de empacotamento mais rigorosas, controlos de acesso e procedimentos de revisão para publicações que envolvem repositórios internos. Dito isto, especialistas em segurança argumentam que as plataformas de IA modernas exigem defesas contínuas e em camadas, dado o seu profundo nível de integração nos ambientes de desenvolvimento e a crescente sofisticação dos potenciais atacantes.
O porta-voz da Anthropic sublinhou que a organização está a tomar medidas concretas para garantir que este tipo de incidente não se repita. Em resumo, os vazamentos recentes realçam a rapidez com que as empresas de IA em crescimento precisam de equilibrar lançamentos agressivos de produtos com práticas rigorosas de higiene de segurança para manter a confiança.