0G Labs Relata Progresso Revolucionário em IA Descentralizada de 107B, Destacando Treino Eficiente em Custos e Planos de Código Aberto

Resumidamente

0G Labs anunciou que treinou o modelo DiLoCoX de 107 bilhões de parâmetros—mais grande do que o sistema da Bittensor—usando uma abordagem descentralizada eficiente em custos, e iniciou o retraining aberto com total transparência e planeamento de lançamento de código aberto.

0G Labs Reports 107B Decentralized AI Breakthrough, Highlighting Cost-Efficient Training And Open-Source Plans0G Labs, uma desenvolvedora de infraestrutura blockchain para agentes de inteligência artificial, relatou que treinou um modelo com 107 bilhões de parâmetros há aproximadamente oito meses, atingindo uma escala cerca de 48% maior do que o modelo desenvolvido pela Bittensor, representando o maior sistema de IA descentralizado documentado até hoje.

O modelo, conhecido como DiLoCoX-107B, foi treinado em julho de 2025 usando tecnologia desenvolvida em parceria com a China Mobile, a maior operadora de rede móvel do mundo. Segundo uma pesquisa revisada por pares publicada no arXiv, o sistema atingiu níveis de eficiência de comunicação 357 vezes superiores aos métodos tradicionais AllReduce ao operar sobre conexões de internet padrão de 1 Gbps, sugerindo que o treinamento avançado de IA pode ser viável sem depender de infraestrutura de data center de alto custo.

Os resultados iniciais indicaram que arquiteturas de computação distribuída podem competir com abordagens centralizadas nos níveis mais altos de desenvolvimento de modelos. Enquanto empresas como OpenAI, Google e Meta investem pesadamente em grandes clusters de GPU, a 0G Labs relatou que sua estrutura distribuída poderia reduzir custos em aproximadamente 95%, com base em dados citados pela Forbes. O sistema opera através de nós descentralizados conectados por infraestrutura de internet amplamente disponível.

Em comparação, o modelo Covenant-72B da Bittensor, desenvolvido na sua rede Subnet 3 por um grupo de colaboradores, foi descrito como um avanço notável no campo de IA descentralizada. No entanto, a 0G Labs afirmou que seu trabalho anterior já demonstrou a viabilidade de treinar modelos em maior escala, apoiado por validação revisada por pares.

A empresa anunciou ainda que iniciou uma nova fase envolvendo o retraining público do DiLoCoX-107B, enfatizando transparência e uma estratégia de lançamento de código aberto. Este esforço visa estabelecer padrões mais claros para práticas verificáveis de desenvolvimento de IA.

Ao ser concluído, espera-se que o modelo atualizado seja lançado com acesso público completo aos seus pesos, pontos de verificação e benchmarks de desempenho. O processo de retraining também deverá incluir documentação abrangente, cobrindo fontes de dados, métricas de treinamento e mecanismos de verificação, incluindo validação baseada em ambientes de execução confiáveis.

Infraestrutura Completa para IA Verificável

Ao contrário de sistemas desenvolvidos principalmente para fins experimentais, o DiLoCoX-107B está integrado numa infraestrutura mais ampla baseada em blockchain, projetada para agentes de IA. Isto inclui uma pilha de produção com uma blockchain de camada um compatível com EVM, recursos de computação descentralizada, capacidades de armazenamento distribuído e uma camada de disponibilidade de dados de alto desempenho, posicionada como significativamente mais rápida e mais econômica do que soluções comparáveis, como as associadas à Ethereum.

A empresa afirmou que essa infraestrutura destina-se a suportar não apenas o treinamento de modelos, mas também inferência verificável, armazenamento seguro e processos de liquidação na cadeia, refletindo requisitos operacionais mais amplos para ecossistemas de agentes de IA.

O sistema incorpora várias abordagens técnicas, incluindo paralelismo de pipeline, coordenação de duplo otimizador entre atualizações locais e globais, sincronização atrasada para permitir treinamento contínuo e compressão adaptativa de gradiente para reduzir a sobrecarga de comunicação, mantendo a precisão do desempenho.

A 0G Labs indicou que o processo de retraining está atualmente em andamento e que todos os dados, metodologias e resultados relevantes serão divulgados ao longo de sua duração. O modelo final deverá ser lançado sob uma licença de código aberto, com acesso completo aos artefatos de treinamento.

0G-0,07%
TAO16,31%
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar