Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
New
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Nvidia se lanza a crear grandes modelos de IA
Fuente: Beijing Business Daily
Si alguien pregunta quién es el mayor ganador de la era de la IA, la respuesta casi no requiere duda: Nvidia. Con sus H100, que se venden por demanda, es como el vendedor de palas en la fiebre del oro, viendo cómo las empresas de IA en todo el mundo se enfrentan sin descanso, mientras él hace una gran fortuna en silencio, con una valoración que rompe los cielos. Los últimos documentos financieros muestran que Nvidia invertirá un total de 26 mil millones de dólares en los próximos 5 años, impulsando al máximo el desarrollo de grandes modelos de IA de código abierto. Esto significa que Nvidia ya no se conforma con vender palas, sino que quiere cavar oro personalmente.
El 12 de marzo, según los documentos financieros presentados por Nvidia a la Comisión de Bolsa y Valores de EE. UU. (SEC), Nvidia invertirá un total de 26 mil millones de dólares (aproximadamente 178.800 millones de yuanes) en los próximos 5 años, impulsando al máximo el desarrollo de grandes modelos de IA de código abierto. Nvidia también inicia oficialmente una transformación estratégica de “fabricante de chips” a “laboratorio de IA de élite de pila completa”.
Según el plan, esta inversión de 26 mil millones de dólares no se centrará únicamente en el desarrollo de un solo modelo, sino que cubrirá toda la cadena industrial de grandes modelos de IA de código abierto. Los fondos se implementarán gradualmente en los próximos 18 a 24 meses, y los primeros modelos de IA de código abierto desarrollados internamente podrían estar disponibles a finales de 2026 o principios de 2027.
En comparación, esta escala de inversión supera con creces los 3 mil millones de dólares que OpenAI gastó en entrenar GPT-4. En cuanto a la estrategia tecnológica, Nvidia ha optado por una “vía intermedia de peso abierto” (Open-weight). Este modelo se sitúa entre el enfoque completamente cerrado de OpenAI y el código abierto total de la serie Llama de Meta.
Específicamente, Nvidia publicará los parámetros clave (pesos) del modelo, permitiendo a empresas y desarrolladores descargarlos gratuitamente y ejecutarlos o ajustarlos en sus propios dispositivos o nubes privadas, satisfaciendo así las necesidades de privacidad de datos, personalización y control de costos. Sin embargo, los datos de entrenamiento y el código del modelo pueden no ser completamente públicos.
El fundador del Instituto Laude, una organización sin fines de lucro que promueve la apertura de IA, y científico informático Andy Konwinski calificó esta inversión de Nvidia como una señal de hito. “Están en la intersección de muchos proyectos de IA abiertos y cerrados,” dijo Konwinski, “es una declaración sin precedentes de su creencia en la apertura.”
Además, los analistas del sector señalan que la estrategia de código abierto tiene un significado comercial a largo plazo para Nvidia. Cuando Nvidia publique los modelos, también compartirá pesos y detalles técnicos, facilitando que startups e investigadores modifiquen e innoven sobre su base tecnológica, lo que ayuda a formar una red de desarrolladores en torno al ecosistema de hardware de Nvidia y a fortalecer la adhesión al mercado de sus chips.
Desde que Nvidia lanzó su primer modelo Nemotron en noviembre de 2023, ha ido lanzando modelos especializados para robótica, modelado climático y plegamiento de proteínas. El vicepresidente de investigación en aprendizaje profundo de Nvidia, Bryan Catanzaro, también reveló que recientemente completaron el preentrenamiento de un modelo de 550 mil millones de parámetros. En el desarrollo de modelos centrales, Nvidia se centrará en modelos multimodales y de múltiples dominios, abarcando lenguaje, código, cálculo científico e inteligencia artificial.
Recientemente, Nvidia lanzó una nueva generación de modelos de lenguaje de código abierto, Nemotron 3 Super, diseñado para sistemas multiagente empresariales, con un total de 128 mil millones de parámetros (solo 12 mil millones en inferencia), y soporte nativo para ventanas de contexto de más de un millón de tokens. A diferencia del modo de acceso API convencional, Nvidia ha abierto los pesos del modelo, los conjuntos de datos de preentrenamiento y postentrenamiento, y el plan completo de entrenamiento.
Con 128 mil millones de parámetros, la escala es comparable a la versión más grande de GPT-OSS de OpenAI. Nvidia afirma que en la puntuación general del índice de inteligencia artificial, Nemotron 3 Super obtuvo 37 puntos, mientras que GPT-OSS solo 33.
Cabe destacar que Nvidia también reconoce que algunos modelos chinos superan este nivel. Además, Nvidia indica que Nemotron 3 Super participó en una nueva prueba de referencia llamada PinchBench, que evalúa la capacidad del modelo para controlar OpenClaw, y que en esta prueba, Nemotron 3 Super quedó en primer lugar.
En términos técnicos, Nvidia ha divulgado varias innovaciones en el entrenamiento del modelo, que incluyen mejoras en la inferencia, manejo de contextos largos y capacidades de respuesta mediante aprendizaje reforzado.
Catanzaro afirmó: “Nvidia está prestando una atención mucho mayor al desarrollo de modelos de código abierto que antes, y estamos logrando avances significativos.”
En el nivel ecológico, Nvidia ha establecido colaboraciones con Google Cloud Vertex AI, Oracle Cloud Infrastructure, Dell Technologies, HPE y otros proveedores principales de servicios en la nube y fabricantes de hardware. También se están preparando integraciones con Amazon AWS Bedrock y Microsoft Azure. Empresas de desarrollo de agentes inteligentes como CodeRabbit, Factory y Greptile, así como instituciones de ciencias de la vida como Edison Scientific y Lila Sciences, han anunciado que integrarán estos modelos en sus flujos de trabajo de agentes inteligentes.
Durante mucho tiempo, la ventaja principal de Nvidia se ha centrado en el hardware de chips, con una participación de mercado global en IA superior al 80%, pero su influencia en los modelos de IA ha sido relativamente débil, ya que los estándares tecnológicos y paradigmas de entrenamiento de grandes modelos han sido definidos principalmente por OpenAI, Meta y otros.
Con esta iniciativa de desarrollar modelos de código abierto de nivel superior, Nvidia busca definir la hoja de ruta tecnológica de los modelos de IA desde la base, haciendo que su arquitectura de hardware y pila de software sean los estándares de facto en toda la industria de IA, y promoviendo la demanda de computación mediante la apertura de modelos. Si Nemotron se convierte en el modelo base principal para la inteligencia artificial empresarial, la infraestructura GPU necesaria para su operación a gran escala seguirá dependiendo de Nvidia — fortaleciendo la demanda de hardware mientras impulsa la apertura en el nivel de modelos.
Los analistas financieros predicen que, si Nvidia logra mantener su posición dominante en hardware y obtiene una participación del 10% en el mercado de modelos básicos, esto podría aportar hasta 50 mil millones de dólares adicionales en ingresos anuales en tres años. Catanzaro afirmó que promover el ecosistema de código abierto está en línea con los intereses centrales de Nvidia, y que esta inversión masiva no es una simple moda, sino una decisión estratégica basada en un análisis a largo plazo del sector.
El martes, el CEO de Nvidia, Jensen Huang, publicó un raro artículo de blog extenso sobre inteligencia artificial, su séptimo desde 2016, en el que explica la lógica fundamental de la industria de IA y define la “arquitectura de cinco capas” de la IA. Huang afirmó que la industria de IA todavía está en una etapa muy temprana, y aunque se han invertido miles de millones de dólares, el verdadero potencial de la IA aún no se ha explotado por completo. Se requerirán decenas de billones de dólares en inversiones continuas para perfeccionar la infraestructura básica.
Huang señaló que la IA se ha convertido en una de las fuerzas más poderosas que dan forma al mundo actual. No es solo una aplicación o modelo inteligente, sino una infraestructura tan vital como la electricidad y el internet, que opera sobre hardware, energía y economía reales, capaz de absorber materias primas y convertirlas en inteligencia a escala. En el futuro, todas las empresas usarán IA y todos los países construirán infraestructura de IA.
Respecto a las preocupaciones sobre el empleo que trae el desarrollo de la IA, Huang opina que la IA no solo no reducirá empleos, sino que creará muchas nuevas oportunidades, especialmente en infraestructura y trabajos especializados. La fuerza laboral necesaria para construir infraestructura de IA es enorme: electricistas, plomeros, trabajadores de acero, técnicos en redes, instaladores y operadores, todos de alta cualificación y con altos salarios, y actualmente en escasez. La IA está ayudando a llenar grandes vacíos laborales en sectores como conductores de camiones, enfermeros y contadores en todo el mundo, y no está causando desempleo.
Beijing Business Daily, Zhao Tianshu
Amplia información, interpretación precisa, todo en Sina Finanzas APP
Responsable: Gao Jia