La apelación de Anthropic fracasa y la etiqueta del Pentágono de “riesgo en la cadena de suministro” mantiene el fallo original

robot
Generación de resúmenes en curso

Mensaje de Deep Tide TechFlow, el 09 de abril, según informa CoinTelegraph, el Tribunal de Apelaciones del Distrito de Columbia de Estados Unidos desestimó la solicitud urgente de la empresa de IA Anthropic, manteniendo la determinación del Departamento de Defensa de que existe un “riesgo para la cadena de suministro de seguridad nacional”. Los tres jueces sostuvieron que el interés del gobierno en regular la tecnología de IA durante un conflicto militar prevalece sobre las posibles pérdidas financieras y de reputación que Anthropic podría sufrir. Esta etiqueta anteriormente nunca se había aplicado a empresas nacionales de Estados Unidos y hará que los contratistas del Pentágono no puedan usar los modelos de Claude de Anthropic.

El incidente se originó en el contrato firmado por ambas partes en julio de 2025; las negociaciones se rompieron en febrero de 2026. El gobierno exigió que Anthropic permitiera el uso militar sin restricciones de Claude, mientras que esta última insistió en oponerse a que se use para armas autónomas letales y para vigilancia masiva en el país. Después, Trump ordenó a las agencias federales desactivar por completo los productos de Anthropic. Anthropic presentó una demanda en marzo. Actualmente, el caso sigue avanzando en paralelo por dos vías legales: el Tribunal de Distrito de California y el Distrito de Columbia.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado