La incursión de OpenAI en redes militares clasificadas de EE. UU. se topó con una reacción de los consumidores y un cambio de infraestructura más discreto pero significativo, destacando la delicada situación que enfrenta el gigante de la inteligencia artificial (IA) entre las ambiciones de seguridad nacional y la confianza de los usuarios.
La controversia estalló alrededor del 28 de febrero, cuando OpenAI confirmó un acuerdo con el Departamento de Defensa de EE. UU. para desplegar sistemas avanzados de IA, incluyendo la tecnología ChatGPT, en redes clasificadas.
La compañía enmarcó el acuerdo como legal y estrictamente controlado, pero los críticos vieron algo completamente diferente: una plataforma de IA orientada al consumidor que se adentra más en operaciones militares en un momento en que la vigilancia pública sobre la inteligencia artificial ya está en auge.
OpenAI afirmó que el acuerdo incluye límites explícitos, como prohibiciones de vigilancia masiva de personas en EE. UU., control de armas autónomas y sistemas de toma de decisiones automatizadas de alto riesgo.
También destacó restricciones técnicas, incluyendo implementaciones solo en la nube y control retenido sobre los sistemas de seguridad, además de cumplir con marcos legales estadounidenses como la Cuarta Enmienda y las reglas del Departamento de Defensa sobre supervisión humana del uso letal.
Aun así, la percepción no fue exactamente sutil.
A las pocas horas del anuncio, una campaña de boicot popular bajo la etiqueta #QuitGPT comenzó a circular en las redes sociales, instando a los usuarios a cancelar sus suscripciones, eliminar la aplicación y migrar a competidores. La reacción medible se tradujo en cambios significativos en el comportamiento de la app.
Captura de pantalla del sitio web Quitgpt.org
Según datos de análisis de aplicaciones, las tasas de desinstalación de ChatGPT en EE. UU. aumentaron un 295% día a día el 28 de febrero, mientras que las descargas cayeron un 13% al día siguiente y otro 5% después.
El sentimiento de los usuarios se volvió aún más agudo en las reseñas de la app, donde las calificaciones de una estrella aumentaron un 775% en un solo día y siguieron subiendo, mientras que las reseñas de cinco estrellas disminuyeron aproximadamente a la mitad. Los competidores aprovecharon ese momento.
La app Claude de Anthropic registró aumentos en descargas entre un 37% y un 51% durante el mismo período, superando brevemente a ChatGPT en las clasificaciones de la App Store de EE. UU. mientras los usuarios exploraban alternativas. Los organizadores del boicot afirmaron que millones de acciones relacionadas con la campaña, incluyendo cancelaciones y promesas, se llevaron a cabo, aunque las cifras exactas varían según la fuente y la definición de participación.
OpenAI actuó rápidamente para contener las consecuencias. El CEO Sam Altman reconoció deficiencias en la comunicación del acuerdo, calificando el lanzamiento como “oportunista y descuidado,” y en pocos días la compañía revisó el lenguaje del acuerdo.
Los términos actualizados prohibieron explícitamente la vigilancia doméstica intencional mediante sistemas de IA y añadieron requisitos más estrictos para cualquier participación de agencias de inteligencia, incluyendo capas contractuales separadas. La compañía también anunció planes para coordinarse con otros desarrolladores de IA en marcos de seguridad compartidos, posicionando los cambios como un ajuste más que una retirada.
Aunque la reacción negativa se moderó algo tras las revisiones, el episodio dejó una marca, resaltando cuán rápido puede cambiar el sentimiento del consumidor cuando la IA entra en territorios sensibles. Al mismo tiempo, OpenAI estaba haciendo movimientos menos visibles pero estratégicamente importantes tras bambalinas.
A principios de marzo, la compañía reorganizó sus operaciones de computación e infraestructura, dividiendo responsabilidades en tres grupos enfocados en diseño de centros de datos, alianzas comerciales y gestión de instalaciones en terreno. La reestructuración refleja un cambio más amplio en cómo OpenAI planea escalar su potencia computacional.
En lugar de construir y poseer agresivamente grandes centros de datos vinculados a su ambicioso proyecto “Stargate,” la compañía está apoyándose más en arrendamientos y alianzas con proveedores de nube. Azure de Microsoft sigue siendo central en esa estrategia, mientras que OpenAI también ha ampliado relaciones con Oracle y Amazon Web Services como parte de acuerdos de capacidad plurianuales.
Planes anteriores que involucraban proyectos de infraestructura conjunta a gran escala se han reducido o reestructurado, ya que las realidades financieras y logísticas de construir capacidad de supercomputación de IA a gran escala se vuelven más difíciles de ignorar. En su lugar, OpenAI se centra en controlar elementos clave como hardware y chips personalizados, externalizando la capa de infraestructura física a hyperscalers establecidos.
Los dos desarrollos — uno público y polémico, el otro operativo y pragmático — no están directamente vinculados, pero juntos muestran una compañía que avanza rápidamente en múltiples frentes, a veces más rápido de lo que su comunicación puede seguir.
Para OpenAI, el desafío ahora no es tanto si puede construir sistemas potentes, sino cómo gestiona las consecuencias de desplegarlos en lugares donde las apuestas son todo menos teóricas.