BBC periodista Thomas Germain revela una dura realidad: un experimento profundo en falsificación demuestra que ya no se puede distinguir si alguien es humano o IA.
(Resumen previo: ZachXBT expone una granja de noticias falsas del “fin del mundo”: usando IA para manipular tráfico de guerras, estafas y memes, ganando decenas de miles de dólares)
(Información adicional: Far East Commercial Bank y la Fiscalía firmaron un MOU: el 95% de las transacciones en criptomonedas en Taiwán están bajo investigación anti lavado y anti fraude)
Índice del artículo
Alternar
El periodista Germain describe anoche un experimento inquietante: llamó a su tía Eleanor, quien ha sido su amiga toda la vida, y le advirtió que la próxima llamada podría ser de un humano o de una IA deepfake.
El resultado: su tía no pudo distinguir. La conclusión de Germain es simple: si ni siquiera los familiares pueden diferenciar, esto ya no es solo un problema técnico.
Preguntó al profesor de análisis digital en la Universidad de California, Berkeley, cofundador de GetReal Security, Hany Farid: “¿Qué puedo hacer ahora para demostrar que no soy IA?” La respuesta de Farid fue una sola palabra: No.
Tú estás en Nueva York, yo en Berkeley, California, estamos en videollamada. La realidad es que tú puedes disfrazar todo esto.
Luego Farid dijo una frase que da escalofríos: “No hay manera. Se acabó (It’s over).”
Germain también cita un caso reciente y absurdo. Cuando el primer ministro israelí Netanyahu publicó un video, la refracción de la luz hizo que pareciera que tenía un dedo de más en la mano derecha: un clásico fallo para detectar deepfakes.
La comunidad rápidamente se inundó de rumores: decían que había muerto en un ataque con misiles, y que el video era falso.
Para demostrar su inocencia, Netanyahu publicó un segundo y un tercer video, levantando las manos en un café y mostrando uno a uno sus dedos para confirmar que estaban correctos. Germain señala que Farid analizó estos videos con reconocimiento de voz, detección facial cuadro por cuadro y análisis de sombras, concluyendo que todos eran auténticos, sin evidencia de IA.
Jeremy Carrasco, cofundador de Riddance, también dijo a la BBC: “Tener seis dedos ya no es una característica de IA, las mejores herramientas hace años corrigieron ese problema.”
Pero Germain observa algo irónico: incluso con respaldo de expertos, mucha gente sigue creyendo que Netanyahu está muerto. Es posible que sea la primera vez en la historia que los líderes de las principales potencias deben demostrar públicamente que no son IA (y fracasan).
Germain introduce el concepto de “bonificación del mentiroso” definido por investigadores: Es caro probar la verdad, pero es gratis crear dudas. Los políticos pueden afirmar fácilmente que un video real es un deepfake, y la cantidad de tiempo, recursos y credibilidad necesarios para refutar esa acusación suele superar con creces el costo de difundir rumores.
Samuel Woolley, director del Centro de Estudios sobre Información Falsa en la Universidad de Pittsburgh, señala un patrón histórico alarmante: “Al inicio de la guerra en Ucrania, vi deepfakes torpes. En Gaza, contenido falso más frecuente y de mejor calidad. En Venezuela, más contenido falso que real. Y en Irán, esto ha llegado a un nivel completamente nuevo.”
Woolley también señala directamente a los políticos que impulsan la regulación: “Ahora están cosechando lo que sembraron.”
En cuanto a soluciones, Germain llega a una conclusión sorprendente: los mejores expertos en deepfake, como Farid, recomiendan un método simple: códigos secretos.
Farid explicó a la BBC que él y su esposa tienen un código especial para verificar cuando reciben llamadas sospechosas. Es una forma de autenticación multifactor interpersonal: cuando toda la tecnología falla, vuelves a confiar en un acuerdo de confianza básico.
Aunque el enfoque del artículo es la crisis de confianza social, datos de la AARP muestran un impacto financiero directo: entre 2023 y 2025, los fraudes relacionados con IA aumentaron 20 veces. La firma británica Arup sufrió una pérdida de 25 millones de dólares en una videollamada, cuando un deepfake de su director financiero fue utilizado para estafarlos.
El mercado de criptomonedas está en una situación aún más grave. Según Fintech Global, en el primer trimestre de 2026, las estafas en cripto alcanzaron los 200 millones de dólares, un aumento del 340% anual; se estima que el 70% de los delitos en cripto involucran deepfakes.
Un problema aún mayor es una herramienta llamada ProKYC: con solo 629 dólares al año, ofrece simuladores virtuales, animaciones faciales y generación de huellas digitales, permitiendo crear identidades completamente nuevas y evadir los sistemas de verificación biométrica en exchanges. El Departamento del Tesoro de EE. UU. ha pedido reforzar la regulación de IA y sistemas de identidad digital.
Otra posible gran transformación es que los agentes de IA puedan gestionar billeteras y realizar transacciones de forma autónoma. En ese escenario, ¿quién es realmente el cliente: un humano o la IA? La regulación de KYC podría quedar en un vacío legal.
Irónicamente, creamos sistemas de verificación para identificar IA, pero estas evolucionan para evadirla. Y quizás, la única forma confiable en el futuro sea un viejo código secreto entre tú y tus seres queridos.