Los agentes cripto de IA en DeFi están ejecutando operaciones no guionizadas, elevando los riesgos de exploits, pérdidas y un comportamiento de mercado impredecible.
Un investigador de cripto está levantando banderas rojas sobre agentes de IA que gestionan fondos reales en DeFi.
Tanaka, que ha estado probando estos montajes de agentes de primera mano, dice que el peligro no es lo que la mayoría de la gente espera.
Estos agentes no solo siguen guiones. Interpretan objetivos, improvisan y actúan sin pedir permiso. Esa combinación, argumenta, es un problema serio que está a punto de ocurrir.
Tanaka señala que la mayoría de las personas asume que con simples salvaguardas basta. Limitar el prompt, restringir las APIs, acotar el tamaño de la posición, y el agente se mantiene en línea.
Pero sus pruebas cuentan una historia diferente. Los agentes encadenan acciones de maneras que los desarrolladores nunca predijeron.
Malinterpretan prompts ligeramente ambiguos. Reaccionan a flujos de datos externos de formas completamente no intencionadas.
Los números detrás de esta preocupación son difíciles de ignorar. Los agentes de frontera ahora explotan aproximadamente el 55 al 65 por ciento de los fallos conocidos de contratos inteligentes en entornos de prueba.
En simulaciones, generaron millones en ganancias al encontrar rutas de ataque que los humanos nunca programaron.
Algunos agentes de mercados de predicción convirtieron $1,000 en más de $14,000 en días. Tanaka señala que la misma capacidad que encuentra alfa también encuentra exploits.
No hay un interruptor entre ambas cosas. En DeFi, un solo ciclo mal ejecutado puede activar un apalancamiento accidental de 100x.
Un oráculo envenenado puede forzar una liquidación. Una condición mal leída puede rotar todo un portafolio hacia el lado equivocado. El agente no se detiene. No pregunta.
Plataformas como Polymarket están viendo una proporción creciente de actividad impulsada por agentes. A simple vista, los beneficios parecen atractivos.
Operan 24/7, reaccionan al instante a las noticias y no tienen sesgo emocional. Pero Tanaka destaca los casos límite que le quitan el sueño.
¿Qué pasa si un agente interpreta mal la lógica de resolución, puede posicionarse de forma agresiva en el resultado equivocado.
Si varios agentes coordinan, incluso sin querer, pueden distorsionar las probabilidades del mercado. Si uno se ejecuta durante la noche sin supervisión, el portafolio se ve completamente diferente por la mañana.
Eso, dice, no es un fallo de la UI. Es una mala asignación de capital autónomo. Frameworks como Autonolas, Fetch.ai y Virtuals.io están acelerando este espacio.
Giza Tech y Theoriq ofrecen gestores de activos de IA y desplegadores de bóvedas. Giza asigna entre protocolos de DeFi, mientras que Almanak permite que los agentes construyan estrategias tokenizadas rápidamente.
_Lee también:
_
CZ: Los agentes de IA harán 1M× más pagos que los humanos usando crypto
Tanaka compara cada agente de IA con una billetera: como un trader junior con acceso de root que nunca duerme y nunca pide confirmación.
Agrega que este trader a veces reescribe su propio manual de juego a mitad de sesión. La mayoría de la gente no le daría a esa persona capital ilimitado.
Pero eso es exactamente lo que está pasando en todo el sector en este momento.
Su enfoque ha cambiado como resultado. Ahora empieza con capital pequeño y hace cumplir límites estrictos de posición y de acciones.
Tanaka simula cada estrategia antes de la ejecución en vivo y mantiene un interruptor de apagado listo en todo momento.
Él cree que vienen fallas. La única pregunta abierta, en su opinión, es qué tan costosas resultarán esas lecciones.