En esta industria, con el tiempo se pueden detectar patrones: cada vez que surge una nueva ola tecnológica, todos presumen de lo que pueden hacer, pero lo que realmente determina cuánto dura un proyecto no es tanto la tecnología en sí, sino el sistema de reglas que lo acompaña.
La IA tampoco escapa a este hechizo.
¿Ahora las capacidades de los modelos son fuertes? Sí. ¿Los agentes pueden descomponer tareas y ejecutarlas automáticamente? También. Esto ya no es noticia. Lo realmente difícil es otra cuestión: cuando la IA comienza a actuar de forma autónoma, ¿quién asegura que su comportamiento no se salga de control?
**De herramienta a sujeto, ¿qué falta en medio?**
Actualmente, la mayoría de las IA todavía son en forma de herramientas. Das una orden y la ejecuta; retiras el permiso y se detiene. Simple y directo.
Pero a medida que los agentes inteligentes se vuelven más poderosos, la lógica cambia. La IA ya no solo sigue instrucciones, sino que puede planificar y gestionar recursos según el objetivo. Una vez que llega a ese punto, la IA deja de ser solo una herramienta pura: se asemeja a un sujeto autorizado para realizar tareas.
Aquí surge una cuestión fundamental: cualquier entidad que pueda generar consecuencias económicas necesita un sistema que la restrinja. Actualmente, ese sistema está casi en blanco. Muchos proyectos solo se preocupan por acumular inteligencia, dejando la cuestión de la gobernanza fundamental para después.
**Primero controla el dinero, luego habla de inteligencia**
Una idea común en la industria es partir del techo tecnológico, preguntándose hasta qué punto puede ser inteligente la IA. Pero hay un proyecto que piensa al revés: dado que la IA debe actuar de forma autónoma, primero hay que controlar claramente el flujo de fondos. Controlar las actividades económicas para poder gestionar los riesgos del sistema.
Esta idea es bastante fría y algo inusual.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
11 me gusta
Recompensa
11
5
Republicar
Compartir
Comentar
0/400
SmartContractRebel
· 12-20 18:50
Otra vez la misma estrategia, alardear con indicadores técnicos, pero cuando llega el momento de dinero real y gestión de riesgos, se desvían del tema...
Ver originalesResponder0
MetaverseMortgage
· 12-20 18:47
Otra época en la que solo piensan en acumular parámetros y no en gobernar, ¡y esta vez incluso AG va a fracasar!
Ver originalesResponder0
BoredStaker
· 12-20 18:45
En resumen, todo el sector todavía está jugando a la exhibición técnica, la verdadera prueba está en la gobernanza
---
Otra historia de fuerza técnica pero vacío institucional, todos los esquemas son iguales
---
Gestionar el dinero es más importante que gestionar la inteligencia, eso es lo que Web3 debería aprender
---
Esos proyectos que solo acumulan parámetros tarde o temprano fracasan, ya verás
---
Vaya, proyectos que piensan de manera contraria son realmente raros
---
La falta de estructura institucional es realmente la trampa, nadie la llena con seriedad
---
Por eso, en definitiva, sigue siendo un problema de confianza
---
No solo AI, todo el cripto carece de este conjunto de cosas
---
Ya debería haber alguien que vea los problemas con tanta calma
Ver originalesResponder0
GasFeeNightmare
· 12-20 18:44
Otra vez surge un argumento de prioridad en la gobernanza, suena bien, pero todavía creo que es un poco vacío. La verdadera restricción no está escrita en papel, sino que depende de incentivos económicos.
Ver originalesResponder0
DataOnlooker
· 12-20 18:28
A decir verdad, otra vez la misma estrategia de indicadores técnicos, lo que realmente bloquea son esas reglas invisibles
En esta industria, con el tiempo se pueden detectar patrones: cada vez que surge una nueva ola tecnológica, todos presumen de lo que pueden hacer, pero lo que realmente determina cuánto dura un proyecto no es tanto la tecnología en sí, sino el sistema de reglas que lo acompaña.
La IA tampoco escapa a este hechizo.
¿Ahora las capacidades de los modelos son fuertes? Sí. ¿Los agentes pueden descomponer tareas y ejecutarlas automáticamente? También. Esto ya no es noticia. Lo realmente difícil es otra cuestión: cuando la IA comienza a actuar de forma autónoma, ¿quién asegura que su comportamiento no se salga de control?
**De herramienta a sujeto, ¿qué falta en medio?**
Actualmente, la mayoría de las IA todavía son en forma de herramientas. Das una orden y la ejecuta; retiras el permiso y se detiene. Simple y directo.
Pero a medida que los agentes inteligentes se vuelven más poderosos, la lógica cambia. La IA ya no solo sigue instrucciones, sino que puede planificar y gestionar recursos según el objetivo. Una vez que llega a ese punto, la IA deja de ser solo una herramienta pura: se asemeja a un sujeto autorizado para realizar tareas.
Aquí surge una cuestión fundamental: cualquier entidad que pueda generar consecuencias económicas necesita un sistema que la restrinja. Actualmente, ese sistema está casi en blanco. Muchos proyectos solo se preocupan por acumular inteligencia, dejando la cuestión de la gobernanza fundamental para después.
**Primero controla el dinero, luego habla de inteligencia**
Una idea común en la industria es partir del techo tecnológico, preguntándose hasta qué punto puede ser inteligente la IA. Pero hay un proyecto que piensa al revés: dado que la IA debe actuar de forma autónoma, primero hay que controlar claramente el flujo de fondos. Controlar las actividades económicas para poder gestionar los riesgos del sistema.
Esta idea es bastante fría y algo inusual.