La ola de "criar camarones" en toda la red es arrolladora, pero la industria bancaria aplica colectivamente un "tratamiento frío" - Expertos: Los permisos de sistema de alto nivel de OpenClaw y la línea de cumplimiento normativo financiero entran en conflicto natural

robot
Generación de resúmenes en curso

Los periodistas de MEIJI | Li Yuwen Edición de MEIJI | Zhang Yiming

Recientemente, el agente de inteligencia artificial de código abierto OpenClaw (también conocido como “Langosta”) ha causado gran revuelo y ha recibido mucha atención en la industria, pero en el sector bancario la actitud general hacia esta ola de “crianza de langostas” es de cautela. Según una fuente de la sede de un banco de acciones, la institución ha recibido recientemente una advertencia de riesgo por parte de los reguladores sobre “Langosta”.

Sin embargo, cabe señalar que, antes de que OpenClaw se volviera tan popular, el sector bancario ya estaba explorando y aplicando agentes inteligentes. Varios bancos están promoviendo activamente el uso de agentes en escenarios de atención al cliente y otras áreas para mejorar la eficiencia en la gestión de operaciones.

Como una institución que controla estrictamente los riesgos, ¿cómo puede el sector bancario equilibrar la innovación y la exploración con la seguridad y el cumplimiento en la era de la inteligencia artificial?

OpenClaw, cuyo icono se asemeja a una langosta roja, ha recibido el apodo de “Langosta”. El proceso de instalación y despliegue también se denomina de manera figurada como “criar langostas”. A diferencia de IA puramente conversacional como ChatGPT, OpenClaw integra llamadas a software de comunicación y modelos de lenguaje grande, permitiendo que los usuarios en sus computadoras locales realicen tareas complejas como gestión de archivos, envío y recepción de correos electrónicos y procesamiento de datos de forma autónoma. Parece convertirse en un “empleado digital” que realiza tareas en lugar de las personas, lo que ha atraído a muchos usuarios a realizar aplicaciones prácticas.

Con el continuo auge de OpenClaw, los problemas de seguridad se han vuelto cada vez más relevantes para el público. Recientemente, el Ministerio de Industria y Tecnología de la Información y el Centro Nacional de Respuesta a Emergencias de Internet han emitido advertencias de riesgo, alertando a los usuarios sobre posibles riesgos de seguridad asociados con OpenClaw y recomendando un uso prudente.

En medio de esta ola de “crianza de langostas”, el sector bancario parece bastante “frío”. Recientemente, se supo que una sede de un banco de acciones recibió una advertencia de riesgo por parte de los reguladores sobre “Langosta”. Otro funcionario de un gran banco estatal también dijo a los periodistas de MEIJI que su banco aún no ha desplegado OpenClaw ni ha organizado capacitaciones al respecto.

¿Por qué el sector bancario mantiene una actitud cautelosa hacia OpenClaw?

“A diferencia de la IA conversacional, OpenClaw, como agente inteligente, necesita acceder a archivos locales, llamar a APIs externas e incluso obtener permisos a nivel del sistema. Este mecanismo de ejecución automática de extremo a extremo puede fácilmente provocar ataques cibernéticos y la filtración de datos de transacciones clave, lo cual no se ajusta a la línea de ‘regulación estricta y tolerancia cero’ del sector bancario”, explicó Wang Peng, subinvestigador del Instituto de Ciencias Sociales de Beijing, en una entrevista con MEIJI el 16 de marzo.

Gao Chengfei, gerente general del Departamento de IP de la consultora de marketing Zhaoyan, también compartió una opinión similar: “Los altos permisos del sistema de OpenClaw están en conflicto natural con los límites de cumplimiento financiero.”

Gao explicó que OpenClaw, por defecto, tiene permisos elevados para acceder a archivos locales y llamar a APIs, lo que puede mejorar la eficiencia laboral, pero también ha divulgado varias vulnerabilidades de riesgo medio y alto. Además, los plugins de funciones carecen de mecanismos efectivos de auditoría de seguridad, lo que presenta riesgos de uso malicioso para robar contraseñas bancarias en línea, claves de pago y otra información sensible. Más importante aún, su capacidad de ejecución autónoma puede causar errores en operaciones como transferencias de fondos o compras de productos de inversión en escenarios financieros, y dado que la tecnología de IA aún no es completamente explicable, la responsabilidad por errores automáticos es difícil de determinar. Además, los datos generados durante la operación del agente pueden transmitirse a terceros, y si involucran datos de crédito, materiales de aprobación de préstamos u otra información sensible, puede surgir un riesgo de incumplimiento en la gestión de datos.

Por ello, Gao considera que, a corto plazo, OpenClaw es más adecuado para pruebas en escenarios no críticos y de pequeña escala. La implementación a gran escala debe esperar a que se resuelvan problemas clave como la seguridad controlada, la claridad en responsabilidades y la interpretabilidad de los algoritmos.

Desde la perspectiva de Wang Peng, los bancos no adoptarán directamente OpenClaw de código abierto, sino que incorporarán su camino tecnológico. Es probable que en el futuro se implemente principalmente en un modo de “despliegue privado y en entornos limitados”, es decir, dentro de la red interna del banco, mediante desarrollo propio o personalización, aplicándolo en automatización de oficinas, apoyo en gestión de riesgos y otros escenarios no críticos y de alta sensibilidad.

Cabe destacar que, antes de que OpenClaw se volviera tan popular, el sector bancario ya estaba explorando y aplicando agentes inteligentes. Se ha observado que varias instituciones están promoviendo activamente el uso de agentes para potenciar las operaciones en primera línea y mejorar la eficiencia en la gestión de servicios.

Por ejemplo, el Banco de Nanjing, en colaboración con Volcano Engine, está explorando la implementación a gran escala de agentes inteligentes en escenarios financieros, desplegando una estación de trabajo inteligente todo en uno llamada HiAgent, y ya ha implementado más de 20 agentes de alta calidad en áreas como oficina, operaciones, habilitación de ventas y gestión de riesgos.

¿Y qué resultados ha tenido esta práctica? Por ejemplo, los gerentes de clientes corporativos, antes de visitar empresas, suelen dedicar mucho tiempo a recopilar informes de información previa en diferentes sistemas y plataformas. Sin embargo, un agente inteligente de una página puede integrar automáticamente datos de múltiples fuentes internas y externas, mediante procesos de captura, limpieza, fusión y control de calidad, generando rápidamente un informe de análisis previo completo y preciso. Esto reduce el tiempo de preparación de 2 horas a solo 5 minutos, convirtiéndose en una herramienta clave en temporadas de alta demanda y en etapas críticas de marketing.

Según el informe de perspectivas del sector bancario en China 2026 publicado recientemente por KPMG, el análisis de información de licitaciones públicas y los casos de estudio de KPMG muestran que, desde enero hasta noviembre de 2025, los proyectos de modelos grandes en bancos han mostrado una tendencia ascendente general, alcanzando un pequeño auge en agosto. En cuanto al contenido de los proyectos, de enero a junio predominaba la respuesta a preguntas de conocimiento, con aplicaciones de agentes dispersas y ocasionales. Desde julio, los proyectos de aplicación de agentes comenzaron a crecer exponencialmente, y en octubre y noviembre, todos los tipos de proyectos fueron de aplicación de agentes.

Entonces, ¿cómo deben los bancos equilibrar la innovación y la exploración con la seguridad y el cumplimiento en la aplicación de agentes inteligentes?

El 16 de marzo, el investigador especial del Banco de Comercio de Suzhou, Fu Yifu, en una entrevista con MEIJI, afirmó que, al promover la incorporación de agentes en las operaciones de primera línea, los bancos deben innovar en sus mecanismos de gestión, realizar pruebas en entornos controlados y garantizar que los riesgos sean medibles y controlables. Además, deben fortalecer la protección de la privacidad de los datos y la auditoría de algoritmos, siguiendo el principio de “mínimos permisos” y evitando la recopilación excesiva de información de los clientes. Mantener una comunicación estrecha con los reguladores, participar en la formulación de estándares de la industria y anticipar posibles líneas rojas de cumplimiento también es fundamental. Asimismo, los bancos deben establecer procesos de revisión humana para decisiones clave del agente, con segundas confirmaciones, para prevenir errores automáticos. Al integrar los requisitos de cumplimiento en todo el proceso de desarrollo tecnológico y formar talentos multidisciplinarios, los bancos pueden liberar de manera segura el valor innovador de los agentes.

Imagen de portada: Biblioteca de medios de MEIJI

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado