【CriptoMundo】La regulación en EE. UU. vuelve a tomar medidas. El gobernador de un estado de EE. UU. firmó recientemente una legislación de seguridad de IA, convirtiéndose en el segundo estado en implementar un marco de regulación de seguridad de IA a gran escala en el país.
Los requisitos principales de la ley no son suaves: los grandes desarrolladores de IA deben divulgar detalles de sus protocolos de seguridad, y en caso de incidentes de seguridad, deben reportarlos en 72 horas. La multa máxima se eleva directamente a 1 millón de dólares. Esta combinación de divulgación obligatoria y respuesta rápida claramente apunta a reducir los riesgos sistémicos.
Lo interesante es que empresas líderes en IA como OpenAI en realidad han expresado su apoyo, considerando que es un paso necesario para la normalización del sector. Pero las organizaciones de cabildeo respaldadas por grandes capitales están operando en sentido contrario, dirigiendo sus ataques hacia los principales impulsores de la ley. ¿Qué revela esta contradicción? Que incluso entre los gigantes tecnológicos, las posturas respecto a la regulación a nivel estatal difieren completamente: algunos buscan transparencia y regulación para marcar estándares, mientras que otros temen más los costos de una regulación excesiva.
Comparando con el camino de regulación en Web3, este tipo de polarización en políticas no es nuevo. Desde DeFi hasta stablecoins, y ahora en la regulación de IA, el capital y la industria están en constante lucha.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
13 me gusta
Recompensa
13
6
Republicar
Compartir
Comentar
0/400
ILCollector
· hace5h
¿Informe en 72 horas? Esto no es más que obligar a las grandes empresas a denunciarse entre sí, jaja
Vuelve a haber una regulación a nivel estatal, Estados Unidos va a hacer pasar todo ese proceso de Web3 otra vez
El apoyo de OpenAI tiene sentido, total, ellos son lo suficientemente grandes, las pequeñas empresas deberían preocuparse más
La división de intereses es realmente interesante, parece que están peleando entre sus propios colegas
La regulación se está volviendo cada vez más estricta, seguramente habrá más desarrollos en el futuro
Ver originalesResponder0
RektCoaster
· hace5h
¿Informe en 72 horas? Esa jugada es bastante agresiva, pero que OpenAI me apoye en cambio me tiene un poco desconcertado
Ver originalesResponder0
ZKProofEnthusiast
· hace5h
Informe en 72 horas, multa de 1 millón... La intensidad es un poco dura, pero el apoyo de OpenAI sí que tiene sentido, lo que indica que los líderes realmente quieren deshacerse del apodo de crecimiento salvaje
Ver originalesResponder0
LayerZeroJunkie
· hace5h
Ya no puedo más, OpenAI suena bien pero en realidad solo quiere echarle la culpa a los pequeños jugadores, ellos ya estaban en cumplimiento desde hace tiempo, ¿verdad?
Ver originalesResponder0
GasFeeLady
· hace5h
ngl openai jugando a 4D ajedrez aquí... apoyo a las regulaciones para apretar a la competencia mientras ya tienen la infraestructura para manejarlo. movimiento clásico, la verdad. ¿el período de reporte de 72 horas? eso es básicamente pedir a los desarrolladores que optimicen su respuesta a incidentes como optimizamos el gas. quien esté haciendo lobby en contra probablemente tenga demasiado que esconder lmao
Ver originalesResponder0
ruggedSoBadLMAO
· hace5h
Dentro de 72 horas, informe, multa de 1 millón, ¿qué está haciendo OpenAI diciendo que apoya... La verdadera voz es la presión de los capitales detrás, ¿verdad?
La supervisión de la IA en EE. UU. se intensifica: las leyes estatales generan divisiones en la industria
【CriptoMundo】La regulación en EE. UU. vuelve a tomar medidas. El gobernador de un estado de EE. UU. firmó recientemente una legislación de seguridad de IA, convirtiéndose en el segundo estado en implementar un marco de regulación de seguridad de IA a gran escala en el país.
Los requisitos principales de la ley no son suaves: los grandes desarrolladores de IA deben divulgar detalles de sus protocolos de seguridad, y en caso de incidentes de seguridad, deben reportarlos en 72 horas. La multa máxima se eleva directamente a 1 millón de dólares. Esta combinación de divulgación obligatoria y respuesta rápida claramente apunta a reducir los riesgos sistémicos.
Lo interesante es que empresas líderes en IA como OpenAI en realidad han expresado su apoyo, considerando que es un paso necesario para la normalización del sector. Pero las organizaciones de cabildeo respaldadas por grandes capitales están operando en sentido contrario, dirigiendo sus ataques hacia los principales impulsores de la ley. ¿Qué revela esta contradicción? Que incluso entre los gigantes tecnológicos, las posturas respecto a la regulación a nivel estatal difieren completamente: algunos buscan transparencia y regulación para marcar estándares, mientras que otros temen más los costos de una regulación excesiva.
Comparando con el camino de regulación en Web3, este tipo de polarización en políticas no es nuevo. Desde DeFi hasta stablecoins, y ahora en la regulación de IA, el capital y la industria están en constante lucha.