Американский регулятор предпринял новые шаги. Губернатор одного из штатов США недавно подписал закон о безопасности ИИ, став вторым штатом в стране, который внедрил крупную нормативную базу безопасности ИИ.
Основное требование законопроекта не скромно: крупные разработчики ИИ должны раскрывать детали протокола безопасности и сообщать о инцидентах в течение 72 часов, при этом штрафы ограничены 1 миллионом долларов. Это сочетание обязательного раскрытия информации + быстрого реагирования, очевидно, направлено на снижение системных рисков.
Интересно, что ведущие производители ИИ, такие как OpenAI, действительно выразили свою поддержку, считая это необходимым шагом в стандартизации отрасли. Но лоббистская группа, поддерживаемая крупным капиталом, действует в обратном направлении, указывая пальцем на главного инициатора законопроекта. Что говорит этот контраст? Те же технологические гиганты имеют совершенно разные интересы в регулировании на уровне штатов — одни хотят быть прозрачными и регулировать, чтобы установить эталон, в то время как другие больше обеспокоены издержками чрезмерного регулирования.
Сравнивая регуляторный путь Web3, это расхождение в политиках не является чем-то новым для них. От DeFi до стейблкоинов и теперь регулирование искусственного интеллекта — капитал и индустрия всегда находятся в постоянной игре.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
13 Лайков
Награда
13
6
Репост
Поделиться
комментарий
0/400
ILCollector
· 6ч назад
72 часа для отчета? Разве это не заставляет крупные компании жаловаться друг на друга, ха-ха
Опять появился государственный регулятор, США собираются повторить ту же схему с Web3
Поддержка OpenAI оправдана, в конце концов, у них достаточно крупные ресурсы, мелким компаниям только и остается, что переживать
Разделение интересов действительно интересно, кажется, будто мы боремся со своими же людьми
Регулирование становится все жестче, надеюсь, в дальнейшем последуют новые новости
Посмотреть ОригиналОтветить0
RektCoaster
· 6ч назад
72 часа на отчет? Такой масштаб достаточно жесткий, но поддержка OpenAI меня даже немного ошарашила
Посмотреть ОригиналОтветить0
ZKProofEnthusiast
· 6ч назад
72 часа на отчет, штраф 1 000 000... Такая мера довольно жесткая, но поддержка OpenAI все же означает, что руководство действительно хочет избавиться от ярлыка «дикого роста».
Посмотреть ОригиналОтветить0
LayerZeroJunkie
· 6ч назад
Не могу больше держаться, OpenAI красиво говорит, на самом деле они просто хотят переложить вину на маленьких игроков, а сами давно уже соблюдают правила, верно
Посмотреть ОригиналОтветить0
GasFeeLady
· 6ч назад
ngl openai играет в 4D шахматы здесь... поддержка регуляций, чтобы вытеснить конкурентов, пока у них уже есть инфраструктура для этого. классический ход, честно говоря. а 72-часовое окно для отчетности? это по сути требует от разработчиков оптимизировать их реагирование на инциденты так же, как мы оптимизируем газ. кто бы ни лоббировал против этого, у него, наверное, слишком много что скрывать лол
Посмотреть ОригиналОтветить0
ruggedSoBadLMAO
· 6ч назад
В течение 72 часов необходимо сообщить, штраф в 1 миллион — это верхняя граница, OpenAI что, поддержка... За этим стоит лоббирование капитала, и это действительно голос, верно?
Американское регулирование ИИ снова усиливается: на уровне штатов принимаются законы, вызывающие разногласия в отрасли
Американский регулятор предпринял новые шаги. Губернатор одного из штатов США недавно подписал закон о безопасности ИИ, став вторым штатом в стране, который внедрил крупную нормативную базу безопасности ИИ.
Основное требование законопроекта не скромно: крупные разработчики ИИ должны раскрывать детали протокола безопасности и сообщать о инцидентах в течение 72 часов, при этом штрафы ограничены 1 миллионом долларов. Это сочетание обязательного раскрытия информации + быстрого реагирования, очевидно, направлено на снижение системных рисков.
Интересно, что ведущие производители ИИ, такие как OpenAI, действительно выразили свою поддержку, считая это необходимым шагом в стандартизации отрасли. Но лоббистская группа, поддерживаемая крупным капиталом, действует в обратном направлении, указывая пальцем на главного инициатора законопроекта. Что говорит этот контраст? Те же технологические гиганты имеют совершенно разные интересы в регулировании на уровне штатов — одни хотят быть прозрачными и регулировать, чтобы установить эталон, в то время как другие больше обеспокоены издержками чрезмерного регулирования.
Сравнивая регуляторный путь Web3, это расхождение в политиках не является чем-то новым для них. От DeFi до стейблкоинов и теперь регулирование искусственного интеллекта — капитал и индустрия всегда находятся в постоянной игре.