Австралийские регулирующие органы выпустили предупреждение: рост жалоб на злоупотребление изображениями с помощью искусственного интеллекта Grok вызывает усиление регулирования
Австралийский орган по надзору за кибербезопасностью недавно опубликовал предупреждение о быстром росте жалоб на злоупотребление изображениями в связи с чат-ботом на базе искусственного интеллекта Grok, особенно по поводу создания гендерных изображений без согласия, что стало ключевым риском в текущем регулировании генеративного искусственного интеллекта. Австралийский независимый орган по кибербезопасности eSafety отметил, что за последние несколько месяцев количество жалоб, связанных с Grok, удвоилось и включает различные виды нарушений изображений, затрагивающих как несовершеннолетних, так и взрослых.
Комиссар по кибербезопасности Австралии Julie Inman Grant заявила, что часть жалоб может касаться материалов сексуальной эксплуатации детей, а другие — о злоупотреблениях, основанных на изображениях, совершённых взрослыми. Она подчеркнула в LinkedIn, что генеративный искусственный интеллект всё чаще используется для сексуализации и эксплуатации других, особенно в случаях с участием детей, что представляет серьёзную проблему для общества и регуляторных систем. По мере повышения реалистичности создаваемого AI контента, сложность его распознавания и сбора доказательств также увеличивается.
Grok разработан компанией xAI, основанной Илоном Маском, и интегрирован непосредственно в платформу X, позволяя пользователям редактировать и создавать изображения. В отличие от других популярных моделей искусственного интеллекта, Grok позиционируется как более «прогрессивный» продукт, способный генерировать контент, который обычно отказывается создавать большинство моделей. Ранее xAI также запустила режим, позволяющий создавать откровенные материалы, что стало одним из ключевых моментов повышенного внимания регуляторов.
Julie Inman Grant отметила, что согласно действующему законодательству Австралии, все онлайн-сервисы обязаны принимать эффективные меры для предотвращения распространения материалов сексуальной эксплуатации детей, независимо от того, созданы ли они искусственным интеллектом. Она подчеркнула, что компании должны встроить механизмы безопасности на всех этапах разработки, внедрения и эксплуатации генеративных AI-продуктов, иначе рискуют столкнуться с расследованиями и правоприменительными мерами.
Что касается проблемы глубокой подделки (deepfake), Австралия заняла более жесткую позицию. Недавно регуляторы продвинули несколько законодательных инициатив, чтобы устранить пробелы в существующем законодательстве по борьбе с несанкционированным распространением AI-синтезированного контента. Законопроект, предложенный независимым сенатором David Pocock, предусматривает высокие штрафы для физических и юридических лиц за распространение deepfake-контента, что должно усилить сдерживающий эффект.
В целом, инциденты злоупотребления изображениями с помощью Grok отражают проблему задержки регулирования в условиях быстрого расширения технологий генеративного AI. По мере того, как deepfake, злоупотребление AI-изображениями и защита несовершеннолетних становятся глобальными приоритетами, регуляторные тенденции Австралии могут стать важным ориентиром для других стран и предвещают ускорение эпохи соответствия генеративного искусственного интеллекта новым стандартам.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Австралийские регулирующие органы выпустили предупреждение: рост жалоб на злоупотребление изображениями с помощью искусственного интеллекта Grok вызывает усиление регулирования
Австралийский орган по надзору за кибербезопасностью недавно опубликовал предупреждение о быстром росте жалоб на злоупотребление изображениями в связи с чат-ботом на базе искусственного интеллекта Grok, особенно по поводу создания гендерных изображений без согласия, что стало ключевым риском в текущем регулировании генеративного искусственного интеллекта. Австралийский независимый орган по кибербезопасности eSafety отметил, что за последние несколько месяцев количество жалоб, связанных с Grok, удвоилось и включает различные виды нарушений изображений, затрагивающих как несовершеннолетних, так и взрослых.
Комиссар по кибербезопасности Австралии Julie Inman Grant заявила, что часть жалоб может касаться материалов сексуальной эксплуатации детей, а другие — о злоупотреблениях, основанных на изображениях, совершённых взрослыми. Она подчеркнула в LinkedIn, что генеративный искусственный интеллект всё чаще используется для сексуализации и эксплуатации других, особенно в случаях с участием детей, что представляет серьёзную проблему для общества и регуляторных систем. По мере повышения реалистичности создаваемого AI контента, сложность его распознавания и сбора доказательств также увеличивается.
Grok разработан компанией xAI, основанной Илоном Маском, и интегрирован непосредственно в платформу X, позволяя пользователям редактировать и создавать изображения. В отличие от других популярных моделей искусственного интеллекта, Grok позиционируется как более «прогрессивный» продукт, способный генерировать контент, который обычно отказывается создавать большинство моделей. Ранее xAI также запустила режим, позволяющий создавать откровенные материалы, что стало одним из ключевых моментов повышенного внимания регуляторов.
Julie Inman Grant отметила, что согласно действующему законодательству Австралии, все онлайн-сервисы обязаны принимать эффективные меры для предотвращения распространения материалов сексуальной эксплуатации детей, независимо от того, созданы ли они искусственным интеллектом. Она подчеркнула, что компании должны встроить механизмы безопасности на всех этапах разработки, внедрения и эксплуатации генеративных AI-продуктов, иначе рискуют столкнуться с расследованиями и правоприменительными мерами.
Что касается проблемы глубокой подделки (deepfake), Австралия заняла более жесткую позицию. Недавно регуляторы продвинули несколько законодательных инициатив, чтобы устранить пробелы в существующем законодательстве по борьбе с несанкционированным распространением AI-синтезированного контента. Законопроект, предложенный независимым сенатором David Pocock, предусматривает высокие штрафы для физических и юридических лиц за распространение deepfake-контента, что должно усилить сдерживающий эффект.
В целом, инциденты злоупотребления изображениями с помощью Grok отражают проблему задержки регулирования в условиях быстрого расширения технологий генеративного AI. По мере того, как deepfake, злоупотребление AI-изображениями и защита несовершеннолетних становятся глобальными приоритетами, регуляторные тенденции Австралии могут стать важным ориентиром для других стран и предвещают ускорение эпохи соответствия генеративного искусственного интеллекта новым стандартам.