Искусственный интеллект — инновация или кризис… Условия цифрового доверия, на которых сосредоточено исследование «Исследование политики активации индустрии Web 3.0»
Согласно «Исследовательскому отчету по политике активации индустрии Web 3.0», аналитики отмечают, что быстрое распространение искусственного интеллекта (ИИ) не только стимулирует инновации в промышленности, но и одновременно расширяет негативные побочные эффекты, такие как подрыв общественного доверия. Особенно актуальны случаи злоупотребления технологиями, такими как глубокое подделывание (deepfake), голосовой фишинг и другие, которые уже стали реальностью. Всё больше людей обеспокоены чрезмерной зависимостью от ИИ и разрывами в его применении, что негативно сказывается на всей социальной структуре.
Профессор Ин Сикбин из Университета Сиджана в этом отчете определяет суть побочных эффектов ИИ как «не только технические недостатки, но и все негативные последствия, вызванные неправильным использованием и злоупотреблением со стороны человека». В отчете особое внимание уделяется трём аспектам: «усугубление цифрового разрыва», «чрезмерная зависимость от цифровых технологий» и «преступность и нелегальные действия».
Во-первых, анализ показывает, что усугубление цифрового разрыва проявляется в различиях в платной структуре и доступе к высокопроизводительным моделям ИИ, разнице в возможностях обработки данных между крупными корпорациями и малыми и средними предприятиями, а также в наличии высококачественных данных, что влияет на производительность. Всё это может привести к экспоненциальному росту разрыва в производительности. Например, пользователи, ограниченные в использовании платных ИИ-инструментов, неизбежно будут отставать в автоматизации и повышении производительности.
Чрезмерная зависимость от цифровых технологий связана с деградацией врожденных когнитивных способностей человека. Это включает усталость и стресс из-за повторяющихся задач, таких как проверка и корректировка автоматических результатов ИИ, а также формирование структуры «нельзя работать без ИИ». Особенно выделяется феномен «деградации навыков», который считается риском, независимым от развития ИИ, ослабляющим человеческие способности.
Более серьезная проблема — злоупотребление ИИ в преступных целях. В отчете предупреждают, что случаи сексуальных преступлений с использованием технологий глубокого подделывания, мошенничества, выдачи себя за руководителей компаний и фальсификации доказательств уже стали реальностью. «Процесс размывания правды» усиливается, что усложняет определение подлинности информации. Технологии голосовой синтезы на базе ИИ делают голосовой фишинг более изощренным, а манипуляции общественным мнением с помощью микроцелей могут стать катастрофическими факторами, вызывающими распространение ложных новостей и социальные расколы.
На основе этого отчет предлагает конкретные технические меры. В частности, рекомендуется одновременно с улучшением алгоритмов обнаружения глубоких подделок внедрять стандарты C2PA и цифровые водяные знаки для проверки источников контента. Аналитики также считают, что использование распределенной аутентификации, доказательств с нулевым разглашением и блокчейн-технологий для сертификации контента становится ключевым альтернативным решением для построения системы цифрового доверия на базе Web 3.0.
На политическом уровне возрастает требование усилить уголовное преследование распространения глубоких подделок, четко определить ответственность платформ и ускорить развитие инфраструктуры общественного ИИ. Также подчеркивается необходимость проведения образовательных программ по цифровой грамотности для всех возрастных групп — от подростков до взрослых.
Профессор Ин Сикбин подчеркивает в отчете, что помимо технических мер важны этическое образование, политическое регулирование и сотрудничество между промышленностью, академическим сообществом и гражданским обществом. Без этого побочные эффекты ИИ могут привести не только к краху доверия к технологиям, но и поставить под угрозу цифровую демократию и экономический порядок.
Конечная цель — не подавление скорости развития технологий, а формирование «человекоцентричных норм» для справедливого и ответственного использования технологий. В отчете подчеркивается, что для превращения ИИ в инструмент процветания общества необходимо одновременно развивать гибкое регулирование, координированные институты и создавать устойчивую экосистему доверия.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Искусственный интеллект — инновация или кризис… Условия цифрового доверия, на которых сосредоточено исследование «Исследование политики активации индустрии Web 3.0»
Согласно «Исследовательскому отчету по политике активации индустрии Web 3.0», аналитики отмечают, что быстрое распространение искусственного интеллекта (ИИ) не только стимулирует инновации в промышленности, но и одновременно расширяет негативные побочные эффекты, такие как подрыв общественного доверия. Особенно актуальны случаи злоупотребления технологиями, такими как глубокое подделывание (deepfake), голосовой фишинг и другие, которые уже стали реальностью. Всё больше людей обеспокоены чрезмерной зависимостью от ИИ и разрывами в его применении, что негативно сказывается на всей социальной структуре.
Профессор Ин Сикбин из Университета Сиджана в этом отчете определяет суть побочных эффектов ИИ как «не только технические недостатки, но и все негативные последствия, вызванные неправильным использованием и злоупотреблением со стороны человека». В отчете особое внимание уделяется трём аспектам: «усугубление цифрового разрыва», «чрезмерная зависимость от цифровых технологий» и «преступность и нелегальные действия».
Во-первых, анализ показывает, что усугубление цифрового разрыва проявляется в различиях в платной структуре и доступе к высокопроизводительным моделям ИИ, разнице в возможностях обработки данных между крупными корпорациями и малыми и средними предприятиями, а также в наличии высококачественных данных, что влияет на производительность. Всё это может привести к экспоненциальному росту разрыва в производительности. Например, пользователи, ограниченные в использовании платных ИИ-инструментов, неизбежно будут отставать в автоматизации и повышении производительности.
Чрезмерная зависимость от цифровых технологий связана с деградацией врожденных когнитивных способностей человека. Это включает усталость и стресс из-за повторяющихся задач, таких как проверка и корректировка автоматических результатов ИИ, а также формирование структуры «нельзя работать без ИИ». Особенно выделяется феномен «деградации навыков», который считается риском, независимым от развития ИИ, ослабляющим человеческие способности.
Более серьезная проблема — злоупотребление ИИ в преступных целях. В отчете предупреждают, что случаи сексуальных преступлений с использованием технологий глубокого подделывания, мошенничества, выдачи себя за руководителей компаний и фальсификации доказательств уже стали реальностью. «Процесс размывания правды» усиливается, что усложняет определение подлинности информации. Технологии голосовой синтезы на базе ИИ делают голосовой фишинг более изощренным, а манипуляции общественным мнением с помощью микроцелей могут стать катастрофическими факторами, вызывающими распространение ложных новостей и социальные расколы.
На основе этого отчет предлагает конкретные технические меры. В частности, рекомендуется одновременно с улучшением алгоритмов обнаружения глубоких подделок внедрять стандарты C2PA и цифровые водяные знаки для проверки источников контента. Аналитики также считают, что использование распределенной аутентификации, доказательств с нулевым разглашением и блокчейн-технологий для сертификации контента становится ключевым альтернативным решением для построения системы цифрового доверия на базе Web 3.0.
На политическом уровне возрастает требование усилить уголовное преследование распространения глубоких подделок, четко определить ответственность платформ и ускорить развитие инфраструктуры общественного ИИ. Также подчеркивается необходимость проведения образовательных программ по цифровой грамотности для всех возрастных групп — от подростков до взрослых.
Профессор Ин Сикбин подчеркивает в отчете, что помимо технических мер важны этическое образование, политическое регулирование и сотрудничество между промышленностью, академическим сообществом и гражданским обществом. Без этого побочные эффекты ИИ могут привести не только к краху доверия к технологиям, но и поставить под угрозу цифровую демократию и экономический порядок.
Конечная цель — не подавление скорости развития технологий, а формирование «человекоцентричных норм» для справедливого и ответственного использования технологий. В отчете подчеркивается, что для превращения ИИ в инструмент процветания общества необходимо одновременно развивать гибкое регулирование, координированные институты и создавать устойчивую экосистему доверия.