Википедия запрещает использование текста, созданного ИИ, в статьях в рамках новой редакционной политики

Decrypt

Вкратце

  • Википедия теперь запрещает редакторам использовать большие языковые модели для создания или переписывания статей.
  • Политика все еще допускает ограниченное использование ИИ для помощи в редактировании при условии, что редакторы проверяют изменения и не вводят новый контент.
  • Правило отражает растущие опасения по поводу галлюцинаций, сфабрикованных источников и точности в текстах, созданных ИИ.

Редакторы Википедии приняли меры по ограничению использования искусственного интеллекта на платформе, в недавнем обновлении политики запретив использование больших языковых моделей для написания или переписывания статей. Новые рекомендации отражают растущую озабоченность сообществом Википедии тем, что тексты, созданные ИИ, могут противоречить стандартам платформы, особенно в вопросах проверяемости и надежных источников. «Тексты, сгенерированные большими языковыми моделями, часто нарушают несколько основных политик содержания Википедии», — говорится в обновлении политики. «По этой причине использование LLM для генерации или переписывания статей запрещено, за исключением случаев, указанных ниже.»

Политика все еще допускает ограниченное использование инструментов ИИ, включая предложение базовых правок к собственным текстам редактора, при условии, что система не вводит новую информацию. Однако редакторам рекомендуется тщательно проверять такие предложения.  Хотя новая политика не предусматривает штрафов за использование контента, созданного ИИ, согласно руководящим принципам Википедии по раскрытию информации, повторное неправильное использование формирует «паттерн разрушительного редактирования» и может привести к блокировке или бану. Википедия предоставляет редакторам возможность восстановить свои аккаунты после подачи апелляции. «Блокировки могут быть отменены с согласия блокирующего администратора, при пересмотре другими администраторами в случае явно необоснованной блокировки, или (в очень редких случаях) по апелляции в Арбитражный комитет», — говорится в заявлении Википедии.

По словам Эмили М. Бендер, профессора лингвистики Университета Вашингтона, некоторые применения языковых моделей в инструментах редактирования могут быть оправданными, но проведение четкой границы между редактированием и генерацией текста бывает сложно. «Например, одним из способов использования языковой модели является создание очень хорошего проверщика орфографии», — сказала Бендер в интервью Decrypt. «Я считаю разумным запускать проверку орфографии над правками. А если вы делаете следующий уровень — проверку грамматики, — это тоже вполне допустимо.» Бендер отметила, что проблема возникает, когда системы выходят за рамки исправления грамматики и начинают изменять или создавать контент, поскольку большие языковые модели лишены той ответственности, которую несут человеческие участники в совместных проектах знаний. «Использование больших языковых моделей для производства синтетического текста — это фундаментальная особенность этих систем: за ними нет ответственности, связи с тем, во что кто-то верит или за что отвечает», — сказала она. «Когда мы говорим, мы основываемся на своих убеждениях и ответственности, а не на какой-то объективной истине. И этого у больших языковых моделей нет.» Бендер также отметила, что широкое использование редактирований, созданных ИИ, может негативно сказаться на репутации сайта. «Если люди вместо этого ищут быстрые решения и создают что-то, что выглядит как правка или статья Википедии, и размещают это там, это ухудшает общую ценность и репутацию сайта», — сказала она. Джозеф Рагл, доцент кафедры коммуникационных исследований в Северо-восточном университете, изучающий культуру и управление Википедии, отметил, что реакция сообщества отражает давние опасения по поводу точности и источников. «Википедия настороженно относится к текстам, созданным ИИ», — сказал Рагл в интервью Decrypt. «Они серьезно относятся к точным характеристикам того, что надежные источники утверждают по теме. У ИИ есть серьезные ограничения в этом плане, такие как «галлюцинации» и сфабрикованные источники.»

Рагл отметил, что основные политики Википедии также формируют отношение редакторов к инструментам ИИ, поскольку многие большие языковые модели обучены на контенте Википедии. В октябре Фонд Викимедиа заявил, что количество посещений Википедии снизилось примерно на 8% в годовом выражении, поскольку поисковые системы и чатботы все чаще предоставляют ответы прямо на своих платформах, а не направляют пользователей на сайт. В январе Фонд Викимедиа объявил о соглашениях с компаниями ИИ, включая Microsoft, Google, Amazon и Meta, позволяющих им использовать материалы Википедии через их корпоративный продукт — коммерческую услугу для масштабного повторного использования контента. «Хотя использование контента Википедии разрешено лицензиями Википедии, среди редакторов все еще существует антипатия к сервисам, которые присваивают себе контент сообществ и навязывают нежелательные требования этим сообществам в связи с избытком контента ИИ», — сказал Рагл. Несмотря на запрет использования LLM, Википедия допускает использование ИИ-инструментов для перевода статей с других языковых версий на английский, при условии, что редакторы проверяют исходный текст. Политика также предупреждает редакторов не полагаться только на стиль написания для определения контента, созданного ИИ, и сосредоточиться на соответствии материала основным политикам Википедии и истории редактирования автора. «Некоторые редакторы могут иметь стиль письма, похожий на стиль LLM», — говорится в обновлении. «Для оправдания санкций требуется больше доказательств, чем просто стилистические или лингвистические признаки, и лучше всего учитывать соответствие текста основным политикам содержания и недавним правкам данного редактора.»

Посмотреть Оригинал
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев