Wikipedia interdit le texte généré par IA dans les articles selon la nouvelle politique de modification

Decrypt

En résumé

  • Wikipédia interdit désormais aux éditeurs d’utiliser de grands modèles linguistiques pour générer ou réécrire le contenu des articles.
  • La politique autorise encore une édition assistée par l’IA limitée, à condition que les éditeurs vérifient les modifications et qu’aucun nouveau contenu ne soit introduit.
  • Cette règle reflète la préoccupation croissante concernant les hallucinations, les sources fabriquées et la précision dans les textes générés par l’IA.

Les éditeurs de Wikipédia ont récemment renforcé les restrictions sur l’utilisation de l’intelligence artificielle sur la plateforme, en interdisant l’usage de grands modèles linguistiques pour rédiger ou réécrire des articles. La nouvelle directive témoigne de l’inquiétude croissante au sein de la communauté Wikipédia que le texte généré par l’IA puisse entrer en conflit avec les normes du site, notamment en matière de vérifiabilité et de sources fiables.
« Le texte généré par de grands modèles linguistiques viole souvent plusieurs des politiques fondamentales de contenu de Wikipédia », indique la mise à jour de la politique. « C’est pourquoi l’utilisation de LLM pour générer ou réécrire le contenu des articles est interdite, sauf dans les cas exceptionnels ci-dessous. »

La politique autorise encore une utilisation limitée des outils d’IA, notamment pour suggérer des corrections de base à l’écriture d’un éditeur, à condition que le système n’introduise pas de nouvelles informations. Cependant, il est conseillé aux éditeurs de vérifier attentivement ces suggestions.

Bien que la nouvelle politique ne mentionne pas de sanctions pour l’utilisation de contenu généré par l’IA, selon les directives de Wikipédia concernant la divulgation, la répétition de ces abus constitue un « motif d’édition perturbatrice » et peut entraîner un blocage ou une interdiction. Wikipédia offre toutefois aux éditeurs la possibilité de rétablir leur compte après une procédure d’appel.
« Les blocages peuvent être annulés avec l’accord de l’administrateur ayant effectué le blocage, ou par une intervention d’autres administrateurs si le blocage était manifestement injustifié, ou (dans de très rares cas) sur appel auprès du Comité d’arbitrage », indique Wikipédia.

Selon Emily M. Bender, professeure en linguistique à l’Université de Washington, certaines utilisations des modèles linguistiques dans les outils d’édition peuvent être raisonnables, mais il est difficile de tracer une frontière claire entre l’édition et la génération de texte.
« Par exemple, l’un des usages possibles d’un modèle linguistique est de construire un très bon correcteur orthographique », explique Bender à Decrypt. « Il est raisonnable de dire qu’il est acceptable d’utiliser un correcteur orthographique sur des modifications. Et si vous utilisez un niveau supérieur, comme un vérificateur grammatical, cela peut aussi être acceptable. »
Bender souligne que le défi survient lorsque les systèmes dépassent la simple correction grammaticale pour commencer à modifier ou générer du contenu, notant que les grands modèles linguistiques manquent de la responsabilité que les contributeurs humains apportent aux projets collaboratifs de connaissance.
« Utiliser de grands modèles linguistiques pour produire du texte synthétique possède une propriété fondamentale : il n’y a aucune responsabilité, aucun lien avec ce que quelqu’un croit ou soutient », dit-elle. « Quand nous parlons, nous le faisons en fonction de ce que nous croyons et de ce dont nous sommes responsables, pas selon une notion objective de vérité. Et cela n’existe pas pour les grands modèles linguistiques. »
Bender ajoute que l’utilisation généralisée d’éditions issues de l’IA pourrait aussi nuire à la réputation du site.
« Si les gens prennent plutôt des raccourcis et créent quelque chose qui ressemble à une édition ou un article Wikipédia, puis le publient, cela dégrade la valeur et la réputation globales du site », explique-t-elle.

Joseph Reagle, professeur associé en études de communication à l’Université Northeastern, qui étudie la culture et la gouvernance de Wikipédia, indique que la réaction de la communauté reflète des préoccupations de longue date concernant la précision et la fiabilité des sources.
« Wikipédia se méfie des textes générés par l’IA », confie Reagle à Decrypt. « Ils prennent au sérieux les descriptions précises de ce que les sources fiables déclarent sur un sujet. L’IA a de graves limitations à cet égard, comme les « hallucinations » et les sources fabriquées. »

Reagle précise que les politiques fondamentales de Wikipédia influencent aussi la perception des outils d’IA par les éditeurs, en soulignant que de nombreux grands modèles linguistiques ont été entraînés sur le contenu de Wikipédia. En octobre, la Wikimedia Foundation a indiqué que le nombre de visites humaines sur Wikipédia avait diminué d’environ 8 % d’une année sur l’autre, car les moteurs de recherche et les chatbots fournissent de plus en plus directement des réponses sur leurs plateformes, plutôt que d’envoyer les utilisateurs sur le site.
En janvier, la Wikimedia Foundation a annoncé des accords avec des entreprises d’IA, notamment Microsoft, Google, Amazon et Meta, leur permettant d’utiliser le contenu de Wikipédia via son produit Enterprise, un service commercial destiné à la réutilisation à grande échelle de son contenu.
« Bien que l’utilisation du contenu de Wikipédia soit autorisée par ses licences, il existe encore une certaine antipathie parmi les wikipédiens à l’égard des services qui s’approprient le contenu des communautés et leur imposent des demandes indésirables pour gérer l’afflux de « déchets » générés par l’IA », explique Reagle.
Malgré l’interdiction d’utiliser les LLM, Wikipédia autorise toutefois l’utilisation d’outils d’IA pour traduire des articles d’autres éditions linguistiques en anglais, à condition que les éditeurs vérifient le texte original. La politique met aussi en garde contre le fait de se fier uniquement au style d’écriture pour identifier un contenu généré par l’IA, en insistant plutôt sur la conformité du contenu avec les politiques fondamentales de Wikipédia et l’historique de modification de l’auteur.
« Certains éditeurs peuvent avoir un style d’écriture similaire à celui des LLM », indique la mise à jour. « Il faut plus de preuves que de simples signes stylistiques ou linguistiques pour justifier des sanctions, et il est préférable d’évaluer si le texte respecte les politiques de contenu fondamentales et les modifications récentes de l’éditeur concerné. »

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire