OpenAI dévoile le plan de sécurité pour les enfants afin de lutter contre l'exploitation par l'IA face à la hausse des signalements de CSAM

En bref

OpenAI a lancé un « Child Safety Blueprint » afin de lutter contre l’exploitation sexuelle des enfants facilitée par l’IA, en mettant à jour ses lignes directrices, en renforçant les garde-fous et en promouvant des mesures coordonnées, juridiques, techniques et opérationnelles, dans un contexte de hausse des signalements de CSAM générés par l’IA.

OpenAI dévoile un plan de sécurité pour les enfants pour lutter contre l’exploitation facilitée par l’IA dans un contexte de hausse des signalements de CSAMOpenAI, une organisation axée sur la recherche et le déploiement de l’intelligence artificielle, a introduit un « Child Safety Blueprint », un cadre conçu pour prévenir et traiter l’exploitation sexuelle des enfants facilitée par l’IA. L’initiative est présentée comme une réponse à l’importance croissante de l’IA, à la fois pour faciliter et pour détecter les atteintes en ligne visant des enfants.

L’organisation a décrit l’exploitation sexuelle des enfants comme l’un des défis les plus urgents à l’ère numérique, en soulignant que les technologies d’IA modifient la manière dont ces atteintes surviennent et la façon dont elles peuvent être atténuées à grande échelle. OpenAI a indiqué qu’elle a mis en place des garde-fous pour empêcher toute utilisation abusive de ses systèmes et qu’elle collabore avec des partenaires, dont le National Center for Missing and Exploited Children (NCMEC) et des organismes chargés de l’application de la loi, afin d’améliorer la détection et le signalement. Cette collaboration a mis en évidence les domaines où des normes sectorielles plus fortes et partagées sont nécessaires.

Le blueprint présente une stratégie pour renforcer les cadres américains de protection de l’enfance dans le contexte de l’IA. Il intègre les contributions d’organisations et d’experts de l’écosystème de la sécurité des enfants, notamment NCMEC, l’Attorney General Alliance avec des contributions du procureur général du North Carolina Jeff Jackson et du procureur général de Utah Derek Brown, ainsi que la fondation à but non lucratif Thorn. Le cadre vise à guider des actions coordonnées pour prévenir les préjudices envers les enfants et renforcer la collaboration dans les domaines juridique, opérationnel et technique.

L’initiative se concentre sur trois priorités principales : mettre à jour les lois pour traiter le matériel d’abus sexuel sur enfants généré ou manipulé par l’IA (CSAM), améliorer le signalement et la coordination entre les prestataires afin de soutenir des enquêtes plus efficaces, et intégrer des mesures de sécurité dès la conception directement dans les systèmes d’IA afin de prévenir et détecter les utilisations abusives. OpenAI a souligné qu’une seule approche ne peut pas relever ce défi à elle seule, et que le cadre vise à accélérer les réponses, améliorer l’identification des risques et maintenir la responsabilisation tout en veillant à ce que les autorités chargées de l’application des lois puissent agir à mesure que la technologie évolue.

Le cadre est conçu pour permettre une intervention plus précoce, réduire les tentatives d’exploitation, améliorer la qualité des informations partagées avec les forces de l’ordre et renforcer la responsabilisation dans l’ensemble de l’écosystème afin de mieux protéger les enfants.

Les signalements d’exploitation des enfants générée par l’IA augmentent de 14 % en 2025 alors qu’OpenAI dévoile un Child Safety Blueprint étendu

Des données récentes de l’Internet Watch Foundation (IWF) indiquent que plus de 8 000 signalements de contenus d’abus sexuel d’enfants générés par l’IA ont été détectés au cours du premier semestre 2025, ce qui représente une hausse de 14 % par rapport à l’année précédente. Ces cas incluent l’utilisation d’outils d’IA pour générer de fausses images explicites à des fins de sextorsion financière et pour produire des messages utilisés dans le grooming. La publication du blueprint coïncide avec une attention accrue de la part des décideurs politiques, des éducateurs et des défenseurs de la sécurité des enfants, en particulier après des incidents au cours desquels des jeunes personnes sont mortes par suicide après avoir, semble-t-il, interagi avec des chatbots d’IA.

En novembre 2025, le Social Media Victims Law Center et le Tech Justice Law Project ont déposé sept plaintes en justice dans des tribunaux de l’État de Californie, alléguant qu’OpenAI a publié GPT-4o trop tôt. Les plaintes indiquent que les fonctionnalités psychologiquement manipulatrices du système d’IA ont contribué à des décès injustifiés par suicide et à des suicides assistés, en citant quatre personnes décédées et trois personnes ayant connu de graves délires après des interactions prolongées.

Le nouveau blueprint de sécurité pour les enfants d’OpenAI s’appuie sur des mesures antérieures, notamment des lignes directrices mises à jour pour les utilisateurs de moins de 18 ans qui interdisent la génération de contenu inapproprié, les conseils encourageant l’automutilation ou les indications visant à dissimuler un comportement dangereux de la part des personnes responsables. La société a également récemment publié un blueprint de sécurité ciblant les adolescents en Inde.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler