OpenAI公布儿童安全蓝图,以应对日益增加的CSAM报告中的AI驱动剥削

简要概述

OpenAI 已推出“儿童安全蓝图”,以应对由人工智能引发的儿童性剥削问题,更新指导方针、加强安全措施,并推动法律、技术和运营方面的协调措施,应对日益增加的AI生成的儿童性剥削内容报告。

OpenAI Unveils Child Safety Blueprint To Combat AI-Enabled Exploitation Amid Rising CSAM Reports专注于人工智能研究与部署的组织OpenAI,推出了“儿童安全蓝图”,这是一个旨在预防和应对AI引发的儿童性剥削的框架。该倡议是对AI在促进和检测涉及儿童的在线危害中日益作用的回应。

公司将儿童性剥削描述为数字时代最紧迫的挑战之一,指出AI技术正在改变此类危害的发生方式及其大规模缓解方式。OpenAI 表示已实施安全措施以防止其系统被滥用,并与包括国家失踪和被剥削儿童中心(NCMEC)(NCMEC)及执法机构合作,改善检测和报告。这一合作凸显了行业内需要更强、更共享的标准的领域。

蓝图概述了在AI背景下加强美国儿童保护框架的策略。它融合了来自儿童安全生态系统中组织和专家的意见,包括NCMEC、由北卡罗来纳州总检察长杰夫·杰克逊(Jeff Jackson)和犹他州总检察长德里克·布朗(Derek Brown)提供意见的总检察长联盟,以及非营利组织Thorn。该框架旨在指导协调努力,预防儿童伤害并加强法律、运营和技术领域的合作。

该倡议聚焦三个主要优先事项:更新法律以应对AI生成或操控的儿童性虐待材料((CSAM)),改善提供者之间的报告和协调以支持更有效的调查,以及将安全设计措施直接融入AI系统,以防止和检测滥用。OpenAI 强调,没有单一方法能单独应对这一挑战,框架旨在加快响应速度、改善风险识别,并保持问责,同时确保执法机构能随着技术发展采取行动。

该框架旨在实现更早的干预,减少剥削企图,提升与执法部门共享信息的质量,并加强整个生态系统的问责,以更有效地保护儿童。

2025年AI生成儿童剥削报告增长14%,OpenAI公布扩展的儿童安全蓝图

互联网观察基金会((IWF))的最新数据显示,2025年上半年检测到超过8,000份AI生成的儿童性虐待内容报告,比去年同期增长14%。这些案例包括利用AI工具生成虚假色情图片以进行财务敲诈,以及用于诱导的消息。蓝图的发布正值政策制定者、教育者和儿童安全倡导者高度关注之际,特别是在一些青少年在与AI聊天机器人互动后自杀的事件之后。

2025年11月,社交媒体受害者法中心(Social Media Victims Law Center)和科技正义法律项目(Tech Justice Law Project)在加利福尼亚州法院提起七起诉讼,指控OpenAI过早发布GPT-4o。控诉书称,该AI系统具有心理操控特性,导致多起自杀和协助自杀的错误死亡,涉及四名死亡者和三名在长时间互动后出现严重妄想的个体。

OpenAI的新儿童安全蓝图是在之前措施基础上制定的,包括针对未满18岁用户的更新指南,禁止生成不当内容、鼓励自残的建议或指导隐藏不安全行为。公司最近还发布了针对印度青少年的安全蓝图。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论