OpenAI 发布儿童安全蓝图以应对由 AI 驱动的剥削

Decrypt

简要概述

  • OpenAI 发布了其《儿童安全蓝图》(Child Safety Blueprint),旨在应对由 AI 驱动的儿童性剥削(child sexual exploitation)。
  • 该框架聚焦于法律改革、强化上报协调,以及内置于 AI 系统中的护栏(guardrails)。
  • 该提案在儿童安全组织、总检察长(attorneys general)以及非营利组织的参与意见基础上制定完成。

为应对 AI 驱动的儿童性剥削现象的上升,OpenAI 于周三发布了政策蓝图,概述了该行业可以采取的新安全措施,以帮助遏制在创建儿童性虐待素材(child sexual abuse material)过程中使用 AI。 在该框架中,OpenAI 列出了法律、运营和技术方面的措施,旨在加强针对 AI 驱动的滥用的防护,并改善科技公司与调查人员之间的协调。 “儿童性剥削是数字时代最迫切的挑战之一,”该公司写道。“AI 正在迅速改变这些伤害在整个行业中如何出现,以及如何在规模化层面加以应对。”

OpenAI 表示,该提案纳入了来自从事儿童保护与网络安全工作的组织的反馈,其中包括“失踪与受剥削儿童国家中心”(National Center for Missing and Exploited Children)以及“总检察长联盟”(Attorney General Alliance)和其 AI 工作组。 “生成式 AI 以令人深感不安的方式加速在线儿童性剥削犯罪——降低门槛、扩大规模,并促成新的伤害形式,”在声明中,国家中心总裁兼首席执行官、(National Center for Missing & Exploited Children)的 Michelle DeLaune 表示。“但与此同时,失踪与受剥削儿童国家中心也被鼓励看到像 OpenAI 这样的公司反思这些工具如何能够更负责任地从头开始进行设计,并内置相关防护措施。”  OpenAI 表示,该框架将法律标准、行业上报机制以及 AI 模型内的技术防护结合在一起。该公司称,这些举措旨在帮助更早识别剥削风险,并提升在线平台层面的问责性。

该蓝图提出了行动领域,包括:更新法律以应对由 AI 生成或经过修改的儿童性虐待素材;改进在线服务提供商上报虐待信号的方式,并与调查人员协调;以及在旨在防止被滥用的 AI 系统中构建防护措施。 “没有任何单一干预能够独自解决这一挑战,”该公司写道。“该框架汇集了法律、运营和技术方面的方法,以更好识别风险、加快响应,并在技术不断发展之时确保执法主管部门依然保持强有力的能力,同时支持问责。” 该蓝图发布之际,儿童安全倡导者提出担忧:能够生成逼真图像的生成式 AI 系统可能被用于制作对未成年人的被操纵或合成影像。去年 2 月,UNICEF 呼吁各国政府通过法律,将由 AI 生成的儿童虐待素材定为犯罪行为。 1 月,欧洲委员会启动了对是否存在违规的正式调查:审查 X(此前名为 Twitter)是否违反欧盟数字规则,原因是其未能阻止平台自带的 AI 模型 Grok 生成非法内容;与此同时,英国和澳大利亚的监管机构也已开启调查。 OpenAI 指出,鉴于仅靠法律本身无法阻止由 AI 生成的滥用素材所带来的祸害,随着 AI 系统能力不断增强,更强的行业标准将是必要的。 “通过更早打断剥削企图、提升向执法部门发送信号的质量,并加强整个生态系统范围内的问责性,该框架旨在在伤害发生之前加以预防,并在风险出现时帮助确保儿童获得更迅速的保护,”OpenAI 表示。

免责声明:本页面信息可能来自第三方,不代表 Gate 的观点或意见。页面显示的内容仅供参考,不构成任何财务、投资或法律建议。Gate 对信息的准确性、完整性不作保证,对因使用本信息而产生的任何损失不承担责任。虚拟资产投资属高风险行为,价格波动剧烈,您可能损失全部投资本金。请充分了解相关风险,并根据自身财务状况和风险承受能力谨慎决策。具体内容详见声明
评论
0/400
暂无评论