对Anthropic泄露的网络安全AI“踩刹车”

一则泄露的Anthropic AI模型的消息震动了网络安全行业,使主要公司的股票大幅下跌。最初看起来可能会改变游戏规则的事情现在引发了紧迫的问题:组织能否信任AI处理他们最敏感的数字资产,还是这起事件只是强化了对专家保护的需求?

根据Mint的报道,一篇泄露的草稿博客介绍了一种新的AI模型层级,称为Capybara。该草稿声称,Capybara在“软件编码、学术推理和与网络安全相关的任务”中优于Anthropic的旗舰模型Claude Opus 4.6。它进一步指出,Claude Mythos——Anthropic称之为其最先进的模型——的训练已经完成。

它为什么会泄露?

虽然Anthropic将泄露归因于“人为错误”,但这一解释可能并不能让组织对该公司保护敏感数据的能力感到安心。一些分析师猜测,可能还有其他动机在起作用。

“Capybara的泄露令人遗憾,但我几乎在想这是否是故意留在一个可访问的数据湖中,以突出不断发展的AI平台所带来的新兴网络风险,”Javelin Strategy & Research的网络安全总监Tracy Goldberg说。“话虽如此,该模型仍在测试中,Anthropic明确表示它意识到需要解决的错误和风险,这就是为什么Anthropic只软启动了Capybara。”

AI的迫在眉睫的威胁

Anthropic还强调了与这些模型相关的网络安全风险,强调了防御者与网络犯罪分子之间正在进行的升级军备竞赛。该公司警告称,Capybara可能是能够识别和利用漏洞的系列模型中的第一个,其速度远远超过安全团队的响应速度。换句话说,犯罪分子可能会利用该模型来推动新一代AI驱动的网络安全威胁。

投资者迅速做出反应,使CrowdStrike、Datadog和Zscaler的股票在早期交易中下跌超过10%。

“在Capybara泄露消息传出后,科技股的暴跌真正突显了投资者对AI整体缺乏理解,”Goldberg说。“我们知道这些模型将继续适应,并且将以比行业安全措施更快的速度进行调整。这就是为什么围绕AI的治理如此重要。”

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论