简而言之
Anthropic计划到2026年大规模扩展其AI基础设施,最多将拥有100万个Google TPU,增强计算能力,支持其不断增长的客户群,并推进其多云战略。
人工智能安全和研究公司Anthropic宣布计划扩大其对Google Cloud技术的使用,包括最多一百万个张量处理单元(TPUs),这将大幅提升其计算能力,预计到2026年。
此次扩展旨在支持公司超过300,000家企业的不断增长的客户基础以及来自大客户日益增长的需求,同时促进更广泛的测试、对齐研究和负责任的AI系统部署。
该公司采用多平台计算策略,利用Google TPU、Amazon Trainium和NVIDIA GPU来提升其Claude模型的能力,维护行业合作关系,并确保可扩展的人工智能发展。Anthropic继续与亚马逊在Project Rainier上合作,这是一个跨多个美国数据中心的大型计算集群,并计划投资额外的计算能力,以保持在人工智能研究的前沿。
这是到目前为止Anthropic对TPU使用的最广泛扩展,突显了公司对多云战略的承诺。虽然TPU已经是其基础设施的一部分,但即将到来的部署将增加其规模。
行业分析师建议,Anthropic 的增长可能在 2025 年为 AWS 收入贡献额外的 1-2%,而 TPU 的扩大使用可能对 Trainium 形成竞争挑战。
该协议还减少了Anthropic对Nvidia GPU的依赖。除了TPU外,该公司将获得更广泛的Google Cloud服务,进一步支持其计算和运营能力。
Anthropic是Claude品牌下系列大型语言模型(LLMs)的开发者,这些模型旨在提供输出的可靠性、可解释性和可控性。
该公司最近推出了Claude Sonnet 4.5,代表了其迄今为止最先进的AI模型,具备在编码、科学推理和财务分析等领域的增强能力。该模型表现出在复杂的多步骤任务上持续注意力的能力,能够在较长时间内保持高效,达到超过早期版本的性能水平。