"PRO"的搜索结果
今天
06:31

DeepSeek 将 V4-Pro 价格下调75%,将 API 缓存成本削减至原来的十分之一

Gate News 消息,4月27日——DeepSeek宣布对其面向开发者的新 V4-Pro 模型提供75%的折扣,并将其 API 产品线中输入缓存命中价格下调至此前水平的十分之一。 V4 模型于4月25日发布,提供 Pro 和 Flash 版本,已针对华为的 Ascend 处理器进行了优化。DeepSeek 表示,V4-Pro 在世界知识基准测试中优于其他开源模型,并仅次于谷歌的闭源 Gemini-Pro-3.1。V4 系列专为 AI 代理而设计,用于处理超出聊天机器人能力范围的复杂任务。 V4-Pro API 成本已经低于主要的西方竞争对手,定价为每百万输出 tokens 3.48 美元,而 对应 OpenAI 的 GPT-4.5。V4-Flash 的定价为每百万输入 tokens 0.14 美元、每百万输出 tokens 0.28 美元,可能使诸如在单次请求中审阅完整代码库或监管文件等具备成本效益的应用成为可能。
展开
05:33

百度智能云在千帆平台上线 DeepSeek-V4 API

Gate News 消息,4月25日——百度智能云已将 DeepSeek-V4 引入其千帆平台,为新发布的 AI 模型提供 API 访问。DeepSeek-V4 提供两个版本——DeepSeek-V4-Pro 和 DeepSeek-V4-Flash,并具备百万令牌的扩展上下文窗口。 企业和开发
展开
12:16

OSL集团携手Circle扩展USDC在交易与支付平台的访问

Gate 新闻消息,4月24日——OSL集团 (HKEX: 863),一家全球稳定币支付与交易平台,宣布于4月22日与Circle Internet Group, Inc. (NYSE: CRCL)的关联方达成合作,以扩大其支付与交易平台上的USDC访问。 通过OSL Global,用户可以按1:1的基础将USD和USDC进行转换,并可在专门的USDC交易专区使用具备订单簿功能的专业交易(Pro Trading),该专区包含五个主要交易对:BTC、ETH、SOL、USD和USDT。OSL还将USDC整合为统一的保证金资产,以提升符合条件客户的资金效率与交易灵活性;同时,其支付业务已纳入USDC,以支持合规的数字美元结算及支付用例。此外,OSL还将在满足监管要求与平台准入条件的前提下,支持访问Circle的USYC,即代币化货币市场基金。 Eugene Cheung,OSL集团首席商务官表示,该合作强调了公司致力于构建稳定币生态系统以及下一代金融市场基础设施的承诺。Circle首席业务官Kash Razzaghi指出,这项合作体现了两家公司共同致力于建设开放的金融通道,以支持资金效率并推动市场增长。
展开
USDC0.01%
BTC-1.79%
ETH-3.29%
SOL-3.08%
05:21

DeepSeek V4 引发美国争论:智库质疑芯片使用,Replit CEO 为开放创新辩护

Gate News 消息,4 月 24 日——围绕 DeepSeek V4 的技术能力与合规性,美国爆发了一场争论。Chris McGuire 是外交关系委员会 (CFR) 的资深研究员,曾任白宫国家安全委员会以及国防部官员,发表了分析文章,称 V4 并未改变美中 AI 的竞争格局。根据 McGuire 的说法,DeepSeek 自己的 V4 报告承认,其推理能力比前沿模型大约落后 3 到 6 个月,并以发布于六个月前的 GPT-5.2 与 Gemini 3.0 Pro 作为基准。 McGuire 提出担忧:尽管 V4 报告披露了在推理阶段对 NVIDIA GPU 以及华为 Ascend NPU 的适配,但并未公开说明开发过程中所使用的 GPU 型号或训练成本。他质疑这种沉默是否意味着使用了受出口管制的 NVIDIA Blackwell 芯片,并指出 V3 先前曾声称使用了 2,000 张 H800 GPU,成本为 5.57 million 美元。DeepSeek 已否认使用 Blackwell,表示该模型是在 NVIDIA H800 与华为 Ascend 910C 处理器上训练的。 Replit 首席执行官 Amjad Masad 反驳了 McGuire 的分析,认为中国科学家正在公开分享真正的 AI 突破,而美国政策制定者与游说者则放大“China distillation”(中国蒸馏)的担忧。Masad 强调了 DeepSeek 在官方声明中披露的架构创新,包括 DeepSeek 稀疏注意力 的按 token 级别注意力压缩,以及针对长上下文计算的显著效率提升。他指出,V4-Pro 在 1M 上下文长度下,展现出比 V3.2 更低得多的按 token 推理计算量与 KV 缓存需求,并强调这些架构进展与训练数据蒸馏无关,所有研究人员——包括美国的实验室——都可以从开源发展中获益。
展开