"DEEPSEEK"的搜索结果

Mac Studio 跑大模型实测:M3 Ultra、集群方案与 M5 Ultra 预期

2026 年 4 月,DeepSeek V4 Pro、Kimi K2.6 等 1 兆参数级模型相继发布,把「在自家机器跑前沿开源 LLM」这件事变成可行选项。对不想自建 H100 工作站、又想拥有完整本地推理能力的工程师与小型团队,\\Mac Studio M3 Ultra 256GB\\ 是现阶段最具性价比的单机方案,搭配 Thunderbolt 5 集群更可上探 1T 参数的领域。本文整理 M3 Ultra 跑大模型的实测数据、集群方案、MLX 框架优势,以及 M5 Ultra 预期时程。 M3 Ultra 规格现况:256GB 统一内存、819
鏈新聞abmedia·04-27 11:14

DeepSeek V4 Pro 在 Ollama Cloud 上:Claude Code 一键串接

根据 Ollama 推文,DeepSeek V4 Pro 于 4/24 发布,已以云端模式进入 Ollama 目录,仅一行指令即可调用 Claude Code、Hermes、OpenClaw、OpenCode、Codex 等工具。V4 Pro1.6T 参、1M context,Mixture-of-Experts;云端推理不下载本机权重。若要本地需自取权重并以 INT4/GGUF 与多卡 GPU 执行。早期测速受云端负载影响,常态约 30 tok/s,峰值 1.1 tok/s;建议以云端原型,正式量产再自行推理或使用商用 API。
鏈新聞abmedia·04-27 06:34

DeepSeek V4-Flash 登上 Ollama Cloud、美國主機:Claude Code、OpenClaw 一鍵串接

Ollama Cloud 已上架 DeepSeek V4-Flash,推理在美国主机,提供三组一键指令接入 Claude Code、OpenClaw、Hermes。V4-Flash/V4-Pro 采用 MoE 架构、原生支持 1M 上下文,并以 Token-wise 压缩+DSA 稀疏注意力降低成本,1M 情境下单 token FLOPs 降低 27%、KV 缓存降低 10%。API 相容 OpenAI ChatCompletions 与 Anthropic,便于多工作流切换,降低成本与数据主权风险。
鏈新聞abmedia·04-24 10:45

DeepSeek 洽谈首轮外部融资、估值 200 亿美元:中国 AI 估值新高

根据 彭博 4 月 22 日报道(引 The Information 独家),中国 AI 新创 DeepSeek 正在洽谈首轮外部融资,估值达到 200 亿美元。这是 DeepSeek 自 2023 年成立以来首次对外募资,过去完全由量化对冲基金 High-Flyer Capital Management 通过内部供资。200 亿美元估值也是中国 AI 新创首次进入“百亿美金估值”下半段的里程碑。 融资规模与资金用途 DeepSeek 寻求至少 3 亿美元的首轮融资,200 亿美元估值较稍早 4 月 17 日 The Information 首次披露的“100 亿美元以上”估值再翻倍
鏈新聞abmedia·04-22 13:13

DeepSeek 上线“专家模式”和“视觉模式”,V4 正式推出前最后热身?

DeepSeek 在 4 月 8 日悄悄推送三种模式测试:快速、专家、视觉三路分流,被社群视为 V4 正式上线前的最后热身。 (前情提要:DeepSeek V4 拒绝英伟达 找华为!阿里、字节跳动、腾讯抢买昇腾950PR芯片) (背景补充:DeepSeek V4 宣布弃用英伟达!中国 AI「算力独立」突围战走到哪了?) 本文目录 Toggle 三路分流:快速、专家、视觉各司其职 专家模式争议:是架构差异,还是提示词工程? V4 的真正意义:如果算力真的脱钩 4月 8 日凌晨,DeepSeek 网站与
動區BlockTempo·04-08 11:39