福利加码,Gate 广场明星带单交易员二期招募开启!
入驻发帖 · 瓜分 $20,000 月度奖池 & 千万级流量扶持!
如何参与:
1️⃣ 报名成为跟单交易员:https://www.gate.com/copytrading/lead-trader-registration/futures
2️⃣ 报名活动:https://www.gate.com/questionnaire/7355
3️⃣ 入驻 Gate 广场,持续发布交易相关原创内容
丰厚奖励等你拿:
首帖福利:首发优质内容即得 $30 跟单体验金
双周内容激励:每双周瓜分 $500U 内容奖池
排行榜奖励:Top 10 交易员额外瓜分 $20,000 登榜奖池
流量扶持:精选帖推流、首页推荐、周度明星交易员曝光
活动时间:2026 年 2 月 12 日 18:00 – 2 月 24 日 24:00(UTC+8)
详情:https://www.gate.com/announcements/article/49849
Cohere 推出 Tiny Aya,一款用于本地部署的紧凑多语言 AI 模型
简要介绍
Cohere的Tiny Aya推出了一款紧凑的多语言AI系统,能够在70多种语言中提供高质量的翻译和生成性能,同时保持足够高效,能够在消费者硬件上本地运行。
AI公司Cohere推出了Tiny Aya,这是一款紧凑的多语言模型,旨在提供高质量的翻译、语言理解和生成性能,同时体积足够小,可以在消费者设备上运行。根据公司介绍,Tiny Aya旨在通过结合高效的架构和专注于语言多样性的研究,将多语言AI扩展到主流网页语言之外。文件中指出,该模型“涵盖70多种语言*,包括许多资源较少的全球性语言”,并设计为无需依赖大规模云基础设施即可在本地运行。
此次发布包括TinyAya‑Base,一个拥有33.5亿参数的预训练模型,以及TinyAya‑Global,一个经过指令调优、在67种语言中表现一致的版本。Cohere还推出了区域专用变体,以增强特定语言社区的能力,同时保持广泛的多语言覆盖。公司指出,这些模型由新的多语言微调数据集和基准支持,旨在标准化评估并促进进一步研究。一段摘录强调,Tiny Aya“在支持的67种语言中表现出强大而平衡的性能”,使其成为在多样化语言环境中工作的开发者的实用选择。
Cohere强调,Tiny Aya旨在保持对在线上代表性不足的语言的稳定性,反对多语言系统中常见的性能不平衡。随附的技术报告概述了改进的分词、合成数据自然化和有针对性的合并策略等方法,公司表示这些方法有助于保持语言细节的同时实现高效训练。文件指出,训练“在单个64 H100 GPU集群”上完成,突显了项目对效率而非大规模计算的关注。
Tiny Aya通过稳定的性能、高效的分词和专门的区域模型增强多语言AI
性能评估显示,Tiny Aya在翻译、开放式生成和低资源语言的数学推理方面,能够与或超越同等规模的现有多语言模型。Cohere强调该模型在不同语言环境中的一致表现,描述其为一个面向实际应用而非狭隘基准优化的系统。分词器设计减少了脚本间的碎片化,降低了每句的分词数,提高了在本地硬件上的推理效率。文件指出,Tiny Aya“在绝大多数被评估的语言中实现了最高效的分词”,支持其易用性目标。
该模型家族包括面向特定区域的变体——TinyAya‑Earth、TinyAya‑Fire和TinyAya‑Water,每个都针对不同的语言群体进行优化,同时保持全球适用性。Cohere将这些模型定位为社区驱动发展的基础,鼓励研究人员将其应用于新兴语言、新领域和本地化评估框架。文件最后提到,公司设想“一个由多种模型、多种声音共同塑造的充满活力的生态系统”,而非单一的主导多语言系统。