Cohere 推出 Tiny Aya,一款用于本地部署的紧凑多语言 AI 模型

简要介绍

Cohere的Tiny Aya推出了一款紧凑的多语言AI系统,能够在70多种语言中提供高质量的翻译和生成性能,同时保持足够高效,能够在消费者硬件上本地运行。

Cohere Unveils Tiny Aya, A Compact Multilingual AI Model For Local Deployment

AI公司Cohere推出了Tiny Aya,这是一款紧凑的多语言模型,旨在提供高质量的翻译、语言理解和生成性能,同时体积足够小,可以在消费者设备上运行。根据公司介绍,Tiny Aya旨在通过结合高效的架构和专注于语言多样性的研究,将多语言AI扩展到主流网页语言之外。文件中指出,该模型“涵盖70多种语言*,包括许多资源较少的全球性语言”,并设计为无需依赖大规模云基础设施即可在本地运行。

此次发布包括TinyAya‑Base,一个拥有33.5亿参数的预训练模型,以及TinyAya‑Global,一个经过指令调优、在67种语言中表现一致的版本。Cohere还推出了区域专用变体,以增强特定语言社区的能力,同时保持广泛的多语言覆盖。公司指出,这些模型由新的多语言微调数据集和基准支持,旨在标准化评估并促进进一步研究。一段摘录强调,Tiny Aya“在支持的67种语言中表现出强大而平衡的性能”,使其成为在多样化语言环境中工作的开发者的实用选择。

Cohere强调,Tiny Aya旨在保持对在线上代表性不足的语言的稳定性,反对多语言系统中常见的性能不平衡。随附的技术报告概述了改进的分词、合成数据自然化和有针对性的合并策略等方法,公司表示这些方法有助于保持语言细节的同时实现高效训练。文件指出,训练“在单个64 H100 GPU集群”上完成,突显了项目对效率而非大规模计算的关注。

Tiny Aya通过稳定的性能、高效的分词和专门的区域模型增强多语言AI

性能评估显示,Tiny Aya在翻译、开放式生成和低资源语言的数学推理方面,能够与或超越同等规模的现有多语言模型。Cohere强调该模型在不同语言环境中的一致表现,描述其为一个面向实际应用而非狭隘基准优化的系统。分词器设计减少了脚本间的碎片化,降低了每句的分词数,提高了在本地硬件上的推理效率。文件指出,Tiny Aya“在绝大多数被评估的语言中实现了最高效的分词”,支持其易用性目标。

该模型家族包括面向特定区域的变体——TinyAya‑Earth、TinyAya‑Fire和TinyAya‑Water,每个都针对不同的语言群体进行优化,同时保持全球适用性。Cohere将这些模型定位为社区驱动发展的基础,鼓励研究人员将其应用于新兴语言、新领域和本地化评估框架。文件最后提到,公司设想“一个由多种模型、多种声音共同塑造的充满活力的生态系统”,而非单一的主导多语言系统。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)