Cohere 推出 Tiny Aya,一款用於本地部署的緊湊多語言 AI 模型

簡要介紹

Cohere 的 Tiny Aya 介紹了一個緊湊的多語言人工智慧系統,能在超過70種語言中提供高品質的翻譯和生成性能,同時保持足夠的效率以在消費者硬體上本地運行。

Cohere Unveils Tiny Aya, A Compact Multilingual AI Model For Local Deployment

人工智慧公司 Cohere 推出了 Tiny Aya,一款設計用於提供高品質翻譯、語言理解和生成性能的緊湊多語言模型,體積足夠小,可以在消費者設備上運行。根據公司表示,Tiny Aya 旨在通過結合高效的架構與專注於語言多樣性的研究,將多語言人工智慧擴展到超越主流網路語言的範圍。文件中指出,該模型“涵蓋70多種語言*,包括來自全球的許多資源較少的語言”,並設計為在本地運行,不依賴大型雲端基礎設施。

此次發布包括 TinyAya‑Base,一個擁有33.5億參數的預訓練模型,以及 TinyAya‑Global,一個經過指令調整、針對67種語言保持穩定性能的版本。Cohere 也推出了區域專用變體,旨在強化特定語言社群的能力,同時保持廣泛的多語言覆蓋。公司指出,這些模型由一個新的多語言微調數據集和基準支持,旨在標準化評估並促進進一步研究。一段摘錄強調 Tiny Aya“在支持的67種語言中展現出強大且平衡的性能”,使其成為在多樣語言環境中工作的開發者的實用選擇。

Cohere 強調 Tiny Aya 設計用於在網路上資源較少的語言中保持穩定性,反映出多語言系統常見的性能不平衡問題。隨附的技術報告概述了改進的詞元化、合成數據自然化和有針對性的合併策略等方法,這些方法幫助在保持語言細膩度的同時實現高效訓練。文件指出,訓練“在單一64 H100 GPU集群”上完成,突顯了該項目專注於效率而非大規模計算。

Tiny Aya 以穩定性能、高效詞元化和專區模型強化多語言人工智慧

性能評估顯示,Tiny Aya 在翻譯、開放式生成和較資源匱乏語言的數學推理方面,與同等規模的現有多語言模型競爭甚至超越。Cohere 強調模型在不同語言環境中的一致性,描述其為一個為實際應用而設計的系統,而非僅為了狹隘的基準優化。詞元化設計減少了跨字體的碎片化,降低了每句話的詞元數,提高了本地硬體上的推理效率。文件指出,Tiny Aya“在絕大多數評估語言中實現了最有效的詞元化”,支持其可及性的目標。

該模型系列包括區域專用變體——TinyAya‑Earth、TinyAya‑Fire 和 TinyAya‑Water,每個都針對不同語言群進行優化,同時保持全球適用性。Cohere 將這些模型定位為社群驅動發展的基礎,鼓勵研究人員將其應用於新興語言、新領域和本地化評估框架。正如文件結尾所述,公司展望“由多種模型、多種聲音共同塑造的充滿活力的生態系統”,而非單一主導的多語言系統。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)