كوهير تكشف عن تيني آيا، نموذج ذكاء اصطناعي متعدد اللغات مدمج للتنفيذ المحلي

باختصار

يقدم نموذج Tiny Aya من شركة Cohere نظام ذكاء اصطناعي متعدد اللغات مدمج يحقق أداءً عالي الجودة في الترجمة والإنتاج عبر أكثر من 70 لغة، مع الحفاظ على كفاءته بحيث يمكن تشغيله محليًا على أجهزة المستخدمين.

Cohere Unveils Tiny Aya, A Compact Multilingual AI Model For Local Deployment

كشفت شركة Cohere عن Tiny Aya، وهو نموذج متعدد اللغات مدمج مصمم لتقديم ترجمة عالية الجودة وفهم اللغة والأداء التوليدي، مع حجمه الصغير الذي يسمح بتشغيله على أجهزة المستخدمين. ووفقًا للشركة، يهدف Tiny Aya إلى توسيع قدرات الذكاء الاصطناعي متعدد اللغات خارج اللغات السائدة على الويب من خلال الجمع بين بنية فعالة وتركيز بحثي على التنوع اللغوي. ووفقًا للوثيقة، يغطي النموذج أكثر من 70 لغة، بما في ذلك العديد من اللغات ذات الموارد المحدودة من جميع أنحاء العالم، وهو مصمم للعمل محليًا دون الاعتماد على بنية تحتية سحابية واسعة النطاق.

يشمل الإصدار TinyAya‑Base، وهو نموذج مدرب مسبقًا يتكون من 3.35 مليار معلمة، وTinyAya‑Global، وهو نسخة موجهة بالتعليمات محسنة لأداء متسق عبر 67 لغة. كما تقدم Cohere نسخًا مخصصة للمناطق تعزز القدرات ضمن مجتمعات لغوية محددة مع الحفاظ على التغطية متعددة اللغات بشكل واسع. وتذكر الشركة أن هذه النماذج مدعومة بمجموعة بيانات جديدة للتدريب الدقيق متعدد اللغات ومعايير تقييم تهدف إلى توحيد التقييم وتشجيع المزيد من البحث. وتبرز إحدى الفقرات أن Tiny Aya “يقدم أداءً قويًا ومتوازنًا عبر 67 لغة مدعومة”، مما يجعله خيارًا عمليًا للمطورين الذين يعملون في بيئات لغوية متنوعة.

تؤكد Cohere أن Tiny Aya مصمم للحفاظ على الاستقرار عبر اللغات التي تمثل تمثيلًا ضعيفًا على الإنترنت، مما يعكس التوازن في الأداء الذي غالبًا ما يُلاحظ في الأنظمة متعددة اللغات. يوضح التقرير الفني المرافق للإصدار طرقًا مثل تحسين التقطيع، وتطبيع البيانات الاصطناعية، واستراتيجيات الدمج المستهدفة، والتي تقول الشركة إنها تساعد على الحفاظ على الفروق اللغوية مع تمكين التدريب بكفاءة. وتشير الوثيقة إلى أن عملية التدريب بعد الانتهاء “تمت على مجموعة من وحدات معالجة الرسوميات H100 بواقع 64 وحدة”، مما يبرز تركيز المشروع على الكفاءة بدلاً من الحوسبة واسعة النطاق.

يعزز Tiny Aya الذكاء الاصطناعي متعدد اللغات بأداء متسق، وتقطيع فعال، ونماذج إقليمية متخصصة

تُظهر تقييمات الأداء أن Tiny Aya ينافس أو يتفوق على النماذج متعددة اللغات المماثلة من حيث الحجم، خاصة في الترجمة، والإنتاج المفتوح، والمنطق الرياضي للغات ذات الموارد المحدودة. تبرز Cohere أن النموذج يظهر سلوكًا متسقًا عبر البيئات اللغوية، ويصفه كنظام مصمم للاستخدام الواقعي وليس لتحسين الأداء على معايير ضيقة فقط. يقلل تصميم التوكنيزر من التجزئة عبر النصوص، مما يقلل من عدد الرموز لكل جملة ويحسن كفاءة الاستنتاج على الأجهزة المحلية. وتذكر الوثيقة أن Tiny Aya “يحقق أكثر التقطيع كفاءة عبر الغالبية العظمى من اللغات التي تم تقييمها”، مما يدعم هدفه في الوصولية.

يشمل عائلة النماذج نسخًا مركزة على المناطق—TinyAya‑Earth، TinyAya‑Fire، وTinyAya‑Water—كل منها محسنة لمجموعات لغوية مختلفة مع الحفاظ على التطبيق العالمي. وتعتبر Cohere أن هذه النماذج أساس لتطوير يقوده المجتمع، مشجعة الباحثين على تكييفها للغات الناشئة، والمجالات الجديدة، وأطر التقييم المحلية. وكختام، تتصور الشركة “نظامًا بيئيًا حيويًا من العديد من النماذج، يشكلها العديد من الأصوات”، بدلاً من نظام متعدد اللغات واحد سائد.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت