من فضلك تسجيل الدخول أو تسجيل لتفعل ذلك.

حقوق النشر: VentureBeat تم إنشاؤها باستخدام Midjourney

انضم إلى نشراتنا الإخبارية اليومية والأسبوعية للحصول على أحدث التحديثات والمحتوى الحصري حول تغطية الذكاء الاصطناعي الرائدة في الصناعة. يتعلم أكثر


لا تعتمد شركة Microsoft على نجاحها في مجال الذكاء الاصطناعي نتيجة شراكتها مع OpenAI.

لا، بل على العكس من ذلك. وبدلاً من ذلك، أطلقت الشركة المعروفة باسم ريدموند بسبب موقع مقرها الرئيسي في ولاية واشنطن اليوم ثلاثة نماذج جديدة في سلسلة Phi المتطورة للذكاء الاصطناعي متعدد الوسائط.

تتضمن نماذج Phi 3.5 الثلاثة الجديدة معلمة 3.82 مليار تعليمات صغيرة في فاي 3.5، المعلمة 41.9 مليار فاي-3.5-مو-إرشيف، والمعلمة 4.15 مليار تعليمات رؤية فاي 3.5تم تصميم كل منها للمهام المتعلقة بالاستدلال الأساسي/السريع، والاستدلال الأقوى، والرؤية (تحليل الصور والفيديو)، على التوالي.

جميع النماذج الثلاثة متاحة للمطورين للتنزيل والاستخدام والتخصيص الدقيق وجه العناق تحت رخصة MIT التي تحمل علامة Microsoft التجارية الذي يسمح بالاستخدام التجاري والتعديل دون قيود.

ومن المثير للدهشة أن النماذج الثلاثة تتميز أيضًا بأداء متطور للغاية عبر عدد من اختبارات القياس التي أجرتها جهات خارجية، حتى أنها تفوقت على موفري الذكاء الاصطناعي الآخرين بما في ذلك Gemini 1.5 Flash من Google، وLlama 3.1 من Meta، وحتى GPT-4o من OpenAI في بعض الحالات.

إن هذا الأداء، إلى جانب الترخيص المفتوح المسموح به، جعل الناس يشيدون بشركة Microsoft على شبكة التواصل الاجتماعي X:

لننطلق.. أطلقت مايكروسوفت للتو Phi 3.5 mini وMoE وVision مع 128K سياق وتعدد اللغات وترخيص MIT! MoE يتفوق على Gemini flash، وVision ينافس GPT4o؟

> Mini بمعلمات 3.8B، يتفوق على Llama3.1 8B وMistral 7B وينافس Mistral NeMo 12B
>… pic.twitter.com/7QJYOSSdyX

— فايبهاف (VB) سريفاستاف (@reach_vb) 20 أغسطس 2024

تهانينا ل @مايكروسوفت لتحقيق مثل هذه النتيجة المذهلة مع phi 3.5: mini+MoE+vision الذي تم إصداره مؤخرًا؟

Phi-3.5-MoE يتفوق على Llama 3.1 8B في جميع المعايير

بالطبع، Phi-3.5-MoE عبارة عن معلمة MoE 42B مع 6.6B نشطة أثناء التوليد

وتفوقت Phi-3.5 MoE على … pic.twitter.com/9d4h5Q5p7Z

– روهان بول (@ rohanpaul_ai) 20 أغسطس 2024

كيف يمكن أن يكون Phi-3.5 ممكنًا حتى؟

Phi-3.5-3.8B (Mini) يتفوق بطريقة ما على LLaMA-3.1-8B.
(تم تدريبه فقط على رموز 3.4T)

Phi-3.5-16×3.8B (MoE) يتفوق بطريقة ما على Gemini-Flash
(تم تدريبه فقط على 4.9T من الرموز)

Phi-3.5-V-4.2B (Vision) يتفوق بطريقة ما على GPT-4o
(تم تدريبه على 500B من الرموز)

كيف؟ لول pic.twitter.com/97gmx1CsQs

— يام بيليج (@Yampeleg) 20 أغسطس 2024

دعونا نراجع كل طراز جديد اليوم، بإيجاز، استنادًا إلى ملاحظات الإصدار المنشورة على Hugging Face

تعليمات Phi-3.5 المصغرة: مُحسَّنة للبيئات المقيدة بالحوسبة

نموذج Phi-3.5 Mini Instruct هو نموذج ذكاء اصطناعي خفيف الوزن يحتوي على 3.8 مليار معلمة، تم تصميمه للالتزام بالتعليمات ودعم طول سياق رمزي يبلغ 128 ألف رمز.

يعد هذا النموذج مثاليًا للسيناريوهات التي تتطلب قدرات استدلال قوية في بيئات مقيدة بالذاكرة أو الحوسبة، بما في ذلك المهام مثل إنشاء التعليمات البرمجية وحل المشكلات الرياضية والاستدلال القائم على المنطق.

وعلى الرغم من حجمها الصغير، فإن طراز Phi-3.5 Mini Instruct يظهر أداءً تنافسيًا في المهام المحادثة متعددة اللغات ومتعددة الأدوار، مما يعكس تحسينات كبيرة عن سابقاتها.

إنه يتمتع بأداء يكاد يكون متطورًا للغاية على عدد من المعايير ويتفوق على نماذج أخرى ذات حجم مماثل (Llama-3.1-8B-instruct و Mistral-7B-instruct) على معيار RepoQA الذي يقيس “فهم كود السياق الطويل”.

فاي-3.5 مو إي: “مزيج الخبراء” من مايكروسوفت

ويبدو أن نموذج Phi-3.5 MoE (مزيج من الخبراء) هو الأول من نوعه في هذه الفئة من النماذج من الشركة، والذي يجمع بين أنواع متعددة من النماذج المختلفة في نموذج واحد، كل منها متخصص في مهام مختلفة.

يستفيد هذا النموذج من بنية تحتوي على 42 مليار معلمة نشطة ويدعم طول سياق رمزي يبلغ 128 ألفًا، مما يوفر أداء ذكاء اصطناعي قابل للتطوير للتطبيقات المتطلبة. ومع ذلك، فهو يعمل فقط مع 6.6 مليار معلمة نشطة، وفقًا لوثائق HuggingFace.

تم تصميم Phi-3.5 MoE للتفوق في مهام التفكير المختلفة، حيث يوفر أداءً قويًا في البرمجة والرياضيات وفهم اللغة متعددة اللغات، وغالبًا ما يتفوق على النماذج الأكبر في معايير محددة، بما في ذلك، مرة أخرى، RepoQA:

كما أنه يتفوق بشكل مثير للإعجاب على GPT-4o mini في اختبار MMLU (فهم اللغة متعدد المهام الضخم) المكون من 5 لقطات في مجالات مثل العلوم والتكنولوجيا والهندسة والرياضيات، والعلوم الإنسانية، والعلوم الاجتماعية، على مستويات مختلفة من الخبرة.

يتيح التصميم الفريد لنموذج MoE الحفاظ على الكفاءة أثناء التعامل مع مهام الذكاء الاصطناعي المعقدة عبر لغات متعددة.

Phi-3.5 Vision Instruct: التفكير المتعدد الوسائط المتقدم

ويكتمل الثلاثي بنموذج Phi-3.5 Vision Instruct، الذي يدمج قدرات معالجة النصوص والصور.

يعد هذا النموذج المتعدد الوسائط مناسبًا بشكل خاص للمهام مثل فهم الصور العامة، والتعرف الضوئي على الحروف، وفهم المخططات والجداول، وتلخيص الفيديو.

مثل النماذج الأخرى في سلسلة Phi-3.5، يدعم Vision Instruct طول سياق رمزي يبلغ 128 كيلو بايت، مما يتيح له إدارة المهام المرئية المعقدة ومتعددة الإطارات.

وتؤكد مايكروسوفت أن هذا النموذج تم تدريبه باستخدام مزيج من مجموعات البيانات الاصطناعية والمفلترة المتاحة للجمهور، مع التركيز على البيانات عالية الجودة والكثيفة المنطق.

تدريب الثلاثي الجديد

تم تدريب نموذج Phi-3.5 Mini Instruct على 3.4 تريليون رمز باستخدام 512 وحدة معالجة رسومية H100-80G على مدار 10 أيام، بينما تم تدريب نموذج Vision Instruct على 500 مليار رمز باستخدام 256 وحدة معالجة رسومية A100-80G على مدار 6 أيام.

تم تدريب نموذج Phi-3.5 MoE، الذي يتميز بهندسة مزيج من الخبراء، على 4.9 تريليون رمز مع 512 وحدة معالجة رسومية H100-80G على مدار 23 يومًا.

مفتوح المصدر بموجب ترخيص MIT

تتوفر جميع نماذج Phi-3.5 الثلاثة بموجب ترخيص MIT، مما يعكس التزام Microsoft بدعم مجتمع المصادر المفتوحة.

يسمح هذا الترخيص للمطورين باستخدام البرنامج وتعديله ودمجه ونشره وتوزيعه وإعادة ترخيصه أو بيع نسخ منه بحرية.

يتضمن الترخيص أيضًا إخلاء مسؤولية مفاده أن البرنامج مقدم “كما هو”، دون أي ضمانات من أي نوع. ولا تتحمل شركة Microsoft أو أصحاب حقوق الطبع والنشر الآخرين المسؤولية عن أي مطالبات أو أضرار أو أي التزامات أخرى قد تنشأ عن استخدام البرنامج.

يمثل إصدار Microsoft لسلسلة Phi-3.5 خطوة مهمة إلى الأمام في تطوير الذكاء الاصطناعي متعدد اللغات ومتعدد الوسائط.

ومن خلال تقديم هذه النماذج بموجب ترخيص مفتوح المصدر، تعمل مايكروسوفت على تمكين المطورين من دمج قدرات الذكاء الاصطناعي المتطورة في تطبيقاتهم، مما يعزز الابتكار في المجالات التجارية والبحثية.

في بي يوميا

ابق على اطلاع! احصل على آخر الأخبار في بريدك الإلكتروني يوميًا

من خلال الاشتراك، فإنك توافق على شروط وأحكام VentureBeat شروط الخدمة.

شكرا على الاشتراك. تعرف على المزيد نشرات VB هنا.

حدث خطأ.

اقرأ المزيد

قراصنة يستغلون ثغرة PHP لاختراق أنظمة Windows ببرامج ضارة جديدة
مبيعات وول مارت بقيمة 3.6 مليار دولار من JD.com تغذي ركود التكنولوجيا في الصين

Reactions

0
0
0
0
0
0
بالفعل كان رد فعل لهذا المنصب.

ردود الفعل