انضم إلى النشرات الإخبارية اليومية والأسبوعية للحصول على أحدث التحديثات والمحتوى الحصري على تغطية الذكاء الاصطناعى الرائدة في الصناعة.”https://venturebeat.com/newsletters/?utm_source=VBsite&utm_medium=desktopNav” نوع البيانات=”link” معرف البيانات=”https://venturebeat.com/newsletters/?utm_source=VBsite&utm_medium=desktopNav”> تعرف على المزيد
meta أعلنت اليوم شراكة مع”https://www.cerebras.ai/”> أنظمة الدماغ لتشغيله الجديد”https://ai.meta.com/blog/llamacon-llama-news/”> Llama API، مما يتيح للمطورين الوصول إلى سرعات الاستدلال تصل إلى 18 مرة أسرع من الحلول التقليدية القائمة على GPU.
الإعلان ، الذي أدلى به في ميتا الافتتاحية”https://www.llama.com/events/llamacon/2025/”> للاماكون مؤتمر المطورين في مينلو بارك ، يضع الشركة للتنافس مباشرة مع”https://openai.com/”> Openaiو”https://www.anthropic.com/”> الإنسان، و”https://gemini.google.com/app”> جوجل في سوق خدمات الاستدلال المتنامية بسرعة ، حيث يشتري المطورون الرموز من قبل المليارات لتشغيل تطبيقاتهم.
وقالت جولي شين تشوي ، كبير مسؤولي التسويق في كيربرا ، خلال مؤتمر صحفي: “اختارت Meta الدماغ للتعاون لتوصيل الاستدلال السريع للغاية الذي يحتاجونه لخدمة المطورين من خلال واجهة برمجة تطبيقات Llama الجديدة الخاصة بهم”. “نحن في كيربراس حقًا ، متحمسون حقًا للإعلان عن أول شراكة من CSP Hyperscaler لتقديم الاستدلال السريع لجميع المطورين.”
تمثل الشراكة دخول Meta الرسمي إلى أعمال بيع حساب الذكاء الاصطناعي ، مما يحول نماذج LAMA الشهيرة مفتوحة المصدر إلى خدمة تجارية. بينما تراكمت نماذج LLAMA من Meta”https://about.fb.com/news/2025/03/celebrating-1-billion-downloads-llama/”> مليار تنزيل، حتى الآن لم تقدم الشركة البنية التحتية السحابية للطرف الأول للمطورين لبناء التطبيقات معهم.
وقال جيمس وانغ ، كبير المديرين التنفيذيين في كيربراس: “هذا مثير للغاية ، حتى بدون الحديث عن الدماغ على وجه التحديد”. “Openai ، Anthropic ، Google – لقد قاموا ببناء أعمال AI جديدة بالكامل من نقطة الصفر ، وهي أعمال الاستدلال الذكاء الاصطناعى. سيقوم المطورون الذين يقومون ببناء تطبيقات AI بشراء الرموز بالملايين ، من قبل المليارات في بعض الأحيان. وهؤلاء يشبهون تعليمات الحساب الجديدة التي يحتاجها الناس لبناء تطبيقات AI.”
كسر حاجز السرعة: كيف نماذج لاما الدماغ
ما يميز عرض Meta عن بعضها البعض هو زيادة السرعة الدرامية التي توفرها رقائق الذكاء الاصطناعي المتخصصة في Cerebras. نظام الدماغ يسلم”https://www.cerebras.ai/blog/llamablog”> 2600 رمز في الثانية بالنسبة إلى Llama 4 Scout ، مقارنة بحوالي 130 رمزًا في الثانية ل ChatGpt وحوالي 25 رمزًا في الثانية ل Deepseek ، وفقًا للمعايير من”https://artificialanalysis.ai/”> التحليل الاصطناعي.
“إذا قارنت فقط على أساس API-to-API ، Gemini و GPT ، فهي جميعها نماذج رائعة ، لكنها جميعها تعمل بسرعات GPU ، والتي تبلغ حوالي 100 رمز في الثانية” ، أوضح وانغ. “و 100 رمز في الثانية على ما يرام للدردشة ، لكنها بطيئة للغاية بالنسبة للتفكير. إنها بطيئة للغاية بالنسبة للوكلاء. والناس يكافحون مع ذلك اليوم.”
تتيح ميزة السرعة هذه فئات جديدة تمامًا من التطبيقات التي كانت غير عملية سابقًا ، بما في ذلك العوامل في الوقت الفعلي ، وأنظمة الصوت المنخفضة للالتحاق بالمحادثة ، وتوليد الكود التفاعلي ، والتفكير الفوري متعدد الخطوات-وكلها تتطلب تسلسل مكالمات متعددة لغوية يمكن إكمالها الآن في ثوانٍ بدلاً من دقائق.
ال”https://ai.meta.com/blog/llamacon-llama-news/”> Llama API يمثل تحولًا كبيرًا في استراتيجية META من الذكاء الاصطناعى ، حيث ينتقل من كونه مزودًا نموذجيًا إلى أن تصبح شركة للبنية التحتية لوكالة الذكاء الاصطناعية كاملة الخدمات. من خلال تقديم خدمة API ، تقوم Meta بإنشاء تدفق إيرادات من استثماراتها من الذكاء الاصطناعي مع الحفاظ على التزامها بفتح النماذج.
وأشار وانغ خلال المؤتمر الصحفي: “أصبح Meta الآن في مجال بيع الرموز المميزة ، وهو أمر رائع للنوع الإيكولوجي الأمريكي من الذكاء الاصطناعي”. “يجلبون الكثير إلى الطاولة.”
ستقدم واجهة برمجة التطبيقات أدوات للضبط والتقييم ، بدءًا من”https://huggingface.co/meta-llama/Meta-Llama-3-8B”> طراز Llama 3.3 8b، السماح للمطورين بإنشاء البيانات والتدريب عليها واختبار جودة نماذجهم المخصصة. تؤكد Meta على أنها لن تستخدم بيانات العميل لتدريب النماذج الخاصة بها ، ويمكن نقل النماذج المصممة باستخدام API Llama إلى مضيفين آخرين – تمايز واضح عن الأساليب الأكثر إغلاقًا لبعض المنافسين.
ستقوم الدماغ بتقديم خدمة Meta الجديدة من خلال شبكتها”https://venturebeat.com/ai/cerebras-just-announced-6-new-ai-datacenters-that-process-40m-tokens-per-second-and-it-could-be-bad-news-for-nvidia/”> مراكز البيانات تقع في جميع أنحاء أمريكا الشمالية ، بما في ذلك المرافق في دالاس وأوكلاهوما ومينيسوتا ومونتريال وكاليفورنيا.
“جميع مراكز البيانات التي تخدم الاستدلال موجودة في أمريكا الشمالية في هذا الوقت” ، أوضح تشوي. “سنقدم ميتا مع القدرة الكاملة للدماغ. سيتم موازنة عبء العمل عبر جميع مراكز البيانات المختلفة هذه.”
يتبع ترتيب العمل ما وصفه Choi بأنه “مزود الحساب الكلاسيكي لنموذج فرط الأداء” ، على غرار كيفية توفر NVIDIA للأجهزة لمقدمي السحابة الرئيسيين. وقالت: “إنهم يحتفظون بتكتلات حسابنا التي يمكنهم خدمة سكان المطورين”.
ما وراء الدماغ ،”https://www.prnewswire.com/news-releases/meta-and-groq-collaborate-to-deliver-fast-inference-for-the-official-llama-api-302441674.html”> أعلنت Meta أيضًا عن شراكة مع Groq لتوفير خيارات الاستدلال السريع ، منح المطورين بدائل متعددة عالية الأداء تتجاوز الاستدلال التقليدي القائم على GPU.
يمكن أن يعطل دخول Meta إلى سوق API الاستدلال مع مقاييس الأداء المتفوقة الترتيب المعمول به يهيمن عليه”https://openai.com/”> Openaiو”https://www.google.com/”> جوجل، و”https://www.anthropic.com/”> الإنسان. من خلال الجمع بين شعبية نماذجها مفتوحة المصدر وقدرات استنتاج أسرع بشكل كبير ، فإن Meta تحدد نفسها كمنافس هائل في مساحة الذكاء الاصطناعي التجاري.
“Meta في وضع فريد من نوعه مع 3 مليارات مستخدم ، ومركز بيانات شديد ، ونظام إيكولوجي للمطور الضخم” ، وفقًا لمواد العرض التقديمي لـ Cerebras. دمج تقنية الدماغ “يساعد Meta Leapfrog Openai و Google في الأداء بحوالي 20x.”
بالنسبة إلى الدماغ ، تمثل هذه الشراكة علامة فارقة رئيسية والتحقق من صحة نهج أجهزة الذكاء الاصطناعي المتخصص. وقال وانغ: “لقد قمت ببناء هذا المحرك على نطاق البسكويت لسنوات ، وكنا نعلم دائمًا أن الفائدة الأولى للتكنولوجيا ، ولكن في النهاية يجب أن ينتهي الأمر كجزء من سحابة شخص آخر فرط النقد. كان هذا هو الهدف النهائي من منظور الإستراتيجية التجارية ، وقد وصلنا أخيرًا إلى هذا المعلم”.
ال”https://ai.meta.com/blog/llamacon-llama-news/”> Llama API متوفر حاليًا كمعاينة محدودة ، مع التخطيط لاستشارة أوسع في الأسابيع والأشهر المقبلة. يمكن للمطورين المهتمين بالوصول إلى استدلال Llama 4 فائق السرعة أن يطلبوا الوصول المبكر عن طريق اختيار الدماغ من خيارات النموذج داخل API LLAMA.
“إذا كنت تتخيل مطورًا لا يعرف أي شيء عن الدماغ لأننا شركة صغيرة نسبيًا ، فيمكنهم فقط النقر على زرين على برنامج Meta القياسي SDK ، وإنشاء مفتاح API ، واختيار علامة الدماغ ، ثم فجأة ، تتم معالجة الرموز على محرك رقائق عملاق.” أوضح Wang. ” “هذا النوع من جعلنا في النهاية الخلفية للنظام الإيكولوجي للمطور الكامل في META هو أمر رائع بالنسبة لنا.”
يشير اختيار Meta للسيليكون المتخصص إلى شيء عميق: في المرحلة التالية من الذكاء الاصطناعى ، ليس فقط ما تعرفه نماذجك ، ولكن مدى سرعة التفكير في ذلك. في هذا المستقبل ، فإن السرعة ليست مجرد ميزة – إنها النقطة الأساسية.
الرؤى اليومية حول حالات استخدام الأعمال مع VB يوميا
إذا كنت ترغب في إقناع رئيسك في العمل ، فقد غطيت VB Daily. نمنحك السبق الصحفي الداخلي على ما تفعله الشركات مع الذكاء الاصطناعي التوليدي ، من التحولات التنظيمية إلى عمليات النشر العملية ، حتى تتمكن من مشاركة رؤى لأقصى عائد على الاستثمار.
اقرأ لدينا”http://venturebeat.com/terms-of-service/”> سياسة الخصوصية
شكرا على الاشتراك. تحقق أكثر”http://venturebeat.com/newsletters/”> النشرات الإخبارية VB هنا.
حدث خطأ.