الائتمان: VentureBeat تم إنشاؤه مع Midjourney
انضم إلى النشرات الإخبارية اليومية والأسبوعية للحصول على أحدث التحديثات والمحتوى الحصري على تغطية الذكاء الاصطناعى الرائدة في الصناعة.”https://venturebeat.com/newsletters/?utm_source=VBsite&utm_medium=desktopNav” نوع البيانات=”link” معرف البيانات=”https://venturebeat.com/newsletters/?utm_source=VBsite&utm_medium=desktopNav”> تعرف على المزيد
حتى مع بقاء نماذج اللغة الكبيرة والمنطق شائعة ، فإن المؤسسات تتجه بشكل متزايد إلى نماذج أصغر لتشغيل عمليات الذكاء الاصطناعى مع مخاوف أقل من الطاقة والتكلفة.
في حين أن بعض المنظمات تقوم بتقطير نماذج أكبر للإصدارات الأصغر ، فإن مقدمي النماذج يحبون”http://www.google.com” الهدف=”_blank” rel=”noreferrer noopener”> جوجل استمر في إصدار نماذج لغة صغيرة (SLMS) كبديل لنماذج اللغة الكبيرة (LLMS) ، والتي قد تكلف أكثر للتشغيل دون التضحية بالأداء أو الدقة.
مع وضع ذلك في الاعتبار ، أصدرت Google أحدث إصدار من طرازها الصغير ، Gemma ، الذي يتميز بنوافذ السياق الموسعة ، والمعلمات الأكبر ، وقدرات التفكير المتعدد الوسائط.
GEMMA 3 ، التي لديها نفس قوة المعالجة أكبر”https://venturebeat.com/ai/google-gemini-2-0-could-this-be-the-beginning-of-truly-autonomous-ai/”> نماذج Gemini 2.0، لا يزال أفضل استخدام من قبل الأجهزة الأصغر مثل الهواتف وأجهزة الكمبيوتر المحمولة. يحتوي النموذج الجديد على أربعة أحجام: 1B و 4B و 12B و 27B.
مع نافذة سياق أكبر تبلغ 128 كيلو رموز – على النقيض من ذلك ،”https://venturebeat.com/ai/google-gemma-2-27-billion-lightweight-model/”> جيما 2 كان لديه نافذة سياق 80k – Gemma 3 يمكن أن تفهم المزيد من المعلومات والطلبات المعقدة. قامت Google بتحديث GEMMA 3 للعمل بـ 140 لغة ، وتحليل الصور والنصوص ومقاطع الفيديو القصيرة ودعم الدعم الدعوة لأتمتة المهام وسير العمل الوالدين.
Gemma يعطي أداء قوي
لتقليل تكاليف الحوسبة إلى أبعد من ذلك ، قدمت Google إصدارات كمية من GEMMA. فكر”https://www.linkedin.com/pulse/demystifying-distilled-vs-quantized-models-guide-efficient-peruru-hb6hf/” الهدف=”_blank” rel=”noreferrer noopener”> النماذج الكمية كنماذج مضغوطة. يحدث هذا من خلال عملية “تقليل دقة القيم العددية في أوزان النموذج” دون التضحية بالدقة.
قالت Google إن Gemma 3 “تقدم أحدث أداء لحجمها” وتفوق على LLMs مثل LLAMA-405B و Deepseek-V3 و O3-MINI. جاءت Gemma 3 27b ، على وجه التحديد ، في المرتبة الثانية إلى Deepseek-R1 في اختبارات درجات chatbot Arena Elo. تصدرت”https://www.deepseek.com/” الهدف=”_blank” rel=”noreferrer noopener”> ديبسيكنموذج أصغر ، ديبسيك V3 ،”http://www.openai.com” الهدف=”_blank” rel=”noreferrer noopener”> OpenaiS O3-MINI ،”https://about.meta.com/” الهدف=”_blank” rel=”noreferrer noopener”> meta’s llama-405b و”https://mistral.ai/” الهدف=”_blank” rel=”noreferrer noopener”> Mistral كبير.
من خلال تحديد كمية GEMMA 3 ، يمكن للمستخدمين تحسين الأداء ، وتشغيل النموذج وبناء تطبيقات “يمكن أن تتناسب مع مضيف وحدة معالجة GPU ووحدة معالجة الموتر (TPU).”
تتكامل Gemma 3 مع أدوات المطورين مثل Lugging Face Transformers و Ollama و Jax و Keras و Pytorch وغيرها. يمكن للمستخدمين أيضًا الوصول إلى Gemma 3 من خلال Google AI Studio أو Hugging Face أو Kaggle. يمكن للشركات والمطورين طلب الوصول إلى GEMMA 3 API من خلال AI Studio.
Shield Gemma for Security
قالت Google إنها قامت ببناء بروتوكولات أمان في GEMMA 3 ، بما في ذلك مدقق أمان للصور التي تسمى SHIELDGEMMA 2.
“تضمن تطوير GEMMA 3 حوكمة بيانات واسعة النطاق ، والتوافق مع سياسات السلامة لدينا من خلال التقييمات القياسية والقياس القوية” ، تكتب Google في منشور مدونة. “في حين أن الاختبار الشامل لنماذج أكثر قدرة على الإبلاغ عن تقييمنا لأقل قدرة على ذلك ، فإن أداء STEM المعزز لـ GEMMA 3 أدى إلى تقييمات محددة تركز على إمكانية سوء الاستخدام في خلق مواد ضارة ؛ تشير نتائجها إلى مستوى منخفض الخطورة. “
SHIELDGEMMA 2 هو مدقق سلامة صورة 4B معلمة مبنية على مؤسسة GEMMA 3. يجد ويمنع النموذج من الاستجابة بالصور التي تحتوي على محتوى صريح جنسيًا وعنفًا وغيرها من المواد الخطرة. يمكن للمستخدمين تخصيص ShieldGemma 2 لتناسب احتياجاتهم الخاصة.
النماذج الصغيرة والتقطير في الارتفاع
منذ إصدار Google لأول مرة”https://venturebeat.com/ai/google-deepmind-debuts-gemma-open-models-offers-developer-alternative-to-gemini-api/”> جيما في فبراير 2024، شهدت SLMs”https://venturebeat.com/ai/why-small-language-models-are-the-next-big-thing-in-ai/”> زيادة في الفائدة. نماذج صغيرة أخرى مثل”https://venturebeat.com/ai/microsofts-new-phi-4-ai-models-pack-big-performance-in-small-packages/”> Microsoft’s PHI-4 و”https://venturebeat.com/ai/mistral-small-3-brings-open-source-ai-to-the-masses-smaller-faster-and-cheaper/”> ميسترا صغير 3 تشير إلى أن المؤسسات ترغب في بناء تطبيقات مع نماذج قوية مثل LLMs ، ولكن ليس بالضرورة تستخدم اتساع نطاق كامل لما يمكن لـ LLM.
بدأت المؤسسات أيضًا في التحول إلى إصدارات أصغر من LLMs التي تفضلها من خلال التقطير. لكي نكون واضحين ، فإن Gemma ليس تقطير الجوزاء 2.0 ؛ بدلا من ذلك ، يتم تدريبه مع نفس مجموعة البيانات والهندسة المعمارية. يتعلم النموذج المقطر من نموذج أكبر ، وهو Gemma لا.
غالبًا ما تفضل المنظمات تناسب حالات الاستخدام المعينة لنموذج ما. بدلاً من نشر LLM مثل O3-Mini أو Claude 3.7 Sonnet على محرر رمز بسيط ، يمكن أن يقوم نموذج أصغر ، سواء كان SLM أو إصدارًا مقطرًا ، القيام بهذه المهام بسهولة دون أن يتفوق على نموذج ضخم.
الرؤى اليومية حول حالات استخدام الأعمال مع VB يوميا
إذا كنت ترغب في إقناع رئيسك في العمل ، فقد غطيت VB Daily. نمنحك السبق الصحفي الداخلي على ما تفعله الشركات مع الذكاء الاصطناعي التوليدي ، من التحولات التنظيمية إلى عمليات النشر العملية ، حتى تتمكن من مشاركة رؤى لأقصى عائد على الاستثمار.
اقرأ لدينا”http://venturebeat.com/terms-of-service/”> سياسة الخصوصية
شكرا على الاشتراك. تحقق أكثر”http://venturebeat.com/newsletters/”> النشرات الإخبارية VB هنا.
حدث خطأ.