من فضلك تسجيل الدخول أو تسجيل لتفعل ذلك.

منذ ظهور الذكاء الاصطناعى التوليدي على مستوى المؤسسة ، استفادت المنظمات من القدرات الغنية للنماذج التأسيسية ، التي طورتها أمثال Openai و Google Deepmind و Mistral وغيرها. ومع ذلك ، بمرور الوقت ، غالبًا ما وجدت الشركات هذه النماذج التي تحد من أنها تم تدريبها على مجموعات شاسعة من البيانات العامة. أدخل التخصيص – ممارسة تكييف نماذج اللغة الكبيرة (LLMS) لتناسب احتياجات الشركة المحددة بشكل أفضل من خلال دمج بياناتها وخبراتها ، أو تعليم نموذج مهارات أو مهام جديدة ، أو تحسين المطالبات واسترجاع البيانات.

“https://wp.technologyreview.com/wp-content/uploads/2025/02/Microsoft-Azure-Report-cover.png” Alt>

التخصيص ليس جديدًا ، لكن الأدوات المبكرة كانت بدائية إلى حد ما ، وغالبًا ما كانت فرق التكنولوجيا والتطوير غير متأكدة من كيفية القيام بذلك. هذا يتغير ، وأساليب التخصيص والأدوات المتاحة اليوم تتيح للشركات فرصًا أكبر لخلق قيمة فريدة من نماذج الذكاء الاصطناعى.

قمنا بمسح 300 من قادة التكنولوجيا في معظمها منظمات كبيرة في صناعات مختلفة لتعلم كيف يسعون إلى الاستفادة من هذه الفرص. تحدثنا أيضًا مع حفنة من هؤلاء القادة. يقومون جميعًا بتخصيص نماذج وتطبيقات الذكاء الاصطناعى التوليدي ، وقد شاركوا معنا دوافعهم للقيام بذلك ، والأساليب والأدوات التي يستخدمونها ، والصعوبات التي يواجهونها ، والإجراءات التي يتخذونها للتغلب عليها.

“https://wp.technologyreview.com/wp-content/uploads/2025/02/Microsoft-web-ready-16-9.png” Alt>

يجد تحليلنا أن الشركات تتقدم بطموح مع التخصيص. إنهم مدركون لمخاطرها ، وخاصة تلك التي تدور حول أمن البيانات ، ولكنها تستخدم أساليب وأدوات متقدمة ، مثل الجيل المسبق للاسترجاع (RAG) ، لتحقيق مكاسب التخصيص المطلوبة.

قم بتنزيل التقرير الكامل.

تم إنتاج هذا المحتوى بواسطة Insights ، ذراع المحتوى المخصص لمراجعة تقنية MIT. لم يكتبه موظفو التحرير في معهد ماساتشوستس للتكنولوجيا للتكنولوجيا.

اقرأ المزيد

تدعو Google إلى معايير سلامة الذاكرة على مستوى الصناعة لتعزيز أمان البرامج
تقوم Google بتوسيع اكتشاف عملية احتيال Android AI إلى المزيد من أجهزة البكسل

Reactions

0
0
0
0
0
0
بالفعل كان رد فعل لهذا المنصب.

ردود الفعل