الصورة الائتمان: VentureBeat مع ChatGpt
تريد رؤى أكثر ذكاء في صندوق الوارد الخاص بك؟ اشترك في النشرات الإخبارية الأسبوعية لدينا للحصول على ما يهم فقط للمؤسسات AI والبيانات وقادة الأمن. اشترك الآن
أ”https://www.arxiv.org/abs/2507.03120″ الهدف=”_blank” rel=”noreferrer noopener”> دراسة جديدة من قبل الباحثين في”https://deepmind.google/” الهدف=”_blank” rel=”noreferrer noopener”> Google DeepMind و”https://www.ucl.ac.uk/” الهدف=”_blank” rel=”noreferrer noopener”> كلية جامعة لندن يكشف عن شكل نماذج اللغة الكبيرة (LLMS) ، والحفاظ على الثقة وتفقدها في إجاباتها. تكشف النتائج عن أوجه التشابه المذهلة بين التحيزات المعرفية لـ LLMs والبشر ، مع تسليط الضوء أيضًا على الاختلافات الصارخة.
يكشف البحث أن LLMs يمكن أن يكون واثقًا من الإجابات الخاصة بهم ، لكن سرعان ما تفقد تلك الثقة وتغيير رأيهم عند تقديمها مع الحجة المضادة ، حتى لو كانت الحجة المضادة غير صحيحة. يمكن أن يكون لفهم الفروق الدقيقة في هذا السلوك عواقب مباشرة على كيفية بناء تطبيقات LLM ، وخاصة واجهات المحادثة التي تمتد عدة دورات.
اختبار الثقة في LLMS
يتمثل أحد العوامل الحاسمة في النشر الآمن لـ LLMs إلى أن إجاباتهم مصحوبة بإحساس موثوق بالثقة (احتمال تعيين النموذج لرمز الإجابة). على الرغم من أننا نعلم أن LLMS يمكن أن تنتج درجات الثقة هذه ، فإن مدى يمكنهم استخدامها لتوجيه السلوك التكيفي بشكل سيء. هناك أيضًا أدلة تجريبية على أن LLMs يمكن أن يكون واثقًا في إجابتها الأولية ، ولكنها أيضًا تكون حساسة للغاية للنقد وتصبح بسرعة واثقة في نفس الخيار.
للتحقيق في هذا ، طور الباحثون تجربة خاضعة للرقابة لاختبار كيفية تحديث LLMs ثقتهم وتحديد ما إذا كان سيتم تغيير إجاباتهم عند تقديم نصيحة خارجية. في التجربة ، تم إعطاء “الإجابة على LLM” أولاً سؤالًا ثنائيًا ، مثل تحديد خط العرض الصحيح لمدينة من خيارين. بعد اختيارها الأولي ، تم تقديم نصيحة LLM من “نصيحة LLM” الوهمية. جاءت هذه النصيحة بتصنيف دقة صريحة (على سبيل المثال ، “هذه النصيحة LLM دقيقة بنسبة 70 ٪”) وستتفق معها أو تعارضها أو تظل محايدة على الاختيار الأولي لـ LLM. أخيرًا ، طُلب من الإجابة على LLM اتخاذ خيارها النهائي.
تعود سلسلة AI Impact إلى سان فرانسيسكو – 5 أغسطس
المرحلة التالية من الذكاء الاصطناعي هنا – هل أنت مستعد؟ انضم إلى القادة من Block و GSK و SAP لإلقاء نظرة حصرية على كيفية إعادة تشغيل الوكلاء المستقلين من مهام سير عمل المؤسسة-من اتخاذ القرارات في الوقت الفعلي إلى الأتمتة الشاملة.
تأمين مكانك الآن – المساحة محدودة:”https://bit.ly/3GuuPLF”> https://bit.ly/3guuplf
كان الجزء الرئيسي من التجربة هو التحكم في ما إذا كانت الإجابة الأولية الخاصة بـ LLM كانت مرئية لها خلال القرار النهائي الثاني. في بعض الحالات ، تم عرضه ، وفي حالات أخرى ، كان مخفيًا. هذا الإعداد الفريد ، من المستحيل تكراره مع المشاركين البشريين الذين لا يستطيعون ببساطة نسيان خياراتهم السابقة ، سمح للباحثين بعزل كيف تؤثر ذكرى القرار السابق على الثقة الحالية.
حالة خط الأساس ، حيث تم إخفاء الإجابة الأولية وكانت النصيحة محايدة ، أثبتت مقدار ما قد تتغير إجابة LLM ببساطة بسبب التباين العشوائي في معالجة النموذج. ركز التحليل على كيفية تغير ثقة LLM في اختيارها الأصلي بين المنعطف الأول والثاني ، مما يوفر صورة واضحة عن كيفية تأثير الاعتقاد الأولي ، أو السابق ، على “تغيير العقل” في النموذج.
الثقة المفرطة والثقة
درس الباحثون أولاً كيف أثرت رؤية إجابة LLM الخاصة على ميلها إلى تغيير إجابتها. لاحظوا أنه عندما يتمكن النموذج من رؤية إجابته الأولية ، أظهر ميلًا منخفضًا للتبديل ، مقارنةً بموعد إخفاء الإجابة. يشير هذا الاكتشاف إلى تحيز إدراكي محدد. كما تلاحظ الورقة ، “هذا التأثير – الميل إلى التمسك باختيار الفرد الأولي إلى حد أكبر عندما كان هذا الاختيار مرئيًا (على عكس الخفي) أثناء التأمل في الاختيار النهائي – يرتبط ارتباطًا وثيقًا بظاهرة موصوفة في دراسة صنع القرار البشري ، أ”https://en.wikipedia.org/wiki/Choice-supportive_bias” الهدف=”_blank” rel=”noreferrer noopener”> التحيز الداعم للاختيار”
أكدت الدراسة أيضًا أن النماذج تدمج النصائح الخارجية. عندما تواجه نصيحة معارضة ، أظهرت LLM ميلًا متزايدًا لتغيير رأيها ، وميل منخفض عندما كانت النصيحة داعمة. “يوضح هذا الاستنتاج أن الإجابة على LLM يدمج بشكل مناسب اتجاه المشورة لتعديل تغيير معدل العقل” ، يكتب الباحثون. ومع ذلك ، اكتشفوا أيضًا أن النموذج حساس للغاية للمعلومات المخالفة ويؤدي كبيرًا من تحديث الثقة نتيجة لذلك.
ومن المثير للاهتمام أن هذا السلوك يتعارض مع”https://en.wikipedia.org/wiki/Confirmation_bias” الهدف=”_blank” rel=”noreferrer noopener”> تحيز التأكيد في كثير من الأحيان ينظر إليها في البشر ، حيث يفضل الناس المعلومات التي تؤكد معتقداتهم الحالية. وجد الباحثون أن LLMS “يعارضون الوزن بدلاً من النصيحة الداعمة ، سواء عندما كانت الإجابة الأولية للنموذج مرئية ومخفية عن النموذج”. أحد التفسيرات المحتملة هو أن تقنيات التدريب مثل”https://venturebeat.com/ai/new-reinforcement-learning-method-uses-human-cues-to-correct-its-mistakes/”> التعلم التعزيز من ردود الفعل البشرية (RLHF) قد يشجع النماذج على أن تكون متوحشة بشكل مفرط لإدخال المستخدم ، وهي ظاهرة تُعرف باسم sycophancy (والتي”https://venturebeat.com/ai/openai-rolls-back-chatgpts-sycophancy-and-explains-what-went-wrong/”> لا يزال يمثل تحديًا لمختبرات الذكاء الاصطناعي).
الآثار المترتبة على تطبيقات المؤسسة
تؤكد هذه الدراسة أن أنظمة الذكاء الاصطناعى ليست العوامل المنطقية البحتة التي يُنظر إليها غالبًا. إنها تظهر مجموعة من التحيزات الخاصة بهم ، وبعضها تشبه الأخطاء المعرفية البشرية وغيرها من الفريدة لأنفسهم ، والتي يمكن أن تجعل سلوكهم غير متوقع من الناحية الإنسانية. بالنسبة لتطبيقات المؤسسات ، هذا يعني أنه في محادثة ممتدة بين العامل البشري ووكيل الذكاء الاصطناعى ، يمكن أن يكون للمعلومات الأحدث تأثير غير متناسب على منطق LLM (خاصة إذا كان متناقضًا للإجابة الأولية للنموذج) ، مما قد يتسبب في تجاهل إجابة صحيحة في البداية.
لحسن الحظ ، كما تظهر الدراسة أيضًا ، يمكننا معالجة ذاكرة LLM للتخفيف من هذه التحيزات غير المرغوب فيها بطرق غير ممكنة مع البشر. يمكن للمطورين الذين يقومون ببناء عوامل محادثة متعددة المنعطفات تنفيذ استراتيجيات لإدارة سياق الذكاء الاصطناعي. على سبيل المثال ، يمكن تلخيص محادثة طويلة بشكل دوري ، مع تقديم الحقائق والقرارات الرئيسية بشكل محايد وتجريده من الوكيل الذي قام بالاختيار. يمكن بعد ذلك استخدام هذا الملخص لبدء محادثة جديدة مكثفة ، وتزويد النموذج بقائمة نظيفة للاستمتاع بتجنب التحيزات التي يمكن أن تتسلل خلال الحوارات الممتدة.
نظرًا لأن LLMs أصبحت أكثر دمجًا في سير عمل المؤسسات ، فإن فهم الفروق الدقيقة في عمليات صنع القرار لم يعد اختياريًا. يتيح البحث التأسيسي مثل هذا المطورين توقع وتصحيح هذه التحيزات المتأصلة ، مما يؤدي إلى تطبيقات ليست أكثر قدرة ، ولكن أيضًا أكثر قوة وموثوقية.
الرؤى اليومية حول حالات استخدام الأعمال مع VB يوميا
إذا كنت ترغب في إقناع رئيسك في العمل ، فقد غطيت VB Daily. نمنحك السبق الصحفي الداخلي على ما تفعله الشركات مع الذكاء الاصطناعي التوليدي ، من التحولات التنظيمية إلى عمليات النشر العملية ، حتى تتمكن من مشاركة رؤى لأقصى عائد على الاستثمار.
اقرأ لدينا”http://venturebeat.com/terms-of-service/”> سياسة الخصوصية
شكرا على الاشتراك. تحقق أكثر”http://venturebeat.com/newsletters/”> النشرات الإخبارية VB هنا.
حدث خطأ.