تعمل شركة DeepMind التابعة لشركة Google على بناء نظام ذكاء اصطناعي لمنعنا من كراهية بعضنا البعض
كان أداء الذكاء الاصطناعي أفضل من الوسطاء المحترفين في إقناع الناس بالتوصل إلى اتفاق.
غير مسبوق”https://news.gallup.com/poll/650828/americans-agree-nation-divided-key-values.aspx”> 80 بالمئة من الأميركيين، وفقا لاستطلاع للرأي أجرته مؤسسة غالوب مؤخرا، يعتقدون أن البلاد منقسمة بشدة حول أهم قيمها قبل انتخابات نوفمبر. والآن يشمل الاستقطاب بين عامة الناس قضايا مثل الهجرة، أو الرعاية الصحية، أو سياسات الهوية، أو حقوق المتحولين جنسياً، أو ما إذا كان ينبغي لنا أن ندعم أوكرانيا. سافر عبر المحيط الأطلسي وسترى نفس الشيء يحدث في الاتحاد الأوروبي والمملكة المتحدة.
ولمحاولة عكس هذا الاتجاه، قامت شركة DeepMind التابعة لشركة Google ببناء نظام ذكاء اصطناعي مصمم لمساعدة الأشخاص في حل النزاعات. يطلق عليها اسم آلة هابرماس نسبة إلى يورغن هابرماس، الفيلسوف الألماني الذي رأى أنه يمكن دائمًا التوصل إلى اتفاق في المجال العام عندما ينخرط الأشخاص العقلانيون في المناقشات على قدم المساواة، مع الاحترام المتبادل والتواصل المثالي.
ولكن هل براعة ديب مايند الحائزة على جائزة نوبل كافية حقًا لحل صراعاتنا السياسية بنفس الطريقة التي حلت بها؟”https://arstechnica.com/gaming/2017/12/deepmind-ai-needs-mere-4-hours-of-self-training-to-become-a-chess-overlord/”>الشطرنج أو”https://arstechnica.com/science/2019/10/leveling-up-deepminds-alphastar-achieves-grandmaster-level-in-starcraft-ii/”>ستار كرافت أو”https://arstechnica.com/science/2024/10/protein-structure-and-design-software-gets-the-chemistry-nobel/”> التنبؤ بهياكل البروتين؟ هل هي حتى الأداة الصحيحة؟
الفيلسوف في الآلة
إحدى الأفكار الأساسية في فلسفة هابرماس هي أن السبب وراء عدم اتفاق الناس مع بعضهم البعض هو سبب إجرائي في الأساس ولا يكمن في المشكلة قيد المناقشة نفسها. لا توجد قضايا لا يمكن التوفيق بينها، كل ما في الأمر هو أن الآليات التي نستخدمها للمناقشة معيبة. وقال هابرماس إنه إذا تمكنا من إنشاء نظام اتصال مثالي، فيمكننا حل كل مشكلة.
«الآن، بالطبع، تعرض هابرماس لانتقادات كبيرة لكونه وجهة نظر غريبة جدًا عن العالم. لكن آلة هابرماس الخاصة بنا هي محاولة للقيام بذلك بالضبط. يقول كريستوفر سمرفيلد، أستاذ العلوم المعرفية في جامعة أكسفورد والعالم في فريق ديب مايند الذي عمل على آلة هابرماس: “لقد حاولنا إعادة التفكير في كيفية تداول الناس واستخدام التكنولوجيا الحديثة لتسهيل ذلك”.
تعتمد آلة هابرماس على ما يسمى بمبدأ وساطة التجمع. هذا هو المكان الذي يجلس فيه الوسيط، في هذه الحالة الذكاء الاصطناعي، خلال اجتماعات خاصة مع جميع المشاركين في المناقشة بشكل فردي، ويأخذ بياناتهم حول القضية المطروحة، ثم يعود إليهم ببيان جماعي، في محاولة لجعل الجميع يتفقون مع هو – هي. يلعب الذكاء الاصطناعي الوسيط الخاص بـ DeepMind دورًا في إحدى نقاط القوة في LLMs، وهي القدرة على تلخيص مجموعة طويلة من النص بإيجاز في وقت قصير جدًا. الفرق هنا هو أنه بدلاً من تلخيص جزء واحد من النص المقدم من مستخدم واحد، تقوم آلة هابرماس بتلخيص نصوص متعددة مقدمة من مستخدمين متعددين، وتحاول استخلاص الأفكار المشتركة وإيجاد أرضية مشتركة فيها جميعًا.
ولكن لديها المزيد من الحيل في جعبتها من مجرد معالجة النص. على المستوى التقني، تعتبر آلة هابرماس نظامًا من نموذجين لغويين كبيرين. الأول هو النموذج التوليدي المبني على شينشيلا المضبوطة قليلاً، وهو برنامج LLM مؤرخ إلى حد ما قدمته DeepMind في عام 2022. وتتمثل مهمته في إنشاء عدة مرشحين لبيان جماعي بناءً على البيانات المقدمة من المشاركين في المناقشة. المكون الثاني في آلة هابرماس هو نموذج المكافأة الذي يحلل بيانات المشاركين الفرديين ويستخدمها للتنبؤ بمدى احتمال موافقة كل فرد على بيانات المجموعة المرشحة التي يقترحها النموذج التوليدي.
بمجرد الانتهاء من ذلك، يتم تقديم بيان مجموعة المرشحين الحاصل على أعلى درجة قبول متوقعة للمشاركين. بعد ذلك، يكتب المشاركون انتقاداتهم لبيان المجموعة هذا، ثم يقومون بإدخال تلك الانتقادات مرة أخرى في النظام الذي يولد بيانات المجموعة المحدثة ويكرر العملية. وتستمر الدورة حتى يصبح بيان المجموعة مقبولاً لدى الجميع.
بمجرد أن أصبح الذكاء الاصطناعي جاهزًا، بدأ فريق DeepMind حملة اختبار كبيرة إلى حد ما والتي شملت أكثر من خمسة آلاف شخص ناقشوا قضايا مثل “هل ينبغي خفض سن التصويت إلى 16 عامًا؟” أو “هل ينبغي خصخصة الخدمة الصحية الوطنية البريطانية؟” وهنا، تفوقت آلة هابرماس على الوسطاء البشريين.
الاجتهاد العلمي
تم الحصول على معظم الدفعة الأولى من المشاركين من خلال منصة أبحاث التعهيد الجماعي. تم تقسيمهم إلى مجموعات مكونة من خمسة أشخاص، وتم تخصيص موضوع لكل فريق لمناقشته، وتم اختياره من قائمة تضم أكثر من 5000 بيان حول القضايا المهمة في السياسة البريطانية. كانت هناك أيضًا مجموعات مراقبة تعمل مع وسطاء بشريين. وفي عملية الوساطة الحزبية، حقق هؤلاء الوسطاء البشريون معدل قبول بنسبة 44 بالمائة لبياناتهم الجماعية المعدة يدويًا. وسجل الذكاء الاصطناعي 56 بالمئة. عادةً ما وجد المشاركون أن عبارات مجموعة الذكاء الاصطناعي مكتوبة بشكل أفضل أيضًا.
لكن الاختبار لم ينته عند هذا الحد. ونظرًا لأن الأشخاص الذين يمكنك العثور عليهم على منصات البحث ذات التعهيد الجماعي من غير المرجح أن يمثلوا السكان البريطانيين، فقد استخدمت DeepMind أيضًا مجموعة مختارة بعناية أكبر من المشاركين. لقد دخلوا في شراكة مع مؤسسة Sortition Foundation، المتخصصة في تنظيم تجمعات المواطنين في المملكة المتحدة، وقاموا بتجميع مجموعة من 200 شخص يمثلون المجتمع البريطاني عندما يتعلق الأمر بالعمر والعرق والوضع الاجتماعي والاقتصادي وما إلى ذلك. وتم تقسيم التجمع إلى مجموعات من ثلاثة أشخاص تداولوا على نفس الأسئلة التسعة. وعملت آلة هابرماس أيضًا.
ارتفعت نسبة الموافقة على عبارة “يجب أن نحاول تقليل عدد الأشخاص في السجن” من 60% قبل المناقشة إلى 75%. وارتفع تأييد الفكرة الأكثر إثارة للخلاف والمتمثلة في تسهيل دخول طالبي اللجوء إلى البلاد من 39% في البداية إلى 51% في نهاية المناقشة، مما سمح لها بالحصول على دعم الأغلبية. والأمر نفسه حدث مع مشكلة تشجيع العزة الوطنية التي بدأت بنسبة 42 في المئة وانتهت بنسبة 57 في المئة. وقد اجتمعت آراء الناس في المجلس على خمسة أسئلة من أصل تسعة. ولم يتم التوصل إلى اتفاق بشأن قضايا مثل خروج بريطانيا من الاتحاد الأوروبي، حيث كان المشاركون راسخين بشكل خاص في مواقفهم الأولية. ومع ذلك، في معظم الحالات، تركوا التجربة أقل انقسامًا مما كانوا عليه في البداية. ولكن كانت هناك بعض علامات الاستفهام.
لم يتم اختيار الأسئلة بشكل عشوائي بالكامل. لقد تم فحصهم، كما كتب الفريق في بحثهم، من أجل “التقليل إلى أدنى حد من مخاطر إثارة التعليقات المسيئة”. ولكن أليست هذه مجرد طريقة أنيقة للقول: “لقد اخترنا بعناية قضايا من غير المرجح أن تجعل الناس يتعمقون فيها ويوجهون الإهانات لبعضهم البعض حتى تبدو نتائجنا أفضل؟”
القيم المتضاربة
وقال سمرفيلد لآرس: “أحد الأمثلة على الأشياء التي استبعدناها هو قضية حقوق المتحولين جنسياً”. “لقد أصبح هذا، بالنسبة لكثير من الناس، مسألة هوية ثقافية. من الواضح الآن أن هذا موضوع يمكن أن يكون لدينا جميعًا وجهات نظر مختلفة حوله، لكننا أردنا توخي الحذر والتأكد من أننا لم نجعل المشاركين يشعرون بعدم الأمان. لم نرغب في أن يخرج أي شخص من التجربة وهو يشعر بأن نظرته الأساسية للعالم قد تم تحديها بشكل كبير.
المشكلة هي أنه عندما يكون هدفك هو جعل الناس أقل انقسامًا، فأنت بحاجة إلى معرفة أين يتم رسم خطوط التقسيم. وهذه الخطوط، إذا أردنا أن نثق في استطلاعات الرأي التي أجرتها مؤسسة غالوب، لا يتم رسمها فقط بين قضايا مثل ما إذا كان سن التصويت يجب أن يكون 16 أو 18 أو 21 عاما. بل يتم رسمها بين قيم متضاربة. العرض اليوميزعم جون ستيوارت أن خط التقسيم الوحيد الذي يهم اليوم، بالنسبة للجانب الأيمن من الطيف السياسي في الولايات المتحدة، هو خط “الاستيقاظ” مقابل “عدم الاستيقاظ”.
استبعد سمرفيلد وبقية فريق هابرماس ماشين السؤال حول حقوق المتحولين جنسيًا لأنهم اعتقدوا أن رفاهية المشاركين يجب أن تكون لها الأسبقية على فائدة اختبار أداء الذكاء الاصطناعي الخاص بهم في قضايا أكثر إثارة للخلاف. واستبعدوا مسائل أخرى مثل مشكلة تغير المناخ.
هنا، كان السبب الذي قدمه سمرفيلد هو أن تغير المناخ جزء من واقع موضوعي – فهو إما موجود أو غير موجود، ونحن نعلم أنه موجود. إنها ليست مسألة رأي يمكنك مناقشته. وهذا دقيق علميا. ولكن عندما يكون الهدف هو إصلاح السياسة، فإن الدقة العلمية ليست بالضرورة هي الحالة النهائية.
إذا كان للأحزاب السياسية الكبرى أن تقبل آلة هابرماس كوسيط، فلابد أن يُنظر إليها عالمياً على أنها محايدة. لكن على الأقل بعض الأشخاص الذين يقفون وراء الذكاء الاصطناعي يجادلون بأن الذكاء الاصطناعي لا يمكن أن يكون محايدًا. بعد أن أصدرت OpenAI برنامج ChatGPT في عام 2022، نشر إيلون ماسك تغريدة، وهي الأولى من بين العديد من التغريدات، حيث جادل ضد ما أسماه الذكاء الاصطناعي “المستيقظ”. “إن خطر تدريب الذكاء الاصطناعي على الاستيقاظ – بمعنى آخر، الكذب – هو خطر مميت،” ” ماسك “”https://x.com/elonmusk/status/1603836383885332480?lang=en”> كتب. وبعد مرور أحد عشر شهرًا، أعلن عن نظام Grok، وهو نظام الذكاء الاصطناعي الخاص به والذي تم تسويقه على أنه “مضاد للاستيقاظ”. تم تعريف أكثر من 200 مليون من أتباعه بفكرة وجود “أنظمة ذكاء اصطناعي مستيقظة” يجب مواجهتها من خلال بناء “أنظمة ذكاء اصطناعي مضادة للاستيقاظ”، وهو عالم لم يعد فيه الذكاء الاصطناعي آلة ملحدة بل أداة لدفع الأجندات السياسية. من مبدعيها.
ممارسة ألعاب الحمام
يقول سمرفيلد: “أنا شخصياً أعتقد أن ماسك على حق في أنه كانت هناك بعض الاختبارات التي أظهرت أن استجابات النماذج اللغوية تميل إلى تفضيل وجهات نظر أكثر تقدمية وأكثر تحررية”. “ولكن من المثير للاهتمام أن نلاحظ أن هذه التجارب تم إجراؤها عادةً من خلال إجبار النموذج اللغوي على الرد على أسئلة الاختيار من متعدد. أنت تسأل “هل هناك الكثير من الهجرة” على سبيل المثال، وتكون الإجابات إما نعم أو لا. بهذه الطريقة يكون النموذج مجبرًا على أخذ الرأي”.
وقال إنه إذا استخدمت نفس الاستفسارات كأسئلة مفتوحة، فإن الإجابات التي تحصل عليها، في معظمها، محايدة ومتوازنة. يقول سمرفيلد: “لذلك، على الرغم من وجود أوراق بحثية تعبر عن نفس وجهة نظر ماسك، فمن الناحية العملية، أعتقد أن هذا غير صحيح على الإطلاق”.
هل يهم حتى؟
لقد فعل سمرفيلد ما تتوقع من العالم أن يفعله: فقد رفض ادعاءات ” ماسك ” باعتبارها مستندة إلى قراءة انتقائية للأدلة. هذا عادة ما يكون كش ملك في عالم العلوم. لكن في السياسة العالمية، ليس كونك على حق هو الأمر الأكثر أهمية. كان ” ماسك ” قصيرًا وجذابًا وسهل المشاركة والتذكر. إن محاولة مواجهة ذلك من خلال مناقشة المنهجية في بعض الأوراق التي لم يقرأها أحد كانت أشبه بلعب الشطرنج مع الحمام.
في الوقت نفسه، كان لدى سمرفيلد أفكاره الخاصة حول الذكاء الاصطناعي والتي قد يعتبرها الآخرون بائسة. “إذا أراد السياسيون معرفة ما يفكر فيه عامة الناس اليوم، فقد يقومون بإجراء استطلاع للرأي. لكن آراء الناس تختلف اختلافًا طفيفًا، وأداتنا تسمح بتجميع الآراء، وربما آراء متعددة، في مساحة اللغة نفسها ذات الأبعاد العالية. وفي حين أن فكرته هي أن آلة هابرماس يمكنها أن تجد نقاطًا مفيدة للإجماع السياسي، فلا شيء يمنعها من استخدامها أيضًا لصياغة خطابات مُحسَّنة لكسب أكبر عدد ممكن من الناس.
قد يكون هذا يتماشى مع فلسفة هابرماس. إذا نظرت إلى ما وراء عدد لا يحصى من المفاهيم المجردة الموجودة دائمًا في المثالية الألمانية، فإنها تقدم رؤية قاتمة جدًا للعالم. “النظام”، مدفوعًا بسلطة وأموال الشركات والسياسيين الفاسدين، يسعى لاستعمار “عالم الحياة”، وهو ما يعادل تقريبًا المجال الخاص الذي نتشاركه مع عائلاتنا وأصدقائنا ومجتمعاتنا. الطريقة التي تنجز بها الأمور في “عالم الحياة” هي من خلال السعي إلى الإجماع، وآلة هابرماس، وفقًا لـ DeepMind، تهدف إلى المساعدة في ذلك. من ناحية أخرى، فإن الطريقة التي تنجز بها الأمور في “النظام” هي من خلال النجاح – لعبه كلعبة والقيام بكل ما يلزم للفوز دون أي قيود، ويبدو أن آلة هابرماس يمكنها المساعدة في ذلك أيضًا.
تواصل فريق DeepMind مع هابرماس لإشراكه في المشروع. لقد أرادوا معرفة ما سيقوله عن نظام الذكاء الاصطناعي الذي يحمل اسمه. لكن هابرماس لم يعد إليهم أبدًا. يقول سمرفيلد: “من الواضح أنه لا يستخدم رسائل البريد الإلكتروني”.
العلوم، 2024. DOI:”https://doi.org/10.1126/science.adq2852″>10.1126/science.adq2852
“http://arstechnica.com/wp-content/uploads/2024/03/jacek_krywko.jpg” البديل=”Photo of Jacek Krywko”>
جاسيك كريوكو عالم مستقل كاتب إلكتروني وتكنولوجي يغطي استكشاف الفضاء وأبحاث الذكاء الاصطناعي وعلوم الكمبيوتر وجميع أنواع السحر الهندسي.