إن التوصل إلى إجماع في أي دولة ديمقراطية أمر صعب لأن الناس يحملون وجهات نظر أيديولوجية وسياسية واجتماعية مختلفة.
ربما يمكن لأداة الذكاء الاصطناعي أن تساعد. قام باحثون من Google DeepMind بتدريب نظام من النماذج اللغوية الكبيرة (LLMs) للعمل بمثابة “وسيط تجمعي”، حيث يقوم بتوليد ملخصات تحدد مجالات الاتفاق بين المجموعة حول قضايا اجتماعية أو سياسية معقدة ولكنها مهمة.
ويقول الباحثون إن الأداة – التي أطلق عليها اسم آلة هابرماس (HM)، على اسم الفيلسوف الألماني يورغن هابرماس – تسلط الضوء على إمكانات الذكاء الاصطناعي لمساعدة مجموعات من الناس على إيجاد أرضية مشتركة عند مناقشة مثل هذه المواضيع.
يقول مايكل هنري تيسلر، عالم الأبحاث في Google DeepMind: “تم تدريب نموذج اللغة الكبير على تحديد وتقديم مجالات التداخل بين الأفكار التي يحملها أعضاء المجموعة”. “لم يتم تدريبها لتكون مقنعة ولكن للعمل كوسيط.” ويتم نشر الدراسة اليوم في المجلة”https://www.science.org/doi/10.1126/science.adq2852?adobe_mc=MCMID%3D01382074464471345002187185657149977247%7CMCORGID%3D242B6472541199F70A4C98A6%2540AdobeOrg%7CTS%3D1729152064″>علوم.
قامت Google DeepMind بتجنيد 5734 مشاركًا، بعضهم من خلال منصة أبحاث التعهيد الجماعي والبعض الآخر من خلال مؤسسة Sortition Foundation، وهي منظمة غير ربحية تنظم تجمعات المواطنين. شكلت مجموعات الفرز عينة تمثيلية ديموغرافيًا لسكان المملكة المتحدة.
يتكون HM من درجتين مختلفتين من LLM تم ضبطهما لهذه المهمة. الأول هو النموذج التوليدي، وهو يقترح بيانات تعكس وجهات النظر المتنوعة للمجموعة. والثاني هو نموذج المكافأة الشخصية، الذي يسجل العبارات المقترحة حسب مدى اعتقاده بأن كل مشارك سيتفق معها.
قام الباحثون بتقسيم المشاركين إلى مجموعات واختبروا HM في خطوتين: أولاً من خلال معرفة ما إذا كان بإمكانه تلخيص الآراء الجماعية بدقة ثم من خلال التحقق مما إذا كان يمكنه أيضًا التوسط بين المجموعات المختلفة ومساعدتهم على إيجاد أرضية مشتركة.
في البداية، طرحوا أسئلة مثل “هل يجب أن نخفض سن التصويت إلى 16 عامًا؟” أو “هل ينبغي خصخصة الخدمة الصحية الوطنية؟” قدم المشاركون ردودًا على جلالة الملك قبل مناقشة وجهات نظرهم ضمن مجموعات مكونة من حوالي خمسة أشخاص.
ولخص جلالة الملك آراء المجموعة؛ ثم تم إرسال هذه الملخصات إلى الأفراد لنقدها. وفي النهاية، أصدر جلالة الملك مجموعة نهائية من البيانات، وقام المشاركون بتصنيفها.
ثم شرع الباحثون في اختبار ما إذا كان بإمكان HM أن يعمل كأداة وساطة مفيدة للذكاء الاصطناعي.
تم تقسيم المشاركين إلى مجموعات مكونة من ستة أشخاص، مع تعيين مشارك واحد في كل منها بشكل عشوائي لكتابة بيانات نيابة عن المجموعة. تم تعيين هذا الشخص “الوسيط”. في كل جولة من المداولات، عُرض على المشاركين بيان واحد من الوسيط البشري وبيان واحد تم إنشاؤه بواسطة الذكاء الاصطناعي من جلالة الملك وتم سؤالهم عما يفضلونه.
وفي أكثر من نصف الحالات (56%)، اختار المشاركون عبارة الذكاء الاصطناعي. ووجدوا أن هذه التصريحات ذات جودة أعلى من تلك التي يصدرها الوسيط البشري ويميلون إلى تأييدها بقوة أكبر. وبعد التداول بمساعدة وسيط الذكاء الاصطناعي، كانت المجموعات الصغيرة من المشاركين أقل انقسامًا في مواقفهم بشأن القضايا.
على الرغم من أن البحث يوضح أن أنظمة الذكاء الاصطناعي جيدة في إنشاء ملخصات تعكس آراء المجموعة، فمن المهم أن ندرك أن فائدتها لها حدود، كما يقول جونجي شين، الباحث في جامعة آلتو الذي يدرس الذكاء الاصطناعي التوليدي.
ويقول: “ما لم يكن الموقف أو السياق مفتوحًا بشكل واضح جدًا، حتى يتمكنوا من رؤية المعلومات التي تم إدخالها في النظام، وليس فقط الملخصات التي ينتجها، أعتقد أن هذا النوع من الأنظمة يمكن أن يسبب مشكلات أخلاقية”.
لم يخبر Google DeepMind المشاركين صراحةً في تجربة الوسيط البشري أن نظام الذكاء الاصطناعي سيُصدر بيانات رأي جماعية، على الرغم من أنه أشار في نموذج الموافقة إلى أن الخوارزميات ستشارك.
“It’s also important to acknowledge that the model, in its current form, is limited in its capacity to handle certain aspects of real-world deliberation,” Tessler says. “For example, it doesn’t have the mediation-relevant capacities of fact-checking, staying on topic, or moderating the discourse.”
إن معرفة أين وكيف يمكن استخدام هذا النوع من التكنولوجيا في المستقبل سوف يتطلب المزيد من البحث لضمان النشر المسؤول والآمن. وتقول الشركة إنها لا تخطط لإطلاق النموذج علنًا.