من فضلك تسجيل الدخول أو تسجيل لتفعل ذلك.

ملاحظات المحررين

تمت مراجعة هذه المقالة وفقًا لمجلة Science X عملية التحريرو سياسات.المحررين وقد أبرزت السمات التالية مع ضمان مصداقية المحتوى:

التحقق من الحقيقة

مصدر موثوق

كتبها الباحث (الباحثين)

التدقيق اللغوي

بقلم جوليان كوبلين، المحادثة

الائتمان: Unsplash / CC0 المجال العام

إذا بحثت في Google Scholar عن عبارة “كنموذج لغة الذكاء الاصطناعي“، ستجد الكثير من المؤلفات البحثية حول الذكاء الاصطناعي وأيضًا بعض النتائج المشبوهة إلى حد ما. على سبيل المثال، واحدة ورق على التكنولوجيا الزراعية يقول،

“باعتباري نموذجًا للغة الذكاء الاصطناعي، ليس لدي إمكانية الوصول المباشر إلى المقالات أو الدراسات البحثية الحالية. ومع ذلك، يمكنني أن أقدم لك نظرة عامة على بعض الاتجاهات والتطورات الحديثة…”

مثل هذه الزلات الواضحة ليست هي العلامات الوحيدة التي تشير إلى أن الباحثين يتجهون بشكل متزايد إلى أدوات الذكاء الاصطناعي التوليدية عند كتابة أبحاثهم. أ دراسة حديثة فحصت تكرار كلمات معينة في الكتابة الأكاديمية (مثل “جدير بالثناء” و”بدقة” و”معقدة”)، ووجدت أنها أصبحت أكثر شيوعًا بعد إطلاق ChatGPT – لدرجة أن 1% من جميع المقالات الصحفية المنشورة في ربما يحتوي عام 2023 على نص تم إنشاؤه بواسطة الذكاء الاصطناعي.

(لماذا تبالغ نماذج الذكاء الاصطناعي في استخدام هذه الكلمات؟ المضاربة بل لأنها أكثر شيوعًا في اللغة الإنجليزية كما هي منطوقة في نيجيريا، حيث غالبًا ما تحدث العناصر الأساسية للتدريب النموذجي.)

تبحث الدراسة المذكورة أعلاه أيضًا في البيانات الأولية من عام 2024، والتي تشير إلى أن المساعدة في الكتابة باستخدام الذكاء الاصطناعي أصبحت أكثر شيوعًا. هل هذه أزمة للمنح الدراسية الحديثة، أم نعمة للإنتاجية الأكاديمية؟

من يجب أن يحصل على الفضل في الكتابة بالذكاء الاصطناعي؟

يشعر الكثير من الناس بالقلق من استخدام الذكاء الاصطناعي في الأوراق الأكاديمية. في الواقع، تم وصف هذه الممارسة بأنها “تلويث“الأدب العلمي.

يجادل البعض بأن استخدام مخرجات الذكاء الاصطناعي يعد بمثابة سرقة أدبية. إذا تم نسخ أفكارك ولصقها من ChatGPT، فمن المشكوك فيه ما إذا كنت تستحق حقًا الثناء عليها.

ولكن هناك اختلافات مهمة بين النص “السرقة” الذي كتبه البشر والنص الذي كتبه الذكاء الاصطناعي. أولئك الذين يسرقون أعمال البشر يحصلون على الفضل في الأفكار التي كان ينبغي أن تذهب إلى المؤلف الأصلي.

على النقيض من ذلك، هناك جدل حول ما إذا كانت أنظمة الذكاء الاصطناعي مثل ChatGPT قادرة على ذلك أم لا يملك الأفكار، ناهيك عن استحقاق الفضل لها. تشبه أداة الذكاء الاصطناعي وظيفة الإكمال التلقائي في هاتفك أكثر من كونها باحثًا بشريًا.

مسألة التحيز

مصدر قلق آخر هو أن مخرجات الذكاء الاصطناعي قد تكون متحيزة بطرق يمكن أن تتسرب إلى السجل العلمي. نماذج اللغة القديمة سيئة السمعة تميل إلى تصوير الأشخاص من الإناث و/أو السود و/أو المثليين بطرق غير محببة بشكل واضح، مقارنة بالأشخاص الذكور و/أو البيض و/أو المغايرين.

هذا النوع من التحيز هو أقل وضوحا في الإصدار الحالي من ChatGPT.

ومع ذلك، فقد وجدت دراسات أخرى مختلفة عطوف ل تحيز في ChatGPT و نماذج لغة كبيرة أخرى: ميل لتعكس أيديولوجية سياسية ليبرالية يسارية.

أي تحيز من هذا القبيل يمكن أن يشوه بمهارة الكتابة العلمية المنتجة باستخدام هذه الأدوات.

مشكلة الهلوسة

ويتعلق مصدر القلق الأكثر خطورة بالقيود المعروفة لأنظمة الذكاء الاصطناعي التوليدية: وهي أنها غالبا ما ترتكب أخطاء جسيمة.

على سبيل المثال، عندما طلبت من ChatGPT-4 إنشاء صورة ASCII للفطر، زودني بالإخراج التالي.

ثم أخبرني بثقة أنه يمكنني استخدام صورة “الفطر” هذه لأغراضي الخاصة.

تمت الإشارة إلى هذه الأنواع من أخطاء الثقة المفرطة باسم “هلوسة الذكاء الاصطناعي” و”هراء منظمة العفو الدولية“. على الرغم من أنه من السهل ملاحظة أن صورة ASCII أعلاه لا تشبه الفطر (وتشبه الحلزون إلى حد ما)، إلا أنه قد يكون من الصعب جدًا تحديد أي أخطاء يرتكبها ChatGPT عندما مسح الأدبيات العلمية أو وصف حالة النقاش الفلسفي.

على عكس (معظم) البشر، فإن أنظمة الذكاء الاصطناعي غير مهتمة بشكل أساسي بحقيقة ما يقولونه. إذا تم استخدامها بلا مبالاة، فإن هلوساتهم يمكن أن تفسد السجل العلمي.

هل ينبغي حظر النص الذي ينتجه الذكاء الاصطناعي؟

كان أحد الاستجابات لظهور مولدات النصوص هو حظرها تمامًا. على سبيل المثال، لا تسمح مجلة Science – إحدى المجلات الأكاديمية الأكثر تأثيرًا في العالم – بذلك أي استخدام للنص الذي تم إنشاؤه بواسطة الذكاء الاصطناعي.

أرى مشكلتين في هذا النهج.

المشكلة الأولى هي مشكلة عملية: فالأدوات الحالية للكشف عن النصوص التي ينشئها الذكاء الاصطناعي لا يمكن الاعتماد عليها إلى حد كبير. يتضمن ذلك الكاشف الذي أنشأه مطورو ChatGPT، والذي كان اتخذت حاليا بعد أن وجد أن معدل الدقة يبلغ 26٪ فقط (و 9% معدل إيجابي كاذب). البشر أيضا ارتكاب الاخطاء عند تقييم ما إذا كان هناك شيء ما مكتوب بواسطة الذكاء الاصطناعي.

من الممكن أيضًا التحايل على أجهزة كشف النص التي تعمل بالذكاء الاصطناعي. المجتمعات عبر الإنترنت هي استكشاف بنشاط كيفية مطالبة ChatGPT بطرق تسمح للمستخدم بتجنب الكشف. يمكن للمستخدمين البشر أيضًا إعادة كتابة مخرجات الذكاء الاصطناعي بشكل سطحي، مما يؤدي بشكل فعال إلى إزالة آثار الذكاء الاصطناعي (مثل الإفراط في استخدام الكلمات “جديرة بالثناء” و”بدقة” و”معقدة”).

المشكلة الثانية هي أن حظر الذكاء الاصطناعي التوليدي بشكل كامل يمنعنا من تحقيق فوائد هذه التكنولوجيات. إذا تم استخدامه بشكل جيد، يمكن للذكاء الاصطناعي التوليدي أن يفعل ذلك تعزيز الإنتاجية الأكاديمية من خلال تبسيط عملية الكتابة. وبهذه الطريقة، يمكن أن يساعد في تعزيز المعرفة الإنسانية. ومن الناحية المثالية، ينبغي لنا أن نحاول جني هذه الفوائد مع تجنب المشاكل.

المشكلة تكمن في ضعف مراقبة الجودة، وليس الذكاء الاصطناعي

المشكلة الأكثر خطورة في الذكاء الاصطناعي هي خطر ارتكاب أخطاء غير ملحوظة، مما يؤدي إلى تقديم معلومات غير دقيقة. وبدلا من حظر الذكاء الاصطناعي، ينبغي لنا أن نحاول التأكد من أن الادعاءات الخاطئة أو غير المعقولة أو المتحيزة لا يمكن أن تصل إلى السجل الأكاديمي.

ففي نهاية المطاف، يمكن للبشر أيضًا أن ينتجوا كتابات تحتوي على أخطاء جسيمة، وبآليات مثل مراجعة الأقران غالبا ما تفشل لمنع نشره.

نحن بحاجة إلى أن نتحسن في ضمان خالية من الأخطاء الجسيمة، بغض النظر عما إذا كانت هذه الأخطاء ناجمة عن الاستخدام المهمل للذكاء الاصطناعي أو البحث البشري غير المتقن. وهذا ليس أكثر قابلية للتحقيق من مراقبة استخدام الذكاء الاصطناعي فحسب، بل إنه سيحسن معايير البحث الأكاديمي ككل.

سيكون هذا (كما قد يقول ChatGPT) حلاً جديرًا بالثناء ومعقدًا للغاية.

أعيد نشر هذه المقالة من المحادثة تحت رخصة المشاع الإبداعي. إقرأ ال المقالة الأصلية.

اقرأ أكثر

الأسهم السبعة الرائعة: Nvidia، Tesla Rally؛ جوجل، ميتا سلايد
حذفت شركة جوجل عن طريق الخطأ حساب صندوق التقاعد الذي تبلغ قيمته 125 مليار دولار

Reactions

0
0
0
0
0
0
بالفعل كان رد فعل لهذا المنصب.

ردود الفعل