من فضلك تسجيل الدخول أو تسجيل لتفعل ذلك.

هذا العام، خسرت شركة طيران كندا دعوى قضائية ضد”https://www.theguardian.com/world/2024/feb/16/air-canada-chatbot-lawsuit” الهدف=”_blank” rel=”nofollow noopener”> العميل الذي تم تضليله بواسطة روبوت محادثة الذكاء الاصطناعي في عام 2011، اتهمت شركة الطيران الروبوت بشراء تذاكر طيران كاملة الثمن، مع ضمان استردادها لاحقًا بموجب سياسة الشركة الخاصة بالحزن. حاولت شركة الطيران الادعاء بأن الروبوت “مسؤول عن أفعاله”. رفضت المحكمة هذا الخط من الحجج ولم تضطر الشركة إلى دفع تعويضات فحسب، بل تلقت أيضًا انتقادات عامة لمحاولتها إبعاد نفسها عن الموقف. من الواضح أن الشركات مسؤولة عن نماذج الذكاء الاصطناعي، حتى عندما ترتكب أخطاء خارجة عن إرادتنا.

العالم يتقدم بسرعة”https://thenextweb.com/artificial-intelligence” الهدف=”_blank” rel=”noopener”>الذكاء الاصطناعيإن الذكاء الاصطناعي، وخاصة الذكاء الاصطناعي التوليدي، ينظر إليه أصحاب الأعمال بمزيج من الرهبة والخوف. ويُنظر إلى الذكاء الاصطناعي باعتباره سلاحًا ذا حدين، حيث يُنظر إليه باعتباره محفزًا لديه القدرة على تسريع الإنتاجية، مما يسمح لك بالقيام بالمزيد بموارد أقل؛ ولكن مع وجود عقبات يمكن أن تؤدي إلى مشكلات تتراوح من عدم رضا العملاء إلى الدعاوى القضائية.

وهذا ما أصبح يُعرف شعبياً باسم “هلوسات الذكاء الاصطناعي”، أو عندما يقدم نموذج الذكاء الاصطناعي إجابات غير صحيحة أو غير ذات صلة أو لا معنى لها.

“لحسن الحظ، هذه المشكلة ليست منتشرة على نطاق واسع. فهي تحدث فقط بنسبة 2% إلى 10% من الوقت في أعلى المستويات. ولكنها مع ذلك قد تكون خطيرة للغاية في”https://thenextweb.com/business” الهدف=”_blank” rel=”noopener”>الأعمال يقول عمرو عوض الله، خبير الذكاء الاصطناعي الذي من المقرر أن يلقي محاضرة في”https://vds.tech/” الهدف=”_blank” rel=”nofollow noopener”>VDS2024 على كيف يعمل Gen-AI على تحويل الأعمال وتجنب المزالق

ال

أحدث الهمهمات من عالم التكنولوجيا في الاتحاد الأوروبي، وقصة من مؤسسنا الحكيم بوريس، وبعض فنون الذكاء الاصطناعي المثيرة للشكوك. كل هذا مجانًا، كل أسبوع، في بريدك الإلكتروني. اشترك الآن!

لكن أغلب خبراء الذكاء الاصطناعي لا يحبون هذا المصطلح. فالمصطلحات وما وراءها، أي سوء فهمنا لكيفية حدوث هذه الأحداث، قد تؤدي إلى مخاطر قد تمتد آثارها إلى المستقبل.

بصفته نائب الرئيس السابق لهندسة ذكاء المنتج في Yahoo! ونائب الرئيس للعلاقات مع المطورين في Google Cloud، شهد عوض الله تطور التكنولوجيا طوال حياته المهنية ومنذ ذلك الحين أسس”https://vectara.com/” الهدف=”_blank” rel=”nofollow noopener”>فيكتارا، وهي شركة تركز على استخدام تقنيات الذكاء الاصطناعي والشبكات العصبية لمعالجة اللغة الطبيعية لمساعدة الشركات على الاستفادة من الفوائد التي يمكن أن تجلبها أهمية البحث.

تحدثنا معه للحصول على بعض الوضوح حول سبب كون هذا المصطلح مثيرًا للجدل، وما الذي تحتاج الشركات إلى فهمه حول “هلوسة الذكاء الاصطناعي”، وما إذا كان من الممكن حلها أم لا.

لماذا لا “تهلوس” نماذج الذكاء الاصطناعي؟

إن استخدام مصطلح الهلوسة يعني أنه عندما يقدم نموذج الذكاء الاصطناعي معلومات خاطئة، فإنه يرى أو يشعر بشيء غير موجود. ولكن هذا ليس ما يحدث خلف سطور التعليمات البرمجية التي تضع هذه النماذج موضع التشغيل.

من الشائع جدًا أن نقع نحن البشر في هذا النوع من الفخاخ. إن التشبيه، أو الميل الفطري إلى نسب السمات البشرية أو المشاعر أو النوايا إلى كيانات غير بشرية، هو آلية نستخدمها للتعامل مع المجهول، من خلال النظر إليه من خلال عدسة بشرية. استخدمها الإغريق القدماء لنسب الخصائص البشرية إلى الآلهة؛ واليوم، من المرجح أن نستخدمها لتفسير تصرفات حيواناتنا الأليفة.

هناك خطر خاص يتمثل في أن نقع في هذا الفخ مع الذكاء الاصطناعي، فهو تقنية أصبحت منتشرة على نطاق واسع في مجتمعنا في وقت قصير للغاية، ولكن قِلة قليلة من الناس يفهمون ما هي وكيف تعمل. ولكي تتمكن عقولنا من استيعاب مثل هذا الموضوع المعقد، فإننا نستخدم طرقًا مختصرة.

“أعتقد أن وسائل الإعلام لعبت دورًا كبيرًا في ذلك لأن هذا مصطلح جذاب يخلق ضجة. لذا فقد تمسكت به وأصبح الطريقة القياسية التي نشير بها إليه الآن”، كما يقول عوض الله.

ولكن كما أن افتراض أن اهتزاز الذيل في عالم الحيوان يعني الود، فإن سوء تفسير المخرجات التي يقدمها الذكاء الاصطناعي قد يقودنا إلى المسار الخطأ.

“إنها في الواقع تنسب إلى الذكاء الاصطناعي أكثر مما هي عليه في الواقع. فهو لا يفكر بنفس الطريقة التي نفكر بها. كل ما يفعله هو محاولة التنبؤ بالكلمة التالية التي يجب أن تكون بالنظر إلى كل الكلمات السابقة التي قيلت”، كما يوضح عوض الله.

إذا كان عليه أن يطلق على هذه الظاهرة اسمًا، فسوف يطلق عليها “الاختلاق”. والاختلاق هو في الأساس إضافة كلمات أو جمل لملء الفراغات بطريقة تجعل المعلومات تبدو ذات مصداقية، حتى لو كانت غير صحيحة.

“[AI models are] “إن الروبوت لديه حافز كبير للإجابة على أي سؤال. فهو لا يريد أن يقول لك: “لا أعرف”،” كما يقول عوض الله.

والخطر هنا هو أنه في حين يسهل اكتشاف بعض التخيلات لأنها تقترب من السخافة، فإن الذكاء الاصطناعي في أغلب الأحيان يقدم معلومات يمكن تصديقها إلى حد كبير. وكلما بدأنا في الاعتماد على الذكاء الاصطناعي لمساعدتنا في تسريع الإنتاجية، كلما أصبحنا أكثر قبولاً لاستجاباته التي تبدو معقولة. وهذا يعني أن الشركات بحاجة إلى توخي الحذر بشأن تضمين الإشراف البشري لكل مهمة ينجزها الذكاء الاصطناعي، وتخصيص المزيد من الوقت والموارد وليس أقل.

إن الإجابات التي يقدمها نموذج الذكاء الاصطناعي لا تكون جيدة إلا بقدر البيانات التي يمكنه الوصول إليها ونطاق مطالبتك. ونظرًا لأن الذكاء الاصطناعي يعتمد على الأنماط داخل بيانات التدريب الخاصة به، بدلاً من التفكير، فقد تكون استجاباته قابلة للخطأ اعتمادًا على بيانات التدريب المتاحة له (سواء كانت هذه المعلومات غير صحيحة أو كانت البيانات المتوفرة لديه قليلة حول هذا الاستعلام المعين) أو قد تعتمد على طبيعة وسياق الاستعلام أو المهمة. على سبيل المثال، يمكن أن يؤدي السياق الثقافي إلى وجهات نظر واستجابات مختلفة لنفس الاستعلام.

في حالة أنظمة المعرفة ذات النطاق الضيق، أو نماذج الذكاء الاصطناعي الداخلية المصممة لاسترجاع المعلومات ضمن مجموعة محددة من البيانات، مثل النظام الداخلي للشركة، لن يكون لدى الذكاء الاصطناعي مساحة إلا لكمية معينة من الذاكرة. ورغم أن هذه كمية ذاكرة أكبر بكثير مما يمكن للإنسان الاحتفاظ به، إلا أنها ليست غير محدودة. فعندما تطرح عليه أسئلة تتجاوز نطاق ذاكرته، فسيظل لديه الحافز للإجابة من خلال التنبؤ بالكلمات التالية التي قد تكون.

هل يمكن حل مشكلة المعلومات المضللة المرتبطة بالذكاء الاصطناعي؟

لقد كان هناك الكثير من الحديث حول ما إذا كان من الممكن حل “الاختلاقات” أم لا.

يعمل عوض الله وفريقه في شركة فيكتارا على تطوير طريقة لمكافحة الاختلاقات في أنظمة المعرفة ذات النطاق الضيق. ويتم ذلك من خلال إنشاء نموذج ذكاء اصطناعي بمهمة محددة تتمثل في التحقق من صحة مخرجات نماذج الذكاء الاصطناعي الأخرى. ويُعرف هذا باسم “التوليد المعزز بالاسترجاع”.

وبطبيعة الحال، يعترف عوض الله، تمامًا كما هو الحال مع مدققي الحقائق البشريين، هناك دائمًا احتمال أن يفلت شيء ما من مدقق الحقائق الذكي، وهذا ما يُعرف بالنتائج السلبية الكاذبة.

بالنسبة لنماذج الذكاء الاصطناعي مفتوحة النطاق، مثل ChatGPT، والتي تم تصميمها لاسترجاع المعلومات حول أي موضوع عبر الامتداد الواسع للشبكة العالمية، فإن التعامل مع التخيلات أمر أكثر صعوبة بعض الشيء. نشر بعض الباحثين مؤخرًا ورقة بحثية واعدة حول”https://www.nature.com/articles/s41586-024-07421-0″ الهدف=”_blank” rel=”nofollow noopener”>استخدام “الإنتروبيا الدلالية” للكشف عن معلومات مضللة من الذكاء الاصطناعيتتضمن هذه الطريقة طرح نفس السؤال على الذكاء الاصطناعي عدة مرات وتعيين درجة بناءً على مدى اختلاف نطاق الإجابات.

مع اقترابنا أكثر فأكثر من القضاء على اختلاقات الذكاء الاصطناعي، فإن السؤال المثير للاهتمام الذي يجب أن نفكر فيه هو: هل نريد حقًا أن يكون الذكاء الاصطناعي واقعيًا وصحيحًا بنسبة 100% من الوقت؟ هل يمكن أن يؤدي تقييد استجاباته أيضًا إلى الحد من قدرتنا على استخدامه للمهام الإبداعية؟

انضم إلى عمرو عوض الله في النسخة السابعة من VDS لمعرفة المزيد حول كيفية تمكن الشركات من الاستفادة من قوة الذكاء الاصطناعي التوليدي، مع تجنب المخاطر، في”https://vds.tech/” الهدف=”_blank” rel=”nofollow noopener”>VDS2024 المقرر انعقاده يومي 23 و24 أكتوبر في فالنسيا.

اقرأ المزيد

إليك ما هو غير قانوني بموجب قوانين الذكاء الاصطناعي الثمانية الجديدة في كاليفورنيا (والعدد في تزايد)
الولايات المتحدة ضد جوجل: محاكمة مكافحة الاحتكار في مجال تكنولوجيا الإعلان بالأرقام - حتى الآن

Reactions

0
0
0
0
0
0
بالفعل كان رد فعل لهذا المنصب.

ردود الفعل