بواسطة مارتي سوانت • 7 فبراير 2024 • 5 دقائق للقراءة •
مع انتشار المحتوى الناتج عن الذكاء الاصطناعي عبر وسائل التواصل الاجتماعي، أعلنت Meta بالأمس عن خطط لإضافة سياسات جديدة وأدوات كشف لتحسين الشفافية ومنع المحتوى الضار. ومع ذلك، يتساءل البعض عما إذا كانت هذه الجهود ستدخل حيز التنفيذ قريبًا بما فيه الكفاية أو ستكون فعالة بما يكفي لمنع الضرر.
قالت الشركة الأم لفيسبوك وإنستغرام إنها ستبدأ في تصنيف المحتوى الناتج عن منصات الذكاء الاصطناعي التابعة لشركات أخرى. إلى جانب مطالبة الأشخاص بالإفصاح عندما يتضمن المحتوى ميزات الذكاء الاصطناعي التوليدية، ستستخدم Meta أيضًا تقنية الذكاء الاصطناعي الخاصة بها لتحديد محتوى الذكاء الاصطناعي التوليدي وإنفاذ السياسات. تتضمن التغييرات المخطط لها في “الأشهر المقبلة” صور العلامات التعريفية من شركات بما في ذلك Google وAdobe وMicrosoft وOpenAI وMidjourney وShutterstock.
وكتب نيك كليج، رئيس الشؤون العالمية في ميتا، في مقال: “مع غموض الفرق بين المحتوى البشري والمحتوى الاصطناعي، يريد الناس معرفة أين تقع الحدود”. مشاركة مدونة. “غالبًا ما يصادف الأشخاص محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي للمرة الأولى، وقد أخبرنا مستخدمونا أنهم يقدرون الشفافية حول هذه التكنولوجيا الجديدة.”
ميتا الخاصة أدوات محتوى الذكاء الاصطناعي قم بالفعل بإضافة علامات مائية مرئية تلقائيًا تتضمن النص “Imagined with AI”. تضيف الشركة أيضًا علامات مائية غير مرئية وبيانات وصفية مضمنة. ومع ذلك، كما أشار كليج، لا يزال هناك عمل يتعين القيام به لضمان عدم إمكانية إزالة العلامات المائية أو تغييرها. تخطط Meta أيضًا لوضع ثقلها وراء إنشاء معايير صناعية جديدة لتحديد الصور والفيديو والصوت التي يتم إنشاؤها بواسطة الذكاء الاصطناعي. كما أنها تعمل مع منتديات مثل الشراكة بشأن الذكاء الاصطناعي، التحالف من أجل مصدر المحتوى والأصالة (C2PA) والمجلس الدولي للاتصالات الصحفية.
بعد ساعات من أخبار ميتا، OpenAI أعلن تخطط للبدء في تضمين البيانات الوصفية باستخدام مواصفات C2PA للصور التي تم إنشاؤها بواسطة ChatGPT وواجهة برمجة التطبيقات (API) الخاصة بها التي تخدم نموذج DALL-E الخاص بها. OpenAI أيضًا اعترف البيانات الوصفية “ليست الحل السحري” لمعالجة صحة المحتوى ويمكن “إزالتها بسهولة إما عن طريق الخطأ أو عن عمد”.
تأتي تحديثات Meta وسط قلق متزايد بشأن كيفية القيام بذلك المعلومات الخاطئة التي أنشأها الذكاء الاصطناعي يمكن أن يؤثر على السياسة في الولايات المتحدة وحول العالم. الشهر الماضي فقط، المكالمات الآلية في نيو هامبشاير تضمنت صوتًا مزيفًا بتقنية الذكاء الاصطناعي يشبه الرئيس الأمريكي جو بايدن وهو يحث السكان على عدم التصويت في الانتخابات التمهيدية بالولاية.
يوم الاثنين، ميتا مجلس الرقابة شبه المستقل مقترح تقوم الشركة “بإعادة النظر بسرعة” في سياساتها الإعلامية التي تم التلاعب بها فيما يتعلق بالمحتوى المصنوع باستخدام الذكاء الاصطناعي وحتى بدون الذكاء الاصطناعي. وكانت تعليقات مجلس الرقابة جزءًا من رأي يتعلق بمقطع فيديو لبايدن لم يتم تحريره باستخدام الذكاء الاصطناعي ولكنه لا يزال يتم تحريره بطرق مضللة. وأشار المجلس أيضًا إلى أهمية تحسين السياسات قبل الانتخابات المختلفة في عام 2024.
“يشعر مجلس الإدارة بالقلق إزاء سياسة التلاعب بالوسائط في شكلها الحالي، ويجدها غير متماسكة وتفتقر إلى مبرر مقنع وتركز بشكل غير مناسب على كيفية إنشاء المحتوى، بدلاً من التركيز على الأضرار المحددة التي تهدف إلى منعها (على سبيل المثال، العمليات الانتخابية)”، بحسب المجلس.
وبينما تبدأ جهود ميتا بالصور، قال كليج إن الهدف هو تضمين الفيديو والصوت لاحقًا حيث تبدأ منصات الذكاء الاصطناعي الأخرى في تصنيف أنواع أخرى من المحتوى. ومع ذلك، في الوقت الحالي، تعتمد Meta على الإفصاحات الطوعية عند تصنيف محتوى الذكاء الاصطناعي بما يتجاوز الصور فقط. وفقًا لكليج، يمكن للمستخدمين الذين لا يقومون بتسمية المحتوى الخاص بهم بشكل صحيح أن يدفعوا Meta إلى “تطبيق العقوبات”.
“إذا قررنا أن الصور أو مقاطع الفيديو أو المحتوى الصوتي التي تم إنشاؤها أو تعديلها رقميًا تشكل خطرًا كبيرًا بشكل خاص لخداع الجمهور ماديًا بشأن مسألة ذات أهمية، فقد نضيف علامة أكثر وضوحًا إذا كان ذلك مناسبًا، حتى يكون لدى الأشخاص مزيد من المعلومات والسياق”. كتب كليج.
في مستهلك 2023 استطلاع أجرته مؤسسة جارتنر، قال 89% من المشاركين إنهم يجدون صعوبة في تحديد محتوى الذكاء الاصطناعي. قالت نيكول جرين، محللة جارتنر، إن تدفق محتوى الذكاء الاصطناعي التوليدي – جنبًا إلى جنب مع عدم معرفة المستهلكين ما هو حقيقي أم لا – يجعل الشفافية أكثر أهمية. وأشارت أيضًا إلى أن ثلاثة أرباع المشاركين قالوا إنه “مهم جدًا” أو “ذو أهمية قصوى” للعلامات التجارية التي تستخدم محتوى الذكاء الاصطناعي التوليدي لتصنيفه بشكل صحيح. وهذا أعلى من ثلثي المشاركين في استطلاع سابق.
وقالت: “إننا نواجه بيئة مليئة بالتحديات فيما يتعلق بالثقة بينما نتجه نحو الدورة الانتخابية القادمة وعام الألعاب الأولمبية، حيث من المرجح أن يواجه المؤثرون والمشاهير والعلامات التجارية تهديد التزييف العميق على نطاق غير مسبوق”. “إن اكتشاف ما هو أصيل سيكون أكثر أهمية لأنه يصعب على الناس معرفته بسبب تعقيد التكنولوجيا لجعل الأشياء تبدو حقيقية.”
ليست هذه هي المرة الأولى التي تعلن فيها Meta عن تغييرات في السياسة المتعلقة بمحتوى الذكاء الاصطناعي التوليدي. وفي نوفمبر، قالت الشركة إنها ستبدأ في مطالبة المعلنين السياسيين بالكشف عن المحتوى الذي تم إنشاؤه أو تحريره باستخدام أدوات الذكاء الاصطناعي الإبداعية. ومع ذلك، فقد وجد الباحثون بالفعل أدلة على وجود محتوى ضار للذكاء الاصطناعي يتسلل عبر أدوات ميتا الخاصة. واحد جديد تقرير أظهر أمثلة استخدام أدوات Meta الخاصة لإنشاء إعلانات تستهدف المراهقين بمحتوى ضار يروج للمخدرات والكحول والتبخير واضطرابات الأكل والمقامرة. أظهر التقرير، الصادر عن مشروع الشفافية التقنية – وهو جزء من حملة المراقبة غير الحزبية من أجل المساءلة – أيضًا أمثلة إضافية على إنشاء إعلانات ذكاء اصطناعي منتجة معتمدة من ميتا والتي تنتهك سياسات المنصة ضد العنف وخطاب الكراهية.
ووفقا لكاتي بول، مديرة الشراكة عبر المحيط الهادئ، تمت الموافقة على الإعلانات المعنية في أقل من خمس دقائق. وهذا أسرع بكثير من الساعة التي استغرقتها الموافقة على إعلانات TTP غير المدعومة بالذكاء الاصطناعي عندما أجرت بحثًا مماثلاً في عام 2021. ونظرًا لمشاكل ميتا السابقة في استخدام الذكاء الاصطناعي للإشراف على المحتوى والتحقق من الحقائق، تساءل بول أيضًا عما إذا كان هناك أدلة كافية حتى الآن للقيام بذلك. معرفة ما إذا كان اكتشاف الذكاء الاصطناعي لمحتوى الذكاء الاصطناعي التوليدي سيكون فعالاً في جميع المجالات. وقالت إن باحثي TTP عثروا بالفعل على أمثلة للإعلانات السياسية التي أنشأها الذكاء الاصطناعي في مكتبة إعلانات فيسبوك والتي لم يتم تصنيفها بشكل صحيح على أنها تستخدم الذكاء الاصطناعي.
“إذا لم نتمكن من الوثوق بما كانوا يستخدمونه طوال هذه السنوات لمعالجة هذه القضايا الحرجة، فكيف يمكننا أن نثق في ادعاءات شركات مثل ميتا عندما يتعلق الأمر بالذكاء الاصطناعي التطلعي والذكاء الاصطناعي التوليدي؟” قال بول. “كيف سيتمكنون من جعل منصاتهم أكثر أمانًا باستخدام هذا النوع من التصنيف لمحتواهم؟”
https://digiday.com/?p=534163