بواسطة مارتي سوانت • 12 فبراير 2024 • 4 دقائق للقراءة •
آيفي ليو
أعلن مقدمو خدمات الذكاء الاصطناعي والهيئات الحكومية عن سلسلة من الجهود الرامية إلى تعزيز دفاعات الإنترنت ضد المعلومات الخاطئة الناتجة عن الذكاء الاصطناعي.
في الأسبوع الماضي، أعلن كبار اللاعبين في مجال الذكاء الاصطناعي عن أدوات جديدة للشفافية والكشف عن محتوى الذكاء الاصطناعي. بعد ساعات من خطط Meta التفصيلية لـ وضع العلامات على صور الذكاء الاصطناعي من المنصات الخارجية، قالت OpenAI إنها ستبدأ في تضمين البيانات الوصفية للصور التي تم إنشاؤها بواسطة ChatGPT وواجهة برمجة التطبيقات الخاصة بها لـ DALL-E. وبعد أيام، أعلنت جوجل أنها ستنضم إلى اللجنة التوجيهية للائتلاف من أجل مصدر المحتوى والأصالة (C2PA)، وهي مجموعة رئيسية تضع معايير لأنواع مختلفة من محتوى الذكاء الاصطناعي. ستبدأ Google أيضًا في دعم بيانات اعتماد المحتوى (CC) – وهو نوع من “تصنيف التغذية” لمحتوى الذكاء الاصطناعي الذي تم إنشاؤه بواسطة C2PA ومبادرة مصادقة المحتوى (CAI). أدوبي، التي أسست شركة CAI في عام 2019، لاول مرة تحديثا رئيسيا لـ CC في أكتوبر.
وكانت التحديثات جديرة بالملاحظة بشكل خاص على عدة جبهات من خلال إدخال منصات التوزيع الرئيسية في عملية التقييس. يمكن أن يساعد تحقيق المشاركة على مستوى النظام الأساسي أيضًا في تعزيز الاعتماد السائد لمعايير الذكاء الاصطناعي ومساعدة الأشخاص على فهم أفضل لكيفية معرفة ما إذا كان المحتوى حقيقيًا أم مزيفًا. وقال آندي بارسونز، كبير مديري CAI، إن الشركات العملاقة مثل Google تساعد في “تأثير كرة الثلج” اللازم لتحسين النظام البيئي للمعلومات على الإنترنت. كما يتطلب أيضًا المواءمة بين الشركات والباحثين والجهات الحكومية المختلفة.
إن قيام موفري نماذج الذكاء الاصطناعي الرئيسيين بتصميم واستخدام معايير C2PA يساعد أيضًا في تعزيز الاعتماد الموحد عبر منصات إنشاء المحتوى والتوزيع. وأشار بارسونز إلى أن منصة Firefly الخاصة بشركة Adobe كانت متوافقة بالفعل مع C2PA عندما تم إطلاقها العام الماضي.
قال بارسونز لموقع Digiday: “يريد مقدمو النماذج الكشف عن النموذج الذي تم استخدامه والتأكد من أنه في الحالات التي يحتاجون فيها إلى تحديد ما إذا كان نموذجهم قد أنتج شيئًا ما – سواء كان جديرًا بالنشر أو أحد المشاهير أو أي شيء آخر – فإنهم يريدون أن يكونوا قادرين على القيام بذلك”.
تبحث الوكالات الحكومية أيضًا عن طرق لمنع المعلومات الخاطئة الناتجة عن الذكاء الاصطناعي. في الأسبوع الماضي، لجنة الاتصالات الفيدرالية محظور الأصوات التي تم إنشاؤها بواسطة الذكاء الاصطناعي في المكالمات الآلية – مما يجعلها غير قانونية بموجب قانون حماية المستهلك الهاتفي – في أعقاب المكالمات الآلية العميقة الأخيرة التي قام بها الذكاء الاصطناعي والتي تشبه الرئيس جو بايدن. في هذه الأثناء، البيت الأبيض أعلن وقد انضم أكثر من 200 شخص إلى اتحاد جديد للذكاء الاصطناعي، بما في ذلك العديد من الجامعات والشركات والمنظمات الأخرى. والمفوضية الأوروبية كذلك جمع وجهات النظر لإرشادات DSA الخاصة بها بشأن نزاهة الانتخابات.
ويشكل الاستهداف السياسي الجزئي المدعوم بالذكاء الاصطناعي مصدر قلق حقيقي. أقرت المجالس التشريعية في الولاية قوانين جديدة تتعلق بالإعلانات السياسية المتعلقة بالذكاء الاصطناعي. وقد قدم أعضاء الكونجرس أيضًا تشريعات، ولكن حتى الآن لم يكتسب أي منها زخمًا. وفقا ل دراسة حديثة تم عمل تقرير بواسطة الصحافة سياسة التكنولوجيا، يمكن استخدام نماذج اللغة الكبيرة لتطوير حملات إعلانية سياسية سهلة وفعالة وموجهة بشكل دقيق على منصات مثل Facebook. وفي الأسبوع الماضي، حث مجلس الرقابة شبه المستقل الخاص بشركة ميتا الشركة على “إعادة النظر بسرعة” في سياساتها الإعلامية التي تم التلاعب بها فيما يتعلق بالمحتوى المصنوع باستخدام الذكاء الاصطناعي – وحتى بدون الذكاء الاصطناعي.
تساعد مصادقة محتوى الذكاء الاصطناعي على تعزيز الثقة والشفافية، لكن الخبراء يقولون إنه من الأهم منع الجهات الفاعلة السيئة من توزيع معلومات مضللة عبر وسائل التواصل الاجتماعي والبحث. ومع ذلك، فإن الكشف الدقيق عن التزييف العميق للذكاء الاصطناعي وعمليات الاحتيال المستندة إلى النصوص ليس بالأمر السهل.
قال جوش لوسون، مدير مبادرة الذكاء الاصطناعي والديمقراطية التابعة لمعهد أسبن، إن الحد من توزيع المعلومات الخاطئة المتعلقة بالذكاء الاصطناعي أمر بالغ الأهمية. في حين أن معايير إنشاء محتوى الذكاء الاصطناعي تعتبر “نظافة كبيرة” للمنصات الرئيسية، إلا أنه قال إنها لا تمنع الجهات الفاعلة السيئة من إنشاء محتوى ذكاء اصطناعي مثير للمشاكل باستخدام نماذج ذكاء اصطناعي مفتوحة المصدر ومكسورة. وشبه العرض والطلب على المعلومات المضللة بالساعة الرملية.
وقال لوسون: “نحن نرى الذكاء الاصطناعي التوليدي كقوة من شأنها أن تزيد من العرض، ولكن لا يزال يتعين عليه أن يصل إلى الناس”. “إذا لم تتمكن من إيصاله إلى الناس، فلن تتمكن من التأثير على الانتخابات”.
قد تؤدي المخاوف بشأن الذكاء الاصطناعي إلى صرف الانتباه عن المخاوف المستمرة بشأن الخصوصية عبر الإنترنت. في بريد في برنامج X الأسبوع الماضي، ذكرت ميريديث ويتاكر، رئيسة تطبيق المراسلة الخصوصية Signal، أن التركيز على التزييف العميق في عام الانتخابات هو “إلهاء، وتجاهل الدور الموثق لإعلانات المراقبة”. وأشارت أيضًا إلى أن شركات مثل ميتا وجوجل – التي تراجعت أيضًا في السنوات الأخيرة عن قيود الإعلانات السياسية – يمكن أن تستفيد من عوامل التشتيت.
وكتب ويتاكر: “بعبارة أخرى، التزييف العميق ليس موجودًا هنا ولا هناك ما لم يكن لديك منصة + أدوات لنشره بشكل استراتيجي”.
المطالبات والمنتجات: أخبار وإعلانات الذكاء الاصطناعي
- أعادت Google تسمية برنامج Bard chatbot الخاص بها إلى Gemini كجزء من توسع كبير لنموذجها اللغوي الكبير الرائد. كما أعلنت أيضًا عن إمكانات جديدة للذكاء الاصطناعي عبر مختلف منتجات وخدمات Google.
- استخدمت شركات التكنولوجيا جمهور Super Bowl LVIII السائدلتسويق ميزات الذكاء الاصطناعي الجديدة بينما استخدم المعلنون غير التقنيين الذكاء الاصطناعي التوليدي لإنشاء حملات للعبة الكبيرة في محاولة للتميز. من بين معلني Super Bowl الذين لديهم ميزات الذكاء الاصطناعي لتسويق الإعلانات التجارية Microsoft وGoogle وSamsung وCrowdstrike وEtsy.
- وصلت بالفعل تطبيقات الواقع المختلط المدعومة بالذكاء الاصطناعي التوليدي إلى سماعة الرأس Apple Vision Pro. تشمل الأمثلة المبكرة ChatGPT وWayfair وAdobe Firefly.
- جديد تقرير من ويليام بلير يفحص تأثير الذكاء الاصطناعي التوليدي على المؤسسات.
- واصل مقدمو خدمات الإعلان والتواصل الاجتماعي والسحابة الترويج للذكاء الاصطناعي التوليدي في نتائج الأرباح المختلفة ومكالمات المستثمرين. تتضمن أمثلة الأسبوع الماضي Omnicom وIPG وSnap Inc. وPinterest وCognizant وConfluent. ومع ذلك، الرئيس التنفيذي لشركة أمازون السحابية الخاصة يحذر يمكن أن يصل الضجيج المولد للذكاء الاصطناعي إلى أبعاد فقاعة الدوت كوم.
https://digiday.com/?p=534642