هذه الخلاصة لبعض التطورات المثيرة للاهتمام حول الذكاء الاصطناعي التوليدي كتبها إنسان.
أقول ذلك بسبب تقرير هذا الأسبوع أن Google تعمل على أداة ذكاء اصطناعي جديدة تسمى Genesis والتي من المفترض أن تكون قادرة على كتابة القصص الإخبارية. عرضت الشركة الأداة على عدد قليل من المؤسسات الإخبارية الكبرى ، بما في ذلك The New York Times و The Washington Post و The Wall Street Journal ، بصفتها “مساعد شخصي” أو “زميل مساعد” للصحفيين الذين يمكنهم أتمتة بعض المهام. ذكرت. وقالت الصحيفة إن جينيسيس قادرة على “أخذ المعلومات – تفاصيل الأحداث الجارية ، على سبيل المثال – وإنشاء محتوى إخباري” ، نقلاً عن “أشخاص مطلعين على الأمر”.
في بيان بالبريد الإلكتروني إلى CNET، أقرت Google بأنها تستكشف كيف يمكن للذكاء الاصطناعي مساعدة ناشري الأخبار لكنها لم تقدم تفاصيل حول الأدوات التي تختبرها. قال متحدث باسم Google: “بالشراكة مع ناشري الأخبار ، وخاصة الناشرين الصغار ، نحن في المراحل الأولى من استكشاف الأفكار لتوفير أدوات ممكّنة للذكاء الاصطناعي لمساعدة الصحفيين في عملهم”. “هذه الأدوات لا يقصد منها ، ولا يمكنها ، أن تحل محل الدور الأساسي الذي يلعبه الصحفيون في إعداد التقارير ، وكتابة مقالاتهم والتحقق منها.”
وقالت الصحيفة إن الأشخاص الذين شاهدوا عرض جوجل وصفوه بأنه “مقلق” لأنه “يبدو أنه يعتبر أمرا مفروغا منه الجهد المبذول في إنتاج قصص إخبارية دقيقة ومبدعة”. مصدر قلق آخر: يمكن لـ Google ، التي تحدد الأخبار التي يراها المستخدمون أعلى نتائج البحث ، إعطاء الأفضلية للأخبار التي تستخدم Genesis.
من المؤكد أن العديد من الناشرين ، بما في ذلك The Post و The Journal و The Associated Press و NPR و Insider و CNET ، يقومون بتجربة أدوات genAI لمعرفة كيف يمكنهم مساعدة المراسلين من خلال إنشاء كل شيء من العناوين الرئيسية إلى ملخصات القصص إلى الملخصات الروتينية للأحداث الرياضية ونتائج الانتخابات. يمكن لأدوات الذكاء الاصطناعي أن تساعد المؤسسات الإعلامية ، التي كانت تقلل عدد موظفيها في خضم سوق الإعلانات المليء بالتحديات ، على مواكبة دورة الأخبار على مدار الساعة طوال أيام الأسبوع.
لكن جهود Google تأتي في الوقت الذي انتقدت فيه الحكومات محرك البحث العملاق لعدم منح “منافذ الأخبار شريحة أكبر من عائدات إعلاناتها” ، وكما تنادي المواقع الإخبارية Google (وشركات الذكاء الاصطناعي الأخرى) “لامتصاص” محتواها التحريري لتدريب أنظمة الذكاء الاصطناعي الخاصة بهم دون إذن و “دون تعويض الناشرين” ، كما أشارت التايمز.
علاوة على ذلك ، فإن chatbot من Google ، Bard ، الذي يوفر إجابات أكثر تعقيدًا على استعلامات بحث المستخدمين ، يثير بالفعل مخاوف الناشر لأنه قد يعني أن Google لا تحتاج إلى إرسال المستخدمين إلى مصادر موثوقة للحصول على إجابات ، مثل مصادر مثل ناشري الأخبار.
كيف ستنتهي هذه القصة؟ لست متأكدًا حتى من أن الذكاء الاصطناعي يمكنه التنبؤ بذلك في هذه المرحلة.
7 شركات تقنية توقع على تعهد السلامة من البيت الأبيض
جاءت الأخبار الكبيرة الأخرى لهذا الأسبوع يوم الجمعة عندما اتفقت سبع شركات تقنية للذكاء الاصطناعي – أمازون وجوجل وميتا ومايكروسوفت وصانع ChatGPT OpenAI و Anthropic and Inflection – مع مطالبة إدارة جو بايدن بالسماح لـ “خبراء الأمن المستقلين باختبار أنظمتهم قبل إصدارها للجمهور والالتزام بمشاركة البيانات حول سلامة أنظمتها مع الحكومة والأكاديميين ،” ذكرت صحيفة واشنطن بوست. “وتعهدت الشركات أيضًا بتطوير أنظمة لتنبيه الجمهور عند إنشاء صورة أو مقطع فيديو أو نص بواسطة الذكاء الاصطناعي ، وهي طريقة تُعرف باسم” العلامة المائية “.
قال جيف زينتس ، رئيس موظفي البيت الأبيض ، “الشركات الأمريكية تقود العالم في الابتكار ، ولديها مسؤولية للقيام بذلك والاستمرار في القيام بذلك ، لكن لديهم مسؤولية متساوية لضمان أن منتجاتهم آمنة ومأمونة وجديرة بالثقة” ، قال في مقابلة مع NPR.
تأتي الضمانات التقنية حول أمان الذكاء الاصطناعي في الوقت الذي تقول فيه الحكومات والذكاء الاصطناعي والتكنولوجيا وخبراء آخرون إن أنظمة الذكاء الاصطناعي التوليدية قد تشكل مخاطر جسيمة على البشرية وأن الشركات التي تنشئ هذه الأنظمة يجب أن تخضع للتنظيم. لم يقدم الكونجرس بشكل عام “تشريعًا شاملاً” لتنظيم وادي السليكون ، كما أشارت الصحيفة ، مضيفة أن السناتور تشاك شومر قد أنشأ لجنة من الحزبين للنظر فيإنشاء قواعد جديدة حول الذكاء الاصطناعي.
قيد التدقيق بالفعل من قِبل لجنة التجارة الفيدرالية (FTC) بسبب برنامج الدردشة ChatGPT الخاص بها ، غردت شركة OpenAI أن تعهد البيت الأبيض يُظهر أن شركات الذكاء الاصطناعي قد وافقت على “مجموعة من الالتزامات الطوعية لتعزيز سلامة وأمن ومصداقية تكنولوجيا الذكاء الاصطناعي وخدماتنا. خطوة مهمة في تعزيز حوكمة الذكاء الاصطناعي الهادفة والفعالة في جميع أنحاء العالم.”
توقع المزيد من التفاصيل حول كيفية وفاء الشركات بتعهداتها بشأن السلامة في مجال الذكاء الاصطناعي في الأسابيع المقبلة. هنا هو ورقة حقائق البيت الأبيض حول الإعلان.
Google و Bard وغيرهما
في أخبار أخرى من Google ، قالت الشركة ، التي أتاحت Bard للجمهور في مايو باللغات الإنجليزية واليابانية والكورية في مهرجان مطوري Google I / O ، إن برنامج الدردشة الآلي الخاص بها يدعم الآن أكثر من 40 لغة ، بما في ذلك العربية والصينية والدنماركية والفارسية والفرنسية والألمانية واليونانية والبولندية والبرتغالية والإسبانية والتايلاندية والأوكرانية والفيتنامية. يمكن العثور على القائمة الكاملة للغات هنا.
بالإضافة إلى ذلك ، أوفت Google أيضًا بوعد I / O بـ “السماح للمستخدمين بإسقاط الصور في Bard لمساعدتك في التحليل أو إنشاء تعليق أو العثور على مزيد من المعلومات على الإنترنت” ، CNET ذكرت. لكن هذه الميزة متاحة باللغة الإنجليزية فقط – على الأقل في الوقت الحالي.
يمكن العثور على التفاصيل الخاصة بهذه التحديثات وغيرها من تحديثات Bard على مدونة جوجل.
ميتا ومايكروسوفت شريكان في محرك Llama 2 AI
Meta ، التي أطلقت ملف نموذج لغة اللاما الكبير في فبراير، تكثف الجهود لحمل المزيد من الأشخاص على استخدام تقنية الذكاء الاصطناعي الخاصة بها. قالت الشركة هذا الأسبوع إن الجيل القادم من Llama ، Llama 2 ، متاح الآن مجانًا للاستخدام التجاري والبحثي ، كجزء من صفقة مع Microsoft ، CNETذكرت. شارك Meta الأخبار على موقعهمدونة.
نماذج اللغات الكبيرة ، أو LLMs ، هي ما توفره روبوتات الدردشة المدعومة بالذكاء الاصطناعي ، بما في ذلك برنامج ChatGPT الخاص بـ OpenAI و جوجل بارد. أطلقت Microsoft ملف بحث Bing مدعوم بالذكاء الاصطناعي في وقت سابق من هذا العام ، والذي يستخدم ChatGPT. بالشراكة مع Meta و Microsoftقاليوفر الآن أيضًا إمكانية الوصول إلى Llama 2 من خلال Azure AI وعلى Windows.
تقوم AP بترخيص أرشيفها إلى ChatGPT
وكالة اسوشيتد برس يقول قامت بترخيص أرشيفها النصي للقصص الإخبارية التي تعود إلى عام 1985 إلى OpenAI / ChatGPT في صفقة بشروط مالية غير معلنة. تأتي الأخبار من أصحاب حقوق التأليف والنشر والمؤلفين ، بما في ذلك الممثلة الكوميدية سارة سيلفرمان تقاضي ChatGPT لجني المحتوى المحمي بحقوق الطبع والنشر الخاصة بهم دون إذن ، وتدريب روبوت المحادثة الخاص بها ، وباعتبارها لجنة التجارة الفيدرالية الأمريكيةيبحث في كيفية عمل ChatGPT بشكل أساسي.
“من أجل الاحتراز من الكيفية التي قد تقرر بها المحاكم ، ربما [AI companies] ترغب في الخروج وتوقيع اتفاقيات الترخيص حتى تضمن الوصول القانوني إلى المواد التي ستحتاجها ، “قال نيك دياكوبولوس ، أستاذ دراسات الاتصالات وعلوم الكمبيوتر في جامعة نورث وسترن ، لوكالة أسوشييتد برس.
بينما وصفت وكالة أسوشييتد برس نفسها بأنها واحدة من أولى المؤسسات الإعلامية التي تستخدم الذكاء الاصطناعي لإنشاء ملخصات إخبارية ومحتويات أخرى ، إلا أنها تقول إنها لا تستخدم أي نوع من أنواع الذكاء الاصطناعي في قصصها الإخبارية اليوم. لكن هذا سيتغير بالتأكيد. على أي حال ، فإن OpenAI ، من خلال هذه الصفقة ، تدفع مقابل محتوى الناشرين بطريقة ما ، وهذا وحده مثير للاهتمام.
تتبع قواديس أجرة مترو الأنفاق وتجار المخدرات
فيما يلي قصتان مثيرتان للاهتمام حول كيفية استخدام تقنية الذكاء الاصطناعي لتتبع الأشخاص الذين يقومون بأشياء لا ينبغي عليهم القيام بها – وهي تحفز أسئلة الخصوصية على طول الطريق.
أولاً ، كان نظام مترو أنفاق مدينة نيويورك هادئًا باستخدام برنامج المراقبة بالذكاء الاصطناعي في بعض محطات مترو الأنفاق لالتقاط وجوه الأشخاص الذين يتخطون دفع الأجور. إنه جزء من برنامج لتقليل الخسائر من “التهرب من أجرة السفر” ، وفقًا لوثائق عامة وعقود حكومية حصلت عليها إن بي سي نيوز.
وقالت شبكة إن بي سي نيوز: “كان النظام قيد الاستخدام في سبع محطات مترو أنفاق في مايو ، وفقًا لتقرير عن التهرب من الأجرة نشرته على الإنترنت هيئة النقل العام في مدينة نيويورك ، والتي تشرف على النقل العام في مدينة نيويورك”. “تتوقع MTA أنه بحلول نهاية العام ، سيتوسع النظام بنحو عشرين محطة أخرى ، مع المزيد لاحقًا” ، تقريريقول. كما وجد التقرير أن MTA خسرت 690 مليون دولار بسبب التهرب من أجرة السفر في عام 2022. ”
على الرغم من أن MTA تقول إن تركيزها ينصب على التهرب من الأجرة ، إلا أن دعاة الخصوصية قلقون بشأن ما سيفعله نظام مترو الأنفاق بمسح الوجه. قالت إن بي سي نيوز إن متحدثًا باسم MTA أخبر المنفذ الإخباري أن نظام الذكاء الاصطناعي “لا يبلّغ شرطة نيويورك عن المتهربين من الأجرة ، لكنها رفضت التعليق على ما إذا كانت هذه السياسة يمكن أن تتغير”.
والآن للقصة الثانية. فوربس ذكرت أن نيويورك استخدمت تقنية الذكاء الاصطناعي ، بما في ذلك تقنية التعرف التلقائي على لوحة الترخيص ، لتقييم سلوك القيادة لتاجر المخدرات بعد تحليل المسار الذي سلكه السائق على مدار عدة سنوات وتحليل أنماط حركة المرور التي تعتبر مشبوهة.
في حين أن برنامج Rekor سمح للأشخاص بالتعرف على مهرب المخدرات والقبض عليه ، فقد تم استخدامه أيضًا “لفحص أنماط القيادة لأي شخص يمر بإحدى كاميرات مقاطعة ويستشستر البالغ عددها 480 على مدار عامين” ، حسبما أضافت فوربس ، نقلاً عن محامي كبير في اتحاد الحريات المدنية الأمريكي وصف المراقبة الجماعية للسائقين بأنها “مرعبة للغاية”.
الذكاء الاصطناعي والأنمي وهاري بوتر
تقوم منظمة العفو الدولية الآن بتحويل أفلام الحركة الحية إلى أسلوب الرسوم المتحركة باستخدام انتشار مستقر، وهو محول مشهور لتحويل النص إلى صورة ، كما أخبرني منتج فيديو CNET جيسون بيبر. “لا تزال قوة هذا التطبيق تثير إعجابي. يأخذ هذا المثال مشهد من فيلم هاري بوتر ويحوله إلى أنمي. “المقطع الذي تبلغ مدته 45 ثانية والذي أنشأه مستخدم TwitterheyBarsee ، والذي تُظهر فيه هيرميون مهاراتها السحرية مع سحر التحليق في Wingardium Leviosa ، يستحق المشاهدة.
كلمة الأسبوع لمنظمة العفو الدولية
خلال الأشهر القليلة الماضية ، قرأت مسارد الذكاء الاصطناعي لأتمكن من التعرف على المفردات حول العالم الجديد للذكاء الاصطناعي التوليدي. كلمة الذكاء الاصطناعي لهذا الأسبوع ، المشابك الورقية ، تأتي من باب المجاملة سي إن بي سي “كيف تتحدث عن الذكاء الاصطناعي مثل شخص مطلع.”
“مشابك الورق: رمز مهم لمؤيدي سلامة الذكاء الاصطناعي لأنها ترمز إلى فرصة الذكاء الاصطناعي العام [artificial general intelligence program] يمكن أن تدمر الإنسانية. يشير إلى تجربة فكرية نشرها الفيلسوف نيك بوستروم حول “الذكاء الخارق” نظرًا لمهمة صنع أكبر عدد ممكن من مشابك الورق. تقرر تحويل كل البشر والأرض وأجزاء متزايدة من الكون إلى مشابك ورقية. شعار OpenAI هي إشارة إلى هذه الحكاية.
“مثال:” يبدو أيضًا أنه من الممكن تمامًا أن يكون لديك ذكاء خارق هدفه الوحيد هو شيء عشوائي تمامًا ، مثل تصنيع أكبر عدد ممكن من المشابك الورقية ، والذي سيقاوم بكل قوته أي محاولة لتغيير هذا الهدف ، “بوستروم كتب في تجربته الفكرية “.
ملاحظة المحررين: CNET يستخدم محرك الذكاء الاصطناعي للمساعدة في إنشاء بعض القصص. للمزيد انظرهذا المشنور.