دعا السيناتور تشاك شومر قادة شركات التكنولوجيا الكبرى إلى اجتماع منتدى الذكاء الاصطناعيفي واشنطن العاصمة، حيث تعمل الولايات المتحدة على اكتشاف كيفية تنظيم الذكاء الاصطناعي. ستركز الاجتماعات المغلقة المقرر عقدها في 13 سبتمبر على المخاطر والفرص المقبلة مع استمرار الجمهور في تبني أدوات مثل ChatGPT من Open AI وBard من Google.
من المتوقع أن يحضر المديرون التنفيذيون نخبة من قادة التكنولوجيا (الذكور). ومن بين الرؤساء التنفيذيين سام ألتمان من OpenAI، ومارك زوكربيرج من Meta، وسايتا ناديلا من Microsoft، وسوندار بيتشاي من Alphabet/Google، وإيلون ماسك من Tesla، وجنسن هوانغ من Nvidia. وفقرويترز. وقال شومر إن المنتدى سيكون الأول في سلسلة من المناقشات بين الحزبين التي سيتم استضافتها هذا الخريف وأن المحادثات ستكون “عالية المستوى ومتنوعة، ولكن قبل كل شيء متوازنة”.
وقال شومر في 6 سبتمبر: “من المؤكد أن التشريع بشأن الذكاء الاصطناعي لن يكون سهلاً”.ملاحظاتنشر على موقع الديمقراطيين في مجلس الشيوخ. “في الواقع، سيكون هذا أحد أصعب الأمور التي قمنا بها على الإطلاق، لكن لا يمكننا أن نتصرف مثل النعام الذي يدفن رؤوسنا في الرمال عندما يتعلق الأمر بالذكاء الاصطناعي.”
قال شومر: “ستجمع منتدياتنا حول الذكاء الاصطناعي بعض الأصوات الرائدة في أمريكا في مجال الذكاء الاصطناعي، من مختلف مناحي الحياة والعديد من وجهات النظر المختلفة. المديرين التنفيذيين وقادة الحقوق المدنية. الباحثون، والدعاة، وأصوات من العمل والدفاع وقطاع الأعمال ومنظمات المجتمع المدني. الفنون.”
بينما ال المملكة المتحدة و الاتحاد الأوروبي للمضي قدمًا في الجهود الرامية إلى تنظيم تكنولوجيا الذكاء الاصطناعي، قدم البيت الأبيض العام الماضي مخططًا أوليًا ميثاق حقوق منظمة العفو الدولية، وهو يستحق القراءة إذا لم تكن قد رأيته بالفعل. تم إنشاؤه من قبل مكتب البيت الأبيض للعلوم والتكنولوجيا وله خمسة مبادئ رئيسية. الأمريكان، فيقول:
-
ينبغي حمايتها من الأنظمة غير الآمنة أو غير الفعالة.
-
لا ينبغي أن تواجه التمييز من قبل الخوارزميات، وينبغي استخدام الأنظمة وتصميمها بطريقة عادلة.
-
يجب أن تكون محمية من ممارسات البيانات المسيئة من خلال وسائل الحماية المضمنة، ويجب أن يكون لها سلطة على كيفية استخدام البيانات المتعلقة بها.
-
يجب أن يعرفوا أنه يتم استخدام نظام آلي وأن يفهموا كيف ولماذا يساهم في النتائج التي تؤثر عليهم.
-
يجب أن يكون قادرًا على إلغاء الاشتراك، عند الاقتضاء، وأن يكون لديه إمكانية الوصول إلى شخص يمكنه النظر بسرعة في المشكلات التي يواجهها وعلاجها.
فيما يلي بعض الأنشطة الأخرى في مجال الذكاء الاصطناعي التي تستحق اهتمامك.
تريد Google تصنيف “المحتوى الاصطناعي” في الإعلانات السياسية
مع أدوات الذكاء الاصطناعي سهلة الاستخدام التي تؤدي إلى زيادة طفيفة في الإعلانات السياسية المضللة، كما يقول أوسكار جونزاليس من CNET ذكرتقامت Google هذا الأسبوع بتحديث سياسة المحتوى السياسي الخاصة بها لتتطلب من المعلنين عن الانتخابات “الكشف بشكل بارز عندما تحتوي إعلاناتهم على محتوى اصطناعي يصور بشكل غير صحيح أشخاصًا أو أحداثًا ذات مظهر حقيقي أو واقعي”.
جوجل تحظر بالفعل “التزييف العميق،” أو الصور التي يتم التلاعب بها بواسطة الذكاء الاصطناعي يستبدل صورة شخص ما بشخص آخر في محاولة لخداع المشاهد أو تضليله. لكن هذه السياسة المحدثة تنطبق على الذكاء الاصطناعي المستخدم لمعالجة أو إنشاء الصور والفيديو والصوت بطرق أصغر. وهو يستدعي مجموعة متنوعة من تقنيات التحرير، بما في ذلك “تغيير حجم الصورة، أو الاقتصاص، أو تصحيحات اللون أو السطوع، أو تصحيح العيوب (على سبيل المثال، إزالة “العين الحمراء”)، أو تعديلات الخلفية التي لا تنشئ تصويرًا واقعيًا للأحداث الفعلية.” السياسة الجديدة موضحة هنا.
ماذا يعني كل ذلك في الواقع؟ نظرًا لمدى سهولة استخدام أدوات مثل ChatGPT و دال-E 2لإنشاء محتوى واقعي، نأمل هنا أنه من خلال إجبار منشئي المحتوى على القول صراحةً أن إعلاناتهم تحتوي على صور أو نصوص أو مقاطع صوتية مزيفة، قد يكونون أكثر حذراً في مدى تلاعبهم. خاصة إذا كانوا يريدون مشاركتها على مواقع جوجل الشهيرة، بما في ذلك موقع يوتيوب، الذي يصلأكثر من 2.5 مليار شخص شهريا.
قالت جوجل إن وجود علامة بارزة على إعلان يتم التلاعب به بواسطة الذكاء الاصطناعي – يجب أن تكون التسمية واضحة وظاهرة وفي مكان “من المرجح أن يلاحظها المستخدمون” – قد يساعدني أنت وأنا في معرفة مدى صدق الرسائل التي نرسلها ‘إعادة رؤية. (على الرغم من أن حقيقة أن بعض الناس ما زالوا يعتقدون أن انتخابات 2020 قد سُرقت، على الرغم من أن هذا غير صحيح، تشير إلى أن البشر يريدون تصديق ما يريدون تصديقه، بغض النظر عن الحقائق).
“يأتي تحديث السياسة مع تكثيف موسم الحملات الانتخابية للانتخابات الرئاسية الأمريكية لعام 2024 ومع استعداد عدد من الدول حول العالم لانتخاباتها الكبرى في نفس العام،” CNN ذكرت حول تحديث سياسة Google. “يمتلك خبراء سلامة المعلومات الرقمية أثارت الإنذارات أن أدوات الذكاء الاصطناعي الجديدة هذه يمكن أن تؤدي إلى موجة من المعلومات الخاطئة المتعلقة بالانتخابات والتي قد تكون منصات وسائل التواصل الاجتماعي والمنظمون غير مستعدين للتعامل معها.
تقول جوجل إنها تسعى إلى تحقيق أمرين: الأول، أنها تحاول إيقاف الإعلانات السياسية التي تجعل الأمر يبدو “كما لو أن الشخص يقول أو يفعل شيئًا لم يقله أو يفعله”، وثانيًا، أنها تهدف إلى منع أي إعلان “يبدو مثل هذا”. يغير لقطات لحدث حقيقي أو ينشئ تصويرًا واقعيًا لحدث لتصوير مشاهد لم تحدث بالفعل.” أعتقد أن أي شخص عاقل سيوافق على أن هذه ليست سمات جيدة للإعلان السياسي.
قد يقول النقاد أن هذه مجرد خطوة صغيرة في مكافحة المعلومات الخاطئة، لكنها على الأقل خطوة إلى الأمام.
كيف سيغير الذكاء الاصطناعي مستقبل الوظائف
كان هناك العديد والعديد من التقارير التي تسلط الضوء على كيف سيؤدي الذكاء الاصطناعي الجيني إلى نهاية وظائف معينة، وإعادة كتابة وظائف أخرى، وإنشاء فئات جديدة كاملة من الوظائف، كما لقد لاحظت في تلخيص العديد من التقارير حول هذا الموضوع.
حسنًا، إليك تقييم 16 يوليو من شركة McKinsey and Co. والذي ينظر إلى “الذكاء الاصطناعي التوليدي وشكل العمل في أمريكا” حتى عام 2030، بما في ذلك الوظائف التي سيكون عليها الطلب والوظائف التي ستختفي. ويحدد التقرير المؤلف من 76 صفحة “المهن المرنة والمتنامية”، بالإضافة إلى المهن التي تحول العمال عنها بالفعل (مثل خدمة العملاء والمبيعات وخدمات الأغذية). ).
هناك خلاصتان: يمكن أتمتة 30% من ساعات العمل اليوم بحلول عام 2030، مما يعني أن التوصيف الوظيفي سيحتاج إلى تعديل لتسليط الضوء على كيفية استخدام العمال لوقتهم بدلاً من ذلك. ومجموعات المهارات الجديدة المطلوبة في عالم موجه نحو الذكاء الاصطناعي، في وقت تتقلص فيه القوى العاملة الإجمالية في الولايات المتحدة، تعني أن “أصحاب العمل سيحتاجون إلى توظيف المهارات والكفاءات بدلا من أوراق الاعتماد، والتوظيف من السكان المهملين (مثل العمال الريفيين)”. وقالت ماكينزي: “الأشخاص ذوو الإعاقة) وتقديم التدريب الذي يواكب احتياجاتهم المتطورة”.
تأليب فناني الأداء ضد الذكاء الاصطناعي
لا شك أنك قرأت قصصًا حول كيف يمكن للذكاء الاصطناعي أن يحل محل وظيفة ما أو يقوم بها بشكل مختلف عن الإنسان، خاصة عندما يتعلق الأمر بالكتابة أو إنشاء الصور. في أغسطس/آب، نيويورك تايمز فحص كيف يعمل الذكاء الاصطناعي ضد الكوميديين. TL;DR: لا داعي للقلق على الكوميديين بعد، نظرًا لأن معظم أنظمة الذكاء الاصطناعي مقلدة وليست مبدعة، والكوميديا ”تعتمد على الحداثة والمفاجأة”.
وهذا ما وجدته كاتي كولينز من CNET أيضًا بعد حضورها أكبر مهرجان للفنون في العالم. حوالي 20٪ من العروض الأربعين التي شاهدتها في اسكتلندا مهرجان ادنبره فرينجكانت إما “تتعلق بالذكاء الاصطناعي، أو تتضمن إشارات إليه أو تم إنشاؤها بطريقة ما بالاشتراك معه.”
كتب كولينز: “لقد ذهبت إلى مهرجان إدنبره فرينج هذا العام وأتساءل عما إذا كانت العروض حول الذكاء الاصطناعي يمكن أن تستفيد من التكنولوجيا بطرق جديدة من شأنها أن تثير إعجابي أو تعطيني منظورًا مختلفًا حول التكنولوجيا”.
“الإجابة المختصرة: أمام الذكاء الاصطناعي طريق طويل ليقطعه قبل أن يتمكن من مواكبة فناني الأداء من البشر في إسعاد وإمتاع الجماهير… كيف أننا، كمجرد بشر، نفحص الذكاء الاصطناعي ونعجب به ونضحك عليه، سوف نستمر في ذلك”. “يتطور أيضًا، وهذا أمر مهم. لأنه كيف يمكن أن نتوقع من الذكاء الاصطناعي أن يتعلم ما نجده مضحكًا حقًا ما لم نفعل ذلك؟”
من أجل المتعة (المقصود من التورية)، سألت ChatGPT عن أطرف نكتة سمعتها على الإطلاق. وهنا ما حصلت عليه:
باعتباري نموذجًا للغة الذكاء الاصطناعي، ليس لدي تجارب أو آراء شخصية، لذلك ليس لدي نكتة “مضحكة” سمعتها. ومع ذلك، يمكنني إنشاء نكتة عشوائية لك:
لماذا لا يثق العلماء بالذرات؟
لأنهم يشكلون كل شيء!
مرحبًا ChatGPT، الذرات ليست الوحيدة التي تصنع الأشياء.
OpenAI تجني مليار دولار، وأبل تنفق المليارات على الذكاء الاصطناعي
إن شعبية ChatGPT من OpenAI تضع الشركة على الطريق الصحيح لتصل مبيعاتها السنوية إلى مليار دولار –حتى مع انخفاض عدد زوار برنامج الدردشة الآلي للشهر الثالث على التواليفي أغسطس.
تحصل الشركة الناشئة، المدعومة من Microsoft وKhosla Ventures وA16z وSequoia Ventures والمستثمرين ريد هوفمان وآخرين، على إيرادات تبلغ حوالي 80 مليون دولار شهريًا بعد كسب 28 مليون دولار لعام 2022 بأكمله وخسارة 540 مليون دولار في تطوير GPT-4 و دردشةGPT, وفقالمعلومات. وقال الموقع الإخباري إن OpenAI رفض التعليق.
من أين تأتي تلك الأموال؟ OpenAI يجني المال عن طريق ترخيص تقنية الذكاء الاصطناعي الخاصة بهاللشركات وبواسطة تقديم اشتراكات ChatGPT للأفراد الذين يدفعون 20 دولارًا شهريًا مقابل الإصدار “Plus” الذي تقول الشركة إنه أسرع وأكثر أمانًا من العرض المجاني. ذكرت المعلومات أنه اعتبارًا من شهر مارس، كان لدى OpenAI ما بين مليون ومليوني مشترك فردي.
لكن شعبية ChatGPT لا تعني بالضرورة أرباحًا كبيرة لـ OpenAI، حسبما أشارت فورتشن. وقالت فورتشن: “حتى لو بدأت في جني الأرباح، فلن تتمكن OpenAI من الاستفادة بشكل كامل من نجاحها لبعض الوقت”. “شروطها الصفقة في وقت سابق من هذا العام مع مايكروسوفت تعطي الشركة وراء ويندوز الحق في 75% من أرباح OpenAI حتى تستعيد الـ 13 مليار دولار التي استثمرتها حتى الآن.”
وفي الوقت نفسه، تعمل شركة آبل على “توسيع ميزانية الحوسبة الخاصة ببناء الذكاء الاصطناعي إلى ملايين الدولارات يوميًا”، حسبما ذكرت صحيفة The Informationذكرتمضيفًا أن شركة Apple كانت تعمل على تطوير نموذج genAI متعدد اللغات على مدار السنوات الأربع الماضية.
وقالت The Information: “أحد أهدافها هو تطوير ميزات مثل تلك التي تسمح لعملاء iPhone باستخدام أوامر صوتية بسيطة لأتمتة المهام التي تتضمن خطوات متعددة، وفقًا لأشخاص مطلعين على هذا الجهد”. “التكنولوجيا، على سبيل المثال، يمكن أن تسمح لشخص ما بإخبار المساعد الصوتي Siri على هاتفه بإنشاء صورة GIF باستخدام آخر خمس صور التقطها وإرسالها إلى صديق. اليوم، يتعين على مستخدم iPhone برمجة الشخص يدويًا أجراءات.”
في الوقت الحالي، سأكون سعيدًا لأن يفهم Siri ما أقوله في المرة الأولى.
يريد Heart on My Sleeve’s Ghostwriter صفقة قياسية
مرة أخرى في أبريل، كانت صناعة الموسيقى – وكتاب الأغاني – يقرعون أيديهم على مقطوعة موسيقية تسمى قلب على كميتم تجميعها بواسطة منشئ غير معروف يسمى الكاتب الشبح باستخدام إصدارات الذكاء الاصطناعي المزيفة لأصوات دريك وذا ويكند. تم وصف الأغنية بأنها خطوة تسويقية رائعة، حيث حققت ملايين مرات التشغيل قبل أن يتم سحبها من خدمات البث المباشر. لم تكن المشكلة تتعلق بالجودة الموسيقية للأغنية، ولكن حقوق الطبع والنشر والآثار القانونية المترتبة على من سيحصل على حقوق الملكية مقابل هذا النوع من المقطوعات المقلدة التي تم إنشاؤها بواسطة الذكاء الاصطناعي، والتي قال المحللون في ذلك الوقت إنها واحدة من “أحدث وأعلى صوت”. أمثلة على نوع المنطقة الرمادية المتفجرة: استخدام الذكاء الاصطناعي التوليدي للاستفادة من الأصوات التي يمكن تقديمها على أنها أصلية.”
تأتي الآن أنباء مفادها أن Ghostwriter وفريقه قد التقوا مع “شركات التسجيل وقادة التكنولوجيا ومنصات الموسيقى والفنانين حول كيفية تسخير قوى الذكاء الاصطناعي بشكل أفضل، بما في ذلك مناقشة مائدة مستديرة افتراضية هذا الصيف نظمتها أكاديمية التسجيل، المنظمة”. وراء جوائز جرامي “، اوقات نيويوركذكرتهذا الاسبوع.
نشر Ghostwriter أغنية جديدة تسمى Whiplash، والتي تستخدم مرشحات صوتية مدعومة بالذكاء الاصطناعي لتقليد أصوات مغنيي الراب ترافيس سكوت و21 سافاج. يمكنك الاستماع إليها على تويتر (المعروف الآن باسم الخدمة المسماة X) وشاهده كشخصملفوفًا بملاءة بيضاء يجلس على كرسيوراء الرسالة، “لقد استخدمت الذكاء الاصطناعي لعمل أغنية ترافيس سكوت. 21 Savage… مستقبل الموسيقى هنا. من يريد التالي؟”
“لقد علمت على الفور بمجرد سماعي لهذا التسجيل أنه سيكون شيئًا يتعين علينا التعامل معه من وجهة نظر الأكاديمية، ولكن أيضًا من وجهة نظر مجتمع الموسيقى والصناعة،” هارفي ماسون جونيور، الذي يقود التسجيلات وقالت الأكاديمية لصحيفة التايمز. “عندما تبدأ في رؤية الذكاء الاصطناعي منخرطًا في شيء إبداعي جدًا ورائع جدًا وملائم وحديث، فإن ذلك يجعلك تفكر على الفور، “حسنًا، إلى أين يتجه هذا؟ كيف سيؤثر هذا على الإبداع؟ ما هو تأثير الأعمال على ذلك؟” تحقيق الدخل؟””
قال متحدث باسم Ghostwriter لصحيفة التايمز إن Whiplash، مثل Heart on My Sleeve، “كان تكوينًا أصليًا كتبه وسجله البشر. حاول Ghostwriter مطابقة المحتوى والإيصال والنغمة والصياغة للنجوم المعروفة قبل استخدام مكونات الذكاء الاصطناعي.”
TL;DR: قد يتحول هذا النوع من المنطقة الرمادية إلى اللون الأخضر إذا قامت شركات التسجيل والفنانين المختطفين بأخذ فريق Ghostwriter لطلب إصدار هذه الأغاني رسميًا والتوصل إلى صفقة ترخيص.
من هم الأشخاص الذين يقودون حركة الذكاء الاصطناعي؟
أصدرت مجلة تايم هذا الأسبوع تقريرها القائمة الأولى على الإطلاق من بين أكثر 100 شخص تأثيرًا في مجال الذكاء الاصطناعي. إنه مزيج من رجال الأعمال والتقنيين والمؤثرين والأكاديميين. ولكن هذا تذكير مجلة تايم بشأن البشر الموجودين في الحلقة والذي أعتقد أنه أهم الوجبات الجاهزة.
سعيد تايم، “وراء كل تقدم في التعلم الآلي ونماذج اللغات الكبيرة، في الواقع، هناك أشخاص – سواء العمل البشري الغامض الذي غالبًا ما يجعل نماذج اللغة الكبيرة أكثر أمانًا للاستخدام، والأفراد الذين يتخذون قرارات حاسمة بشأن متى وكيف يتم استخدامها على أفضل وجه. هذه التكنولوجيا.”
عبارة الذكاء الاصطناعي للأسبوع: أخلاقيات الذكاء الاصطناعي
مع وجود أسئلة حول من يملك ماذا عندما يتعلق الأمر بالمحتوى الذي ينتجه الذكاء الاصطناعي، وكيف يجب استخدام الذكاء الاصطناعي بشكل مسؤول، وتحديد الحواجز حول التكنولوجيا لمنع إلحاق الضرر بالبشر، من المهم فهم النقاش برمته حول أخلاقيات الذكاء الاصطناعي. ويأتي شرح هذا الاسبوع مجاملة من آي بي إم، والذي يحتوي أيضًا على مركز موارد مفيد حول هذا الموضوع:
“أخلاقيات الذكاء الاصطناعي: الأخلاقيات هي مجموعة من المبادئ الأخلاقية التي تساعدنا على التمييز بين الصواب والخطأ. أخلاقيات الذكاء الاصطناعي هي مجال متعدد التخصصات يدرس كيفية تحسين التأثير المفيد للذكاء الاصطناعي مع تقليل المخاطر والنتائج السلبية. تشمل أمثلة قضايا أخلاقيات الذكاء الاصطناعي مسؤولية البيانات و الخصوصية، والإنصاف، وقابلية التفسير، والمتانة، والشفافية، والاستدامة البيئية، والشمول، والوكالة الأخلاقية، ومواءمة القيمة، والمساءلة، والثقة، وإساءة استخدام التكنولوجيا.
ملاحظة المحررين: تستخدم CNET محرك الذكاء الاصطناعي للمساعدة في إنشاء بعض القصص. للمزيد راجعهذا المشنور.