-
تحاول شركات الذكاء الاصطناعي بناء الله. ألا ينبغي أن يحصلوا على إذننا أولاً؟
غيتي الصور
-
حاكم ولاية كاليفورنيا حق النقض على مشروع قانون سلامة الذكاء الاصطناعى التاريخي
قال المدافعون إنه سيكون وضعًا متواضعًا في القانون “واضح ، يمكن التنبؤ به ،”https://time.com/7015197/ai-legislation-protects-more-than-just-people/”> معايير السلامة المنطقية”للذكاء الاصطناعي. جادل المعارضون بأنها كانت خطوة خطيرة ومتغطرسة ستشمل “”https://pelosi.house.gov/news/press-releases/pelosi-statement-opposition-california-senate-bill-1047″> الابتكار الخنزير”
على أي حال ، SB 1047 – سناتور ولاية كاليفورنيا”http://www.vox.com/future-perfect/361562/california-ai-bill-scott-wiener-sb-1047″> اقتراح سكوت وينر لتنظيم نماذج الذكاء الاصطناعى المتقدمة التي تقدمها الشركات التي تقوم بأعمال تجارية في الولاية – أصبحت الآن Kaput ،”https://www.wsj.com/tech/ai/californias-gavin-newsom-vetoes-controversial-ai-safety-bill-d526f621?mod=hp_lead_pos4″> النقض من قبل حاكم غافن نيوزوم. حصل الاقتراح على دعم واسع في الهيئة التشريعية ، حيث تمرير جمعية ولاية كاليفورنيا من قبل أ”https://leginfo.legislature.ca.gov/faces/billVotesClient.xhtml?bill_id=202320240SB1047″> هامش من 48 إلى 16 في أغسطس. مرة أخرى في مايو ، مرت مجلس الشيوخ بمقدار 32 إلى 1.
-
Openai كما علمنا أنها ميتة
Openai ، الشركة التي أحضرت لك chatgpt ، باعتك للتو.
منذ تأسيسها في عام 2015 ، قادةها لديهم”https://openai.com/charter/”> قال أولويتهم القصوى هي التأكد من تطوير الذكاء الاصطناعي بأمان ومفيد. لقد وصفوا هيكل الشركة غير المعتاد للشركة كوسيلة لإثبات نقاء دوافعها. كانت Openai من غير الربحية التي يسيطر عليها الرئيس التنفيذي لها أو من قبل المساهمين ، ولكن من قبل مجلس مع مهمة واحدة: الحفاظ على آمنة الإنسانية.
-
المتابعة الجديدة لـ Chatgpt جيدة بشكل كبير في الخداع
Marharyta Pavliuk/Getty Images
Openai ، الشركة التي أحضرت لك ChatGpt ، تحاول شيئًا مختلفًا. إن نظام الذكاء الاصطناعي الذي تم إصداره حديثًا ليس مصممًا فقط لإصدار إجابات سريعة على أسئلتك ، بل إنه مصمم لـ “التفكير” أو “العقل” قبل الرد.
والنتيجة هي منتج – يسمى رسميا”https://openai.com/index/introducing-openai-o1-preview/”> O1 لكن الملقب بالفراولة – يمكن أن تحل الألغاز المنطقية الصعبة ، واختبارات الرياضيات ACE ، وكتابة رمز لألعاب الفيديو الجديدة. كل ذلك رائع.
-
الناس يقعون في حب – ويدمنون – أصوات الذكاء الاصطناعي
غيتي الصور
“هذا هو آخر يوم لنا معًا.”
إنه شيء قد تقوله للعشيق مع انتهاء قصة حب الزوبعة. ولكن هل يمكن أن تتخيل أن تقول ذلك … البرمجيات؟
-
من المستحيل عملياً تشغيل شركة منظمة العفو الدولية كبيرة أخلاقيا
Getty Images لـ Amazon Web Serv
كان من المفترض أن تكون الأنثروبرية هي شركة الذكاء الاصطناعى الجيدة. الأخلاقية. الآمنة.
كان من المفترض أن تكون مختلفة عن Openai ، صانع ChatGpt. في الحقيقة،”http://www.vox.com/future-perfect/23794855/anthropic-ai-openai-claude-2″> جميع مؤسسي الأنثروبور مرة واحدة العمل في Openai ولكن ترك جزئيا بسبب الاختلافات أكثر”http://www.vox.com/future-perfect/2024/5/17/24158403/openai-resignations-ai-safety-ilya-sutskever-jan-leike-artificial-intelligence”> ثقافة السلامة هناك، وانتقلت لتدوير شركتهم الخاصة التي من شأنها أن تبني الذكاء الاصطناعى بشكل أكثر مسؤولية.
-
السفر هذا الصيف؟ ربما لا تدع المطار يفحص وجهك.
إليك شيء أشعر بالحرج من الاعتراف: على الرغم من أنني كنت أبلغ عن ذلك”http://www.vox.com/future-perfect/2019/4/27/18518598/ai-facial-recognition-ban-apple-amazon-microsoft”> المشاكل مع”http://www.vox.com/future-perfect/2019/5/16/18625137/ai-facial-recognition-ban-san-francisco-surveillance”> التعرف على الوجه ل”https://www.theatlantic.com/international/archive/2018/08/china-surveillance-technology-muslims/567443/”> نصف دزينة، لقد سمحت بمسح وجهي في المطارات. ليس مرة واحدة. ليس مرتين. عدة مرات.
هناك الكثير من الأسباب لذلك. لشيء واحد ، السفر مرهق. أشعر بالضغط الزمني للوصول إلى البوابة بسرعة وضغط اجتماعي حتى لا تمسك بطورات طويلة. (هذا وحده يجعل الأمر أشعر أنني لست موافقًا حقًا على فحوصات الوجه بقدر ما يتم إجباره عليها.) بالإضافة إلى ذلك ، أحصل دائمًا على “اختيار عشوائي” للحصول على عروض إضافية ، ربما بسبب خلفيتي في الشرق الأوسط. لذلك أشعر بالتوتر من فعل أي شيء قد يؤدي إلى تأخير أو استجواب إضافي.
-
يطالب المطلعون Openai على “الحق في التحذير” الجمهور
تم نشر موظفين من بعض شركات الذكاء الاصطناعى الرائدة في العالم”https://righttowarn.ai/”> اقتراح غير عادي يوم الثلاثاء ، مطالبة الشركات بمنحهم “الحق في التحذير بشأن الذكاء الاصطناعي المتقدم”.
من يريدون تحذيره؟ أنت. الجمهور. أي شخص سيستمع.
-
التمييز الجنسي المزدوج لصوت شاتغبت “لها”
-
“لقد فقدت الثقة”: لماذا انفجر فريق Openai المسؤول عن حماية الإنسانية
ملاحظة المحرر ، 18 مايو 2024 ، 7:30 مساءً بالتوقيت الشرقي: تم تحديث هذه القصة لتعكس الرئيس التنفيذي لشركة Openai Sam Altman’s سقسقة بعد ظهر يوم السبت ، كانت الشركة بصدد تغيير مستنداتها الخارجية.
لعدة أشهر ، يفقد Openai الموظفين الذين يهتمون بعمق بالتأكد”http://www.vox.com/2023/4/28/23702644/artificial-intelligence-machine-learning-technology”> الذكاء الاصطناعي آمن. الآن ، الشركة تنزههم بشكل إيجابي.
-
يقول البعض أن الذكاء الاصطناعي سيجعل الحرب أكثر إنسانية. تُظهر حرب إسرائيل في غزة العكس.
وبحسب ما ورد تستخدم إسرائيل الذكاء الاصطناعي لتوجيه حربها في غزة – وتعامل مع قراراتها كإنجيل تقريبًا. في الواقع ، يسمى أحد أنظمة الذكاء الاصطناعى المستخدمة حرفيًا “الإنجيل”.
وفقا لرائد”https://www.972mag.com/lavender-ai-israeli-army-gaza/”> التحقيق نشرت إسرائيل في الشهر الماضي من قبل مجلة Outlet Outlet +972 الإسرائيلية ، تعتمد إسرائيل على منظمة العفو الدولية لتحديد من يستهدف القتل ، حيث يلعب البشر دورًا صغيرًا في صنع القرار ، وخاصة في المراحل المبكرة من الحرب. التحقيق الذي يبني على أ”https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-gaza/”> المعرض السابق في نفس المنفذ ، يصف ثلاثة أنظمة منظمة العفو الدولية التي تعمل في حفلة موسيقية.
-
Elon Musk يريد دمج البشر مع الذكاء الاصطناعي. كم عدد الأدمغة التي سيتم تلفها على طول الطريق؟
xinmei liu for vox
من بين جميع مآثر Elon Musk – سيارات Tesla ، وصواريخ SpaceX ، و Twitter Twitter ، والخطط لاستعمار المريخ – قد تكون شركة Neuralink السرية في Brain Chip هي الأكثر خطورة.
ما هو Neuralink ل؟ على المدى القصير ، إنه لمساعدة الأشخاص الذين يعانون من الشلل-أشخاص مثل نولاند أربو ، البالغ من العمر 29 عامًا ، أظهر في أ”https://twitter.com/i/broadcasts/1ypJdkXjaLNGW”> البث المباشر هذا الأسبوع ، يمكنه الآن نقل مؤشر الكمبيوتر باستخدام قوة عقله فقط بعد أن أصبح أول مريض يتلقى عملية زرع Neuralink.
-
كيف يمكن أن تقتل دعاوى حقوق الطبع والنشر Openai
إذا كنت كبيرًا بما يكفي لتتذكر المشاهدة”https://www.youtube.com/watch?v=V1508wboZXk”> عرض الطفل الناجح Animaniacs، ربما تتذكر Napster أيضًا. موقع مشاركة الملفات من نظير إلى نظير ، مما جعل من السهل تنزيل الموسيقى مجانًا في عصر من قبل”http://www.vox.com/spotify”> Spotify و”http://www.vox.com/apple”> التفاح الموسيقى ، أخذت حرم الجامعات من قبل العاصفة في أواخر التسعينيات. لم يفلت هذا من إشعار شركات التسجيلات ، وفي عام 2001 ، محكمة اتحادية”https://www.nytimes.com/2001/02/13/business/napster-decision-overview-appellate-judges-back-limitations-copying-music.html”> حكم كان هذا napster مسؤولاً عن انتهاك حقوق الطبع والنشر. قاتل منتجو المحتوى ضد منصة التكنولوجيا وفازوا.
لكن ذلك كان عام 2001 – قبل iPhone ، من قبل”http://www.vox.com/youtube”> يوتيوبوقبل”http://www.vox.com/2023/4/28/23702644/artificial-intelligence-machine-learning-technology”> AI التوليدي. تعرض معركة حقوق الطبع والنشر الكبيرة لهذا الجيل الصحفيين ضد برامج ذكية مصطنعة والتي تعلمت من تقاريرهم ويمكنها إعادة تقاريرهم.
-
هناك الكثير من chatbots
بايج فيكرز/فوكس ؛ غيتي الصور
يوم الأربعاء ، Openai”https://openai.com/blog/introducing-the-gpt-store”> أعلن واجهة متجر على الإنترنت تسمى متجر GPT الذي يتيح للأشخاص مشاركة إصدارات مخصصة من ChatGPT. يشبه متجر التطبيقات لـ chatbots ، باستثناء أنه على عكس التطبيقات الموجودة على هاتفك ، يمكن إنشاء هذه الدردشة من قبل أي شخص تقريبًا مع بعض المطالبات النصية البسيطة.
على مدار الشهرين الماضيين ، أنشأ الناس أكثر من 3 ملايين chatbots بفضل أداة إنشاء GPT Openai”https://openai.com/blog/introducing-gpts”> أعلن في نوفمبر. في Launch ، على سبيل المثال ، يتميز المتجر بمجموعة Chatbot التي تقوم ببناء مواقع الويب لك ، ودردشة يبحث من خلال قاعدة بيانات ضخمة من الأوراق الأكاديمية. ومثل المطورين لمحلات تطبيقات الهواتف الذكية ، يمكن للمبدعين في هذه الدردشة الجديدة كسب المال بناءً على عدد الأشخاص الذين يستخدمون منتجاتهم. المتجر متاح فقط لدفع مشتركي ChatGPT في الوقت الحالي ، ويقول Openai إنه سيبدأ قريبًا في مشاركة الإيرادات مع صانعي ChatBot.
-
هل اعتقدت أن عام 2023 كان عامًا كبيرًا لمنظمة العفو الدولية؟ مشبك.
كل عام جديد يجلب معه مجموعة من الكتاب والمحللين والمقامرين الذين يحاولون إخبار المستقبل. عندما يتعلق الأمر بالأخبار التقنية ، فإن ذلك كان يرقى إلى بعض المدونين الذين يخمنون كيف سيبدو iPhone الجديد. ولكن في عام 2024 ، فإن التكنولوجيا التي يتحدث عنها معظم الناس ليست أداة ، بل مستقبل بديل ، مستقبل بديل”https://a16z.com/the-techno-optimist-manifesto/”> يقول المطلعون على وادي السيليكون إنه أمر لا مفر منه. هذا المستقبل مدعوم من الذكاء الاصطناعي ، ويتوقع الكثير من الناس أنه سيكون لا مفر منه في الأشهر القادمة.
أن منظمة العفو الدولية ستكون الصعود ليست هي الخبراء الكبيرين الذين يقومون به للعام المقبل. لقد أمضيت اليومين الماضيين في قراءة كل قائمة من التنبؤات التي يمكنني الحصول عليها ، بما في ذلك”http://www.vox.com/future-perfect/2024/1/1/24011179/2024-predictions-trump-politics-ohtani-oppenheimer-elections”> هذا جيد جدًا من زملائي في المستقبل المثالي. تظهر بعض الأشياء الكبيرة على معظمها: استمرار تجزئة وسائل التواصل الاجتماعي ، ونظارات واقعية Apple المختلطة ، والمسلسل الفضائي ، وبالطبع الذكاء الاصطناعي. الأمر المثير للاهتمام بالنسبة لي هو أن الذكاء الاصطناعى يبدو أيضًا أنه يربط كل هذه الأشياء معًا بنفس الطريقة التي يرتبط بها صعود الإنترنت بشكل أساسي”https://www.forbes.com/2004/01/02/102techtrendspinnacor_ii.html?sh=29b0e89b11f5″> التنبؤات الكبيرة لعام 2004.
-
ربما كان لوحة Openai محقًا في إطلاق Sam Altman – وإعادة تأهيله أيضًا
الزلزالية”http://www.vox.com/technology/2023/11/20/23969589/openai-sam-altman-fired-microsoft-chatgpt-emmett-shear-silicon-valley”> التوقف في Openai – إشراك إطلاق النار ، وفي نهاية المطاف ، كان إعادة الرئيس التنفيذي سام التمان – بمثابة صدمة للجميع تقريبًا. ولكن الحقيقة هي أن الشركة ربما كانت تصل دائمًا إلى نقطة الانهيار. لقد تم بناؤه على خط خطأ عميق للغاية وغير مستقر لدرجة أنه في النهاية ، فإن الاستقرار سيفسح المجال للفوضى.
كان خط الخطأ هذا هو المهمة المزدوجة لـ Openai: للبناء”http://www.vox.com/2023/4/28/23702644/artificial-intelligence-machine-learning-technology”> الذكاء الاصطناعي هذا أكثر ذكاءً من الإنسانية ، مع التأكد أيضًا من أن الذكاء الاصطناعى سيكون آمنًا ومفيدًا للإنسانية. هناك”http://www.vox.com/the-highlight/23621198/artificial-intelligence-chatgpt-openai-existential-risk-china-ai-safety-technology”> التوتر المتأصل بين تلك الأهداف لأن الذكاء الاصطناعى المتقدم يمكن أن يضر البشر بطرق متنوعة ، من الراسخ”http://www.vox.com/future-perfect/22916602/ai-bias-fairness-tradeoffs-artificial-intelligence”> التحيز لتمكين”http://www.vox.com/future-perfect/23820331/chatgpt-bioterrorism-bioweapons-artificial-inteligence-openai-terrorism”> الإرهاب الحيوي. الآن ، يبدو أن التوتر في ولاية Openai ساعد في تعريض أكبر زلزال في صناعة التكنولوجيا منذ عقود.
-
الذكاء الاصطناعى هذا أكثر ذكاء من البشر؟ يقول الأمريكيون شركة “لا شكرا لك”.
تقول شركات الذكاء الاصطناعى الكبرى لبناء الذكاء الاصطناعى الممتاز – لصالحك وأنا ، كما يقولون. لكن هل توقفوا عن السؤال عما إذا كنا نريد ذلك بالفعل؟
الأمريكيون ، إلى حد كبير ، لا تريده.
-
منظمة العفو الدولية المجانية من Google لم تعد فقط للبحث بعد الآن
الطنانة حول المستهلك”http://www.vox.com/2023/4/28/23702644/artificial-intelligence-machine-learning-technology”> AI التوليدي لديه”http://www.vox.com/technology/2023/8/19/23837705/openai-chatgpt-microsoft-bing-google-generating-less-interest”> تلاشى منذ أوائل عام 2023 ، ولكن”http://www.vox.com/google”> جوجل و”http://www.vox.com/microsoft”> Microsoftقد تكون معركة من أجل تفوق الذكاء الاصطناعي تسخين مرة أخرى.
تصدر كلتا الشركتين تحديثات لمنتجات الذكاء الاصطناعى هذا الأسبوع. تعد إضافات Google إلى Bard ، وهي أداة AI التوليدية ، حية الآن (ولكن فقط للمتحدثين باللغة الإنجليزية في الوقت الحالي). وهي تشمل القدرة على دمج الشاعر في تطبيقات Google واستخدامها عبر أي أو جميعها. من المقرر أن تعلن Microsoft ابتكارات الذكاء الاصطناعي يوم الخميس ، على الرغم من أنها لم تقول أكثر من ذلك بكثير.
-
ما يريده الأمريكيون العاديون – وليس شركات الذكاء الاصطناعى – من أجل الذكاء الاصطناعي
غيتي الصور
قبل خمسة أشهر ، عندما نشرت قطعة كبيرة”http://www.vox.com/the-highlight/23621198/artificial-intelligence-chatgpt-openai-existential-risk-china-ai-safety-technology”> حالة تباطؤ الذكاء الاصطناعي، لم يكن من السائد أن نقول أنه يجب علينا ضخ الفرامل على هذه التكنولوجيا. داخل صناعة التكنولوجيا ، كان من المحرمات عمليا.
جادل الرئيس التنفيذي لشركة Openai Sam Altman بأن الأميركيين سيكونون أحمقًا لإبطاء تقدم Openai. “إذا كنت شخصًا في بلد ليبرالي ديمقراطي ، فمن الأفضل لك أن تهتف بنجاح Openai” بدلاً من “الحكومات الاستبدادية” ، فهو”https://www.theatlantic.com/magazine/archive/2023/09/sam-altman-openai-chatgpt-gpt-4/674764/”> قال المحيط الأطلسي. لدى براد سميث من Microsoft أيضًا”https://blogs.microsoft.com/on-the-issues/2023/02/02/responsible-ai-chatgpt-artificial-intelligence/”> جادل أننا لا نستطيع تحمل إبطاء سباق الصين في المقدمة في الذكاء الاصطناعي.
-
من المؤكد أن بايدن يبدو جادًا لعدم السماح لمنظمة العفو الدولية بالخروج عن السيطرة
في جهودها المستمرة لمحاولة القيام بشيء ما حول موجة الذكاء الاصطناعي التي يحتمل أن تنظمها العالم ، والتي من المحتمل أن تكون متغيرة للعالم ، أعلنت إدارة بايدن اليوم أن سبع شركات منظمة العفو الدولية قد التزمت بتطوير منتجات آمنة ومأمونة وجديرة بالثقة.
أما أمازون ، والأنثروبولوجيا ، وجوجل ، والانحدار ، وميثا ، وميكروسوفت ، و Openai هي الشركات التي تقدم هذا الالتزام الطوعي ، والتي لا تأتي مع أي أحكام مراقبة أو إنفاذ حكومية لضمان حافظ الشركات على نهايتها من الصفقة ومعاقبتها إذا ليسوا كذلك. إنه يوضح كيف تدرك الحكومة مسؤوليتها عن حماية المواطنين من التكنولوجيا التي يحتمل أن تكون خطرة ، وكذلك الحدود على ما يمكن أن تفعله بالفعل.
-
منظمة العفو الدولية هي “مأساة المشاعات”. لدينا حلول لذلك.
ربما سمعت”http://www.vox.com/2023/4/28/23702644/artificial-intelligence-machine-learning-technology”> الذكاء الاصطناعي تقدم”https://time.com/6255952/ai-impact-chatgpt-microsoft-google/”> الموصوفة كـ “سباق التسلح” الكلاسيكي. المنطق الأساسي هو أنه إذا لم تكن تتسابق إلى الأمام في صنع الذكاء الاصطناعي المتقدم ، فإن شخصًا آخر سيفعل-ربما شخص أكثر تهورًا وأقل وعيًا بالسلامة. لذا ، من الأفضل أن تقوم ببناء آلة خارقة من السماح للرجل الآخر بعبور خط النهاية أولاً! (في المناقشات الأمريكية ، الرجل الآخر”https://fortune.com/2023/04/07/former-google-ceo-eric-schmidt-against-6-month-a-i-pause-elon-musk-benefit-china-chatgpt-openai/”> الصين عادة.)
ولكن كما”http://www.vox.com/the-highlight/23621198/artificial-intelligence-chatgpt-openai-existential-risk-china-ai-safety-technology”> لقد كتبت من قبل، هذا ليس صورة دقيقة لحالة الذكاء الاصطناعي. لا يوجد أحد “خط النهاية” ، لأن الذكاء الاصطناعى ليس مجرد شيء واحد به غرض واحد ، مثل القنبلة الذرية ؛ إنها تقنية أكثر أهمية ، مثل الكهرباء. بالإضافة إلى ذلك ، إذا استغرق مختبرك الوقت الكافي للتخلص من بعض مشكلات سلامة الذكاء الاصطناعي ، فقد تأخذ المختبرات الأخرى هذه التحسينات على متن الطائرة ، والتي من شأنها أن تفيد الجميع.
-
لا ، لا يمكن لـ AI إخبار المستقبل
هل يمكن لمنظمة العفو الدولية أن تتنبأ بمصيرك؟ هل يمكن أن تقرأ حياتك واتخاذ استنتاجات خادعة حول من أنت؟
يبدو أن جحافل الناس على Tiktok و Snapchat يعتقدون ذلك. لقد بدأوا في استخدام مرشحات الذكاء الاصطناعى كمصدرين من Fortunetellers وتنبؤات المصير ، مما يؤدي إلى تقسيم كل شيء من عصر سحقهم إلى ما إذا كان من المفترض أن يستمر زواجهم.
-
أربع طرق مختلفة لفهم الذكاء الاصطناعي – ومخاطرها
أفكر أحيانًا في وجود فجلين رئيسيين في عالم الذكاء الاصطناعي. واحد ، بالطبع ، هو ما إذا كان الباحثون الذين يعملون على أنظمة الذكاء الاصطناعى المتقدمة في كل شيء من الطب إلى العلوم سيحققون كارثة.
لكن الآخر – الذي قد يكون أكثر أهمية – هو ما إذا كان الذكاء الاصطناعي صفقة كبيرة أو أخرى في نهاية المطاف من التكنولوجيا التي طورناها بطريقة أو بأخرى هوس اجتماعي. لذلك لدينا بعض chatbots المحسنة ، يذهب المنظور المتشكك. لن ينهي عالمنا – ولكن لن يحسنه بشكل كبير.
-
الذكاء الاصطناعي التمييز الآلي. إليك كيفية اكتشافها.
جزء من قضية التمييز ل أبرز ما. تم إنتاج هذه القصة بالشراكة مع رأس المال ب.
قل كمبيوتر وإنسان تم حرضه ضد بعضهما البعض في معركة من أجل الحياد. من برأيك سيفوز؟ الكثير من الناس يراهنون على الجهاز. لكن هذا هو السؤال الخاطئ.
-
ماذا سيمنع الذكاء الاصطناعي من إغراق الإنترنت بصور مزيفة؟
أرشيف CSA / Getty Images
من فضلك تسجيل الدخول أو تسجيل لتفعل ذلك.