من فضلك تسجيل الدخول أو تسجيل لتفعل ذلك.

رآخر مرة أنا”https://time.com/6246119/demis-hassabis-deepmind-interview/”> تمت مقابلته عاد Demis Hassabis في نوفمبر 2022 ، قبل أسابيع قليلة من إصدار ChatGPT. حتى ذلك الحين-قبل أن تبقى بقية العالم Crazy-كان لدى الرئيس التنفيذي لشركة Google Deepmind تحذيرًا صارخًا حول سرعة تقدم الذكاء الاصطناعي. “أود أن أدافع لا أخبرني حسابيس في ذلك الوقت. لقد انتقد ما رآه كموقف متهور بين بعضهم في مجاله ، الذي كان يشبه التجريبيين “لا يدرك أنهم يحملون مادة خطيرة”.

بعد عامين ونصف ، تغير الكثير في عالم الذكاء الاصطناعي. فاز Hassabis ، من جانبه ، بحصة من جائزة نوبل 2024 في الكيمياء لعمله على Alphafold – نظام AI يمكنه التنبؤ بالهياكل ثلاثية الأبعاد للبروتينات ، والتي لديها أبحاث طبية حيوية توربيني. كانت وتيرة تحسين الذكاء الاصطناعى سريعًا لدرجة أن العديد من الباحثين ، الذين يعتقدونهم ، من بينهم ، يعتقدون الآن أن الذكاء الاصطناعى على المستوى الإنساني (المعروف في هذه الصناعة باسم الذكاء العام المصطناعي أو AGI) سيصلون هذا العقد. في عام 2022 ، حتى الاعتراف بإمكانية أن ينظر إلى AGI على أنه هامش. لكن حسن كان دائما مؤمنا. في الواقع ، خلق AGI هو هدف حياته.

سيتطلب إنشاء AGI كميات هائلة من قوة الحوسبة – البنية المنقولة التي يمتلكها عدد قليل من عمالقة التكنولوجيا ، وهي Google واحدة منهم. وهذا يمنح Google المزيد من النفوذ على Hassabis مما قد يعترف به. عندما انضم Hassabis إلى Google ، استخرج تعهدًا من الشركة: لن يتم استخدام DeepMind’s AI أبدًا لأغراض عسكرية أو أسلحة. ولكن بعد 10 سنوات ، لم يعد هذا التعهد. الآن تبيع Google خدماتها – بما في ذلك DeepMind’s AI – إلى الجيوش بما في ذلك تلك الموجودة في الولايات المتحدة و ، ،”https://time.com/6966102/google-contract-israel-defense-ministry-gaza-war/”> كما كشف الوقت العام الماضي، إسرائيل. لذا ، أحد الأسئلة التي أردت طرحها على Hassabis ، عندما جلسنا للدردشة بمناسبة إدراجه في هذا العام”https://time.com/7277608/demis-hassabis-interview-time100-2025/”> الوقت 100، هل كان هذا: هل قدمت حل وسط من أجل الحصول على فرصة لتحقيق هدف حياتك؟

تم تكثيف هذه المقابلة وتحريرها من أجل الوضوح.

Agi ، إذا تم إنشاؤه ، سيكون مؤثرًا للغاية. هل يمكنك رسم أفضل سيناريو بالنسبة لي؟ كيف يبدو العالم إذا أنشأنا AGI؟

السبب في أنني عملت على AI و Agi طوال حياتي هو أنني أعتقد ، إذا تم ذلك بشكل صحيح ومسؤولية ، فستكون هذه التقنيات الأكثر فائدة التي اخترعتها على الإطلاق. لذا فإن أنواع الأشياء التي أعتقد أننا يمكن أن نكون قادرين على استخدامها ، والتعويذة إلى الأمام لمدة 10 سنوات من الآن ، من المحتمل أن تعالج جميع الأمراض مع الذكاء الاصطناعى ، والمساعدة في المساعدة في تطوير مصادر طاقة جديدة ، سواء كانت اندماجًا أو بطاريات مثالية أو مواد جديدة مثل الموصلات الفائقة الجديدة. أعتقد أن بعضًا من أكبر المشكلات التي تواجهنا اليوم كمجتمع ، سواء كان ذلك مناخًا أو مرضًا ، ستساعدها حلول الذكاء الاصطناعي. لذا ، إذا تقدمنا ​​إلى الأمام 10 سنوات ، أعتقد أن النظرة المتفائلة لذلك ستكون ، سنكون في هذا العالم من أقصى قدر من الازدهار البشري ، وسافر النجوم ، مع جميع التقنيات التي ستساعد الذكاء الاصطناعي في تحقيقها.

لنأخذ المناخ ، على سبيل المثال. لا أعتقد أننا سنحل ذلك بأي طريقة أخرى ، بخلاف المزيد من التكنولوجيا ، بما في ذلك التقنيات المدعومة من الذكاء الاصطناعي مثل أنواع الطاقة الجديدة وما إلى ذلك. لا أعتقد أننا سنحصل على عمل جماعي سريعًا بما يكفي لفعل أي شيء حيال ذلك.

بعبارة أخرى: سأكون قلقًا للغاية بشأن المجتمع اليوم إذا لم أكن أعرف أن شيئًا تحويليًا مثل AI كان ينزل على الخط. أنا أؤمن اعتقادا راسخا. أحد الأسباب التي تجعلني متفائلاً بشأن المكان الذي ستذهب فيه الخمسين عامًا القادمة هو أنني أعلم أنه إذا أنشأنا منظمة العفو الدولية بشكل صحيح ، فسيكون ذلك قادرًا على المساعدة في بعض مشكلاتنا الأكثر إلحاحًا. انها تقريبا مثل الفرسان. أعتقد أننا بحاجة إلى سلاح الفرسان اليوم.

لقد كنت أيضًا صوتيًا تمامًا حول الحاجة إلى تجنب المخاطر. هل يمكنك رسم سيناريو أسوأ حالة؟

بالتأكيد. حسنًا ، انظر ، أسوأ حالة ، على ما أعتقد ، تم تغطيتها كثيرًا في الخيال العلمي. أعتقد أن المشكلتين اللتين تقلق أكثر من ذلك: ستكون منظمة العفو الدولية هذه التقنية الرائعة إذا تم استخدامها بالطريقة الصحيحة ، لكنها تقنية مزدوجة للأغراض ، وستكون قوية بشكل لا يصدق. إذن ما يعنيه ذلك هو أن الجهات الفاعلة السيئة يمكن أن يعيد تعزيز هذه التكنولوجيا لتحقيق نهايات ضارة محتملة. لذا فإن أحد التحديات الكبيرة التي نواجهها كحقل ومجتمع ، كيف يمكننا تمكين الوصول إلى هذه التقنيات من الجهات الفاعلة الجيدة من القيام بأشياء مذهلة مثل علاج الأمراض الرهيبة ، في نفس الوقت الذي يقيد فيه الوصول إلى تلك التقنيات نفسها إلى الجهات الفاعلة السيئة ، سواء كان ذلك الأفراد إلى جميع الدول المارقة؟ هذا لغز صعب حقًا لحله. الشيء الثاني هو Agi المخاطر نفسها. لذا فإن المخاطر من التكنولوجيا نفسها ، لأنها تصبح أكثر استقلالية ، وأكثر قائمة على الوكيل ، وهو ما سيحدث خلال السنوات القليلة المقبلة. كيف نضمن أن نتمكن من البقاء مسؤولاً عن تلك الأنظمة ، والتحكم فيها ، وتفسير ما يفعلونه ، وفهمها ، ووضع الدرابزينات الصحيحة في مكانها غير متحركة من خلال أنظمة قادرة للغاية على تحسين الذات؟ هذا أيضًا تحدٍ صعب للغاية. هذان هما الدلاء الرئيسية من المخاطر. إذا تمكنا من الحصول عليها بشكل صحيح ، فأعتقد أننا سننتهي في هذا المستقبل المذهل.

إنه ليس سيناريو أسوأ الحالات. ماذا يفعل أسوأ سيناريو تبدو مثل؟

حسنًا ، أعتقد أنه إذا أخطأت في ذلك ، فعليك أن تتم كل هذه الحالات الضارة مع هذه الأنظمة ، ويمكن أن تتراوح من القيام بعكس ما نحاول القيام به-بدلا من العثور على علاجات ، قد ينتهي بك الأمر إلى العثور على السموم مع تلك الأنظمة نفسها. وهكذا جميع حالات الاستخدام الجيدة ، إذا كنت تقلب أهداف النظام ، فستحصل على حالات الاستخدام الضارة. ومجتمع ، هذا هو السبب في أنني كنت أؤيد التعاون الدولي. نظرًا لأن الأنظمة ، أينما تم بناؤها ، أو مع ذلك ، يمكن توزيعها في جميع أنحاء العالم. يمكن أن تؤثر على الجميع في كل ركن من أركان العالم. لذلك نحن بحاجة إلى معايير دولية ، على ما أعتقد ، حول كيفية بناء هذه الأنظمة ، وما هي التصميمات والأهداف التي نقدمها لهم ، وكيف تم نشرها واستخدامها.

عندما استحوذت Google على DeepMind في عام 2014 ، قمت بتوقيع عقد يقول إن Google لن تستخدم تقنيتك للأغراض العسكرية. منذ ذلك الحين ، قمت بإعادة هيكلة. الآن تباع DeepMind Tech لمختلف الجيوش ، بما في ذلك الولايات المتحدة وإسرائيل. لقد تحدثت عن الاتجاه الصعودي الضخم لتطوير AGI. هل تشعر أنك تعرضت للخطر على هذه الجبهة من أجل أن تتاح لي الفرصة لصنع هذه التكنولوجيا؟

لا ، لا أعتقد ذلك. أعتقد أننا قمنا بتحديث الأشياء مؤخرًا لنأخذ في الاعتبار جزئيًا أوجه عدم اليقين الجيوسياسية الأكبر التي لدينا في جميع أنحاء العالم. لسوء الحظ ، أصبح العالم مكانًا أكثر خطورة. أعتقد أننا لا نستطيع أن نعتبر أن القيم الديمقراطية ستفوز بعد الآن – لا أعتقد أن هذا واضح على الإطلاق. هناك تهديدات خطيرة. لذلك أعتقد أننا بحاجة إلى العمل مع الحكومات. كما يتيح لنا العمل مع الحكومات العمل مع الصناعات المهمة الأخرى المنظمة أيضًا ، مثل الخدمات المصرفية والرعاية الصحية وما إلى ذلك. لم يتغير شيء حول مبادئنا. كان الشيء الأساسي في مبادئنا دائمًا هو: يجب أن نزن الفوائد بعناية ، وعليهم أن يفوقوا خطر الضرر. هذا شريط مرتفع لأي شيء قد نرغب في القيام به. بالطبع ، علينا أن نحترم القانون الدولي وحقوق الإنسان – كل هذا لا يزال هناك.

ثم الشيء الآخر الذي تغير هو توافر هذه التكنولوجيا على نطاق واسع ، أليس كذلك؟ لذا ، المصدر المفتوح ، Deepseek ، Llama ، أيا كان ، ربما لا تكون جيدة تمامًا مثل النماذج المطلقة المطلقة الملكية ، لكنها جيدة. وبمجرد أن يكون المصدر مفتوحًا ، فهذا يعني أن العالم كله يمكنه استخدامه لأي شيء. لذلك أفكر في هذه التكنولوجيا السلعية في بعض الحواس ، ثم ما هو مفصل. وبالنسبة للعمل المفصل ، فإننا نخطط للعمل على أشياء نناسبها بشكل فريد وأفضلها في العالم ، مثل الدفاع السيبراني والأمن الحيوي – حيث أعتقد أنه من واجب أخلاقي بالنسبة لنا ، أود أن أجادل ، للمساعدة ، لأننا الأفضل في العالم في ذلك. وأعتقد أنه من المهم للغاية بالنسبة للغرب.

هناك الكثير من الحديث في عالم سلامة الذكاء الاصطناعي حول الدرجة التي من المحتمل أن تفعلها هذه الأنظمة أشياء مثل البحث عن الطاقة ، لتكون خادعًا ، لطلب عدم تخصيص البشر والهروب من سيطرتهم. هل لديك رؤية قوية حول ما إذا كان هذا هو المسار الافتراضي ، أم أن هذا خطر الذيل؟

شعوري على ذلك هو المخاطر غير معروفة. لذلك هناك الكثير من الناس ، زملائي ، الفائزين بجائزة تورينج الشهيرة على جانبي هذه الحجة. أعتقد أن الإجابة الصحيحة في مكان ما في الوسط ، وهو ، إذا نظرت إلى هذا النقاش ، فهناك أشخاص أذكياء للغاية على جانبي هذا النقاش. إذن ما يخبرني به هو أننا لا نعرف ما يكفي عنه حتى الآن لتحديد المخاطر. قد يتضح أنه مع تطور هذه الأنظمة بشكل أكبر ، من الأسهل الحفاظ على السيطرة على هذه الأنظمة مما كنا نظن ، أو توقعنا ، افتراضيًا. لقد تحولت الكثير من الأشياء على هذا النحو. لذلك ، هناك بعض الأدلة على حقيقة أن الأمور قد تكون أسهل قليلاً من بعض من أكثر المتشائين التي تفكر فيها ، ولكن في رأيي ، لا يزال هناك خطر كبير ، وعلينا إجراء بحث بعناية لقياس ماهية هذا المخاطرة ، ثم نتعامل معها في وقت مبكر من المدة مع البصر قدر الإمكان ، بدلاً من الحقيقة ، والتي ، مع التقنيات هذه قوية واتخاذ التحويلات ، يمكن أن تكون محفوظة للغاية.

ما الذي يبقيك مستيقظًا في الليل؟

بالنسبة لي ، فإن هذا السؤال حول المعايير الدولية والتعاون ، ليس فقط بين البلدان ، ولكن أيضًا بين الشركات والباحثين كما نصل إلى الخطوات النهائية لـ AGI. وأعتقد أننا على أعتاب ذلك. ربما نحن في الخارج من خمس إلى 10 سنوات. بعض الناس يقولون أقصر. لن أتفاجأ. إنه مثل توزيع الاحتمال. لكن في كلتا الحالتين ، سيأتي قريبًا جدًا. ولست متأكدًا من أن المجتمع مستعد تمامًا لذلك حتى الآن. ونحن بحاجة إلى التفكير في ذلك من خلال ، وكذلك التفكير في هذه القضايا التي تحدثت عنها في وقت سابق مع قابلية التحكم في هذه الأنظمة ، وكذلك الوصول إلى هذه الأنظمة وضمان أن كل شيء يسير على ما يرام.

هل ترى نفسك أكثر كعالم ، أو كتقني؟ أنت بعيد عن وادي السيليكون ، هنا في لندن. كيف تحدد؟

أعرّف نفسي كعالم أولاً وقبل كل شيء. السبب كله أفعل كل ما فعلته في حياتي هو السعي وراء المعرفة ومحاولة فهم العالم من حولنا. لقد كنت مهووسًا بذلك منذ أن كنت طفلاً. وبالنسبة لي ، فإن بناء الذكاء الاصطناعى هو تعبيري عن كيفية معالجة هذه الأسئلة: أولاً بناء أداة – أنه في حد ذاته رائع للغاية وهو عبارة عن ذكاء ووعي ، وهذه الأشياء التي هي بالفعل بعض من أكبر الألغاز – وبعد ذلك يمكن أن يكون لها غرض مزدوج ، لأنه يمكن أيضًا استخدامه كأداة للتحقيق في العالم الطبيعي في حولك ، مثل الكيمياء والفيزياء. ما هي أكثر مغامرة ومطاردة أكثر إثارة؟ لذلك ، أرى نفسي كعلم أولاً ، وربما مثل رجل أعمال في المرتبة الثانية ، في الغالب لأن هذه هي أسرع طريقة للقيام بالأشياء. وأخيراً ، ربما ، ربما فنيًا من هندسة تقني ، لأنه في النهاية ، لا تريد أن تنظر فقط والتفكير في الأشياء في المختبر. أنت تريد بالفعل إحداث تغيير عملي في العالم.

أريد أن أتحدث قليلاً عن الجداول الزمنية. لقد خرج كل من سام ألمان وداريو أمودي مؤخرًا …

فائقة القاعدة ، أليس كذلك؟

يقول Altman إنه يتوقع Agi ضمن رئاسة ترامب. ويقول Amodei أنه يمكن أن يأتي في وقت مبكر من عام 2026.

انظر ، جزئيًا ، يعتمد ذلك على تعريفك لـ AGI. لذلك أعتقد أنه كان هناك الكثير من التجويف من هذا التعريف لأسباب مختلفة ، وجمع الأموال – هناك أسباب مختلفة قد يفعلها الناس ذلك. لقد كان تعريفنا متسقًا حقًا طوال الطريق: فكرة وجود كل القدرات المعرفية التي يتمتع بها البشر. اختباري لذلك ، في الواقع ، هو: يمكن [an AI] توصلت إلى النسبية العامة بنفس القدر من المعلومات التي كان لدى أينشتاين في القرن العشرين؟ لذلك لا يتعلق الأمر فقط بحل تخمين الرياضيات ؛ هل يمكنك الخروج مع واحد يستحق؟ لذلك أنا متأكد من أن لدينا أنظمة يمكنها حل إحدى جوائز الألفية قريبًا. ولكن هل يمكن أن توصل إلى مجموعة من التخمينات المثيرة للاهتمام مثل ذلك؟

يبدو الأمر ، باختصار ، هو الفرق الذي وصفته بين كونك عالمًا وكونك تقنيًا. يقول جميع التقنيات: إنه نظام يمكن أن يؤدي إلى عمل ذي قيمة اقتصاديًا بشكل أفضل أو أرخص من الإنسان.

هذه طريقة رائعة لصياغة ذلك. ربما لهذا السبب أنا مفتون بهذا الجزء ، لأن العلماء الذين أعجبت به دائمًا في التاريخ ، وأعتقد أن هؤلاء هم الأشخاص الذين يدفعون المعرفة بالفعل إلى الأمام – مقابل مما يجعلها مفيدة عملياً. كلاهما مهم للمجتمع ، من الواضح. كل من الهندسة والعلوم. لكني أعتقد [existing AI] مفقود أن توليد الفرضية.

دعنا نحصل على مزيد من الملموسة من حيث التفاصيل. إلى أي مدى تعتقد أننا من باحث آلي يمكنه المساهمة بشكل مفيد في أبحاث الذكاء الاصطناعي؟

أعتقد أننا على بعد بضع سنوات. أعتقد أن مساعدي الترميز يحصلون على جيدة. وبحلول العام المقبل ، أعتقد أنها ستكون جيدة جدًا. نحن نضغط بقوة على ذلك. [Anthropic] يركز في الغالب على ذلك ، في حين كنا نفعل المزيد من الأشياء العلمية. [AI is still] ليست جيدة مثل أفضل المبرمجين في وضع هيكل جميل لنظام التشغيل. أعتقد أن هذا الجزء لا يزال مفقودًا ، ولذا أعتقد أنه يبعد بضع سنوات.

أنت تركز بقوة على تعدد الوسائط في نماذج الجوزاء الخاصة بك ، وتأسيس الأشياء ليس فقط في مساحة اللغة ، ولكن في العالم الحقيقي. أنت تركز على ذلك أكثر من المختبرات الأخرى. لماذا هذا؟

لعدة أسباب. أولاً ، أعتقد أن الذكاء الحقيقي سيتطلب فهمًا للعالم المكاني والزماني من حولك. من المهم أيضًا لأي علم حقيقي تريد القيام به. اعتقدت أيضًا أنها ستجعل نماذج اللغة في الواقع أفضل ، وأعتقد أننا نرى بعضًا من ذلك ، لأنك في الواقع ترتكز عليها في سياق العالم الحقيقي. على الرغم من أنه في الواقع ، ذهبت اللغة إلى أبعد من ذلك بكثير مما كان يعتقد بعض الناس ، وربما كنت أعتقد أنه ممكن. وأخيراً ، إنه شيء استخدام أيضًا ، لأن لديّ حالتين في الاعتبار أننا نعمل بشكل كبير. إحداها فكرة عن مساعد رقمي عالمي يمكن أن يساعدك في حياتك اليومية ، لتكون أكثر إنتاجية وإثراء حياتك. واحد لا يعيش فقط على جهاز الكمبيوتر الخاص بك ، ولكن يتجول معك ، ربما على هاتفك أو نظاراتك أو أي أجهزة أخرى ، وهو مفيد للغاية طوال الوقت. ولكي يعمل ذلك ، يجب أن يفهم العالم من حولك ومعالجة العالم من حولك.

ثم ثانياً ، بالنسبة للروبوتات ، إنه بالضبط ما تحتاجه للروبوتات في العالم الحقيقي للعمل. يجب أن تفهم السياق المكاني الذي يوجد فيه. [Humans are] متعدد الوسائط ، أليس كذلك؟ لذلك ، نحن نعمل على الشاشات. لدينا رؤية. هناك مقاطع فيديو نود مشاهدتها ، والصور التي نريد إنشاءها ، والصوت الذي يريدون الاستماع إليه. لذلك أعتقد أن نظام الذكاء الاصطناعى يحتاج إلى عكس ذلك للتفاعل معنا بأقل معنى ممكن.

لقد حقق رئيس الإشارة ميريديث ويتاكر نقدًا كبيرًا للوكيل العالمي الذي وصفته للتو هناك ، وهو أنك لا تحصل على هذه المساعدة فقط من العدم. أنت تتخلى عن الكثير من بياناتك في المقابل. من أجل أن تكون مفيدة ، عليك أن تتيح الوصول إلى كل شيء تقريبًا عن حياتك. Google هي شركة إعلانات رقمية تجمع المعلومات الشخصية لخدمة الإعلانات المستهدفة. كيف تفكر في آثار الخصوصية على الوكلاء؟

ميريديث محق في الإشارة إلى ذلك. أحب العمل الذي تقوم به في Signal. أعتقد أولاً وقبل كل شيء أن هذه الأشياء ستحتاج إلى الاشتراك.

لكننا نختار جميع أنواع الأشياء. نختار التتبع الرقمي.

أولاً ، إنه اختيارك ، ولكن بالطبع ، سيفعل الناس ذلك لأنه مفيد ، من الواضح. أعتقد أن هذا لن يعمل إلا إذا كنت مقتنعًا تمامًا بأن هذا المساعد هو لك ، أليس كذلك؟ يجب أن تكون جديرة بالثقة بالنسبة لك ، لأنه لكي تكون مثل مساعد إنساني حقيقي للحياة ، فهي مفيدة حقًا بمجرد معرفتك. يعرفني مساعدي أفضل مما أعرفه ، ولهذا السبب نعمل بشكل جيد كفريق واحد معًا. أعتقد أن هذا هو نوع الفائدة التي تريدها من مساعدك الرقمي. ولكن بعد ذلك ، يجب أن تتأكد من أنه قد تم التخلص منه حقًا. لدينا بعض من أفضل الأشخاص الأمنية في العالم الذين يعملون على هذه الأشياء للتأكد من أنها تحافظ على الخصوصية ، وهي مشفرة حتى على خوادمنا ، كل هذه الأنواع من التقنيات. نحن نعمل بجد على هؤلاء حتى يكونوا مستعدين عندما تكون الأشياء المساعدة ، التي تسمى Project Astra بالنسبة لنا ، جاهزة لوقت الذروة. أعتقد أنه سيكون قرارًا للمستهلك ، وسوف يريدون الذهاب مع الأنظمة التي تحافظ على الخصوصية. وأعتقد أن نماذج الحوسبة والحوافة ستكون مهمة للغاية هنا أيضًا ، وهو أحد الأسباب التي تجعلنا نهتم كثيرًا بالموديلات الصغيرة والأداء للغاية ، والتي يمكن أن تعمل على جهاز واحد.

لا أعرف كم من الوقت تعتقد أنه قبل أن نبدأ في رؤية تأثيرات سوق العمل الرئيسية من هذه الأشياء. ولكن إذا حدث ذلك أو عندما يكون ذلك ، فسيكون ذلك مضطربًا سياسيًا بشكل كبير ، أليس كذلك؟ هل لديك خطة للتنقل في هذا الاضطراب؟

أتحدث مع الكثير من الاقتصاديين حول هذا الموضوع. أعتقد أولاً وقبل كل شيء ، يجب أن يكون هناك عمل أكثر جدية من قبل الخبراء في هذا المجال – الاقتصاد وغيرهم. لست متأكدًا من وجود ما يكفي من العمل الذي يحدث في ذلك عندما أتحدث مع الاقتصاديين. نحن نبني أنظمة وكيل لأنها ستكون أكثر فائدة. وبعد ذلك ، ، على ما أعتقد ، سيكون له بعض التأثير في الوظائف أيضًا ، على الرغم من أنني أظن أنها ستمكّن وظائف أخرى ، وظائف جديدة غير موجودة في الوقت الحالي ، حيث تدير مجموعة من الوكلاء الذين يقومون بالأشياء الدنيوية ، وربما بعض الأبحاث الخلفية ، أيا كان ، لكنك لا تزال تكتب المقال النهائي ، أو تتوصل إلى ورقة البحث النهائية. أو فكرة ذلك. مثل ، لماذا تبحث عن هذه الأشياء؟

لذلك أعتقد أنه في المرحلة التالية ، سيكون هناك البشر مدعوم من هذه الأدوات المذهلة ، على افتراض أنك تعرف كيفية استخدامها ، أليس كذلك؟ لذلك سيكون هناك تعطيل ، لكنني أعتقد أنه سيكون أفضل ، وسيكون هناك وظائف أفضل ووظائف أكثر إرضاءً ، ثم يختفي العمل الأكثر دنيوية. هكذا كان الأمر مع التكنولوجيا في الماضي. ولكن بعد ذلك ، عندما يمكن أن تفعل العديد من الأشياء ، ثم أعتقد أنها مسألة: هل يمكننا توزيع مكاسب الإنتاجية بشكل عادل وعلى نطاق واسع في جميع أنحاء العالم؟ ثم لا يزال هناك سؤال بعد ذلك ، والمعنى والغرض. هذا هو السؤال الفلسفي التالي ، الذي أعتقد في الواقع أننا بحاجة إلى بعض الفلاسفة الجدد العظماء للتفكير في اليوم.

عندما قابلتك آخر مرة في عام 2022 ، تحدثنا قليلاً عن هذا ، وقلت: “إذا كنت في عالم من الوفرة الراديكالية ، فيجب أن يكون هناك مجال أقل لعدم المساواة وطرق أقل يمكن أن يحدث. لذلك هذه واحدة من العواقب الإيجابية لرؤية AGI إذا تم تحقيقها”. لكن في هذا العالم ، لا يزال هناك أشخاص يسيطرون على الثروة والأشخاص الذين ليس لديهم تلك الثروة ، والعمال الذين قد لا يكون لديهم وظائف بعد الآن. يبدو أن رؤية الوفرة الراديكالية تتطلب ثورة سياسية كبيرة للوصول إلى النقطة التي يتم فيها إعادة توزيع تلك الثروة. هل يمكنك تجسيد رؤيتك لكيفية حدوث ذلك؟

لم أقضي الكثير من وقتي شخصيًا في هذا الأمر ، على الرغم من أنني ربما ينبغي عليّ. ومرة أخرى ، أعتقد أن كبار الاقتصاديين يجب أن يفكروا كثيرًا في هذا الأمر. أشعر أن الوفرة الجذرية تعني حقًا أشياء مثلك تحل الانصهار و/أو البطاريات المثلى و/أو الموصلات الفائقة. دعنا نقول أنك حلت كل هذه الأشياء الثلاثة بمساعدة منظمة العفو الدولية. هذا يعني أن الطاقة يجب [cost] في الأساس صفر ، وهو نظيف ومتجدد ، أليس كذلك؟ وفجأة هذا يعني أنه يمكنك أن تختفي جميع مشاكل الوصول إلى المياه لأن لديك فقط نباتات تحلية المياه ، وهذا أمر جيد ، لأن هذا مجرد طاقة ومياه البحر. هذا يعني أيضًا صنع وقود الصواريخ هو … أنت فقط تفصل بين الهيدروجين والأكسجين من مياه البحر ، باستخدام تقنيات مماثلة ، أليس كذلك؟ فجأة ، لم يعد هناك الكثير من هذه الأشياء التي تكمن وراء العالم الرأسمالي ، لأن قاعدة ذلك هي تكاليف الطاقة وتكاليف الموارد وندرة الموارد. ولكن إذا قمت الآن بفتح المساحة ويمكنك استخراج الكويكبات وكل هذه الأشياء – فسوف يستغرق الأمر عقودًا لبناء البنية التحتية لذلك – يجب أن نكون في هذا العصر الجديد اقتصاديًا.

لا أعتقد أن هذا يعالج سؤال عدم المساواة على الإطلاق ، أليس كذلك؟ لا تزال هناك ثروة لاكتسابها وجمعها عن طريق تعدين تلك الكويكبات. الأرض محدودة.

لذلك هناك الكثير من الأشياء المحدودة اليوم ، مما يعني بعد ذلك لعبة صفر في النهاية. ما أفكر فيه هو عالم لم يعد فيه لعبة صفر ، على الأقل من منظور المورد. إذن لا تزال هناك أسئلة أخرى [like] هل ما زال الناس يريدون القوة وأشياء أخرى من هذا القبيل؟ من المحتمل. بحيث يجب معالجتها سياسيا. لكن على الأقل قمت بحل إحدى المشكلات الرئيسية ، والتي ، في النهاية ، في عالم محدود الموارد الذي نحن فيه ، تصبح الأمور في نهاية المطاف صفرًا. إنه ليس المصدر الوحيد ، لكنه مصدر رئيسي للصراع ، وهو مصدر رئيسي لعدم المساواة ، عندما تغليها على طول الطريق.

هذا ما أعنيه بوفرة جذرية. لم نعد ، بطريقة ذات مغزى ، في عالم مُثبت بالموارد صفر. ولكن ربما يجب أن تكون هناك فلسفة سياسية جديدة حول ذلك ، أنا متأكد تمامًا.

وصلنا إلى الديمقراطية في العالم الغربي ، من خلال التنوير ، إلى حد كبير لأن المواطنين لديهم القدرة على حجب عملهم والتهديد بالإطاحة بالدولة ، أليس كذلك؟ إذا وصلنا إلى Agi ، فيبدو أننا نفقد هذين الأمرين ، وقد يكون ذلك سيئًا للديمقراطية.
ربما. أعني ، ربما يتعين علينا أن نتطور إلى شيء آخر أفضل ، لا أعرف. مثل ، هناك بعض المشاكل مع الديمقراطية أيضا. إنها ليست شافية بأي وسيلة. أعتقد أن تشرشل من”https://winstonchurchill.org/resources/quotes/the-worst-form-of-government/”> قال هذا هو الشكل الأقل سوءًا للحكومة ، شيء من هذا القبيل. ربما هناك شيء أفضل. أستطيع أن أخبرك بما سيحدث تقنيًا. أعتقد أنه إذا فعلنا هذا بشكل صحيح ، فيجب أن ينتهي بنا المطاف بوفرة جذرية. إذا أصلحنا بعض مشاكل عقدة الجذر ، كما أسميها. ثم هناك سؤال الفلسفة السياسية. أعتقد أن هذا أحد الأشياء التي يقللها الناس. أعتقد أننا سنحتاج إلى فلسفة جديدة لكيفية العيش.

اقرأ المزيد

تثير Google ترقية مفتاحًا لنظام Android ، ابحث عن جهازي "قريبًا جدًا" ، وتراكم تحسينات سرعة 4x
مدراء WooCommerce يستهدفون بقع أمنية مزيفة تعاني من اختطاف المواقع

Reactions

0
0
0
0
0
0
بالفعل كان رد فعل لهذا المنصب.

ردود الفعل