صور تادا / شترستوك
تريد Google تحويل الذكاء الاصطناعي التوليدي إلى نوع من المدرب الشخصي للبشر ، والذي يمكن أن يقدم للمستخدمين نصائح حول الحياة. نقلا عن الوثائق الداخلية ، اوقات نيويورك تشير التقارير إلى أن Google تعمل على الذكاء الاصطناعي القادر على أداء “ما لا يقل عن 21 نوعًا مختلفًا من المهام الشخصية والمهنية ، بما في ذلك أدوات لإعطاء المستخدمين النصائح والأفكار وتعليمات التخطيط والنصائح التعليمية.” وبحسب ما ورد استعانت الشركة بخبراء حاصلين على درجات الدكتوراه في تخصصات متعددة لتحسين فكرتها الطموحة.
سيتمكن مدرب الحياة المفترض AI من معالجة المدخلات المعقدة متعددة الجمل وبالتالي تقديم توصية خاصة بالموقف. يساعد المستخدمين على اكتساب مهارات جديدة وإنشاء خطط تمارين مخصصة وميزانية. روبوت الدردشة Bard AI من Google يمكنه فعل ذلك بالفعل ، ولكن يبدو أن Google تريد منحها لمسة شخصية أكثر.
بدأت الشركة بالفعل ترويج أداة للذكاء الاصطناعي تسمى “جينيسيس” تستهدف الصحفيين، لكن لم يتم إصداره علنًا بعد. من غير الواضح ما إذا كانت حيل الذكاء الاصطناعي الخاصة بنصائح الحياة من Google ستصل كمنتج مستقل ، أو ما إذا كان سيتم دمجها مع Bard. من الممكن أيضًا أن تشق هذه المهارات طريقها بالفعل إلى مساعد Google.
يقال إن Google تستكشف الحيل التوليدية AI “لشحن” مساعد Google. سيكون المساعد الافتراضي هو الرهان المعقول للتدريب على الحياة ، لأنه يعيش محليًا على جهاز ولديه وصول على مستوى النظام إلى جميع المعلومات ، بما في ذلك تلك التي تم جمعها من تطبيقات اللياقة البدنية. من ناحية أخرى ، فإن chatbot مرتبط بالإنترنت.
مسار طويل من أخطاء الذكاء الاصطناعي
ررارورو / شاترستوك
لن تكون Google أول من يربط ذكاء الذكاء الاصطناعي بنوع من الدور الاستشاري البشري. لكن، جوجل قد يؤدي نشر مدرب حياة يعمل بالذكاء الاصطناعي ، حتى بالنسبة لخطط الوجبات ، إلى نتائج عكسية.
أطلقت الجمعية الوطنية لاضطرابات الأكل برنامج دردشة آلي يسمى Tessa في وقت سابق من عام 2023 ، لكنه سرعان ما بدأ في تقديم نصائح ضارة وكان لا بد من إغلاقه. ال مركز مكافحة الكراهية الرقمية (CCDH) ، وهي منظمة غير ربحية مقرها المملكة المتحدة ، وجدت أن الذكاء الاصطناعي بارع بشكل خطير في نشر المعلومات الصحية الخاطئة. لم يكن التاريخ أيضًا لطيفًا مع محاولات الذكاء الاصطناعي الأخلاقية.
أنشأ معهد ألين للذكاء الاصطناعي اسم أوراكل خاص بالذكاء الاصطناعي يسمى دلفي في أكتوبر 2022. تم تكليفه بمساعدة البشر في معضلاتهم الأخلاقية والأخلاقية ، وسرعان ما انتشر على وسائل التواصل الاجتماعي. ومع ذلك ، لم يستغرق الأمر وقتًا طويلاً حتى تتعثر دلفي بشكل مذهل: كان من السهل للغاية التلاعب بقبول النصائح العنصرية وكراهية المثليين ، والترويج لاقتراحات الإبادة الجماعية ، وحتى إخبار المستخدمين بذلك. أكل الأطفال على ما يرام.
تم نشر ورقة في الذكاء الاصطناعي والأخلاق يقدم حجة رائعة لاستخدام الذكاء الاصطناعي كخبير أخلاقي ، لكنه يضيف أيضًا في السطور الختامية أن “عواقب فهمه بشكل خاطئ أكثر خطورة بكثير”. هناك دائما تقريبا “إذا” متورط.
فيما يتعلق بنشر الذكاء الاصطناعي كوسيلة للتعزيز الأخلاقي ، نشرت ورقة أخرى في دراسات في المنطق والقواعد والبلاغة ملاحظات المجلات إن الذكاء الاصطناعي مقبول كمستشار أخلاقي “إذا كان بإمكانه أن يلعب دورًا معياريًا ويغير سلوك الناس”.