من فضلك تسجيل الدخول أو تسجيل لتفعل ذلك.

كرئيس تنفيذي لشركة Google ، افتتح Sundar Pichai العملاق التكنولوجي السنوي مؤتمر مطوري I / O في مايو ، تم وضع عبارة “جعل الذكاء الاصطناعي مفيدًا للجميع” على الشاشة البيضاء الناصعة خلفه. أشار بيتشاي إلى أن هذه الفكرة كانت الطريقة الأكثر عمقًا لتعزيز مهمة الشركة في تنظيم معلومات العالم.

تتدفق معلومات العالم ، في معظمها ، من خلال محرك بحث الشركة الذي لا يمكن إيقافه عمليًا وتطبيقاتها وأدواتها التي لا تعد ولا تحصى. كما أشار بيتشاي في مؤتمر I / O ، يستخدم 2 مليار شخص ستة من تطبيقات Google الأساسية. جزء كبير من كل هذه المعلومات – الأخبار – يكتبه ويسلمه عشرات الآلاف من الصحفيين والكتاب ومنشئي المحتوى ، بدءًا من المنشورات المنتشرة في جميع أنحاء العالم وحتى الشركات الناشئة الصغيرة وحتى العاملين المستقلين الذين يتعاملون مع المجلات وطلاب الأخبار الذين يشحذون مهنتهم على المستوى المحلي. أوراق.

تعتقد Google أنها يمكن أن تساعدهم إدخال الذكاء الاصطناعي لهذا المزيج. لكن الذكاء الاصطناعي ليس ما يحتاجه الصحفيون. وغزو عملاق البحث في غرف الأخبار يجب أن يثير قلق القراء أيضًا.

إنها تقوم بتطوير أداة ، تحمل الاسم الرمزي Genesis ، يمكنها “استيعاب المعلومات – تفاصيل الأحداث الجارية ، على سبيل المثال – وإنشاء محتوى إخباري” ، وفقًا لمصادر مجهولة استشهدت بها صحيفة نيويورك تايمز. وقد اتصلت بمنظمات مثل التايمز وواشنطن بوست ونيوز كورب التي تمتلك صحيفة وول ستريت جورنال. من غير الواضح ما إذا كانت Google تروج لاستخدامها في جمع الأخبار أم أنها تتطلع إلى التعاون في التطوير.

لم تستجب Google لطلبات التعليق على هذه المقالة.

متحدث باسم Google قال CNET في 20 تموز (يوليو) ، “لا يُقصد بهذه الأدوات ، ولا يمكنها ، أن تحل محل الدور الأساسي الذي يلعبه الصحفيون في كتابة تقاريرهم ، وإنشاء مقالاتهم والتحقق منها” ، لكن الوصف ذاته للأداة من قبل التايمز يوحي بعكس ذلك. وصف مديرو النشر التنفيذيون الذين شاهدوا عرض Google لـ Genesis بأنه “مقلق” ، وفقًا لصحيفة التايمز. وبحسب ما ورد ، يمكن للأداة أتمتة بعض المهام ، وتوفير “خيارات للعناوين أو أنماط الكتابة المختلفة” ، وفقًا للمتحدث.

منذ أكثر من سبعة أشهر بقليل ، لقد كتبت أن ChatGPT لن يأتي لوظائف الصحافة (على الأقل في المستقبل القريب) لأنها ببساطة لا تستطيع أن تفعل ما يفعله الصحفي. تطبيق الذكاء الاصطناعي الرائد من OpenAI هو منظم الكلمات ، وليس جامع الحقيقة أو راوي القصص الخيالي. لا يمكنها الخروج والإبلاغ من مسرح الجريمة أو مقابلة طبيب أو مدرس أو أي شخص آخر. كما أنه ليس مدربًا على أحدث البيانات. على الرغم من أنني كنت أناقش على وجه التحديد قدرات ChatGPT كصحفي ، إلا أنه يمكن تطبيق الحجة على نطاق واسع على نماذج اللغة الكبيرة والذكاء الاصطناعي التوليدي في نهاية عام 2022. كانت أوجه القصور فيها كثيرة للغاية وهلوسةهم شائعة جدًا بحيث لا تمثل تهديدًا حقيقيًا ، على ما أعتقد.

كان ذلك ثم. الآن لست متأكدا.

ليس لأنني أعتقد أن ChatGPT أو النماذج اللغوية الكبيرة أو الذكاء الاصطناعي التوليفي قد اكتسبت هذه القدرات ويمكنها القيام بعمل الصحفي بشكل مناسب – لا يمكنهم ذلك. لكن لا يبدو أن هذا مهم. تقدم عمالقة التكنولوجيا وصنعوا الأدوات على أي حال. قد لا يكونون كذلك مصمم ليحلوا محل الصحفيين ، ولكن (المعلومات القليلة التي لدينا عن) قدراتهم تشير إلى أنه من المحتمل أن يفعلوا ذلك بالضبط.

مشاهدة الثالوث

ربما تكون لأنني مرهق من تشويش الأوتاد بحجم الذكاء الاصطناعي في فتحات بحجم الإنسان أو لمجرد أنني لم أشاهد أوبنهايمر (إنه بالتأكيد الأخير) ، لكن العواقب الدائمة لتطوير أداة مثل Genesis تشعر أنها أكبر من أي شيء رأيناه من الذكاء الاصطناعي التوليدي حتى الآن ، مع تداعيات مدوية على الأشخاص الذين سيتأثرون أكثر من غيرهم بإساءة استخدام هذه الأداة أو إساءة استخدامها: أنت – القارئ.

إن تشبيه أوبنهايمر مناسب للغاية هنا. عندما تعلم العلماء كيفية تقسيم الذرة ، اتضح لهم على الفور أن التفاعل يمكن أن يساعد في بناء قنبلة ذرية مدمرة. تم إجراء الاختبار الأول لمثل هذا السلاح ، الثالوث ، في صحراء نيو مكسيكو في 16 يوليو 1945. انفجرت القنبلة. انها عملت. وبعد مرور شهر ، تم إلقاء قنبلتين ذريتين على مدينتي هيروشيما وناغازاكي اليابانيتين. لا أرغب في التقليل من أهوال القنبلة الذرية أو مساواة قوة الذكاء الاصطناعي التوليدي بتلك المآسي. أريد فقط تسليط الضوء على مدى السرعة التي يمكننا بها الانتقال من النظرية إلى التطبيق ، مع القليل من الفهم للعواقب طويلة المدى. إنه أمر مقلق.

Genesis ، كما هو مفهوم حاليًا ، لا يمكنه توليد أخبار. يتطلب الأمر عنصرًا واحدًا من المسعى الصحفي – الكتابة – ويجعله يبدو كما لو كان العرض الكامل. إنه ليس كذلك. إنه يضر بالصحفيين من جميع الأطياف حتى يقترحوا هذا ويجب أن يشغلوا القراء الذين يفهمون أن القصص المهمة هي أكثر من مجرد كلمات مرتبة في التسلسل. الصحافة هي البحث عن المصادر والتحقق والتحقق من الحقائق وقضاء ساعات على الهواتف وسنوات في الوثائق.

نعم ، تدعي Google أن Genesis يمكن أن يساعد الصحفي ، ولكن يبدو أن الوصف المبكر للأداة يراها تعمل تمامًا مثل أداة التجميع. يمكنه تجميع شيء ما بسرعة يشبه مقال إخباري. ولكن إذا كان بإمكانه فقط إعادة مزج التقارير السابقة ، فهل من الأفضل لنا أن نقدمها من قبل ذكاء اصطناعي يقدم لنا تلك التقارير الأصلية فقط ، مع كل ما تم بالفعل من تحديد المصادر والتحقق والتحقق من الحقائق؟ أليس هذا مجرد خلق وتفاقم نفس المشاكل التي نواجهها بالفعل ، مثل كتابة البشر للقصص؟

هذه ليست أكثر قداسة من خطبة عن الصحفيين كونهم حكام الحقيقة ، في قلاعنا الدائمة ، عباقرة معصومين من الخطأ مع معرفة كل شيء. نحن لسنا ولا يمكن أن نكون. نحن بشر. وهناك بالفعل صفحات وصفحات تجميع على الإنترنت. مواقع ويب كاملة مبنية عليها. كل التفاصيل الصغيرة مجمعة للمحتوى. على سبيل المثال ، عمليا كل جملة قالها سيليان مورفي خلال الجولة الصحفية لأوبنهايمر قد وصلت إلى الإنترنت بطريقة أو بأخرى. تأخذ المواقع قطعة واحدة من الأخبار ، وتعيد مزجها وإعادة صياغتها وإعادة نشرها في قتال حتى الموت من أجل مقل العيون وتصنيفات Google.

ينتج عنه سلسلة متجانسة من القصص المتشابهة تغمر الويب والتلفزيون ووسائل التواصل الاجتماعي. Twitter ، أه آسفًا ، سيقوم مستخدمو “X” بإسقاط “5 نقاط رئيسية رئيسية” تم نسخها من تغريدة شخص آخر ، وينشر منشئو TikTok مقاطع فيديو لم ينتجونها من قصص لم يجروا بحثًا عنها ، دون تحديد مصدر هذه المعلومات أو حتى التحقق منها إذا كان هذا صحيحا. هذه الفوضى هي ، على الأقل جزئيًا ، سبب عدم وضوح فكرة الصحافة ذاتها. نحن نساوي الميل بالمادة لأننا نرى قدرًا كبيرًا من الميل.

أضف ذكاءً اصطناعيًا توليديًا إلى المزيج ويمكننا زيادة المنحدر. الأكثر إثارة للقلق ، نحن نقدم المخاطر. حسن التوقيت مهم. الدقة مهمة. القراء يستحقون كليهما ويريدون كليهما. قد يوفر الذكاء الاصطناعي الأول ، لكن ماذا عن الأخير؟ يبدو أننا نقف على أطراف اختبار ترينيتي ، نشاهد القنبلة تنفجر ونتخيل أنها لن تستخدم أبدًا بطريقة كارثية محتملة.

لا يوجد ما يوقف صعود الذكاء الاصطناعي في غرف الأخبار. تستكشف المنظمات كيف يمكن استخدام الذكاء الاصطناعي التوليدي بحكمة وبشكل مناسب كجزء من مجموعة أدواتها ، جنبًا إلى جنب مع الكتاب والمحررين البشريين. بعد بعض الصعب التجربة الاولية، وضعت CNET معايير عندما يكون الذكاء الاصطناعي التوليدي أداة معقولة يستخدمها الصحفيون وعندما لا يكون كذلك. يمكنك قراءة سياسة الذكاء الاصطناعي الكاملة الخاصة بناهنا.

لقد شوهد نوع الخبرة التي عشناها في أماكن أخرى أيضًا. في io9 من Gizmodo قبل بضعة أسابيع ، أنتج الذكاء الاصطناعي قصة مليئة بالأخطاء حول أفلام حرب النجوم والبرامج التلفزيونية. هذه التجارب بمثابة تحذيرات حول الاندفاع نحو تطوير الذكاء الاصطناعي كمزود للأخبار.

صد ضد سفر التكوين

تقول Google إنها تستكشف أدواتها التي تدعم الذكاء الاصطناعي “بالشراكة” مع الناشرين ، مما يعني أن هناك وقتًا للناشرين للتراجع. إذا كانت العروض التوضيحية مقلقة ، كما قال مسؤول تنفيذي مجهول لصحيفة التايمز ، فربما يجب علينا منع استخدام Genesis؟ لحسن الحظ ، على عكس اختبارات Trinity ، لا تُجرى تجارب الذكاء الاصطناعي هذه سراً ، في منطقة نائية في صحراء نيو مكسيكو.

لم يفت الأوان بعد. يمكن تعيين المعايير الآن: لا ينبغي استخدام الذكاء الاصطناعي لإنشاء مقالات إخبارية بناءً على الأحداث الجارية. لا ينبغي منحها القدرة على القيام بذلك.

السبب الوحيد الذي نعرفه عن Genesis على الإطلاق هو أن الصحفيين ، الذين يتحدثون إلى مصادر لديها معرفة بالمنتج السري ، كانوا قادرين على التحقق من وجوده. لقد تمكنوا من حث شركة Google على تسجيل الشركة ، وكشفوا حقيقة وجودها. لقد وفروا السياق ، من خلال التحدث مع الخبراء ، حول الوعد والمزالق المحتملة لمثل هذه الأداة. في النهاية ، كتبوا شيئًا ما.

كسر البشر قصة سفر التكوين. سفر التكوين لا يمكن أبدا.

ملاحظة المحررين: CNET يستخدم محرك الذكاء الاصطناعي للمساعدة في إنشاء بعض القصص. للمزيد انظرهذا المشنور.

اقرأ أكثر

تطرح Google إجراءات مكافحة الملاحقة لـ AirTag وأجهزة تعقب البلوتوث الأخرى
تعمل Google على تحديث سياسة المحتوى الصادم لاستبعاد صور اللعب

Reactions

0
0
0
0
0
0
بالفعل كان رد فعل لهذا المنصب.

ردود الفعل