بياتا زورزيل | نورفوتو | صور جيتي
تسمح أيضًا أداة YouTube التي تستخدم القياسات الحيوية لمنشئي المحتوى لمساعدتهم على إزالة مقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتي تستغل تشابههم”QuoteInBody” المعرف=”RegularArticle-QuoteInBody-1″>”http://www.cnbc.com/quotes/GOOGL/”>جوجل لتدريب نماذج الذكاء الاصطناعي الخاصة بها على تلك البيانات الحساسة، حسبما قال الخبراء لـ CNBC.
ردًا على مخاوف خبراء الملكية الفكرية، أخبر موقع YouTube CNBC أن Google لم تستخدم أبدًا البيانات البيومترية الخاصة بمنشئي المحتوى لتدريب نماذج الذكاء الاصطناعي، وأنها تقوم بمراجعة اللغة المستخدمة في نموذج الاشتراك في الأداة لتجنب الارتباك. لكن يوتيوب أخبر CNBC أنه لن يغير سياسته الأساسية.
ويسلط هذا التناقض الضوء على انقسام أوسع في الداخل”QuoteInBody” المعرف=”RegularArticle-QuoteInBody-2″>”http://www.cnbc.com/quotes/GOOGL/”>الأبجدية، حيث تعمل Google على توسيع نطاقها بقوة”https://www.cnbc.com/2025/11/27/how-google-put-together-the-pieces-for-its-ai-comeback.html”> جهود الذكاء الاصطناعي بينما يعمل YouTube على الحفاظ على الثقة مع منشئي المحتوى وأصحاب الحقوق الذين يعتمدون على النظام الأساسي لأعمالهم.
يوتيوب يوسع نطاقه “likeness detection,” وهي أداة قدمتها الشركة في أكتوبر الماضي، والتي تقوم بالإبلاغ عن استخدام وجه منشئ المحتوى دون إذنه في عمليات التزييف العميق، وهو المصطلح المستخدم لوصف مقاطع الفيديو المزيفة التي تم إنشاؤها باستخدام الذكاء الاصطناعي. يتم توسيع هذه الميزة لتشمل ملايين منشئي المحتوى في برنامج شركاء YouTube حيث أصبح المحتوى الذي يتم معالجته بواسطة الذكاء الاصطناعي أكثر انتشارًا عبر وسائل التواصل الاجتماعي.
تقوم الأداة بفحص مقاطع الفيديو التي تم تحميلها عبر YouTube لتحديد المكان الذي ربما تم فيه تغيير وجه منشئ المحتوى أو إنشاؤه بواسطة الذكاء الاصطناعي. يمكن لمنشئي المحتوى بعد ذلك أن يقرروا ما إذا كانوا سيطلبون إزالة الفيديو، ولكن لاستخدام الأداة، يطلب YouTube من منشئي المحتوى تحميل معرف حكومي ومقطع فيديو بيومتري لوجههم. القياسات الحيوية هي قياس الخصائص الجسدية للتحقق من هوية الشخص.
ويقول الخبراء إنه من خلال ربط الأداة بسياسة خصوصية جوجل، فقد ترك يوتيوب الباب أمام إساءة استخدام القياسات الحيوية لمنشئي المحتوى في المستقبل. ال”https://policies.google.com/privacy?hl=en#researchanddev” الهدف=”_blank”>السياسة تنص على أنه يمكن استخدام المحتوى العام، بما في ذلك المعلومات البيومترية “to help train Google’s AI models and build products and features.”
“Likeness detection is a completely optional feature, but does require a visual reference to work,” وقال المتحدث باسم يوتيوب، جاك مالون، في بيان لـ CNBC: “Our approach to that data is not changing. As our Help Center has ذكرمنذ الإطلاق، يتم استخدام البيانات المقدمة لأداة الكشف عن التشابه فقط لأغراض التحقق من الهوية ولتشغيل ميزة الأمان المحددة هذه.”
قال يوتيوب لـ CNBC إنه كذلك “considering ways to make the in-product language clearer.” ولم تذكر الشركة ما هي التغييرات المحددة في الصياغة التي سيتم إجراؤها أو متى ستدخل حيز التنفيذ.
ولا يزال الخبراء حذرين، قائلين إنهم أثاروا مخاوف بشأن السياسة على موقع يوتيوب منذ أشهر.
“As Google races to compete in AI and training data becomes strategic gold, creators need to think carefully about whether they want their face controlled by a platform rather than owned by themselves,” قال دان نيلي، الرئيس التنفيذي لشركة Vermillio، التي تساعد الأفراد على حماية صورهم من إساءة الاستخدام وتسهل أيضًا الترخيص الآمن للمحتوى المصرح به. “Your likeness will be one of the most valuable assets in the AI era, and once you give that control away, you may never get it back.”
Vermillio وLoti هما شركتان تابعتان لجهات خارجية تعملان مع المبدعين والمشاهير وشركات الإعلام لمراقبة حقوق التشابه عبر الإنترنت وإنفاذها. ومع التقدم في إنتاج مقاطع الفيديو بتقنية الذكاء الاصطناعي، زادت فائدتها لأصحاب حقوق الملكية الفكرية.
قال الرئيس التنفيذي لشركة Loti، Luke Arrigoni، عن مخاطر سياسة القياسات الحيوية الحالية لموقع YouTube “are enormous.”
“Because the release currently allows someone to be able to attach that name to the actual biometrics of the face, they could create something more synthetic that looks like that person,” قال أريجوني.
قال كل من Neely وArrigoni إنهما لا ينصحان حاليًا بأن يقوم أي من عملائهم بالتسجيل لاكتشاف التشابه على YouTube.
قال أمجد حنيف، رئيس منتج منشئي YouTube، إن YouTube قام ببناء أداة الكشف عن التشابه الخاصة به للعمل “at the scale of YouTube,” حيث يتم نشر مئات الساعات من اللقطات الجديدة كل دقيقة. وقال حنيف إنه من المقرر أن تكون الأداة متاحة لأكثر من 3 ملايين منشئ محتوى في برنامج شركاء YouTube بحلول نهاية شهر يناير.
“We do well when creators do well,” وقال حنيف لقناة سي إن بي سي. “We’re here as stewards and supporters of the creator ecosystem, and so we are investing in tools to support them on that journey.”
ويأتي هذا الطرح في الوقت الذي تتحسن فيه أدوات الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي بسرعة من حيث الجودة وإمكانية الوصول، مما يثير مخاوف جديدة للمبدعين الذين يعتبر شكلهم وصوتهم عنصرًا أساسيًا في أعمالهم.
ينشئ اليوتيوبر دكتور مايك، واسمه الحقيقي ميخائيل فارشافسكي، مقاطع فيديو تتفاعل مع الدراما الطبية التلفزيونية، ويجيب على أسئلة حول البدع الصحية وفضح الأساطير التي غمرت الإنترنت منذ ما يقرب من عقد من الزمن.
دكتور مايك
قال منشئ موقع YouTube، ميخائيل فارشافسكي، وهو طبيب يسميه دكتور مايك على منصة الفيديو، إنه يستخدم أداة الكشف عن التشابه الخاصة بالخدمة لمراجعة العشرات من مقاطع الفيديو التي يتم التلاعب بها بواسطة الذكاء الاصطناعي أسبوعيًا.
كان Varshavski موجودًا على YouTube منذ ما يقرب من عقد من الزمن وقد جمع أكثر من 14 مليون مشترك على المنصة. يصنع مقاطع فيديو تتفاعل مع الدراما الطبية التليفزيونية، ويجيب على أسئلة حول البدع الصحية وفضح الخرافات. إنه يعتمد على مصداقيته كطبيب معتمد من قبل مجلس الإدارة لإعلام مشاهديه.
وقال فارشافسكي إن التقدم السريع في الذكاء الاصطناعي سهّل على الممثلين السيئين تقليد وجهه وصوته في مقاطع فيديو مزيفة يمكن أن تقدم لمشاهديه نصائح طبية مضللة.
لقد واجه لأول مرة تزييفًا عميقًا لنفسه على TikTok، حيث قام شبيه تم إنشاؤه بواسطة الذكاء الاصطناعي بالترويج لـ “miracle” ملحق.
“It obviously freaked me out, because I’ve spent over a decade investing in garnering the audience’s trust and telling them the truth and helping them make good health care decisions,” قال. “To see someone use my likeness in order to trick someone into buying something they don’t need or that can potentially hurt them, scared everything about me in that situation.”
أدوات إنشاء الفيديو بالذكاء الاصطناعي مثل”https://www.cnbc.com/2025/05/20/google-ai-video-generator-audio-veo-3.html”> جوجل فيو 3 و”https://www.cnbc.com/2025/06/10/openai-cnbc-disruptor-50.html”> OpenAI لقد سهّل Sora بشكل كبير إنشاء صور مزيفة للمشاهير والمبدعين مثل Varshavski. وذلك لأن تشابهها يظهر بشكل متكرر في مجموعات البيانات التي تستخدمها شركات التكنولوجيا لتدريب نماذج الذكاء الاصطناعي الخاصة بها.
تم تدريب Veo 3 على مجموعة فرعية من أكثر من 20 مليار مقطع فيديو تم تحميلها على YouTube،”https://www.cnbc.com/2025/06/19/google-youtube-ai-training-veo-3.html”> ذكرت سي إن بي سي في يوليو. يمكن أن يشمل ذلك عدة مئات من ساعات الفيديو من فارشافسكي.
التزييف العميق لديه “become more widespread and proliferative,” قال فارشافسكي. “I’ve seen full-on channels created weaponizing these types of AI deep fakes, whether it was for tricking people to buy a product or strictly to bully someone.”
في الوقت الحالي، لا يملك المبدعون أي وسيلة لتحقيق الدخل من الاستخدام غير المصرح به لصورهم، على عكس خيارات تقاسم الإيرادات المتاحة من خلال نظام معرف المحتوى على يوتيوب للمواد المحمية بحقوق الطبع والنشر، والذي تستخدمه عادة الشركات التي تمتلك كتالوجات كبيرة لحقوق الطبع والنشر. وقال حنيف من يوتيوب إن الشركة تستكشف كيف يمكن أن يعمل نموذج مماثل لاستخدام التشابه الناتج عن الذكاء الاصطناعي في المستقبل.
في وقت سابق من هذا العام، أعطى YouTube لمنشئي المحتوى خيار السماح لشركات الذكاء الاصطناعي التابعة لجهات خارجية بالتدريب على مقاطع الفيديو الخاصة بهم. وقال حنيف إن الملايين من المبدعين اختاروا هذا البرنامج، دون وعد بالتعويض.
وقال حنيف إن فريقه لا يزال يعمل على تحسين دقة المنتج، لكن الاختبار المبكر كان ناجحًا، على الرغم من أنه لم يقدم مقاييس الدقة.
أما بالنسبة لنشاط الإزالة عبر المنصة، قال حنيف إنه لا يزال منخفضًا إلى حد كبير لأن العديد من منشئي المحتوى يختارون عدم حذف مقاطع الفيديو التي تم الإبلاغ عنها.
“They’ll be happy to know that it’s there, but not really feel like it merits taking down,” قال حنيف. “By and far the most common action is to say, ‘I’ve looked at it, but I’m okay with it.'”
قال الوكلاء والمدافعون عن حقوق الإنسان لـ CNBC إن انخفاض أعداد عمليات الإزالة من المرجح أن يكون بسبب الارتباك ونقص الوعي بدلاً من الارتياح لمحتوى الذكاء الاصطناعي.
يشاهد: يتحول سرد الذكاء الاصطناعي نحو Google بمجموعته الكاملة، كما يقول لو توني من شركة Plexo Capital