في الأسبوع الماضي ، قامت Meta بخطوة غيرت قواعد اللعبة في عالم الذكاء الاصطناعي.
في الوقت الذي تحرس فيه شركات الذكاء الاصطناعي الرائدة الأخرى مثل Google و OpenAI عن كثب صلصةها السرية ، Meta قررت التخلي، مجانًا ، الكود الذي يدعمه المبتكر الجديد نموذج لغة كبير لمنظمة العفو الدولية، Llama 2. وهذا يعني أن الشركات الأخرى يمكنها الآن استخدام نموذج Meta Llama 2 ، والذي يقول بعض التقنيين إنه يمكن مقارنته بـ ChatGPT في قدراته ، لبناء روبوتات محادثة مخصصة خاصة بهم.
يمكن أن يتحدى Llama 2 هيمنة ChatGPT ، التي حطمت الأرقام القياسية لكونها واحدة من الأسرع نموًا تطبيقات في كل العصور. ولكن الأهم من ذلك ، أن طبيعته مفتوحة المصدر تضيف إلحاحًا جديدًا إلى نقاش أخلاقي مهم حول من يجب أن يتحكم في الذكاء الاصطناعي – وما إذا كان يمكن جعله آمنًا.
نظرًا لأن الذكاء الاصطناعي أصبح أكثر تقدمًا وربما يكون أكثر خطورة ، فهل من الأفضل للمجتمع إذا كانت الشفرة خفية – تقتصر على موظفي عدد صغير من الشركات – أو يجب مشاركتها مع الجمهور حتى يمكن لمجموعة أكبر من الناس يد في تشكيل التكنولوجيا التحويلية؟
تتخذ شركات التكنولوجيا الكبرى مناهج مختلفة
في إعلان Meta Llama 2 ، مارك زوكربيرج نشر Instagram لنفسه يبتسم مع الرئيس التنفيذي لشركة Microsoft ، ساتيا ناديلا ، معلناً عن شراكة الشركتين عند الإصدار. قدم زوكربيرج أيضًا حجة لماذا من الأفضل أن تكون نماذج الذكاء الاصطناعي الرائدة “مفتوحة المصدر” ، مما يعني جعل الكود الأساسي للتكنولوجيا متاحًا إلى حد كبير لاستخدام أي شخص.
كتب زوكربيرج: “المصدر المفتوح يقود الابتكار لأنه يمكّن العديد من المطورين من البناء بتقنية جديدة” في منشور منفصل على Facebook. “كما أنه يعمل على تحسين السلامة والأمن لأنه عندما يكون البرنامج مفتوحًا ، يمكن لعدد أكبر من الأشخاص تدقيقه لتحديد المشكلات المحتملة وإصلاحها.”
تم الترحيب بهذه الخطوة من قبل العديد من مطوري الذكاء الاصطناعي والباحثين والأكاديميين الذين يقولون إن هذا سيمنحهم وصولاً غير مسبوق لبناء أدوات جديدة أو أنظمة دراسة قد يكون إنشاءها باهظ التكلفة. يمكن أن تكلف نماذج اللغات الكبيرة المتطورة مثل تلك التي تشغل ChatGPT عشرات الملايين من الدولارات لإنشائها وصيانتها.
قالت نازنين راجاني ، قائدة البحث في منصة الذكاء الاصطناعي مفتوحة المصدر Hugging Face ، “إنني أجهز نفسي لمعرفة نوع التقدم الذي يمكن أن يحدث” تعاونت مع Meta على الإصدار. راجاني كتب منشورًا على Twitter بتقييم قدرات Llama 2 عند طرحها لأول مرة وإخبار Vox ، “سنكون قادرين على الكشف عن المزيد من المكونات السرية حول ما يتطلبه الأمر بالفعل لبناء نموذج مثل GPT-4.”
لكن المصدر المفتوح للذكاء الاصطناعي ينطوي على مخاطر كبيرة. بعض أكبر اللاعبين في هذا المجال ، بما في ذلك OpenAI و Google المدعومان من Microsoft ، كانوا كذلك يحد مقدار أنظمة الذكاء الاصطناعي الخاصة بهم متاحة للعامة بسبب ما يشيرون إليه على أنه مخاطر جسيمة لهذه التقنيات.
يتزايد قلق بعض التقنيين بشأن سيناريوهات يوم القيامة الافتراضية التي يمكن أن يتفوق فيها الذكاء الاصطناعي على البشر لإلحاق أضرار مثل إطلاق سلاح بيولوجي خارق أو إحداث فوضى أخرى بطرق لا يمكننا تخيلها تمامًا. المؤسس المشارك لـ OpenAI ، إيليا سوتسكيفر ، قال The Verge في فبراير ، كانت شركته “مخطئة تمامًا” عندما شاركت تفاصيل حول نماذجها بشكل أكثر صراحة في الماضي لأنه إذا أصبح الذكاء الاصطناعي في يوم من الأيام بنفس مستوى ذكاء البشر ، ووصل إلى ما يسميه البعض الذكاء الاصطناعي العام أو الذكاء الاصطناعي العام ، فسيكون من غير الحكمة مشاركة ذلك مع الجماهير.
“إذا كنت تؤمن ، كما نعتقد ، أنه في مرحلة ما ، سيكون الذكاء الاصطناعي – الذكاء الاصطناعي العام – فعالًا للغاية ، بشكل لا يصدق ، فعندئذ لا يكون من المنطقي فتح المصدر. قال سوتسكفر في ذلك الوقت إنها فكرة سيئة.
في حين أننا قد نكون بعيدين عن أنظمة الذكاء الاصطناعي القادرة على التسبب في تدمير بشري حقيقي ، فقد رأينا بالفعل إساءة استخدام أدوات الذكاء الاصطناعي من مجتمع المصادر المفتوحة بطرق أخرى. على سبيل المثال ، بعد فترة وجيزة من إصدار Meta لأول نموذج من Llama بدقة لـ استخدام البحث في فبراير، فقد تم تسريبها على لوحة الرسائل على الإنترنت 4Chan ، حيث تم استخدامها بعد ذلك إنشاء روبوتات محادثة تنشر محتوى يحض على الكراهية مثل العرق الإهانات ، وفي بعض الحالات ، مشاهد عنف تصويري.
كتب أحمد الدحل ، نائب الرئيس للذكاء الاصطناعي التوليدي في Meta ، في رسالة بريد إلكتروني إلى Vox: “إننا نأخذ هذه المخاوف على محمل الجد وقد وضعنا عددًا من الأشياء لدعم نهج مسؤول للبناء باستخدام Llama 2”. وقال الدحل إن هذه الإجراءات تشمل “تشكيل فرق حمراء” ، أو اختبار الضغط قبل إطلاقه من خلال تغذيته ، من المتوقع أن يولد “مخرجات محفوفة بالمخاطر” ، مثل تلك المتعلقة بالسلوك الإجرامي والمحتوى البغيض. قامت Meta أيضًا بضبط نموذجها للتخفيف من هذا النوع من السلوك ووضع إرشادات جديدة تحظر بعض الاستخدامات غير القانونية والضارة.
تقول Meta إنها ستستمر في ضبط نموذجها للأمان بعد صدوره.
قال الدحل: “عندما يتم إطلاق التكنولوجيا وصقلها في العلن ، نعتقد أنها تؤدي في النهاية إلى مناقشات أكثر شفافية وزيادة الاستجابة لمواجهة التهديدات وزيادة التكرار في بناء أدوات وتقنيات ذكاء اصطناعي أكثر مسؤولية”.
يشير بعض الخبراء ، على سبيل المثال ، إلى أن لدينا مشكلة المعلومات المضللة حتى قبل وجود الذكاء الاصطناعي في شكله الحالي. ويقولون إن ما يهم أكثر في هذه المرحلة هو كيفية توزيع هذه المعلومات المضللة. قال أستاذ علوم الكمبيوتر في جامعة برينستون ، آرفيند نارايانان ، لـ Vox إن “عنق الزجاجة للممثلين السيئين لا يولد معلومات مضللة – إنه يوزعها ويقنع الناس.” وأضاف: “الذكاء الاصطناعي ، سواء أكان مفتوح المصدر أم لا ، لم يسهّل هذه الخطوات بأي شكل من الأشكال”.
لمحاولة احتواء انتشار المعلومات المضللة ، يمكن للشركات التي تصنع نماذج الذكاء الاصطناعي وضع بعض القيود على كيفية استخدام برامجها. ميتا ، على سبيل المثال ، لديه بعض القواعد منع المستخدمين من استخدام Llama 2 للترويج للعنف أو المضايقة ، ولكن من المحتمل أن يكون من الصعب تطبيق هذه القواعد.
تجدر الإشارة أيضًا إلى أن Llama 2 أيضًا ليست مفتوحة بالكامل. لم تنشر Meta بيانات التدريب تُستخدم لتدريس أحدث نموذج ، وهو مكون رئيسي في أي نظام ذكاء اصطناعي ؛ يقول الباحثون إنه من الأهمية بمكان قياس التحيز في أنظمة الذكاء الاصطناعي. أخيرًا ، تتطلب Meta من الشركات التي لديها أكثر من 700 مليون مستخدم شهريًا – لذلك ، في الأساس ، فقط حفنة من عمالقة التكنولوجيا الزملاء مثل Google – أن تطلب إذن Meta قبل استخدام البرنامج.
مع ذلك ، بشكل عام ، Llama 2 هو مشروع الذكاء الاصطناعي الأكثر انفتاحًا الذي رأيناه مؤخرًا من شركة تكنولوجيا كبرى. وهو ما يطرح السؤال حول كيفية استجابة الشركات الأخرى.
إذن ما هو الحال بالضبط مع وضد عالم ذكاء إصطناعي أكثر انفتاحًا؟ وما هو الاتجاه الذي يبدو أننا نتجه نحوه ، خاصة بالنظر إلى إعلان Meta الأخير؟
المصدر المفتوح يمكن أن يؤدي إلى مزيد من الابتكار
إذا كنت مستخدمًا عاديًا لأدوات الذكاء الاصطناعي مثل ChatGPT ، فقد لا ترى الفوائد الفورية لنماذج AI مفتوحة المصدر. ولكن إذا كنت مطورًا أو باحثًا في مجال الذكاء الاصطناعي ، فإن إدخال LLMs مفتوحة المصدر مثل Llama 2 يفتح عالمًا من الاحتمالات.
قال أنطون تروينيكوف ، أحد مؤسسي شركة Chroma الناشئة للذكاء الاصطناعي ورئيسها التكنولوجي ، “إنها صفقة ضخمة” ، والتي تبني قواعد بيانات يقوم المطورون بإدخالها في أنظمة الذكاء الاصطناعي لتخصيصها ببياناتهم وحقائقهم وأدواتهم.
بالنسبة لشخص مثل Troynikov ، يمكن أن يتيح استخدام Llama 2 للشركة منح مستخدميها مزيدًا من التحكم في كيفية استخدام بياناتها.
قال تروينيكوف ، الذي أعطى مثالاً عن الأطباء الذين لا يحتاجون إلى كشف السجلات الطبية للمرضى لطرف ثالث. “لم تعد بياناتك مضطرة للذهاب إلى أي مكان للحصول على هذه الإمكانات الرائعة.”
قال Troynikov إنه شخصياً بدأ للتو في استخدام Llama 2 ولا يزال يختبر مدى نجاحها مع تكنولوجيا شركته.
من السابق لأوانه أن نرى بالضبط كيف سيتم استخدام Llama 2 ، لكن Meta Al-Dahle قال إنه يرى “مجموعة من الاحتمالات في إنشاء وكلاء ومساعدين يعتمدون على الدردشة يساعدون في تحسين الإنتاجية وخدمة العملاء والكفاءة للشركات التي ربما لم يتمكن من الوصول إلى هذه التكنولوجيا ونشرها بطريقة أخرى “.
هناك أيضًا مصلحة ذاتية هنا لتحسين منتجات Meta الخاصة. إذا وضعت Meta نماذج الذكاء الاصطناعي الخاصة بها في البرية ، فسيقوم مجتمع المصادر المفتوحة للمهندسين الخارجيين بتحسين نماذجها ، والتي يمكن أن تستخدمها Meta بعد ذلك لبناء أدوات الذكاء الاصطناعي داخل التطبيق التي قالت الشركة إنها تعمل عليها ، مثل روبوتات الدردشة المساعدة للأعمال.
بهذه الطريقة ، لا يتعين على Meta أن تضع كل مواردها في اللحاق بركب OpenAI و Google ، اللذين يتقدمان في وضع أدوات الذكاء الاصطناعي التوليدية في خط إنتاجهما الرئيسي.
سوف يستفيد الذكاء الاصطناعي من المصادر المفتوحة من “ذكاء الجماهير”
يعتقد بعض الخبراء البارزين أنه إذا كانت نماذج الذكاء الاصطناعي مفتوحة المصدر ، فقد تصبح أكثر ذكاءً وأقل عيوبًا أخلاقية بشكل عام.
من خلال المصادر المفتوحة لنماذج الذكاء الاصطناعي ، يمكن لعدد أكبر من الناس البناء عليها وتحسينها. شركة Stability AI مفتوحة المصدر تعمل بالفعل إنشاء نموذج يسمى “FreeWilly” التي تعتمد على اللاما 2. سرعان ما أصبحت شائعة ويمكن الآن أن تتفوق على نشأتها ، اللاما 2 ، في بعض الاختبارات. وقد أدى ذلك إلى ارتقائها إلى قمة نماذج الذكاء الاصطناعي مفتوحة المصدر في Hugging Face.
“يتفوق الأشخاص خارج Meta على Meta في أدائها ونماذجها الخاصة التي جمعوها بعناية ورعايتها على مر السنين. قال راجاني: “لقد تمكنوا من القيام بذلك في غضون أسبوع”. “من الصعب التغلب على ذكاء الجماهير”
وفي الوقت نفسه ، يتمتع مجتمع الذكاء الاصطناعي بتاريخ قوي في معرفة المصادر المفتوحة. قامت Google ببناء نموذج المحول ومشاركته علنًا ، وهو عبارة عن شبكة عصبية تفهم السياق ، مثل اللغة ، من خلال تتبع العلاقات بين أجزاء البيانات ، مثل الكلمات الموجودة في الجملة. أصبح النموذج أساسيًا في نماذج الذكاء الاصطناعي المتطورة ، ويستخدم في العديد من التطبيقات بما في ذلك ChatGPT (يرمز الحرف “T” في GPT إلى المحول).
قال الأستاذ برينستون أرفيند نارايانان ، إن نماذج المصادر المفتوحة تسمح للباحثين بدراسة قدرات ومخاطر الذكاء الاصطناعي بشكل أفضل وإيقاف تركيز القوة في أيدي عدد قليل من الشركات ، مشيرًا إلى مخاطر تشكل “ثقافة أحادية” تكنولوجية.
قال: “يمكن أن يكون للزراعة الأحادية عواقب وخيمة”. “عندما يتم استخدام النموذج نفسه ، على سبيل المثال GPT-4 ، في آلاف أو ملايين التطبيقات ، فإن أي ثغرة أمنية في هذا النموذج ، مثل كسر الحماية ، يمكن أن تؤثر على جميع هذه التطبيقات.”
من الناحية التاريخية ، يشير الخبراء إلى أن الذكاء الاصطناعي قد ازدهر كمجال لأن باحثي الشركة والأكاديميين وغيرهم من الخبراء كانوا على استعداد لمشاركة الملاحظات.
قال رومان شودري ، المؤسس المشارك لـ Humane Intelligence ، وهي منظمة غير ربحية تعمل على تطوير أنظمة ذكاء اصطناعي مسؤولة: “أحد الأسباب التي تجعل علم البيانات والذكاء الاصطناعي صناعة ضخمة هو في الواقع لأنه مبني على ثقافة مشاركة المعرفة”. “أعتقد أنه من الصعب حقًا على الأشخاص الذين ليسوا في مجتمع علوم البيانات أن يدركوا مقدار ما نعطيه لبعضنا البعض.”
علاوة على ذلك ، يقول بعض الأكاديميين في الذكاء الاصطناعي إن نماذج المصدر المفتوح تسمح للباحثين بالعثور بشكل أفضل ليس فقط على العيوب الأمنية ، ولكن المزيد من العيوب النوعية في نماذج اللغة الكبيرة ، والتي ثبت أنها تديم التحيز أو الهلوسة أو أي محتوى إشكالي آخر.
يجادل بعض الباحثين بأنه بينما يمكن للشركات اختبار بعض هذه التحيزات مسبقًا ، فمن الصعب توقع كل نتيجة سلبية حتى يتم إطلاق هذه النماذج في البرية.
“أعتقد أنه يجب إجراء المزيد من الأبحاث حول النقطة التي يمكن استغلال نقاط الضعف فيها. قال راجاني: “يجب أن يكون هناك تدقيق وتحليل للمخاطر وأن يكون لديك ورقة مخاطر … كل هذا لا يمكن القيام به إلا إذا كان لديك نموذج مفتوح ويمكن دراسته”.
لكن الذكاء الاصطناعي مفتوح المصدر يمكن أن يخطئ بشكل فادح
حتى أكثر المؤيدين المتحمسين لنماذج الذكاء الاصطناعي المفتوحة يقرون بوجود مخاطر كبيرة. وكيف يمكن للذكاء الاصطناعي أن يخطئ بالتحديد يدير الطيف من تزوير هويات الناس بسهولة إلى القضاء على الإنسانية ، على الأقل من الناحية النظرية. الحجة الأكثر إلحاحًا في هذا السيناريو هي أنه إذا وصل الذكاء الاصطناعي إلى نوع من الذكاء الاصطناعي العام ، فقد يتفوق يومًا ما على البشر بطرق لن نكون قادرين على التحكم فيها.
في جلسة استماع حديثة لمجلس الشيوخ ، الرئيس التنفيذي لشركة OpenAI قال سام التمان للكونجرس أنه مع “كل مخاطر الذكاء الاصطناعي ، كلما قل عددنا الذي يتعين عليك مراقبته بعناية – على الإمكانات المطلقة ، والنزيف” ، كان من الأسهل على المنظمين التحكم.
من ناحية أخرى ، حتى ألتمان اعترف بأهمية السماح لمجتمع المصادر المفتوحة بالنمو. واقترح وضع نوع من الحدود بحيث عندما يلبي نموذج ما “عتبات قدرة” معينة لأداء مهام محددة ، يجب إجباره على الحصول على ترخيص من الحكومة.
هذا الأمر الذي يبدو أن بعض مؤيدي المصادر المفتوحة يتفقون فيه مع ألتمان. إذا وصلنا إلى النقطة التي تقترب فيها نماذج الذكاء الاصطناعي من تجاوز الإنسانية ، فربما يمكننا الضغط على المكابح في المصادر المفتوحة.
لكن السؤال الصعب مع الذكاء الاصطناعي هو في أي نقطة نقرر أنه من الصعب جدًا تركه دون قيود؟ وإذا خرج الجني من القمقم في تلك المرحلة ، فهل سيكون من المستحيل إيقاف تقدم الذكاء الاصطناعي؟ هذه الأسئلة من المستحيل الإجابة عليها بشكل مؤكد في الوقت الحالي. ولكن في غضون ذلك ، يتوفر الذكاء الاصطناعي مفتوح المصدر هنا ، وبينما توجد مخاطر فورية حقيقية ، بالإضافة إلى المخاطر التي يمكن أن تتزايد في المستقبل ، هناك أيضًا فوائد واضحة لنا جميعًا في وجود مجموعة أكبر من الأشخاص يفكرون في الأمر.
r n أولاً ، الدولارات الإعلانية ترتفع وتنخفض مع الاقتصاد. غالبًا ما نعرف بعد بضعة أشهر فقط ما ستكون عليه عائدات الإعلانات لدينا ، مما يجعل من الصعب التخطيط للمستقبل. r n
r n ثانيًا ، نحن لسنا في مجال الاشتراكات. Vox هنا لمساعدة الجميع على فهم المشكلات المعقدة التي تشكل العالم – وليس فقط الأشخاص الذين يمكنهم دفع رسوم الاشتراك. نعتقد أن هذا جزء مهم من بناء مجتمع أكثر مساواة. ولا يمكننا فعل ذلك إذا كان لدينا جدار حماية. r n
r n من المهم أن يكون لدينا عدة طرق لكسب المال ، تمامًا كما هو مهم بالنسبة لك أن يكون لديك محفظة تقاعد متنوعة لتجاوز تقلبات سوق الأسهم. لهذا السبب ، على الرغم من أن الإعلان لا يزال أكبر مصدر دخل لنا ، فإننا نسعى أيضًا للحصول على المنح ودعم القراء. (وبغض النظر عن كيفية تمويل عملنا ، فلدينا إرشادات صارمة حول استقلالية التحرير.) r n
r nإذا كنت تعتقد أيضًا أن كل شخص يستحق الوصول إلى معلومات موثوقة عالية الجودة ، فهل ستقدم هدية لـ Vox اليوم؟ أي مبلغ يساعد. “و”article_footer_header”:”هل ستدعم الصحافة التفسيرية لـ Vox؟“و”use_article_footer”:حقيقي،”article_footer_cta_annual_plans”:”{ r n “default_plan “: 1 ، r n “خطط “:[rn{rn[rn{rn”كمية”: 95 ، r n “معرّف_الخطة “: 74295 r n} ، r n { r n “كمية”: 120 ، r n “معرّف_الخطة “: 81108 r n} ، r n { r n “كمية”: 250 ، r n “معرّف_الخطة “: 77096 r n} ، r n { r n “كمية”: 350 ، r n “معرّف_الخطة “: 92038 r n} r n] r n}”و”article_footer_cta_button_annual_copy”:”سنة”و”article_footer_cta_button_copy”:”نعم ، سأعطي”و”article_footer_cta_button_monthly_copy”:”شهر”و”article_footer_cta_default_frequency”:”سنوي”و”article_footer_cta_monthly_plans”:”{ r n “default_plan “: 1 ، r n “خطط “:[rn{rn[rn{rn”كمية”: 9 ، r n “معرّف_الخطة “: 77780 r n} ، r n { r n “كمية”: 20 ، r n “معرّف_الخطة “: 69279 r n} ، r n { r n “كمية”: 50 ، r n “معرّف_الخطة “: 46947 r n} ، r n { r n “كمية”: 100 ، r n “معرّف_الخطة “: 46782 r n} r n] r n}”و”article_footer_cta_once_plans”:”{ r n “default_plan “: 0 ، r n “خطط “:[rn{rn[rn{rn”كمية”: 20 ، r n “معرّف_الخطة “: 69278 r n} ، r n { r n “كمية”: 50 ، r n “معرّف_الخطة “: 48880 r n} ، r n { r n “كمية”: 100 ، r n “معرّف_الخطة “: 46607 r n} ، r n { r n “كمية”: 250 ، r n “معرّف_الخطة “: 46946 r n } r n] r n}”و”use_article_footer_cta_read_counter”:حقيقي،”use_article_footer_cta”:حقيقي،”مميز”:خطأ شنيع،”video_placeable”:خطأ شنيع،”تنصل”:باطل،”حجم_وضع”:”ليد”و”video_autoplay”:خطأ شنيع،”youtube_url”:”http://bit.ly/voxyoutube”و”facebook_video_url”:””و”play_in_modal”:حقيقي،”user_preferences_for_privacy_enabled”:خطأ شنيع،”show_branded_logos”: صحيح} “>
هل ستدعم الصحافة التفسيرية لـ Vox؟
تجني معظم المنافذ الإخبارية أموالها من خلال الإعلانات أو الاشتراكات. ولكن عندما يتعلق الأمر بما نحاول القيام به في Vox ، فهناك مشكلتان كبيرتان تتعلقان بالاعتماد على الإعلانات والاشتراكات لإبقاء الأضواء مضاءة.
أولاً ، ترتفع دولارات الإعلانات مع الاقتصاد. غالبًا ما نعرف بعد بضعة أشهر فقط ما ستكون عليه عائداتنا الإعلانية ، مما يجعل التخطيط للمستقبل أمرًا صعبًا.
ثانيًا ، لسنا في مجال الاشتراكات. Vox هنا لمساعدة الجميع على فهم المشكلات المعقدة التي تشكل العالم – وليس فقط الأشخاص الذين يمكنهم دفع رسوم الاشتراك. نعتقد أن هذا جزء مهم من بناء مجتمع أكثر مساواة. ولا يمكننا فعل ذلك إذا كان لدينا جدار حماية.
من المهم أن يكون لدينا عدة طرق لكسب المال ، تمامًا كما هو مهم بالنسبة لك أن يكون لديك محفظة تقاعد متنوعة للتغلب على الصعود والهبوط في سوق الأسهم. لهذا السبب ، على الرغم من أن الإعلان لا يزال أكبر مصدر دخل لنا ، فإننا نسعى أيضًا للحصول على المنح ودعم القراء. (وبغض النظر عن كيفية تمويل عملنا ، فلدينا إرشادات صارمة بشأن الاستقلال التحريري).
إذا كنت تعتقد أيضًا أن كل شخص يستحق الوصول إلى معلومات موثوقة عالية الجودة ، فهل ستقدم هدية لـ Vox اليوم؟ أي مبلغ يساعد.