من فضلك تسجيل الدخول أو تسجيل لتفعل ذلك.

جوجل تغيرت للتو سياسة الخصوصية لتطبيقاتها لإعلامك بأنها ستستخدم جميع بياناتك العامة وكل شيء آخر على الإنترنت لتدريب منافسيها في ChatGPT. لا توجد طريقة لمعارضة تغيير Google بخلاف حذف حسابك. حتى ذلك الحين ، قد يتم استخدام أي شيء قمت بنشره عبر الإنترنت لتدريب Bard من Google وبدائل ChatGPT الأخرى.

يجب أن يكون تغيير سياسة الخصوصية في Google بمثابة تذكير صارخ بعدم الإفراط في المشاركة مع أي روبوتات محادثة تعمل بالذكاء الاصطناعي. أدناه ، سأقدم بعض الأمثلة على المعلومات التي يجب عليك الاحتفاظ بها من الذكاء الاصطناعي حتى يمكن الوثوق بهذه البرامج فيما يتعلق بالخصوصيتك – إذا حدث ذلك.

نحن حاليًا في الغرب المتوحش للابتكار التوليدي للذكاء الاصطناعي عندما يتعلق الأمر بالتنظيم. ولكن في الوقت المناسب ، ستضع الحكومات في جميع أنحاء العالم أفضل الممارسات لبرامج الذكاء الاصطناعي التوليدية لحماية خصوصية المستخدم وحماية المحتوى المحمي بحقوق الطبع والنشر.

سيأتي اليوم الذي يعمل فيه الذكاء الاصطناعي التوليدي على الجهاز دون إبلاغ السفينة الأم. عاي دبوس الرفق بالحيوان يمكن أن يكون أحد هذه المنتجات. آبل فيجن برو قد يكون آخر ، بافتراض أن Apple لديها منتجها التوليدي AI على الكمبيوتر المكاني.

حتى ذلك الحين ، تعامل مع ChatGPT و Google Bard و Bing Chat مثل الغرباء في منزلك أو مكتبك. لن تشارك المعلومات الشخصية أو أسرار العمل مع شخص غريب.

لقد قلت لك من قبل لا يجب عليك مشاركة التفاصيل الشخصية مع ChatGPT، لكنني سأشرح أدناه نوع المعلومات التي تشكل معلومات حساسة يجب ألا تحصل عليها شركات الذكاء الاصطناعي منك.

صفحة ChatGPT الرئيسية مصدر الصورة: Stanislav Kogiku / SOPA Images / LightRocket عبر Getty Images

المعلومات الشخصية التي يمكن أن تحدد هويتك

ابذل قصارى جهدك لمنع مشاركة المعلومات الشخصية التي يمكن أن تحدد هويتك ، مثل الاسم الكامل والعنوان وتاريخ الميلاد ورقم الضمان الاجتماعي ، مع ChatGPT وبرامج الروبوت الأخرى.

تذكر أن OpenAI نفذت ميزات الخصوصية بعد شهور من إصدار ChatGPT. عند التمكين ، يتيح لك هذا الإعداد منع مطالباتك من الوصول إلى ChatGPT. لكن هذا لا يزال غير كافٍ لضمان بقاء معلوماتك السرية خاصة بمجرد مشاركتها مع برنامج الدردشة الآلي. يمكنك تعطيل هذا الإعداد ، أو قد يؤثر خطأ ما على فعاليته.

المشكلة هنا ليست أن ChatGPT ستستفيد من تلك المعلومات أو أن OpenAI ستفعل شيئًا شنيعًا بها. لكنها ستستخدم لتدريب الذكاء الاصطناعي.

والأهم من ذلك ، هاجم المتسللون شركة OpenAI ، وعانت الشركة خرق البيانات في أوائل شهر مايو. هذا هو نوع الحادث الذي قد يؤدي إلى وصول بياناتك إلى الأشخاص الخطأ.

بالتأكيد ، قد يكون من الصعب على أي شخص العثور على هذه المعلومات المحددة ، لكن هذا ليس مستحيلًا. ويمكنهم استخدام هذه البيانات لأغراض شائنة ، مثل سرقة هويتك.

أسماء المستخدمين وكلمات المرور

أكثر ما يريده المتسللون من خروقات البيانات هو معلومات تسجيل الدخول. يمكن أن تفتح أسماء المستخدمين وكلمات المرور أبوابًا غير متوقعة ، خاصةً إذا قمت بإعادة استخدام نفس بيانات الاعتماد لتطبيقات وخدمات متعددة. في هذه الملاحظة ، سأذكرك مرة أخرى باستخدام تطبيقات مثل ممر بروتون وكلمة مرور 1 سيساعدك ذلك على إدارة جميع كلمات المرور الخاصة بك بشكل آمن.

بينما أحلم بإخبار نظام التشغيل بتسجيل الدخول إلى أحد التطبيقات ، والذي من المحتمل أن يكون ممكنًا مع إصدارات ChatGPT الخاصة على الجهاز ، لا تشارك معلومات تسجيل الدخول الخاصة بك مع الذكاء الاصطناعي التوليدي. ليس هناك فائدة من القيام بذلك.

معلومات مالية

لا يوجد سبب لإعطاء معلومات مصرفية شخصية لـ ChatGPT أيضًا. لن تحتاج OpenAI أبدًا إلى أرقام بطاقات الائتمان أو تفاصيل الحساب المصرفي. ولا يستطيع ChatGPT فعل أي شيء به. مثل الفئات السابقة ، يعد هذا نوعًا شديد الحساسية من البيانات. في الأيدي الخطأ ، يمكن أن يؤدي ذلك إلى إتلاف أموالك بشكل كبير.

في هذه الملاحظة ، إذا طلب منك أي تطبيق يدعي أنه عميل ChatGPT لجهاز محمول أو كمبيوتر معلومات مالية ، فقد يكون هذا بمثابة علامة حمراء تتعامل معها البرامج الضارة ChatGPT. لا ينبغي لنا تحت أي ظرف من الظروف تقديم تلك البيانات. بدلاً من ذلك ، احذف التطبيق واحصل على تطبيقات الذكاء الاصطناعي الرسمية فقط من OpenAI أو Google أو Microsoft.

أصبح تطبيق ChatGPT الرسمي من OpenAI متاحًا الآن على نظام التشغيل iOS. مصدر الصورة: OpenAI

أسرار العمل

في الأيام الأولى لـ ChatGPT ، كان بعض موظفي Samsung رمز تم تحميله إلى chatbot. كانت تلك معلومات سرية وصلت إلى خوادم OpenAI. دفع هذا شركة Samsung إلى فرض حظر على روبوتات الذكاء الاصطناعي التوليدية. اتبعت شركات أخرى ، بما في ذلك شركة آبل. ونعم، تعمل Apple على منتجات شبيهة بـ ChatGPT.

على الرغم من سعيها لاختراق الإنترنت لتدريب منافسيها في ChatGPT ، فإن Google تعمل أيضًا تقييد استخدام الذكاء الاصطناعي التوليدي في العمل.

يجب أن يكون هذا كافيًا لإخبارك بضرورة الحفاظ على سرية أسرار عملك. وإذا كنت بحاجة إلى مساعدة ChatGPT ، فيجب أن تجد طرقًا أكثر إبداعًا للحصول عليها بدلاً من إراقة أسرار العمل.

معلومات صحية

سأترك هذا واحدًا أخيرًا ، ليس لأنه غير مهم ، ولكن لأنه معقد. أنصح بعدم مشاركة البيانات الصحية بتفاصيل كبيرة مع روبوتات الدردشة.

قد ترغب في إعطاء مطالبات الروبوتات التي تحتوي على سيناريوهات “ماذا لو” لشخص تظهر عليه أعراض معينة. أنا لا أقول استخدام ChatGPT لتشخيص أمراضك بنفسك الآن. أو للبحث عن الآخرين. سنصل إلى نقطة زمنية يكون فيها الذكاء الاصطناعي التوليدي قادرًا على القيام بذلك. حتى مع ذلك ، يجب ألا تعطي خدمات شبيهة بـ ChatGPT جميع بياناتك الصحية. ليس إلا إذا كانت منتجات AI شخصية على الجهاز.

على سبيل المثال، لقد استخدمت ChatGPT للعثور على أحذية جري من شأنها معالجة بعض الحالات الطبية دون المبالغة في التفاصيل الصحية الخاصة بي.

لا يمكن تشغيل ChatGPT ، لكنه يعرف أحذية الجري. مصدر الصورة: كريس سميث ، BGR

أيضًا ، هناك فئة أخرى من البيانات الصحية هنا: أكثر أفكارك شخصية. قد يعتمد بعض الناس على روبوتات المحادثة للعلاج بدلاً من اختصاصيي الصحة العقلية الفعليين. ليس لي أن أقول ما إذا كان هذا هو الشيء الصحيح الذي يجب القيام به. لكني سأكرر النقطة الإجمالية التي أثيرها هنا. لا يوفر ChatGPT وروبوتات الدردشة الأخرى خصوصية يمكنك الوثوق بها.

ستصل أفكارك الشخصية إلى خوادم OpenAI و Google و Microsoft. وسيتم استخدامها لتدريب الروبوتات.

على الرغم من أننا قد نصل إلى نقطة زمنية قد تعمل فيها منتجات الذكاء الاصطناعي التوليدية أيضًا كعلماء نفس شخصي ، إلا أننا لم نصل إليها بعد. إذا كان يجب عليك التحدث إلى الذكاء الاصطناعي التوليدي لتشعر بتحسن ، فيجب أن تكون حذرًا بشأن المعلومات التي تشاركها مع الروبوتات.

ChatGPT لا يعرف كل شيء

لقد غطيت من قبل نوع المعلومات التي لا يستطيع ChatGPT مساعدتك بها. والمطالبات التي ترفض الإجابة عليها. لقد قلت في ذلك الوقت أن برامج البيانات مثل ChatGPT التي توفرها ليست دقيقة دائمًا.

سأذكرك أيضًا أن ChatGPT وروبوتات الدردشة الأخرى يمكن أن تعطيك معلومات خاطئة. حتى فيما يتعلق بالمسائل الصحية ، سواء كانت صحة عقلية أو أمراض أخرى. لذلك يجب أن تسأل دائمًا عن مصادر للردود على مطالباتك. ولكن لا تنجذب أبدًا إلى تقديم المزيد من المعلومات الشخصية إلى الروبوتات على أمل الحصول على إجابات مصممة بشكل أفضل وفقًا لاحتياجاتك.

أخيرًا ، هناك خطر توفير البيانات الشخصية لتطبيقات البرامج الضارة التي تتظاهر بأنها برامج ذكاء اصطناعي. إذا حدث ذلك ، فقد لا تعرف ماذا فعلت إلا بعد فوات الأوان. قد يستخدم المتسللون بالفعل تلك المعلومات الشخصية ضدك.

اقرأ أكثر

الدليل النهائي لـ GA4: ما الجديد ، الترحيل وكل ما تحتاج إلى معرفته
يعمل Android Auto بشكل جيد مع EVs في التحديث الجديد

Reactions

0
0
0
0
0
0
بالفعل كان رد فعل لهذا المنصب.

ردود الفعل