Home نمط الحياة هل من الآمن أن تطلب من chatgpt إعادة إنشاء صورك؟ فهم المخاطر

هل من الآمن أن تطلب من chatgpt إعادة إنشاء صورك؟ فهم المخاطر

4
0
هل من الآمن أن تطلب من chatgpt إعادة إنشاء صورك؟ فهم المخاطر


يمكن للأدوات استخدام البيانات البصرية الحساسة بشكل لا مبرر لها ؛ يعلم الخبير كيفية حماية نفسك

إن إعادة إنشاء الصور بالذكاء الاصطناعي أمر عصري ، لكن التكنولوجيا وراء هذا السحر لا تزال تفتقر إلى التنظيم الواضح. من خلال إرسال صور شخصية إلى منصات الذكاء الاصطناعي ، يمكن للمستخدمين التخلي عن التحكم في استخدام هذه البيانات ووجهةها.

الأمان الرقمي: المزيد من الحماية الافتراضية لك ولعائلتك من 4.90 دولار شهريًا.

هذا ما يفسر للتقرير أندريه ماير ، متخصص في التكنولوجيا والتسويق ورئيس BI والتقنيات الجديدة في ID. الدافع الرقمي.

ووفقا له ، فإن المخاطر المرتبطة بهذه الممارسة تشمل التدريب غير الموضح لنماذج الذكاء الاصطناعى مع الصور المرسلة ، وإنشاء أعماق لأغراض الاحتيال أو المعلومات الخاطئة ، وإساءة استخدام البيانات البصرية الحساسة مثل الوجه أو البيئة العائلية.

يمكن استغلال هذه البيانات أو تسربها تجاريًا.

“تكمن المشكلة المركزية في شروط استخدام المنصات. تسمح العديد من هذه المصطلحات بإعادة استخدام الصور التي تم إنشاؤها وحتى الصور الأصلية المرسلة ، غالبًا لأغراض عدم الاطلاع عليها. من الضروري التمييز بين المنصات الآمنة ، مع وجود سياسات تتماشى مع اللوائح مثل LGPD وقانون AI في المستقبل ، والتي تعمل بالشفاء المنخفض ،”

حالة chatgpt

بالنظر إلى أن chatgpt من Openai هو واحد من أكثر منصات التفاعل AI شيوعًا ، فإن Maini تعتبر ذات صلة بالتفصيل موقفه من استخدام الصور المرسلة.

  • يمكن استخدام الصور المرسلة إلى ChatGPT لتدريب نماذج Openai.
  • يمكن للمستخدمين تعطيل هذا الخيار في إعدادات الخصوصية.
  • توفر الإصدارات المجانية والزائدة تحكمًا في المستخدم لتعطيل استخدام البيانات للتدريب.
  • هناك وضع دردشة مؤقت لا يحفظ أو إعادة استخدام المعلومات.
  • في إصدارات الشركات (المؤسسة/الفريق) ، لا يتم استخدام البيانات للتدريب افتراضيًا ، مما يوفر المزيد من الأمان والامتثال للوائح مثل SOC 2 Type 2.
  • يطبق Openai اختبارات الأمن ، بما في ذلك تقييمات الطرف الثالث. ومع ذلك ، فإن إرسال صور حساسة لا يزال يشكل خطرًا ، خاصةً إذا لم يعدل المستخدم إعدادات الخصوصية.

يكرر Maini أنه من الممكن استخدام هذه الأدوات بطريقة ترفيهية وخلاقة ، ولكن مع الوعي بالمخاطر. توصيتك كأخصائي هي تجنب إرسال صور حساسة وقراءة شروط الاستخدام بعناية.

كما يوحي أيضًا بالنظر إلى تتبع المعلومات. “لا يوجد منظمة العفو الدولية محايدة أو معزولة ، وما الذي يتم مشاركته يمكن أن يغذي قاعدة عالمية غدًا” ، يوضح الخبير.




فوجئ جيجي غراندين ، وهو خبير في التسويق في التأثير ، من مطالبة منظمة العفو الدولية بإعادة تصوير صورته

الصورة: ملف شخصي

“لقد جعلوني رجلاً”

تكتسب هذه القضايا ملامح ملموسة في تجارب مثل Gigi Grandin Experior Expert. بعد نشر مقال في الطبعة المطبوعة من مجلة Meio & Message ، التقطت صورة للصفحة مع الهاتف الخلوي.

كانت الصورة الأصلية مظلمة وغير محسوبة. في محاولة لتحسين الجودة ، لجأ جيجي إلى أداة ذكاء اصطناعي “لاستعادة” الصورة.

والنتيجة ، وفقًا لـ Gigi Grandin أخبر Terra ، لم تكن نسخة أفضل من الصورة ، بل “محو”.

“لقد استبدل الذكاء الاصطناعى صورتي بصورة رجل أبيض في منتصف العمر. بالإضافة إلى ذلك ، تبادل اسمي باسم ذكر وهمية. أصبحت رجلاً ، توقفت عن الوجود. ما حدث كان محوًا” ، كما تقول.

“يبدو أن الخوارزمية تعتبر صورة هذا الرجل أكثر ملاءمة ليكون على الصفحة ، وتحتل موقف الرئيس التنفيذي وكونه مؤلف مقال في مجلة أعمال أكثر من صورتي.”

فسر جيجي الحادث ليس كخطأ فني ، ولكن كأعكاس للقوالب النمطية الاجتماعية. وتشير إلى أن الذكاء الاصطناعي ، الذي تم تدريبه بملايين البيانات ، يمكنه تعلم وتكرار وتوسيع نفس الصور النمطية.

أندريه مايني يوافق.

“إن الاستبدال من قبل رجل خيالي يثير مسألة المستقبل الذي يتم بناؤه ، حيث يمكن أن يتم مسح امرأة حقيقية ووجهها ، والمناهج والموقف من قبل آلة” يعتقد “أن الرجل الوهمي يكون أكثر اتساقًا مع هذا السجن. قد يتم نقل الاستبعاد في العالم الحقيقي إلى DIGITION ، و DATABASE.



Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here