“التعري الافتراضي”.. الوجه المظلم للذكاء الاصطناعي وتهديد خطير للخصوصية
في ظل التطور التكنولوجي المتسارع، أصبح الذكاء الاصطناعي أداة مزدوجة الاستخدام، قادرة على خدمة البشرية بقدر ما يمكن أن تشكل تهديدًا حقيقيًا لها. ومن بين أكثر تطبيقاته إثارة للجدل والخطورة، تبرز تقنيات ما يُعرف بـ“التعري الافتراضي”، التي تتيح تعديل الصور رقمياً عبر خوارزميات ذكية لإظهار أشخاص دون ملابس، من دون علمهم أو موافقتهم.
هذه التقنيات، التي أثارت موجة قلق عالمي، تُعد انتهاكًا صارخًا للخصوصية الفردية واعتداءً على الكرامة الإنسانية، ما دفع خبراء ومؤسسات حقوقية إلى دق ناقوس الخطر والمطالبة بتدخل تشريعي عاجل للحد من انتشارها.
ما هي تقنيات “التعري الافتراضي”؟
تعتمد تقنيات “التعري الافتراضي” على خوارزميات الذكاء الاصطناعي لتحليل الصور الرقمية وإعادة إنتاجها بشكل يوهم المشاهد بأن الشخص الظاهر فيها لا يرتدي ملابس. ومن أبرز الأمثلة على هذه التطبيقات برنامج DeepNude، الذي أُطلق سنة 2019 قبل أن يتم إغلاقه سريعًا تحت ضغط الانتقادات، غير أن نسخًا غير قانونية منه سرعان ما انتشرت عبر الإنترنت، إلى جانب أدوات أخرى مشابهة.
وتعتمد هذه التقنيات على التعلم الآلي ونماذج توليد صور عالية الدقة، تُستخدم غالبًا في سياقات غير أخلاقية وغير قانونية.
كيف تعمل هذه التقنيات؟
ترتكز تقنيات “التعري الافتراضي” على تقنيات التعلم العميق، خصوصًا الشبكات العصبية التوليدية (GANs)، حيث يتم تدريب الخوارزميات على ملايين الصور لأجسام بشرية بملابس وبدونها. وبناءً على هذه البيانات، تتعلم الأنظمة “إزالة” الملابس رقمياً واستبدالها بتفاصيل وهمية تحاكي الجلد والتشريح البشري.
ورغم أن الصور الناتجة غير حقيقية، فإن دقتها العالية تجعل تمييزها عن الصور الأصلية أمرًا بالغ الصعوبة، وهو ما يضاعف من خطورتها وتأثيرها النفسي والاجتماعي.
حادثة جوليا يوكاري.. مثال صارخ
سلّطت حادثة الموسيقية البرازيلية جوليا يوكاري الضوء على خطورة هذه الظاهرة، بعدما نُشرت صور معدلة لها على منصة X عقب استخدام برنامج الذكاء الاصطناعي المدمج بالمنصة Grok، بناءً على طلبات مستخدمين.
وقالت يوكاري في تصريح لوكالة رويترز: “شعرت بالعار والرغبة في الاختفاء، رغم أن الصورة ليست حقيقية”. وتُعد هذه الواقعة جزءًا من نمط متكرر تستهدف فيه النساء بشكل خاص، وسط تزايد حالات الابتزاز والتحرش الرقمي.
تداعيات اجتماعية وأمنية خطيرة
يحمل استخدام هذه التقنيات تداعيات خطيرة، أبرزها:
انتهاك الخصوصية وتشويه السمعة الشخصية والمهنية.
استهداف النساء والفتيات بشكل غير متكافئ، بما يعزز العنف الرقمي القائم على النوع.
مخاطر قانونية وأمنية، خاصة مع استغلال هذه الأدوات لإنتاج محتوى غير قانوني، بما في ذلك محتوى يطال القاصرين.
تهديدات سيبرانية، إذ تحتوي العديد من المنصات التي توفر هذه الخدمات على برمجيات خبيثة تسرق البيانات.
تحركات دولية وتحذيرات متزايدة
أمام تصاعد المخاطر، بدأت حكومات ومؤسسات دولية بالتحرك. ففي فرنسا، أبلغت السلطات الحكومة القضاء بشأن محتوى جنسي “غير قانوني بشكل واضح” على منصة X. وفي الهند، وجّهت وزارة تكنولوجيا المعلومات انتقادات حادة للمنصة ذاتها بسبب تقاعسها عن الحد من إساءة استخدام الذكاء الاصطناعي.
وفي الولايات المتحدة، حذرت منظمات حقوقية، من بينها المركز الوطني لمكافحة الاستغلال الجنسي، من أن هذه التقنيات تمثل “كارثة متوقعة كان يمكن تفاديها”، معتبرة أن شركات التكنولوجيا لم تتحمل مسؤولياتها الأخلاقية.
نحو تشريعات صارمة وحماية رقمية
أجمع الخبراء على أن مواجهة خطر “التعري الافتراضي” تتطلب سنّ قوانين رادعة تحظر تطوير أو استخدام هذه التقنيات دون موافقة صريحة، مع فرض عقوبات مشددة على المخالفين، إلى جانب تعزيز آليات المراقبة وحذف المحتوى المسيء بسرعة.
وفي المقابل، تبرز مبادرات تقنية أخلاقية تسعى إلى تحقيق التوازن بين الابتكار وحماية الحقوق، عبر أدوات تحترم الخصوصية والموافقة المسبقة، ما يؤكد أن الحل لا يكمن في محاربة التكنولوجيا، بل في تقنين استخدامها.



