إعلان

تحذير.. الذكاء الاصطناعي يروج صور الاعتداء الجنسي على الأطفال

12:07 م الإثنين 25 ديسمبر 2023

الذكاء الاصطناعي

كشفت دراسة جديدة عن الدور الخفي الذي تلعبه أدوات الذكاء الاصطناعي في الترويج للاعتداء الجنسي على الأطفال، وقالت إن الآلاف من صور الاعتداءات مخبأة داخل مؤسسة شهيرة لمولدات صور الذكاء الاصطناعي.

وحسب صحيفة الجارديان البريطانية، عثر مرصد ستانفورد للإنترنت على أكثر من 3200 صورة للاعتداء الجنسي على الأطفال في قاعدة بيانات الذكاء الاصطناعي العملاقة LAION، وهو فهرس للصور والتسميات التوضيحية عبر الإنترنت استُخدم لتدريب صنّاع صور الذكاء الاصطناعي مثل Stable Diffusion.

وعملت مجموعة المراقبة مع المركز الكندي لحماية الطفل وغيره من الجمعيات الخيرية المناهضة للإساءة، لتحديد المواد غير القانونية والإبلاغ عن روابط الصور الأصلية إلى جهات إنفاذ القانون. وتم التأكد من أن أكثر من 1000 صورة من الصور المشتبه بها تشمل مواد اعتداء جنسي على الأطفال.

من جانبها، قالت LAION إنها أزالت مجموعات البيانات الخاصة بها مؤقتا. وأضافت الشركة التي تمثل الشبكة المفتوحة للذكاء الاصطناعي واسعة النطاق غير الربحية، في بيان: "لا نتسامح مطلقا مع المحتوى غير القانوني، وفي ظل الحذر الشديد، أزلنا مجموعات بيانات LAION للتأكد من أنها آمنة قبل إعادة نشرها".

ورغم أن الصور لا تمثل سوى جزء صغير من مؤشر LAION الذي يبلغ حوالي 5.8 مليار صورة، تقول مجموعة ستانفورد إنها ربما تؤثر على قدرة أدوات الذكاء الاصطناعي على توليد مخرجات ضارة وتعزيز الإساءة السابقة للضحايا الحقيقيين.

ويقول الباحثون إن هذه الصور نفسها جعلت من السهل على أنظمة الذكاء الاصطناعي إنتاج صور واقعية وصريحة لأطفال مزيفين، بالإضافة إلى تحويل صور وسائل التواصل الاجتماعي لمراهقين حقيقيين يرتدون ملابس كاملة، إلى عراة، الأمر الذي أثار قلق المدارس وجهات إنفاذ القانون في جميع أنحاء العالم.

فيديو قد يعجبك:

إعلان

إعلان