لم يتم العثور على نتائج البحث

إعلان

هل يمكن لهذه التكنولوجيا أن تضع حدا للتحرش والتنمر؟

07:41 م الأربعاء 13 فبراير 2019

.

لندن (بي بي سي)

عندما قررت نيكي ماتوكس، الانفصال عن صديقها، في سن 18 عاما، تحول الأمر إلى تجربة مريرة. فبدلا من أن يكون انفصالا هادئا كما تمنت، فوجئت بوابل من الرسائل المشحونة بالكراهية من صديقها وأصدقائه على مواقع التواصل الاجتماعي، إلى حد أن إحدى الرسائل حثتها على الانتحار.

ويقع الملايين حول العالم ضحايا للتنمر. وكثيرا ما يتغاضى الناس، حتى في المجتمعات العصرية، عن حوادث التنمر ويعتبرونها أحداثا عابرة، رغم أن ما يتراوح بين خُمس وثلث التلاميذ في المدارس يتعرضون للتنمر، وينسحب الأمر نفسه على التحرش والإيذاء في أماكن العمل.

وأثبتت أبحاث أن التنمر قد يترك في النفس جروحا غائرة لا تندمل، ويؤثر على الصحة النفسية والحياة العملية وحتى العلاقات الاجتماعية. وكلما قضينا وقتا أطول على الإنترنت، زادت احتمالات تعرضنا للتنمر الإلكتروني، الذي لا يقل تأثيرا عن التنمر وجها لوجه. فضلا عن أن الشباب الذين تعرضوا للتنمر عبر الإنترنت أكثر عرضة للإصابة بالاكتئاب، وتزيد احتمالات إقدامهم على إيذاء أنفسهم والانتحار بمقدار الضعف، مقارنة بغيرهم.

ومن حسن حظ ماتوكس أنها وجدت أصدقاء في الجامعة ساعدوها على الخروج من محتنها، وتعمل الآن في مجال التوعية بالصحة النفسية وتقدم العون لغيرها من ضحايا التنمر. وترى أننا نحتاج إلى بذل المزيد من الجهود لإيقاف التنمر الإلكتروني.

لكن الأجهزة الإلكترونية التي تزيد من احتمالات تعرضنا للتنمر، قد نطوعها لمساعدتنا في القضاء عليه. إذ يُستعان الآن بالذكاء الاصطناعي لرصد عبارات الإيذاء والمضايقات والتعامل معها.

يقول جيلز جاكوبس، باحث لغوي بجامعة غِنت في بلجيكا: "لا يمكن لبشر أن يطالع جميع المنشورات والتعليقات يدويا على مواقع التواصل الاجتماعي للتأكد من عدم وجود مضايقات، ولهذا قد يكون الذكاء الاصطناعي هو الحل للكشف عن حالات التنمر والتصيد عبر الإنترنت والاستجابة لها".

وقد طور فريقه خوارزميات لرصد الكلمات والعبارات المرتبطة عادة بالتنمر في موقع "آسك إف إم" للتواصل الاجتماعي، والذي يتيح لمستخدميه طرح أسئلة والإجابة عنها. ونجحت الخوارزميات في حجب نحو ثلث الإهانات بعد تحليل 114 ألف رسالة باللغة الإنجليزية. وإن كانت عجزت عن فهم التعليقات الساخرة.

ومن المعروف أنه ليس من السهل الكشف عن التعليقات الجارحة، إذ يستخدم الناس أحيانا الشتائم والألفاظ البذيئة دون أن يقصدوا توجيه الإهانات، كما أن بعض أكثر التعليقات إيلاما لا تتضمن ألفاظا نابية. وطور باحثون بجامعة ماكغيل في مونتريال بكندا خوارزميات لرصد خطاب الكراهية بإدخال الكلمات المعينة التي يستخدمها المتنمرون لاستهداف النساء وذوي البشرة السوداء وأصحاب الوزن الزائد في شبكات التواصل الاجتماعي.

ويقول حجي سليم، قائد الفريق البحثي: "اكتشتف أننا نحتاج إلى فرز العبارات المهينة بحسب فئات الضحايا الموجهة لها". والمدهش أن الأداة التي طورها الباحثون استطاعت أن ترصد حتى الإهانات المبطنة، مثل كلمة "حيوانات".

وقد خلص استطلاع للرأي في عام 2017 إلى أن 42 في المئة من مستخدمي موقع "إنستغرام" من المراهقين، تعرضوا للتنمر، وهو أعلى معدل سجلته الدراسة بين مواقع التواصل الاجتماعي، ومنهم من دفعهم الحزن والضيق إلى الانتحار.

ولم يسلم البالغون أيضا من التنمر، إذ تعرض عازف الغيتار بريان ماي من فريق كوين للإهانات على موقع انستغرام. ويقول ماي: "جربت بنفسي ذاك الشعور عندما تعتقد أنك في مكان آمن، ثم يأتي على حين غفلة شخص يكيل لك الإهانات والانتقادات".

ويستعين الآن إنستغرام بتقنيات التعرف على النصوص والصور تدار بالذكاء الاصطناعي للكشف عن التنمر في الصور ومقاطع الفيديو والتعليقات. وهذه التقنيات يمكنها رصد الانتقادات الموجهة لمظهر المستخدم أو شخصيته، وكذلك التهديدات ضد أفراد بعينهم داخل الصور وبين ثنايا التعليقات.

وذكر "إنستغرام" أن التعرف على هذه المواد الجارحة والمسيئة وحجبها هو أهم خطوة للقضاء على التنمر، وقد يساعد في ملاحقة الأشخاص الذين ينشرون مواد مسيئة بصورة متكررة. ورغم ذلك يستطيع أكثر المتنمرين دهاء الإفلات من هذه الإجراءات بإنشاء صفحات خاصة يستهدفون من خلالها أشخاصا بعينهم ويرسلون لهم رسائل جارحة.

ويمتد التنمر أيضا إلى أماكن العمل، إذ كشفت بلاغات ضحايا التحرش الجنسي في كبريات شركات التقنية في وادي السيليكون عن مدى تأثير التنمر والتمييز على الضحايا في أماكن العمل. وقد تعرضت نحو نصف الموظفات في قطاع التكنولوجيا في أوروبا للتمييز بأشكاله المتعددة. فهل يمكن أن تسخير التكنولوجيا أيضا للقضاء على هذه الظاهرة؟

قد يكون الحل في "سبوت" روبوت الدردشة الذكي الذي يساعد الضحايا على الإبلاغ عن وقائع التحرش في أماكن العمل بدقة وأمان. ويُعد الروبوت تقريرا مؤرخا ليحتفظ به المستخدم لنفسه أو ليقدمه لصحاب العمل، دون أن يذكر اسمه. وتقول جوليا شو، أخصائية نفسية بكلية لندن الجامعية وساهمت في تطوير "سبوت" إن الفكرة تقوم على تحويل الذاكرة إلى دليل إدانة.

وطُورت أداة ذكاء اصطناعي أخرى تحت اسم "بوتلر إيه أي" لتقديم المشورة لضحايا التحرش الجنسي. إذ تستخدم هذه الأداة تقنية معالجة اللغات الطبيعية لتقّيم - بناء على المعلومات التي استمدتها من 300 ألف ملف قضية كندية وأمريكية - ما إن كان المتحرش قد ارتكب أعمالا تقع تحت طائلة القانون، ثم تعد تقريرا بالواقعة، قد تقدمه الضحية لإدارة الموارد البشرية أو الشرطة.

ويقول أمير مورافيج، مطور أداة "بوتلر إيه أي": "ذكرت إحدى المستخدمات أن هذه الأداة شجعتها وعززت من ثقتها بنفسها لاتخاذ الإجراء القانوني ضد سياسي بارز اعتدى عليها جنسيا".

ولا تقتصر استخدامات الذكاء الاصطناعي على مواجهة التنمر، بل قد يستعان به أيضا في إنقاذ حياة البعض. إذ تشير إحصاءات إلى أن 3,000 شخص يزهقون أرواحهم بأنفسهم حول العالم يوميا، بمعدل 40 حالة وفاة كل ثانية. وقد باءت الكثير من محاولات التنبؤ بالانتحار بالفشل.

ولا يوجد حتى الآن مؤشر حاسم يدل على استعداد الشخص للانتحار. فضلا عن أن الأخصائي النفسي لا يتسنى له البحث عن علامات تحذيرية وتقييم عوامل الخطر في مكالمة هاتفية لا تتعدى خمس دقائق.

وتقول مارتينا دي سيمبليسيو، كبيرة المحاضرين في الطب النفسي بجامعة إمبريال كوليدج في لندن، إن الذكاء الاصطناعي يمكنه تحليل الكثير من المعلومات في وقت قصير وربطها ببعضها سريعا، مما يسهم في الكشف عن العوامل التي تزيد من مخاطر الاقدام على الانتحار.

وطور علماء من المركز الطبي التابع لجامعة فاندربيلت وجامعة فلوريدا خوارزميات قادرة على التنبؤ باحتمالات ظهور سلوكيات وأفكار انتحارية بناء على المعلومات التي استمدتها من السجلات الصحية للمرضى الذين تعمدوا إيذاء أنفسهم. ونجحت الخوارزميات في تحديد الأشخاص الذين يفكرون في الانتحار في الاسبوع اللاحق لحادثة إيذاء النفس، بدقة بلغت 92 في المئة.

وقد أجرى باحثون من جامعة كارنيغي ميلون في بيتسبرغ، بولاية بنسلفانيا، دراسة على 34 مشاركا، طلبوا منهم التفكير في جوانب إيجابية وسلبية للحياة والموت أثناء إجراء مسح على أدمغتهم باستخدام أجهزة التصوير بالرنين المغناطيسي الوظيفي للدماغ. واستعانوا بخوارزميات تعلم الآلة للكشف عن استجابة الدماغ لهذه الأفكار.

ونجح الكمبيوتر في التمييز بين الأشخاص الذين أقدموا على الانتحار، وبين غيرهم الذين لا يفكرون في الانتحار، من خلال مراقبة استجابة الدماغ لأفكار الانتحار والرفاهية وغيرها.

ويقول مارسيل جاست، مدير مركز تصوير الدماغ بالرنين المغناطيسي بجامعة كارنيغي ميلون: "تنشط لدى الأشخاص الذين يفكرون في الانتحار أجزاء من الدماغ ترتبط بمشاعر الخزي". ويرى أن الأطباء والأخصائيين قد يستخدمون هذه المعلومات لتصميم علاجات للأشخاص الذين تنتابهم أفكار انتحارية تستهدف تخفيف مشاعر الخزي والخجل المرتبطة بالموت.

وتسعى محركات البحث ومواقع التواصل الاجتماعي للتعرف على الأشخاص الذين يمرون بأزمات نفسية ومساعدتهم. فإذا كتب شخص ما في محرك البحث غوغل استفسارات ذات صلة بالانتحار، يعرض له الموقع أرقام هواتف مؤسسات خيرية للدعم النفسي بدلا من المواقع التي يبحث عنها.

ومنذ العام الماضي، بدأ فيسبوك في استخدام الذكاء الاصطناعي للتعرف على الأشخاص ذوي الميول الانتحارية. إذ طور الموقع خوارزميات يمكنها التعرف على أنماط الكلمات سواء في المنشورات أو التعليقات التي ترتبط بالأفكار الانتحارية. وتوجه البيانات إلى خوازميات أخرى لتقيّم مدى أهمية عرض منشورات المستخدم على فريق العمليات بموقع فيسبوك. وفي الحالات الخطيرة، قد يتواصل الفريق مع السلطات المحلية المختصة.

وتعمل ماريا لياكاتا، أستاذة مساعدة بجامعة ويرويك، على تحليل المنشورات على مواقع التواصل الاجتماعي ورسائل الهواتف المحمولة للكشف عن تغير الحالة المزاجية. وتقول: "تكمن الفكرة في مراقبة الشخص دون تدخل والكشف عن بوادر تغير الحالة المزاجية وتحديد الأشخاص الذي قد يقدموا على الانتحار". وتأمل أن تستخدم هذه الخورازميات في تطبيقات يمكنها قراءة الرسائل على الهواتف المحمولة.

وثمة تطبيقات هاتف أخرى، مثل "ووبوت" و"ويسا"، تتيح للمستخدم التحدث عن مشاكله مع روبوت دردشة يستخدم أساليب علاجية معتمدة، مثل العلاج السلوكي المعرفي.

وقد تتمكن الآلات أيضا من التدخل والقضاء على التنمر. لكن المسؤولية لا تزال ملقاة على عاتقنا للاستجابة الفورية لأساليب التنمر الخبيثة والمستترة التي يعجز الذكاء الاصطناعي عن الكشف عنها.

وتقول نيكي ماتوكس: "لن تستطيع الآلة أن تخوض المعركة ضد التنمر بمفردها".

هذا المحتوى من

فيديو قد يعجبك:

إعلان

إعلان