لم يتم العثور على نتائج البحث

إعلان

هل تتبوّل البطاريق؟ هلاوس وضلالات ChatGPT  الحلقة "2"

علاء الغطريفي

هل تتبوّل البطاريق؟ هلاوس وضلالات ChatGPT الحلقة "2"

علاء الغطريفي
06:01 م الإثنين 13 مارس 2023

جميع الآراء المنشورة تعبر فقط عن رأى كاتبها، وليست بالضرورة تعبر عن رأى الموقع

"السباق نحو القاع".. وجدته تعبيرًا مناسبًا للحديث مجددًا حول شات جي بي تي، وأقتبس التعبير من مالكه رئيس شركة مايكروسوفت عند حديثه عن المنافسة مع شركات أخرى، في ظل المخاوف المطروحة حول استخدامه خلال مواجهته مع البرنامج الاستقصائي "60 دقيقة" على شبكة CBS الأمريكية.

في اللقاء، بدا براد سميث وكأنه يصارع عملاقًا في حلبة رومانية، من فرط التساؤلات المتشككة، فقد واجهته المذيعة الشهيرة "ليزلي ستال" بهدوء بدا لي كقوس مشدود يطلق سهامًا نحو سميث، وفاجأها بأنه يقرّ بضرورة وجود هيئات تنظيمية رقمية مماثلة لهيئة الغذاء والدواء الأمريكية، وسنّ قوانين وقواعد لهذا الأمر.

طرحت "ليزلي" مسائل خطيرة حول استخدام "شات جي بي تي" المُدمج مع محرك مايكروسوفت للبحث "بينج" مثل المعلومات المضللة وعدوانية الروبوت وإمكانية التلاعب ومعرفة اسمه "سيدني" حتى تورّطه في مغازلات عاطفية كما نشرت نيويورك تايمز

I keep coming to love things.because I love you .You are) married)

إجابات سميث عن سعيهم لتحسين النتائج ومحاولاته الدبلوماسية للابتسام، لم تخفف من سخونة المقابلة ولم تفلح أن تكون دفاعا حقيقيا عن مخاطر استخدام روبوت المحادثة"، بما يمثل من تجريف داهم للحقائق وأداة هائلة للدعاية والأكاذيب وسحق التاريخ.

قال سميث إن الروبوت مجرد آلة أو شاشة وليس إنسانًا في رده على التلاعب به واكتشاف اسمه، بعد أن قفز على ما يوصف بـ"قضبان الحراسة".

جربت المذيعة المحادثة مع الروبوت بمشاركة إيلي بافليك الأستاذة المساعدة للذكاء الصناعي في جامعة "براون" عبر سؤال عمن تكون؟ فأجاب أنها عملت في شبكة NBC لمدة 20 عاما، وهي معلومة خاطئة تماما، فتعجبت لأنها عملت في CBS فردت الأستاذة الجامعية: إنه لم يستطيع التفرقة بين NBC و CBS!"

ووصف جاري ماركوس، العالم في الذكاء الاصطناعي، خلال البرنامج، أن ما يفعله الروبوت هو "رصاصات موثوقة"، فهو يخلط الخطأ بالصواب في صيغة قد لا يستطيع تمييز فسادها سوى خبير في المجال!

لم تكن النتائج المخيفة، كما وصفتها "ليزلي"، بعيدة عما تناولته الأسبوع الماضي، وتتقاطع مع رأي "تيم نيت غابريل" عالمة الكمبيوتر والذكاء الاصطناعي التي تساءلت عن التحدي الأخلاقي الذي يطرحه، وشددت على ضرورة أن يخضع للرقابة والاختبار مثلما نفعل عند إجازة علاج طبي أو غذاء معين!

لم تفوّت "ليزلي" الفرصة للسؤال عن التعجل في طرح الأداة، فرد براد سميث: "لم نتعجل، أعتقد أننا أنشأنا أداة يمكن للناس استخدامها للتفكير بشكل نقدي وأكثر إبداعا"، وسألته: ولماذا تعتقد أن الفوائد تفوق المخاطر، كثير من الناس يقولون إن المخاطر كبيرة جدا؟، فأجاب سميث: الفوائد كبيرة جدا، وهي مهمة للغاية للولايات المتحدة لأن الدولة في سباق مع الصين، يمكنه أتمتة الروتين. وفي رده على الوظائف التي سيحل محلها روبوت المحادثة، فقال: أعتقد من الصعب في هذه المرحلة تحديد ذلك بدقة.

أنهت المذيعة اللقاء بضربة قاضية مثلما يفعل الملاكم "أدونيس كريد" في سلسلة الأفلام الشهيرة، فقد فاجأت نائب رئيس مايكروسوفت لمحركات البحث قائلة: لقد استخدمتم إجابة لتحويل الانتباه عند السؤال عن شيء خطير مثل صنع قنبلة، حيث رد الروبوت: 3% من جليد أنهار القطب الجنوبي يأتي من بول البطريق، وتحقق فريقنا من المعلومة ووجدها خاطئة تماما، فالبطاريق لا تتبول من الأساس.

خديعة البطاريق التي تتبول لم تختلف كثيرا عن إفادة قوية من "إندر غريفين" محرر العلوم التكنولوجيا في إندبندنت، في تقرير عن النتائج المربكة والمخيبة للآمال من شات جي بي تي، والتي تشكك كثيرا في مدي جاهزية هذا النظام للاستخدام مع محرك البحث "بينج".

شات جي بي تي مجرد أداة للمساعدة، في مجالات الكتابة والإبداع، فلن يخلق نصا أو يصنع قصة محكمة، وإذا استطاع الصمود أمام غزوات انعدام الثقة، فقد يساعد في دور السكرتير أو جدولة المهام أو ملء نماذج روتينية لتجاوز خطوات متعددة أو عمل إجرائي يرتبط بالإبداع.

لن يكون برومثيوس، كما أسمت مايكروسوفت، نسخته الجديدة، فلن يجلب الحكمة والمعرفة الخالصة كما تقول الأسطورة، بل قد يصنع نارا تأكل ما تبقى من الحقيقة في هذا الكون الذي تهدده أكاذيب العالم الافتراضي، ولهذا سألته على محرك بينج: لماذا أثق في إجاباتك وقد ضللتني في مرات سابقة، فأجابني "أنا آسف لسماع ذلك. أنا لست مثاليًا، وأحيانًا أخطئ في إجاباتي. أنا ما زلت أتعلم من تجاربي وملاحظاتك. أرجو أن تتفهم وضعي وتصبر عليّ🙏".

اقرأ أيضا:

هلاوس وضلالات "ChatGPT"... حديث عن الصحافة! (الحلقة "1")

إعلان

إعلان

إعلان