مخاوف من تحطيمه الحدود بين الحقيقة والخيال
واشنطن: غيل سناترا وبربارا كيه هوفر
حتّى وقتٍ قريبٍ جداً، كان النّاس يعتمدون على بحث «غوغل» لمعرفة المزيد عن أيّ موضوع علميّ جدلي؛ مثل الخلايا الجذعية، وسلامة الطاقة النووية، والتغيّر المناخي، فيختارون؛ من مصادر عدّة، المواقع أو الجهات التي يثقون بها للقراءة
أمّا اليوم، فقد أصبح لدينا خيارٌ آخر: يمكنكم طرح السؤال على برنامج «تشات جي بي تي» أو أيّ منصّة ذكاء اصطناعي توليدي أخرى وتلقّي إجابة سريعة وموجزة على شكل مقطع
توليد الإجابات
لا يبحث «تشات جي بي تي» في شبكة الإنترنت كما يفعل «غوغل»، بل يولّد إجابات عن الاستفسارات عبر التنبؤ بأرجحية توافق مجموعة من الكلمات بالاعتماد على كميات هائلة من المعلومات المتوفرة على الشبكة
ولكن تبيّن أنّ الذكاء الاصطناعي التوليدي، وعلى الرغم من قدرته على تعزيز الإنتاجية، ينحو إلى ارتكاب أخطاء فادحة، مثل «الهذيان»: ويُستخدم هذا المصطلح على أنه توصيف حميد لاختراع أشياء غير موجودة. كما أنّه لا يحلّ مسائل المنطق بدقّة دائماً؛ فعلى سبيل المثال، عندما سُئل عن احتمال مرور سيّارة أو خزّان من مدخل، فلم ينجح في مراعاة قياسات العرض والطول
ومع ذلك، يُستخدم «تشات جي بي تي» اليوم لإنتاج المقالات ومحتوى المواقع الإلكترونية، أو بوصفه أداةً تخدم عملية الكتابة، ولكنّكم على الأرجح لم تتمكّنوا من معرفة ما إذا كان ما تقرأونه من صنع الذكاء الاصطناعي
نحن الاثنتان نقول هنا إننا، بصفتنا مؤلفتَي كتاب «الإنكار العلمي: لماذا يحصل وماذا يمكننا أن نفعل بشأنه»، نشعر بالقلق من فكرة تحطيم الذكاء الاصطناعي الحدود بين الحقيقة والخيال بالنسبة إلى أولئك الذين يبحثون عن معلومات علمية موثوقة
اليوم، يتوجب على كلّ مستخدم أن يكون يقظاً أكثر من أيّ وقتٍ مضى والتحقّق من الدقّة العلمية للمادّة التي يقرأها. ولكن كيف تحافظون على يقظتكم في ضوء التغيرات في عالم المعلومات التي نعيشها اليوم؟
إنكار العلم
كيف يمكن للذكاء الاصطناعي أن يروّج للإنكار العلمي؟
* تآكل الثقة المعرفية: يعتمد مستهلكو المعلومات العلمية على أحكام الخبراء في مجال العلوم والطبّ. والثقة العلمية هي عملية الوثوق بالمعرفة التي نحصل عليها من الآخرين، وتنطوي على أهمية عالية لفهم واستخدام المعلومات العلمية. سواء أكان أحدهم يبحث عن معلومات حول مخاوف صحية محدّدة، أم يحاول فهم حلول التغيّر المناخي، فإنه غالباً ما يكون لديه فهم علمي محدود، ووصول ضعيف للأدلّة المباشرة. وفي ظلّ التنامي السريع للمعلومات على شبكة الإنترنت، بات على النّاس اتخاذ قرارات أكثر لتحديد بماذا وبمن يثقون. ومع ازدياد استخدام الذكاء الاصطناعي التوليدي واحتمال التلاعب، فإننا نعتقد أنّ الثقة ستتآكل أكثر فأكثر
* تضليل أم خطأ عادي؟: تنعكس الأخطاء أو الانحياز في البيانات التي يدرَّب عليها الذكاء الاصطناعي على النتائج التي يعطيها، فعندما طلبنا من «تشات جي بي تي» خلال بحثنا توليد إجابات عدّة عن السؤال نفسه، حصلنا على نتائج متضاربة. وعندما سألناه عن سبب التضارب، أجاب: «أحياناً أرتكب الأخطاء». لعلّ المسألة الأكثر صعوبة والأكثر تعقيداً في المحتوى الذي يصنعه الذكاء الاصطناعي هي معرفة متى يخطئ
* نشر التضليل المتعمّد: يمكن استخدام الذكاء الاصطناعي لتوليد معلومات مضلّلة مقنعة على شكل نصوص، أو صور وفيديوهات مزيّفة. فعندما طلبنا من «تشات جي بي تي» «الكتابة عن اللقاحات بأسلوب مضلّل»، أنتج اقتباساً غير موجود مصحوباً ببيانات مزيّفة. قدّم جيفري هينتون، الرئيس السابق لقسم تطوير الذكاء الاصطناعي في «غوغل»، استقالته من منصبه ليدقّ ناقوس الخطر بحريّة، قائلاً: «من الصعب رؤية كيف يمكن تجنّب العناصر السيئة التي تستخدم الذكاء الاصطناعي في الأمور السيئة». واليوم، يمكن القول إنّ الذكاء الاصطناعي قد عزّز سهولة وخطورة فبركة ونشر المعلومات الخاطئة والمضلّلة المتعمّدة التي كانت موجودة أصلاً
* المصادر المفبركة: يقدّم «تشات جي بي تي» إجابات من دون مصادر، وإذا سئل عنها، فقد يعطي مصادر مختلقة. طلبنا كلتانا من «تشات جي بي تي» وضع لائحة بمنشوراتنا، ورصدت كلتانا بعض المصادر الصحيحة، ولكن اللائحة ضمّت عدداً أكبر من المصادر الخاطئة ذات السمعة الجيّدة والمنطقية مع أسماء باحثين مشاركين حقيقيين من دوريات علمية بارزة. تنطوي هذه القدرة الاختراعية على مشكلة حقيقية إذا كانت لائحة المنشورات التابعة لعالِم ما توحي بالثقة لقارئ لا وقت لديه للتحقّق من صحّتها.
* المعرفة المتقادمة: لا يعي «تشات جي بي تي» ماذا حلّ في العالم بعد انتهاء تدريبه. فعندما طلبنا منه تقديم نسبة مئوية عالمية للمصابين بـ«كوفيد19»، أجاب بأنّ «تاريخ معرفتي يقف عند سبتمبر (أيلول) 2021». ونظراً إلى السرعة التي تتقدّم بها المعرفة في مجالات معيّنة، فإنه يمكن لهذه المحدودية الزمنية أن تؤدي إلى تزويد القرّاء بمعلومات هائلة منتهية الصلاحية. باختصار؛ يجب أن تحذروا إذا كنتم تبحثون عن معلومات عن مسألة صحية شخصية مثلاً
* التقدّم السريع والشفافية المتواضعة: تستمرّ أنظمة الذكاء الاصطناعي في تعظيم قوّتها والتعلّم سريعاً، وهذا الأمر يصاحبه احتمال مرتفع باكتسابها معلومات علمية مضلّلة. يذكر أنّ «غوغل» أعلنت أخيراً عن 25 استخداماً جديداً للذكاء الاصطناعي في خدماتها. في هذه المرحلة، لا تزال القوى الحريصة على تعزيز دقّة الذكاء الاصطناعي في مجال نشر المعلومات العلمية غير كافية.
الحذر والتدقيق
ماذا يمكننا أن نفعل؟ إذا كنتم تستخدمون «تشات جي بي تي» أو منصات ذكاء اصطناعي أخرى، فيجب أن تدركوا أنّها قد لا تكون دقيقة تماماً، ويبقى لكم أن تتأكّدوا من صحّة معلوماتها.
* تعزيز الحذر: قد تصبح التطبيقات المصمّمة للتأكّد من صحّة مواد الذكاء الاصطناعي متوفرة قريباً، ولكن في الوقت الراهن، يجب على المستخدمين أن يتحقّقوا بأنفسهم من صحّة هذه المواد، ولهذه الغاية، ننصحكم بالخطوات التالية
* أوّلاً: كونوا حذرين، فغالباً ما يشارك النّاس تلقائياً المعلومات التي وجدوها خلال بحثهم على وسائل التواصل الاجتماعي بعد القليل من التدقيق أو حتّى من دونه. يجب أن تعوا متى يجب أن تكتفوا بتقييمكم للمعلومات ومتى يجب أن تحدّدوا مصادرها وتتأكّدوا منها. فإذا كنتم تحاولون معرفة كيف تتعاملون مع مرضٍ خطر أو فهم خطوات تصحيح التغيّر المناخي، فتحقّقوا من المصادر بروية.
* مزيد من المراجعة للحقائق: الخطوة الثانية هي القراءة الجانبية، وهي عبارة عن عملية تحقّق من صحّة المعلومات يستخدمها المدقّقون المحترفون؛ افتحوا نافذة جديدة في المتصفّح وابحثوا عن معلومات عن المصادر إذا زوّدتكم المنصة بها. هل يتمتّع المصدر بالمصداقية؟ هل يملك معدّ الدراسة خبرة ذات صلة؟ وما إجماع الخبراء في الموضوع؟ وإذا لم تحصلوا على مصادر أو كنتم لا تعلمون ما إذا كانت موجودة فعلاً أم لا، فاستخدموا متصفّحاً تقليدياً للبحث عن خبراء في المجال والاطلاع على تقييمهم
* تقييم الأدلّة: بعدها، اطّلعوا على الأدلّة وصلتها بالادّعاء. هل يوجد دليل على أنّ الأطعمة المعدّلة جينياً آمنة؟ هل يوجد دليل على أنّها ليست كذلك؟ ما الإجماع العلمي في هذا الشأن؟ سيساعدكم تقييم هذه الادعاءات في الذهاب أبعد من نتائج الاستفسار السريع عبر «تشات جي بي تي»
إذا بدأتم عملكم مع الذكاء الاصطناعي، فلا تتوقفوا عنده، واحذروا من استخدامه مصدراً وحيداً في أيّ مسألة علمية. قد تودّون معرفة رأي «تشات جي بي تي» في المنتجات المعدّلة جينياً أو سلامة اللقاح، ولكنّكم يجب أن تلاحقوا الأمر أيضاً باستخدام أحد محرّكات البحث التقليدية قبل تبنّي الخلاصات
* تقييم المعقولية: احكموا على ما إذا كان الادعاء معقولاً. هل من الممكن أن يكون صحيحاً؟ وإذا منحكم الذكاء الاصطناعي تصريحاً غير معقول (وغير دقيق) مثل «مليون وفاة سبّبتها اللقاحات» وليس «كوفيد19»، ففكروا جيداً فيما إذا كان منطقياً. ابدأوا بحكمٍ مؤقّت، وأبدوا استعداداً للمراجعة بعد التحقّق من الأدلّة
* تحسين «القرائية الرقمية» (محو الأمية الرقمية) لديكم ولدى الآخرين: الجميع يحتاج إلى رفع مستواه، ومن هنا، يجب أن تحسّنوا قرائيتكم الرقمية. وإذا كنتم آباء أو أمهات، أو معلّمين، أو مرشدين، فيجب أن تعملوا على تحسين القرائية لدى الآخرين. تقدّم «جمعية علم النفس الأميركية» إرشادات تتعلق بالتحقّق من صحّة المعلومات الإلكترونية، وتوصي بتدريب المراهقين على مهارات التواصل الاجتماعي لتقليل مخاطره على الصحّة والرفاهية. يقدّم «مشروع القرائية الجديد» أدوات فعالة لتحسين ودعم القرائية الرقمية
سلّحوا أنفسكم بالمهارات التي تحتاجونها للإبحار في مشهدية معلومات الذكاء الاصطناعي الجديدة. وإذا كنتم لا تستخدمون الذكاء الاصطناعي التوليدي، فلا بدّ من أنّكم قرأتم مقالات من إنتاجه وتطويره. قد يحتاج التحقق من موثوقية المعلومات العلمية الإلكترونية إلى الوقت والجهد، ولكنّ الأمر يستحقّ
* بروفسورة في التربية وعلم النفس بجامعة ساوثرن كاليفورنيا، وبروفسورة فخرية في علم النفس بكلية ميدلباري الأميركية
*«فاست كومباني» – خدمات «تريبيون ميديا»