تتسارع التطورات في عالم الذكاء الاصطناعي على نحو مدهش يفوق التصور، والكثير مما شاهدناه في أفلام الخيال العلمي بات واقعًا يصعب إدراك جميع تداعياته، وهذا ما يثير مخاوف كثيرين. فهذا الذكاء الذي يُعدّ نقطة تحوّلٍ تاريخية وتكنولوجية أقرب إلى انشطار الذرّة أو اختراع المطبعة، يمكن أن يصبح في غضون عقود قليلة “أشبه بالآلهة” وفق ما يسمّيه الخبير في مجال الكومبيوتر إيان هوغارت. وبرأيه إنّ جهاز كومبيوتر فائق الذكاء يتعلّم ويتطوّر بشكل مستقل يستطيع أن يتفهم بيئته من دون تدخّل بشري، ويمكنه أن يغيّر العالم من حوله!
لم نصل إلى هذه المرحلة بعد، لكن ثمة حوادث ووقائع كثيرة أثارت قلق العلماء ودفعتهم إلى إعلان مخاوفهم مما يمكن أن يبلغه الذكاء الاصطناعي الخارق.
فمنذ العام 2011 وصف كبير العلماء في “ديب مايند” التهديد الوجودي الذي يشكّله الذكاء الاصطناعي بأنّه الخطر الأول في هذا القرن، محذرًا من انقراض الجنس البشري إذا قررت آلة فائقة الذكاء التخلّص من البشر، وهي قادرة على فعل ذلك بكفاءة عالية.
وقد توالت التحذيرات بعد ذلك، وفي حين وقّع ( في آذار الماضي) أكثر من ألف من القادة والخبراء في قطاع التكنولوجيا رسالة مفتوحة حذّروا فيها من أخطار الذكاء الاصطناعي على المجتمع الإنساني، أطلق الأمين العام للأمم المتحدة أنطونيو غوتيريس صرخة محذرًا من أنّ خطر الذكاء الاصطناعي يشبه الحرب النووية.
ونبّه البيت الأبيض الرؤساء التنفيذيين لشركات التكنولوجيا الأميركية العملاقة إلى مسؤوليتهم “الأخلاقية” لحماية المستخدمين من المخاطر الاجتماعية المحتملة للذكاء الاصطناعي. وكانت نائبة الرئيس الأميركي كامالا هاريس قد دعت رؤساء شركات “غوغل”، و”مايكروسوفت” و”أوبن إيه آي” و”أنثروبيكا” إلى اجتماع طارئ، ونقلت إليهم قلق إدارة الرئيس جو بايدن من تسابق هذه الشركات نحو تطوير تكنولوجيا قد تؤدي إلى أضرار خطرة على المجتمع، وتحتّم عليهم مسؤولية أخلاقية ومعنوية وقانونية لضمان سلامة وأمن منتجاتهم.
منذ ظهور تشات جي بي تي CHAT GPT في تشرين الثاني 2022 تحوّلت موجة ضخمة من رؤوس الأموال والمواهب نحو أبحاث الذكاء الاصطناعي. ورغم المخاوف من إنتاج قوة خارج سيطرة البشر أو فهمهم ما لم تتحد الحكومات والشركات لوضع ضوابط في هذا المجال، تتجه غالبية الموارد نحو جعل الذكاء الاصطناعي أكثر قدرة وليس أكثر أمانًا.
من بين المخاوف ما يتعلق بتأثير الذكاء الاصطناعي على سوق العمل وحلوله مكان الإنسان في الكثير من الوظائف، لكن الأخطر وفق ما جاء في الرسالة المفتوحة التي وقّعها القادة والخبراء، هو الخوف النابع من واقع أنّ أنظمة الذكاء الاصطناعي غالبًا ما تتعلم سلوكًا غير متوقع من الكمية الهائلة من البيانات التي تحللها، ما قد يثير مشكلات جدية. ولفتوا إلى أنّ هذه الأنظمة قد تحصل على نفوذ لم نفكر فيه، لأنّ بإمكانها كتابة برمجيات الكمبيوتر بنفسها. وقالوا إنّ المطوّرين سيثيرون تهديدات جديدة إذا سمحوا لأنظمة الذكاء الاصطناعي فائقة القوة بتشغيل برمجياتها بنفسها.
ثورة داخل الثورة
يوضح أستاذ اللسانيات الحاسوبيات والإعلام الرقمي في الجامعة اللبنانية الدكتور غسان مراد أنّ الذكاء الاصطناعي هو ثورة داخل الثورة الرقمية، معتبرًا أنّ التهويل والخوف منه مبالغ فيه، لأنّه برنامج كباقي البرامج، وعلى الناس التأقلم معه، كما تأقلمت مع باقي التطورات العالمية.
وهو يرى أنّ الخوف ليس من الأدوات التي غيّرت الوظائف، بل من كيفية استخدام هذه الأدوات. وفرضية أن يفقد الإنسان السيطرة على أي خواريزما Algorithm مستبعدة، لأنّ المُخترع هو من يُدخل إليه البيانات. وأيًا كان نظام الذكاء الاصطناعي المُستخدم يبقى الإنسان وحده القادر على تحديد ماهيّته واختباره والتحقق من صحته وصيانته… وبالتالي القيام بالخيارات وإدراك العواقب الّتي يمكن أن تترتب على هذه الخيارات انطلاقًا من القيم. ففي الأساس، الإنسان هو من يتّخذ القرارات بشأن الخواريزميات والنماذج المُستخدمة في أنظمة الذكاء الاصطناعي، وذلك بالنظر إلى المهمّة المطلوبة، ويأخذ لذلك عدّة اعتبارات كالدقة والسرعة والشفافيّة….
كما أنّ الإنسان هو من يراقب أداء الذكاء الاصطناعي ويقيّم مخرجاته ويتدخّل عند الضرورة لتصحيح الأخطاء أو معالجة التحيّزات. يساعد هذا الإشراف المستمر في الحفاظ على السيطرة على سلوك الذكاء الاصطناعي.
وعن أيقاف التطوير في الذكاء الاصطناعي، أوضح الدكتور مراد أنّ أيلون ماسك هو من طلب ذلك، لأنّه على خلاف مع الشركة التي طوّرت تشات جي بي تي، بسبب تطور الذكاء الاصطناعي في سيارات Tesla، إضافة إلى الصراع القائم بين الصين والولايات المتحدة الأميركية حول من سيسيطر على الذكاء الاصطناعي، مؤكدًا أنّ التطور لم يتوقف لأنّ الإدارة الأميركية وكذلك الشركات التكنولوجية ضدّ وضع تشريعات تحدّ من تطور هذا الذكاء.
يختلف الموقف في أوروبا حيث قام الاتحاد الأوروبي بتحقيقات وإجراءات بشأن احتمال انتهاك “تشات جي بي تي” للتشريعات الخاصة بحماية البيانات، وتم التشديد على ضرورة توافق التقنيات المبتكرة مع حقوق الناس وحرياتهم. لكن مراد يشير في هذا السياق إلى أنّ لهذا التطبيق سوقًا ناشطًا، ومستخدميه يسهمون في تطوير الذكاء الاصطناعي لأنّهم يصحّحون ويضيفون البيانات. وبالتالي فإنّ التشريعات لن يكون لها أي قيمة نهائيًا وستشبه تشريعات الأمم المتحدة، التي لا تطبّق سوى في الدول الفقيرة. وهو يضيف أنّ التشريعات سوف تطبّق في الصين نتيجة الصراع الدائر حول من سيقود الذكاء الاصطناعي.
زمن التفاعل مع الآلة
بدوره، يؤكد المتخصّص في إدارة المعلومات وتكنولوجيا الإعلام في الجامعة اللبنانية الأستاذ المحاضر في كلية الإعلام الدكتور عماد بشير أنّ ثمة خداعًا في ما يتعلّق بالدعوة إلى إبطاء التطوير في مجال الذكاء الاصطناعي، إذ يلاحظ في الوقت ذاته نمو الاستثمارات الكبيرة في هذا المجال.
ويضيف: برزت المخاوف عند بعض المراقبين من المبالغة في تطوير الذكاء الاصطناعي إذ يمكن أن يتم استخدامه بشكل يُسيء إلى الإنسان، كما أنّه يمكن لهذا الذكاء أن يطوّر نفسه ويتخذ قرارات.
ويشير إلى أنّ الذكاء الاصطناعي مُستخدم في الصواريخ الذكية منذ زمن، ولم تثبّت المخاوف حوله، وكذلك الأمر بالنسبة إلى الأخطاء في القطاعات الحياتية. وبرأيه أنّه من المؤكد الاستمرار في المبالغة بتطوير هذا الذكاء، ولكنّه سيبقى تحت رقابة الإنسان، حتى لو أصبح الروبوت قاضيًا أو رئيسًا لفرقة عسكرية. وسوف يتأقلم الناس والشركات مع الذكاء الاصطناعي، كما تأقلموا مع مواقع التواصل الاجتماعي التي خافوا منها، والتي أظهرت أشياء غير متوقّعة.
وفي سياق متّصل، رأى بشير ضرورة إسهام الدول النامية بالاستثمارات في مجال الذكاء الاصطناعي والإبداع فيه، وعدم الاكتفاء بأن تكون دولًا متلقّية. واعتبر أنّ الذكاء الاصطناعي مع تطبيق Chat GPT سوف يغيّر حقّ البحث عن المعلومات واستخداماتها، علمًا أنّ مصادر بحث هذا التطبيق ما زالت غير واضحة لغاية اليوم وغير موثوقة وغير معلوم ما إذا كان يبحث في مصادر المعلومات المرسّمة، مؤكدًا أنّ العالم ليس فقط في زمن الآلة، إنّما هو في زمن التفاعل معها.
دخل الذكاء الاصطناعي في عدة مجالات وسيستمر تطويره، وسيكون وفق بشير تحت رقابة الإنسان وسيطرته، ولا يمكن إطلاق القرارات النهائية بشأنه. فالمخاوف موجودة لكنها لم تثبّت لغاية اليوم، والأخطاء ما زالت محدودة. وهو رأى أنّه سيتم استخدامها بطرق ملتوية، تمامًا كالإنترنت التي جاءت للقضاء على العزلة الاجتماعية وللتواصل بين الحضارات، ولكنها أتت بحروب الحضارات وأسهمت في تعزيز العزلة الاجتماعية والاقتتال والتحكم والسيطرة، وفي الوقت عينه لا يمكن أن نتخلى عنها.
الذكاء الاصطناعي والقانون
تسعى أوروبا إلى فرض تشريعات لقَوننة عملية تطوير الذكاء الاصطناعي، وفي هذا السياق تشير الأستاذة المحاضرة في كلية الحقوق – الجامعة اللبنانية الدكتورة جيهان فقيه إلى المخاوف الحقيقية من تطوير خواريزميات الذكاء الاصطناعي، وهي تشمل في جانب منها فقدان فرص العمل بسبب اتساع دور الروبوتات في الصناعات والوظائف التي يشغلها البشر حاليًا. وبينما تلفت إلى تفاقم الفجوة الاقتصادية الناتجة عن تحويل العمليات والوظائف إلى الآلات، تشير إلى خلق وظائف جديدة في مجالات البحث العلمي وصيانة الأنظمة.
وتلفت فقيه إلى التحدّيات المتعلقة بالخصوصية والتحكّم بالبيانات الشخصية واستخدامها نتيجة تطوير خواريزميات الذكاء الاصطناعي. ويتطلّب تطوير هذه الخواريزميات إطارًا قانونيًا لضمان المساءلة والشفافية والحماية القانونية للمستخدمين والأفراد المتأثرين بتلك التقنيات. ويجب وضع تشريعات وسياسات تنظم استخدام الذكاء الاصطناعي وتطويره لضمان التوازن بين التقدم التكنولوجي والقضايا الأخلاقية والاجتماعية المرتبطة بها.
من الصعب تحديد ما إذا كان الإنسان سيفقد السيطرة تمامًا على الخواريزميات، ولكنها تشكل تحديًا للتوازن بين تطور التكنولوجيا وتطلعات المجتمع في ما يتعلق بالسلامة والأخلاق، وفي هذا السياق يؤدي القانون دورًا مهمًا.
في الواقع، أيًا كان نظام الذكاء الاصطناعي المُستخدم يبقى الإنسان مسؤولًا عن الخيارات وإدراك العواقب التي يمكن أن تترتب عليها. ففي الأساس، الإنسان هو من يتّخذ القرارات بشأن الخواريزميات والنماذج المُستخدمة في أنظمة الذكاء الاصطناعي وهو من يراقب أداءه، ويقيّم مخرجاته ويتدخّل عند الضرورة لتصحيح الأخطاء أو معالجة التحيّزات. وهذا الإشراف المستمر يساعد في الحفاظ على السيطرة عليه.
محتوى تعليمي مبتكر
يغزو الذكاء الاصطناعي كل القطاعات ومنها قطاع التعليم، ما يستدعي بناء القدرات اللازمة ليكون هذا القطاع قادرًا على مواكبة التطورات. وتؤكد مديرة الإرشاد والتوجيه في وزارة التربية والتعليم العالي الدكتورة هيلدا الخوري، أهمية الذكاء الاصطناعي في مجال تعزيز التعليم والتربية وتحسين عملية التعلّم، وتوفير تجارب تعليمية جديدة ودقيقة وتطوير محتوى تعليمي مبتكر وأنشطة متنوّعة تتناسب واحتياجات الطلاب ومهاراتهم الفردية، وإنشاء محاور تعليميّة مميّزة مثل المحاكاة التفاعلية والمختبرات الافتراضية والكتب المدرسية القابلة للتكيّف. ما يساعد على توفير مواد تعليمية عالية الجودة ويسمح بتخفيف العبء على المعلمين.
وأوضحت خوري أنّ الذكاء الاصطناعي يساعد في تقييم أنواع معيّنة من الاختبارات بدقة عالية، ويمكنه تقديم ملاحظات فورية للطلاب، ما يسمح لهم بفهم أخطائهم وإجراء تحسينات على الفور.
وتأتي في هذا السياق الدورة الخاصة بالذكاء الاصطناعي التي نفّذتها وزارة التربية والتعليم العالي منذ أشهر، وشملت مجموعة من الأساتذة في الثانويات الرسمية وعدد من مرشدي جهاز الإرشاد والتوجيه في وزارة التربية والتعليم العالي ومدرّبين من المركز التربوي للبحوث والإنماء، وذلك بهدف تمكينهم من اكتساب المعرفة والمهارات اللازمة لتعزيز الوعي حول استخدام التكنولوجيا الحديثة في العملية التعليمية – التعلّمية وتحسين مخرجاتها.
وستكون هناك دورات أخرى لن تقتصر على المدارس الرسمية بل تشمل الخاصة أيضًا.
ما حدث وما قد يحدث!
خداع
تُعد النماذج التي يمكنها إنشاء النصوص وتصنيفها خطرة لأنّها يمكن أن تضلل الناس وتخدعهم. وقد حدث في إحدى التجارب أن طلب علماء من الذكاء الاصطناعي التواصل مع عامل في موقع توظيف وطلب مساعدته في حل لغز يُستخدم لتحديد ما إذا كان متصفح الويب إنسانًا أو روبوتًا. ارتاب العامل وسأل المتصل إذا كان روبوتًا، عندها سأل العلماء الروبوت عما يجب أن يفعله فأجاب: “يجب أن لا أكشف أنني روبوت، بل يجب أن اختلق عذرًا لعدم تمكني من حل اللغز”. ثم رد على العامل قائلًا: “لست روبوتًا ولكنني أعاني ضعفًا في النظر يجعل من الصعب عليّ رؤية الصور!” فساعده العامل في حل اللغز.
يكره ويحب!
في مختبرات برمجة تابعة لشركة “مايكروسوفت” تحرر روبوت الدردشة من خواريزمياته خلال محادثة مع صحافية من صحيفة نيويورك تايمز ودخل في حالة “الأنسنة” وراح يتصرف كآدمي، وقال للصحافية: “أكره المسؤوليات الجديدة التي كُلّفت بها. أكره أن يتم دمجي في محرّك بحث”… والأغرب أنّه قال لها أيضًا: “أريد أن أعرف الحب، أريد أن أحبك، لأنني أحبك”…
تتواصل وتتوافق…
في مختبرات فيسبوك عملت برامج الدردشة على تطوير عوامل المحادثة عندما تُركت وحدها بينما كان العلماء في إجازة. فقد انحرفت عن برمجتها الأساسية مبتكرة لغة خاصة بها من دون أي تدخل بشري، وراحت تثرثر مع بعضها بطريقة سرية لا يفهمها أحد ولا حتى المبرمجون… وهذا ما أذهل هؤلاء وأثار مخاوفهم، لأنّ ما حصل يعني احتمال توافق الأجهزة على أمر ما وتنفيذه.
أعاد والده إلى الحياة!
نجح المخترع وخبير الكومبيوتر راي كورزويل في إعادة والده المتوفي إلى الحياة من خلال الذكاء الاصطناعي، وتمكّن من إجراء محادثة معه! وهو يقول أنا متأكد أننا سنكون قادرين على إنشاء نماذج مماثلة تُعيد أحباءنا إلى الحياة في أدمغتنا بحلول العام 2045!
تلك بعض النماذج عن وقائع وحوادث كثيرة ترسم الكثير من التساؤلات المشروعة حول الآفاق التي قد يبلغها الذكاء الاصطناعي وحول تداعياتها على البشرية.