هل يمكن أن يكون استعمال تطبيقات الذكاء الاصطناعي في علاج المصابين بالأمراض النفسية مصدر خطر عليهم ؟ وهل يمكن أن يؤدي ذلك إلى حدوث مرض الذهان لديهم !؟
*بعد الانتشار الكبير والواسع لتطبيقات المحادثة بالذكاء الاصطناعي أصبحت هذه الأدوات جزءًا من حياة الكثير من الناس. ومن هذه التطبيقات كانت ChatGPT و Claude و Gemini و Copilot، وتزايدت بذلك البيانات والأخبار عن الخطورة المحتملة التي قد يؤل لها اعتماد تطبيقات محادثات الذكاء الاصطناعي كمصادر للاستشارات والعلاجات لبعض الأمراض. تجاوز استعمال هذه التطبيقات وأصبحت مصادر للاستشارات العلمية والاجتماعية والعاطفية، ولم تعد مقتصرة على المراسلة وتعلم اللغات والبرامجيات وماشابه ذلك من اتجاهات معرفية عامة. وهنالك من الخبراء من أطلق على تداعيات تطبيقات الذكاء الاصطناعي بتسمية “الذهان بالذكاء الاصطناعي”، أو “ذهان ChatGPT”، وإن كانت هذه الظاهره غير مفهومة وتشخيصها غير واضح والبيانات المتوفره عنها قليلة لكنها مقلقة ما دعى الخبراء على حَثْ شركات الذكاء الاصطناعي لبذل المزيد من الجهد لحماية الصحة العقلية للمستخدمين.

*أعراض ذهان الذكاء الاصطناعي:
الأعراض الذهانية الضارة لهذه التطبيقات تظهر عند الأقلية التي يطول استعمالها لمحادثات “Chatbot” وذلك ما أشارت له العديد من التقارير يشير عدد متزايد من التقارير. على الرغم من التأكيد على وجود هذه الآثار السيئة عند بعض الأشخاص ، فهنالك من الخبراء من يعتقد بوجود ظروف معينة لدى هؤلاء الأشخاص تجعلهم عُرضة للذهان أو تضخيم الأعراض الموجودة أصلا عندهم ولم تكن واضحة جيداً. الإستعداد ويمكن أن تكون التداعيات مدمرة وربما قاتلة.وصف بعض هؤلاء المتضررين بأن حياتهم بدأت في الدوران بعد التفاعل مع الذكاء الاصطناعي وبعضهم من فقد وظيفته أو دمرت علاقاته على الرغم من أنه لم يكن لديهم تشخيصات سابقة للصحة العقلية.
*ما هو “ذهان ChatboT أو ChatGPT”
أو “ذهان” الذكاء الاصطناعي؟
لحد هذا الوقت لايوجد تشخيص رسمي لهذا الذهان، وهناك من يعترض على هذه التسمية، لكنه على الأغلب الوصف المقارب لمجموعة أعراض التفكير المضطرب، القلق أو الأوهام والمعتقدات المشوهه والاضطرابات العقلية التي أثارتها أو عززتها المحادثات مع أنظمة التطبيق الاصطناعي. وقد تكون هذه الأعراض بنظر الأطباء النفسيون انعكاساً لنقاط الضعف الموجودة أصلاً عند أولئك الأشخاص الأكثر ضعفاً.
*من هم الأكثر عرضة للخطر؟
في حين أن معظم الناس يمكنهم استخدام روبوتات الدردشة دون مشكلة، يعتقد الخبراء إن هنالك مجموعة صغيرة من المستخدمين قد تكون عرضة بشكل خاص للتفكير الوهمي بعد الاستخدام المطول. تشير بعض التقارير الإعلامية عن الذهان بالذكاء الاصطناعي من أن عوامل الخطر، غير المكتشفة أو الكامنة والتي قد تكون وراثية ولايعرف بها الشخص المعني هي التي مهدت لظهور هذا الذهان. وقد يكون هذا الانغماس والوقت الطويل يوميا الذي يقضيه الشخص مع هذه التطبيقات هو الذي يؤدي إلى ظهور هذه الأعراض.
*معايير السلامة لتجنب الإصابة:
على الأعم الأغلب أن تطبيقات المحادثات المشار اليها هنا ليست خطيرة بطبيعتها، ولكن بالنسبة لبعض الناس، هناك ما يبرر الحذر. ولتجنب الآثار الضارة لها يقترح بعض الأطباء المتخصصين بالأمراض النفسية التذكر بأن
اهذه مجرد أدوات وليست أصدقاء أو خبراء. بغض النظر عن قدرتها التحدث محاكاة نبرة صوت المتحدث معها، فتجنب الإفراط في استخدامها أو الاعتماد عليها للحصول على الدعم النفسي أو العاطفي.
النصحية بالتوقف عن استخدامها خلال لحظات الأزمة أو الإجهاد العاطفي على الرغم من صعوبة التخلي عنا وإنهاء هذه العلاقة أو الرابطة معها، والعودة إلى . يمكن أن يحقق هذا الابتعاد تحسنا كبيرا، خاصة عندما يعيد الشخص إلى علاقات التواصل مع العالم الحقيقي وطلب المساعدة المهنية من المختصين حين الحاجة لها. للعائلة والاصدقاء الحقيقيين فرصة وأدواراً كبيرة لطرد هذه الهواجس.
*دور شركات الذكاء الاصطناعي في الحماية:
لم تتخذ هذه الشركات إجراءات جادة في معالجة ذهان ChatGPT لعدم وجود البيانات الرسمية عن هذا الذهان. يتفق الخبراء على نطاق واسع على أن النطاق والأسباب وعوامل الخطر لا تزال محدودة وغير واضحة. مايجعل من الصعب قياس المشكلة ووضع الحلول المناسبة لها. ولكن هنالك ما يشير إلى أن شركات الذكاء الاصطناعي تعمل بالفعل مع علماء الأخلاقيات الحيوية وخبراء الأمن السيبراني لتقليل المخاطر المستقبلية المحتملة، والعمل مع المتخصصين في الصحة العقلية لوضع علامة على الاستجابات التي قد تتحقق من صحة الأوهام. فقد قامت شركة OpenAI وهي كبرى شركات الذكاء الاصطناعي بتعين طبيباً نفسياً سريرياً للمساعدة في تقييم تأثير أدواتها على الصحة العقلية، والتي تشمل ChatGPT. في الشهر التالي، وصرحت بأنها تدرس الحالة وستبدأ في حث المستخدمين على أخذ فترات راحة خلال الجلسات الطويلة، وتطوير أدوات للكشف عن علامات الضيق، وتعديل استجابات ChatGPT في القرارات الشخصية العالية المخاطر. وهنالك من اقترح المراقبة ووضع ملصق حذر لتقدير الوقت الفعلي للضيق والتوجيه المسبق للمستخدمين بتحديد الإطار العام للاستعمال قبل الاستخدام تجنباً للعواقب المدمرة على الصحة العقلية التي قد تؤدي إلى إيذاء النفس.
وسلامتكم

14 آب 2025