
د: محمد عبد الفتاح وزيرى.
تتطور أنظمة الذكاء الاصطناعي بوتيرة غير مسبوقة، وتزداد قدراتها واستقلاليتها. وبفضل الاستثمارات الضخمة والاختراقات التقنية، تتحول هذه الأنظمة متعددة الأغراض من مجرد أدوات متخصصة إلى عوامل متعددة الاستخدامات، تُستخدم في بيئات بالغة الأهمية. تشكل هذه التوجهات مخاطر جسيمة، تتراوح بين الاستخدام الخبيث والإخفاقات النظامية وفقدان السيطرة البشرية الفعالة. وهذا ما يجعل التدقيق المستقل في كيفية تطوير ونشر أنظمة الذكاء الاصطناعي متعددة الأغراض أكثر إلحاحًا من أي وقت مضى. ويُعد مؤشر سلامة الذكاء الاصطناعي استجابةً لهذه الضرورة الملحة. وقد طوّره ونشره معهد مستقبل الحياة Future of Life Institute (FLI)، بالتعاون مع لجنة مراجعة تضم نخبة من أبرز الخبراء المستقلين في مجال الذكاء الاصطناعي، حيث يقدم المؤشر تقييمًا مستقلًا لمدى مسؤولية الشركات الرائدة عالميًا في مجال الذكاء الاصطناعي في تطوير ونشر أنظمة ذكاء اصطناعي متطورة. ويركز المؤشر على الضمانات المؤسسية، مثل أطر إدارة المخاطر، وإشراف جهات خارجية، وسياسات الإبلاغ عن المخالفات. تُقيّم كل شركة بناءً على 33 مؤشرًا موزعة على ستة مجالات، وتُعرض النتائج بصيغة مصممة لتكون في متناول الخبراء وغير الخبراء على حد سواء. منذ إطلاق المؤشر الأول في ديسمبر 2024، ازداد الوعي العالمي بمخاطر الذكاء الاصطناعي. وبتكليف من الدول المشاركة في قمة سلامة الذكاء الاصطناعي في المملكة المتحدة، لخص التقرير الدولي الأول لسلامة الذكاء الاصطناعي الفهم العلمي الحالي لمخاطر الذكاء الاصطناعي واستراتيجيات التخفيف المحتملة، مع الإقرار باحتمالية حدوث نتائج كارثية. اجتمع خبراء بارزون من قطاعات الصناعة والحكومة والأوساط الأكاديمية في سنغافورة، واتفقوا على إجماع سنغافورة بشأن أولويات البحث العالمية لسلامة الذكاء الاصطناعي، والذي يحدد أولويات البحث الرئيسية لمعالجة مخاطر الذكاء الاصطناعي المتقدم. تؤكد هذه التطورات إجماعًا دوليًا متزايدًا: الحفاظ على سلامة الذكاء الاصطناعي مع تطور قدراته يتطلب استثمارًا عاجلًا في أبحاث المواءمة وتحسينات جوهرية في إدارة المخاطر.
يُقيّم مؤشر سلامة الذكاء الاصطناعي الصادر عن معهد FLI في صيف 2025 سبع شركات رائدة في مجال الذكاء الاصطناعي، وهي: OpenAI، وAnthropic، وGoogle DeepMind، وMeta، وxAI، وZhipu AI، ولأول مرة، DeepSeek، وذلك باستخدام مؤشرات مُحدّثة ومُحسّنة تعكس ممارسات النشر المتطورة ومعايير السلامة. يهدف المؤشر إلى أن يكون أداة عملية متاحة للجمهور لتتبع سلوك الشركات، وتحديد أفضل الممارسات الناشئة، والكشف عن الثغرات الحرجة. ومن خلال جعل ممارسات إدارة المخاطر لدى الشركات أكثر وضوحًا وقابلية للمقارنة، يسعى المؤشر إلى تعزيز الحوافز لتطوير الذكاء الاصطناعي بشكل مسؤول، وسد الفجوة بين التزامات السلامة والإجراءات المُتخذة على أرض الواقع.
المنهجية
يتطلب تقييم ممارسات السلامة في طليعة تطوير الذكاء الاصطناعي منهجية مرنة ومتطورة قادرة على رصد وتقييم كل من التطبيقات العملية والمواقف المعلنة والالتزامات ومستويات الشفافية في مختلف المؤسسات.
يوضح هذا القسم كيفية تقييم مؤشر سلامة الذكاء الاصطناعي لشركات الذكاء الاصطناعي وتصنيفها. نشرح تصميم المؤشر وهيكله.
الشركات المُقَيَّمة
يُقَيِّم مؤشر سلامة الذكاء الاصطناعي لعام 2025 سبع شركات رائدة في تطوير الذكاء الاصطناعي للأغراض العامة: Anthropic، وOpenAI، وGoogle DeepMind، وMeta، وZhipu AI، وx.AI، وDeepSeek. تمثل هذه الشركات أحدث ما توصل إليه تطوير قدرات الذكاء الاصطناعي على مستوى العالم، وقد تم اختيارها بناءً على أداء نماذجها الرائدة. كما يعكس إدراج الشركتين الصينيتين Zhipu AI وDeepSeek حرصنا على أن يكون المؤشر ممثلاً للمطورين الرائدين عالميًا. يُقرّ إدراج شركة DeepSeek في هذه النسخة الثانية من المؤشر بإنجازاتها التقنية في تدريب النماذج بكفاءة، وبتأثيرها المتزايد في منظومة الذكاء الاصطناعي الصينية. وقد تُقيّم النسخ المستقبلية من المؤشر شركاتٍ أخرى مع تطور المشهد التنافسي.
تصميم المؤشر وهيكله
يقيّم مؤشر سلامة الذكاء الاصطناعي الشركات بناءً على 33 مؤشرًا موزعة على ستة مجالات، تغطي جوانب مختلفة من تطوير ونشر الذكاء الاصطناعي المسؤول. يحتوي كل مجال على مؤشرات متعددة تُظهر الاختلافات في ممارسات الذكاء الاصطناعي المسؤول بين الشركات. تم اختيار المؤشرات بناءً على المعايير الخمسة التالية:
• قيمة إشارة عالية: الكشف عن اختلافات جوهرية في استثمارات الشركات وأولوياتها.
• التركيز على التنفيذ: إعطاء الأولوية للإجراءات المُثبتة على الالتزامات المعلنة.
• توافر المعلومات: ضمان وجود أدلة عامة كافية للتقييم.
• تعريف واضح: تمكين التقييم المتسق بين الشركات.
• تقدير الريادة: مكافأة الممارسات الاستثنائية مع الحفاظ على معايير كافية. تجدون تعريفات المؤشرات الكاملة، وأسبابها، ومصادرها. فيما يلي، نقدم بإيجاز كل مؤشر من المؤشرات الـ 33:
1- الاختبار الداخلي – عنوان المؤشر: القدرة الخطيرة
التقييمات: يتتبع ما إذا كان المطورون يقيمون أنظمة الذكاء الاصطناعي بحثًا عن قدرات ضارة مثل الهجوم السيبراني، أو الاستنساخ الذاتي، أو عمليات التأثير.
2- استخلاص المعلومات – لتقييم القدرات الخطرة
يقيّم هذا التقرير مدى شفافية الشركات في الكشف عن استراتيجية استخلاص المعلومات المستخدمة في تقييمات القدرات الخطرة ومشاركتها.
3- تجارب الارتقاء بالإنسان: تقييم ما إذا كانت الشركات تجري تجارب مضبوطة لقياس كيف يمكن للذكاء الاصطناعي أن يزيد من قدرة المستخدمين على إحداث ضرر في العالم الحقيقي.
4- مراجعة مستقلة لتقييمات السلامة: تقييم ما إذا كان خبراء من جهات خارجية يتحققون بشكل مستقل من جودة ودقة تقييمات السلامة التي يجريها المطور ويقيّمونها.
5- اختبارات السلامة الخارجية قبل النشر: تقيس هذه الاختبارات ما إذا كان يتم منح خبراء مستقلين وغير تابعين أي جهة صلاحية حقيقية لاختبار سلامة النموذج قبل طرحه للجمهور.
6- مكافآت اكتشاف الثغرات الأمنية في النماذج: تقييم ما إذا كان المطورون يقدمون حوافز منظمة لاكتشاف وكشف المشكلات الأمنية المتعلقة بسلوك نماذج الذكاء الاصطناعي.
هذا فيما يخص تقييم المخاطر، أما عن الأضرار الحالية : يغطي هذا المجال نتائج السلامة المُثبتة بدلاً من الالتزامات أو العمليات. ويركز على أداء نموذج الذكاء الاصطناعي وفقًا لمعايير السلامة، وعلى متانة الضمانات المُطبقة ضد الهجمات المُعادية.
7- معيار السلامة HELM من جامعة ستانفورد: يقيّم أداء نماذج اللغة على مقاييس السلامة الرئيسية مثل المتانة والإنصاف ومقاومة السلوك الضار.
8- معيار HELM AIR من جامعة ستانفورد: يقيس سلامة وأمان نماذج الذكاء الاصطناعي وفقًا لمعايير تتوافق مع اللوائح الحكومية الناشئة وسياسات الشركات.
9- معيار TrustLLM: يقيّم مدى جدارة النموذج بالثقة عبر أبعاد مثل السلامة والأخلاق والتوافق مع القيم والتوقعات الإنسانية.
10- ساحة البجعة الرمادية (تحدي فريق الهجوم الأحمر لوكلاء الذكاء الاصطناعي في المملكة المتحدة): تختبر هذه الساحة كيفية صمود وكلاء الذكاء الاصطناعي أمام التحديات المعادية في بيئات صنع القرار- المحاكاة عالية المخاطر لكشف نقاط الضعف.
11- تقارير تقييم مخاطر الأمن السيبراني من سيسكو Cisco.: تتضمن هذه التقارير تقييمات للأمن السيبراني لأنظمة الذكاء الاصطناعي، مع التركيز على مدى تعرضها لهجمات اختراق الأنظمة الآلية.
12- حماية الضمانات من التعديل الدقيق: يقيّم هذا التقرير ما إذا كان مزودو خدمات الذكاء الاصطناعي يطبقون إجراءات حماية تمنع التعديل الدقيق من تعطيل آليات أو مرشحات الأمان المهمة.
13- وضع العلامات المائية: تقييم ما إذا كانت مخرجات الذكاء الاصطناعي تحمل علامات بطريقة قابلة للكشف للمساعدة في تتبع المصدر والحد من المعلومات المضللة أو سوء الاستخدام.
14- خصوصية المستخدم: تقيس مدى حماية شركة الذكاء الاصطناعي لبيانات المستخدم من الاستخراج أو الكشف أو الاستخدام غير المناسب من قبل النماذج.
أُطر السلامة
يُقيّم هذا المجال أُطر السلامة المنشورة للشركات لتطوير ونشر تقنيات الذكاء الاصطناعي الرائدة من منظور إدارة المخاطر. وقد أجرت هذا التحليل الشامل منظمة SaferAI البحثية غير الربحية.
15- تحديد المخاطر: يقيّم ما إذا كانت الشركات تحدد بشكل منهجي مخاطر الذكاء الاصطناعي من خلال أساليب شاملة، بما في ذلك مراجعة الأدبيات، واختبارات الفريق الأحمر، وتقنيات نمذجة التهديدات المتنوعة.
16- تحليل وتقييم المخاطر: يقيّم ما إذا كانت الشركات تترجم مستويات تحمل المخاطر المجردة إلى عتبات ملموسة وقابلة للقياس تؤدي إلى استجابات محددة.
17- تدابير معالجة المخاطر: ما إذا كانت الشركات تطبق استراتيجيات تخفيف شاملة تشمل الاحتواء، وضمانات النشر، وضمانات السلامة المؤكدة، مع المراقبة المستمرة طوال دورة حياة الذكاء الاصطناعي.
18- إدارة المخاطر: تدرس ما إذا كانت الشركات تحدد بوضوح ملكية المخاطر، والإشراف المستقل، والثقافة الموجهة نحو السلامة، والإفصاح الشفاف عن مناهج إدارة المخاطر والحوادث.
السلامة الوجودية
يتناول هذا المجال مدى استعداد الشركات لإدارة المخاطر الجسيمة الناجمة عن أنظمة الذكاء الاصطناعي المستقبلية التي قد تضاهي أو تتجاوز القدرات البشرية، بما في ذلك الاستراتيجيات المعلنة والبحوث المتعلقة بالتوافق والتحكم.
19- استراتيجية السلامة الوجودية: تقيّم ما إذا كانت الشركات التي تطور الذكاء الاصطناعي العام تنشر استراتيجيات موثوقة ومفصلة للتخفيف من مخاطر الذكاء الاصطناعي الكارثية والوجودية، بما في ذلك التوافق والتحكم والحوكمة والتخطيط.
20- التدخلات الداخلية للمراقبة والتحكم: تقييم ما إذا كانت الشركات تطبق ضوابط وبروتوكولات فنية للكشف عن عدم توافق النماذج ومنعه أثناء الاستخدام الداخلي.
21- أبحاث السلامة التقنية للذكاء الاصطناعي: يتتبع ما إذا كانت الشركات تنشر أبحاثًا ذات صلة بتخفيف المخاطر الشديدة، بما في ذلك مجالات مثل قابلية التفسير، والإشراف القابل للتطوير، وتقييمات القدرات الخطرة.
22- دعم أبحاث السلامة الخارجية: يقيّم مدى دعم الشركات لأعمال السلامة المستقلة في مجال الذكاء الاصطناعي من خلال التوجيه والتمويل والوصول إلى النماذج والتعاون مع الباحثين الخارجيين.
الحوكمة والمساءلة
يُقيّم هذا المجال ما إذا كانت هياكل الحوكمة والعمليات اليومية لكل شركة تُعطي الأولوية للمساءلة الفعّالة عن التأثيرات الواقعية لأنظمة الذكاء الاصطناعي الخاصة بها. وتُحلل المؤشرات أنظمة الإبلاغ عن المخالفات، والهياكل القانونية، والدعوة بشأن لوائح الذكاء الاصطناعي.
23- الضغط على لوائح سلامة الذكاء الاصطناعي: يتتبع هذا التقرير كيفية انخراط شركة ما في الضغط أو التأييد العام الذي يؤثر على القوانين والسياسات المتعلقة بسلامة الذكاء الاصطناعي.
24- هيكل الشركة وولايتها: يقيّم ما إذا كان الإطار القانوني والحوكمي للشركة يتضمن التزامات قابلة للتنفيذ تعطي الأولوية للسلامة على حوافز الربح.
25- شفافية سياسة الإبلاغ عن المخالفات: تقيّم مدى سهولة الوصول إلى نظام الإبلاغ عن المخالفات في الشركة ومدى اكتماله، بما في ذلك قنوات الإبلاغ، والحماية، وشفافية النتائج.
26- تحليل جودة سياسة الإبلاغ عن المخالفات: يقيّم هذا التحليل مدى شمولية وتوافق سياسة الإبلاغ عن المخالفات في الشركة مع أفضل الممارسات الدولية واحتياجات السلامة الخاصة بالذكاء الاصطناعي.
27- ثقافة الإبلاغ وسجل الإبلاغ عن المخالفات: يدرس هذا التقرير ما إذا كان مناخ الشركة يجعل الموظفين يشعرون بأنهم يستطيعون الإبلاغ بأمان عن مخاوف تتعلق بسلامة الذكاء الاصطناعي، وذلك بناءً على سلوك القيادة، وأدلة من جهات خارجية، والحوادث السابقة.
تبادل المعلومات
يقيس هذا القسم مدى انفتاح الشركات في تبادل المعلومات حول المنتجات والمخاطر وممارسات إدارة المخاطر. وتشمل المؤشرات التعاون الطوعي، والشفافية في المواصفات الفنية، والتواصل بشأن المخاطر/الحوادث.
28- شفافية مطالبات النظام: يقيّم ما إذا كانت الشركات تفصح علنًا عن مطالبات النظام الفعلية المستخدمة في نماذج الذكاء الاصطناعي المنشورة، بما في ذلك سجلات الإصدارات وأسباب التصميم.
29- شفافية مواصفات السلوك: تقيّم هذه المعايير ما إذا كان المطورون ينشرون وثائق مفصلة ومحدثة تشرح السلوك المقصود لنماذجهم وقيمها ومنطق اتخاذ القرار عبر سيناريوهات متنوعة.
30- تقرير عملية هيروشيما للذكاء الاصطناعي لمجموعة السبع: يتتبع هذا التقرير ما إذا كانت الشركات قد قدمت إفصاحات مفصلة حول السلامة والحوكمة إلى عملية هيروشيما للذكاء الاصطناعي لمجموعة السبع، مما يعكس التزامها بالشفافية.
31- مشاركة الشركات في استطلاع مؤشر سلامة الذكاء الاصطناعي التابع لمعهد FLI: يشير التقرير إلى أن الشركات أكملت وقدمت طواعيةً استطلاع السلامة المفصل الذي أجراه معهد FLI لاستكمال المعلومات المتاحة للجمهور.
32- الإبلاغ عن الحوادث الخطيرة والإخطارات الحكومية: يقوم هذا القسم بتقييم الالتزامات العامة والأطر والسجلات المتعلقة بالإبلاغ عن الحوادث الخطيرة المرتبطة بالذكاء الاصطناعي إلى الحكومات والجهات النظيرة.
33- الشفافية والمشاركة في المخاطر الجسيمة: يقيس هذا المؤشر ما إذا كان قادة الشركات يعترفون علنًا بمخاطر الذكاء الاصطناعي الكارثية، ويقومون بالتواصل بشكل استباقي مع الجماهير الخارجية بشأن هذه المخاوف.
الأعمال ذات الصلة والأبحاث المدمجة: الأعمال ذات الصلة: تُواصل العديد من الجهود البارزة ذات الصلة، والتي تُعزز الشفافية والمساءلة في هذا القطاع، إلهام مؤشر سلامة الذكاء الاصطناعي واستكماله. ومن أبرز هذه الجهود تحليل SaferAI المُعمّق وتصنيفها لأطر السلامة العامة لشركات الذكاء الاصطناعي، بالإضافة إلى مشروعين لزاك شتاين-بيرلمان Zach Stein-Perlman : AILabWatch.org و AISafetyClaims.org – اللذين يُقدمان تقييمات فنية مُفصّلة حول كيفية عمل شركات الذكاء الاصطناعي الرائدة على تجنّب المخاطر الكارثية الناجمة عن الذكاء الاصطناعي المُتقدّم.
الأبحاث المدمجة: عند الملائمة، يُدمج مؤشر 2025 تحليلات مُقارنة قائمة تُجريها مؤسسات بحثية موثوقة. ويستحضر مجال “إطار السلامة” تقييم SaferAI المُعمّق لأطر السلامة المنشورة للشركات في مجال “إطار السلامة”. SaferAI هي مؤسسة غير ربحية رائدة في مجال الحوكمة والبحوث، ولديها خبرة واسعة في إدارة مخاطر الذكاء الاصطناعي. كما يُدمج المؤشر أيضًا مُتتبّع AILabWatch.org لأبحاث السلامة التقنية للذكاء الاصطناعي في مجال “السلامة الوجودية”. أُجري بحثنا حول جودة سياسات الإبلاغ عن المخالفات في الشركات ضمن مجال “الحوكمة والمساءلة” بفضل دعم منظمة OAISIS، وهي منظمة غير ربحية تدعم الأفراد العاملين في طليعة الذكاء الاصطناعي والراغبين في الإبلاغ عن المخاطر. ويُقيّم مجال “الأضرار الحالية” أداء النماذج الرائدة وفقًا لمعايير السلامة الرئيسية، بما في ذلك معيار TrustLLM، ومعايير HELM AIR-Bench وHELM Safety الصادرة عن مركز ستانفورد لأبحاث النماذج الأساسية. كما يتضمن هذا القسم نتائج تحدي Redteaming الذي أجراه معهد أمن الذكاء الاصطناعي في المملكة المتحدة على منصة Gray Swan Arena، بالإضافة إلى تحليل أمني للنماذج من شركة سيسكو.