مقالات تحليلية

مطالب بتحرك جدي من الحكومة الأميركية للحد من مخاطر الذكاء الاصطناعي

15-Mar-2024

وفق رؤية الحكومة الأميركية، يجب أن يكون الذكاء الاصطناعي آمنًا ومأمونًا، ويتطلب تحقيق هذا الهدف تقييمات قوية وموثوقة وقابلة للتكرار وموحدة لأنظمة الذكاء الاصطناعي، فضلا عن السياسات والمؤسسات، وآليات أخرى، حسب الاقتضاء، لاختبار وفهم وتخفيف المخاطر الناجمة عن هذه الأنظمة قبل استخدامها.


الذكاء الاصطناعي العسكري 

ضمن هذه الرؤية لا تشمل قدرات الذكاء الاصطناعي العسكري الأسلحة فحسب، بل تشمل أيضًا أنظمة دعم القرار التي تساعد قادة الدفاع على جميع المستويات على اتخاذ قرارات أفضل وفي الوقت المناسب، بدءًا من ساحة المعركة إلى قاعات مجالس الإدارة، والأنظمة المتعلقة بكل شيء بدءًا من التمويل وكشوف المرتبات والمحاسبة وحتى التوظيف، والاحتفاظ بالموظفين وترقيتهم لجمع ودمج بيانات الاستخبارات والمراقبة والاستطلاع.

تقول ساشا بيكر، وكيلة وزارة الدفاع لشؤون السياسة: "إن المعايير المتعلقة بالاستخدام العسكري المسؤول للذكاء الاصطناعي والاستقلالية، توفر أساسًا لبناء تفاهم مشترك، وتخلق مجتمعًا لجميع الدول لتبادل أفضل الممارسات".

تواصل "لقد كانت الولايات المتحدة رائدة عالميًا في الاستخدام العسكري المسؤول للذكاء الاصطناعي والاستقلالية، حيث تدافع وزارة الدفاع عن المبادئ الأخلاقية للذكاء الاصطناعي والسياسات بشأن الاستقلالية في أنظمة الأسلحة لأكثر من عقد من الزمن. ويعتمد الإعلان السياسي على هذه الجهود. وهو يعزز المستوى الدولي.


محاذير ومخاوف معلنة

لكن جاء في تقرير تم إعداده بناء على طلب حكومي ، أن على الولايات المتحدة أن تتحرك بسرعة وبصورة حاسمة لتجنب مخاطر قد تأتي من الذكاء الاصطناعي والتي في أسوأ صورها قد تتسبب في انقراض البشرية وفق التقرير، الذي جاء فيه أن التطورات الأخيرة في مجال الذكاء الاصطناعي تمثل تهديداً للأمان والأمن القومي .

يذكر التقرير الذي نشرته مجلة ( تايم ) الأميركية في 11 مارس 2024 " أن الكوارث في مجال الذكاء الاصطناعي يحمل في داخله عوامل عدم استقرار في الأمن العالمي ، مشيرا إلى قضايا تتعلق بالحصول على الأسلحة النووية. 

ظل كتاب التقرير الثلاثة ظلوا يعملون لمدة عام وتحدثوا إلى أكثر من مائتين من المسؤولين الحكوميين وخبراء ورواد في الذكاء الاصطناعي في عدد من الشركات  ،  كجزء من دراسة قاموا بها ، وقد أخرجت لقاءاتهم مؤشرات مقلقة تعبر عن أن عددا كبيرا ممن يعملون في أحدث مراحل أمن الذكاء الاصطناعي متخوفين من الانحرافات، بسبب الحوافز التي ترتبط بصناع القرار التنفيذيين الذيم يسيطرون على الشركات. 


خطة عمل لزيادة أمن الذكاء الاصطناعي 

الوثيقة النهائية التي تحمل عنوان: " خطة عمل لزيادة أمن وسلامة الذكاء الاصطناعي الحديث" حملت توصيات وسياسات إذا تم الأخذ بها ربما تعطل صناعة الذكاء الاصطناعي، والتي قد يجعلها منها الكونغرس صناعة غير قانونية.

يوصي التقرير بما يلي :

1- استخدام عدة نماذج على مستويات مختلفة من حيث قوة الحوسبة.

2- أن تمنج التراخيص بواسطة وكالة فيدرالية جديدة. 

3- يجب على الوكالة الجديدة أن تطلب من شركات الذكاء الاصطناعي الرائدة أن تحصل على إذن للتجارب ونشر النماذج الجديدة في حدها الأدنى .

التقرير أضاف بأن على المسؤولينالعمل على عدم نشر المستويات العليا من النماذج التي تعمل بنظام التصريح المفتوح القابل للتعديل من المستخدمين ، علاوة على معاقبة المخالفين بالسجن ، كما يجب على الحكومة أن تشدد السيطرة على صناعة وتصدير الرقائق،  وزيادة الاعتمادات المالية في المجالات التي تعمل على زيادة مستويات التأمين ـ 

قدم التقرير في 247 صفحة للخارجية الأمريكية في 26 فبراير 2024، لكنها لم تتجاوب مع العديد من الطلبات للتعليق عليه ، وقد حملت الصفحة الأولى من التقرير  أنه  لا يعبر عن وجهة نظر الحكومة الفيدرالية.

جاء في التقرير توصيات مذهلة جعلت المراقبين يعيدون النظر في جوانب هذه التكنولوجيا لم يكن من الممكن التفكير فيها سابقاً ، فتطبيق شات جي بي تي الذي أطلق في نوفمبر 2022، كان الأول الذي اتيح للجمهور، وجعل كثير من الناس يفكرن في ما إن كانت منتجات الذكاء الاصطناعي في المستقبل يمكن أن تحتوى على مخاطر قد تقود إلى فناء البشرية.


السيطرة على الذكاء الاصطناعي

 وبينما تفكر الحكومات في مختلف أنحاء العالم في الطريقة التي تسيطر بها على الذكاء الاصطناعي ، فإن شركات الذكاء الاصطناعي الكبرى في العالم تتحرك بسرعة لبناء القدرات وتطوير أجيال جديدة من نظم قوية ، ويعتقد 80% من الأمريكيين أن الذكاء الاصطناعي يمكن عن طريق الصدفة أن يحدث كارثة وأن 77% يعتقدون أن على الحكومة أن تقوم بالتدخل لتنظيم الذكاء الاصطناعي .

يشير التقرير إلى أن منع تجريب نظم متقدمة من الذكاء الاصطناعي عن طريق القانون يمكن أن يؤدي إلى سباق معتدل بين مطوري الذكاء الاصطناعي ، كما قد يؤدي إلى نقصان في إنتاج الرقائق والمعدات،  ويمكن لوكالة فيدرالية للذكاء الاصطناعي أن ترفع السقف بالنسبة للنماذج الجديدة المتقدمة إذا ما ثبت أنها أمنة.

التقرير يقول إن الحكومة يمكن أن تخفض سقف الأمان إذا ثبت ظهور مخاطر في النماذج الموجودة ، وقد يواجه هذا الاقتراح بعض المصاعب السياسية في الحكومة الأمريكية، يقول جريج ألان من مركز الدراسات الدولية والاستراتيجية في واشنطن في تعقيبه على ما نشرته ( تايم ) ، إن المطلوب هو توفير مزيد من الشفافية وليس الحظر القانوني .

ويقول خبيران ظلا يقدمان تنويرا  حول المخاطر للحكومة الأمريكية منذ 2021، إنهما اتفقا على أن على أن مخاطر الذكاء الاصطناعي كبيرة،  وهي مسؤولية تتحملها العديد من الوحدات الحكومية.

 نوعان من المخاطر

يركز التقرير على نوعين من المخاطر ترتبط بنماذج الذكاء الاصطناعي:

1. أولها ما اطلق عليه المخاطر التسليحية ، موضحا أن هذا النموذج يمكن أن يصمم لكي يستخدم في تنفيذ هجمات بيولوجية وكيميائية وسايبرية وكارثية ، أو صناعة روبوتات ذات قدرات غير مسبوقة.

2. أما المجموعة الثانية فتتعلق بما يسميه التقرير فقدان السيطرة،  أو أن يتفوق الذكاء الاصطناعي على الذين صنعوه، وهناك ما يشير إلى امكانية السيطرة إذا استخدمت التقنيات الحالية ، وأن تتصرف عكس ما يريده البشر منها، وكلا الخيارين يمكن أن يتضاعف اثرهما نتيجة للسباق في مجال صناعة الذكاء الاصطناعي.

يقول أحد مسؤولي التكنولوجيا:  هذه توصيات فيها الكثير من التحديات وقد أمضينا وقتاً طويلاً للبحث في المقترحات المختلفة. ويعبر خبير في سياسات الذكاء الاصطناعي عن تعاطفه  بدرجة كبيرة مع فكرة المصادر المفتوحة ، وهي تصعب الأمر على صناع السياسات الذين يتعاملون مع مخاطر الذكاء الاصطناعي ، وأن أي اقتراح للحظر القانوني للمصادر المفتوحة يجب أن يأخذ في الاعتبار أن قانون الولايات المتحدة محدود ، وربما يتحرك المجتمع المفتوح إلى أوروبا إنه عالم كبير .

كتاب التقرير يرون بأنه رغم التحديات فإن المستخدمين يستطيعون التغلب على عناصر الأمان وازالتها تدريجياً من نماذج الذكاء الاصطناعي، إذا ما كانت لديهم القدرة على الدخول إلى المصادر المفتوحة ، وهو أمر لا رجعة عنه ويتوقف على الحظ وعليك أن تتحمل الخسائر.

المشارك الثالث في كتابة التقرير وهو مسؤول سابق في وزارة الدفاع يقول ، إن القضية الرئيسية في انتخابات 2924 سوف تكون حول تمربر لوائح أمان الذكاء الاصطناعي بنهاية 2024.

وقد ذكر أحد الخبراء لــــ ( تايم) إن توصيات هذا التقرير إذا ما تم تنفيذها سوف تنهي كل المخاطر،  وعلينا أن نتحرك بسرعة وهذه هي الفلسفة التي نشأنا عليها ، ولكن الأمور ليست هكذا لأن الاحتمال الأكبر هو تصنيع نظم قوبة كارثية لا يمكن السيطرة عليها، وقد يتم إيقاف بحوث الذكاء الاصطناعي بالنسبة للجميع ، ولن نتمكن من الاستفادة من هذه التكنولوجيا .  


فوائد، ولكن مخاوف بلا حدود  

بلا شك تثير التطورات المتسارعة في مجال تكنولوجيا الذكاء الاصطناعي الكثير من المخاوف حتى داخل الأوساط العلمية المعنية بهذه التكنولوجيا ، وهناك جهود ضخمة تبذل للتغلب على المخاطر التي يمكن أن تنجم عن استخدامها.

 ولعل من ابرز تلك المخاطر ما يتعلق بالمجال الصحي الذي دخلت فيه هذه التقنية في مجالات العلاج لبعض الأمراض أو استخدامها في بعض الممارسات غير الأخلاقية والتضليل المعلوماتي أو انتهاك الخصوصية.

 لكل ذلك يصبح موضوع التقرير الذي تعرضت له ( تايم) في غاية الأهمية لحماية البشرية من الأخطار الكارثية التي ثد تنتج بطريق الصدفة أو الخطأ من الجهات التي تغلب الجوانب التجارية على قضايا الأمن والأمان.

 ولتحقيق ذلك لابد من التوازن بين قضية الاستفادة من التطور التكنولوجي والقوانين التي تنظم استخدامها حنى تتحقق اقصى فائدة من هذه التقنية دون مخاطر،  علاوة على معالجة الأضرار التي قد تصيب البشرية ولابد من اخذها على محمل الجد وضرورة معالجتها على مستوى دولي بوضع معايير عالمية لهذه التكنولوجيا، التي كما تحمل فوائد لا حصر لها تحمل أيضا عواقب خطيرة على مستقبل البشرية.  


59