+A
A-

خبراء يحذرون من مخاطر الذكاء الاصطناعي.. عسكرياً!

أصدر مجلس الابتكار الدفاعي سلسلة من التوصيات إلى وزارة الدفاع الأميركية حول مخاطر استخدام الذكاء الاصطناعي في الصراعات العسكرية المستقبلية، واحتمالات التسبب في أضرار غير متعمدة للمدنيين، وفقاً لما نشرته صحيفة "ديلي ميل" البريطانية.

وأكد تقرير مجلس الابتكار على ضرورة "اتخاذ كل الاحتياطات الممكنة لتقليل مخاطر بإلحاق الضرر بالمدنيين"، عند استخدام الذكاء الاصطناعي في أي عمليات عسكرية أو حتى في عمليات اتخاذ القرار ذات الصلة.

كوكبة من الخبراء والمختصين

تم تشكيل مجلس الابتكار الدفاعي لأول مرة في عام 2016 لضمان أفضل سبل للتعاون المحتمل بين الجيش الأميركي وشركات التكنولوجيا والذكاء الاصطناعي في وادي السيليكون. ويتألف المجلس حالياً من 16 عضواً، ينتمون إلى طيف واسع من التخصصات، من بينهم الرئيس التنفيذي السابق لغوغل، إريك شميدت، والمدير التنفيذي لفيسبوك مارن ليفين، والمدير الرقمي لشركة مايكروسوفت كورت ديلبين، وعالم الفيزياء الفلكية نيل ديغراس تايسون، ووالتر آيزاكسون، كاتب السيرة الذاتية لستيف جوبز، بالإضافة إلى ريد هوفمان المؤسس المشارك للينكد-إن.

5 مبادئ أخلاقية

حدد تقرير مجلس الابتكار 5 مبادئ أخلاقية يجب أن تتوافر في صميم كل قرار رئيسي يتعلق باستخدام الذكاء الاصطناعي في الأعمال العسكرية. وتشمل تلك المبادئ بأن يتوخى الجيش الأميركي، قبل البدء في استخدام تطبيقات الذكاء الاصطناعي، استيفاء عناصر أساسية مثل المسؤولية والعدل وإمكانية التتبع والموثوقية والقابلية للحوكمة.

12 توصية

وانطلاقاً من هذه المبادئ، يقدم التقرير 12 توصية ملموسة حول كيفية المضي قدماً في دمج الذكاء الاصطناعي في الحرب المعاصرة، من بينها وضع استراتيجية لإدارة المخاطر وتصنيف أي نتائج سلبية لاستخدامات الذكاء الاصطناعي. وسيكون الغرض من هذا التصنيف هو "اقتصار تشجيع وتحفيز تبني التكنولوجيات على تلك التي تم التثبت من انخفاض المخاطر المحتملة منها، بموجب دراسات مستوفاة وتجارب عملية، والتأكيد على ضرورة وجود ضمانات كافية من خلال اتخاذ مزيد من الإجراءات الاحتياطية وعمليات التدقيق وتحديد الأولويات قبيل اعتماد تطبيق أي استخدامات للذكاء الاصطناعي لتجنب أي عواقب سلبية".

تقليل العواقب غير المقصودة

ويشدد تقرير مجلس الابتكار أيضاً على أهمية وضع معايير محددة لتقييم موثوقية استخدام الذكاء الاصطناعي ومقارنته بأداء تطبيقات الذكاء الاصطناعي والعناصر البشرية في المواقع العسكرية، وعدم اعتماد التحول إلى استخدام الذكاء الاصطناعي كبديل للعنصر البشري قبل التثبت من كفاءته التامة وتقليل نسب المخاطر أو الحوادث التي ربما تقع بالخطأ.

بسط نفوذ أميركا

ويعد هذا التقرير بمثابة تمحيص أساسي لتقرير سابق أصدره البنتاغون، والذي أوصى بجعل الذكاء الاصطناعي ركيزة أساسية في العمل المستقبلي، بهدف الحفاظ على تقدم الولايات المتحدة على روسيا والصين في التنافس على بسط السيطرة والهيمنة في مناطق النفوذ حول العالم.

جدل بشأن الاستخدامات العسكرية

وكان الجيش الأميركي قد أعلن هذا الصيف أنه يقوم بتطوير منظومة صاروخية جديدة، يطلق عليها اسم "C-DAEM"، وتعتمد على الذكاء الاصطناعي لتصويب وتوجيه قذائفها.

ويأتي هذا القرار على الرغم من قيام أكثر من 3000 من موظفي شركة غوغل بالتوقيع على خطاب احتجاج على مشروع Maven لتوظيف الذكاء الاصطناعي لأغراض عسكرية في عام 2018، وهو الأمر الذي دفع غوغل إلى رفض تجديد عقد مشروع Maven، وهي مبادرة للذكاء الاصطناعي كانت تديرها غوغل بالتعاون مع وزارة الدفاع الأميركية، وتم في إطارها تطوير نظم درون لتحديد الأهداف العسكرية المحتملة بواسطة الذكاء الاصطناعي.