استخدام الذكاء الاصطناعي في الصراع المسلح - كالعدوان الإسرائيلي على قطاع غزة - له العديد من الآثار السلبية، بسبب مخاطره على الأمن الإقليمي والدولي، وذلك لدقته في تحديد الإصابات البشرية والمادية، وقد استخدمت إسرائيل نظام ذكاء اصطناعي اسمه “لافندر”، وقد شارك “لافندر” في تحديد (37) ألف هدف خلال الأسابيع الأولى من العدوان، ويستكمل برنامج “لافندر” برنامجين آخرين، الأول هو (أين هو أبي؟) ويستخدم لتعقب الأفراد وقصفهم عندما يكونون في المنزل، والثاني (الإنجيل) الذي يهدف إلى تحديد المباني والهياكل. وساهم هذا النظام باستخراج كميات كبيرة من المعلومات من مصادر مختلفة، كبيانات الاتصالات ولقطات الطائرات وبيانات المراقبة، ومن ثم تحليلها وإنتاج توصيات للأهداف.
وأكدت دراسات حدوث العديد من المخاطر والتداعيات، ويمكن إجمالها في (الضرر العرضي، وذلك عند استخدام هذه الأسلحة بشكل آلي دون وجود رقابة بشرية كافية، والخروج عن السيطرة نتيجة ضعف التفاعل البشري الآلي، وحدوث انتهاكات حقوقية بارتكاب أخطاء قاتلة تتعارض مع القوانين الدولية الإنسانية، وعدم الاعتمادية والثقة الكافية عند مواجهة التطبيقات العسكرية مشكلات تقنية تؤدي إلى عطل في الأنظمة، وتعزيز الاضطرابات الدولية والصراعات، فالذكاء الاصطناعي يزيد الفجوة بين الدول المتقدمة تقنيًا وبين الدول ذات الضعف في القدرات التكنولوجية المتطورة). أحداث العدوان على قطاع غزة تشير إلى (إخفاق إسرائيل في توقع هجوم “7 أكتوبر” رغم ما لديها من قدرات عسكرية ذكية، وفي تحديد الأهداف المسلحة وارتفاع استهداف المدنيين وعمال الإغاثة والصحافيين)، وتوظيف إسرائيل تقنيات وأسلحة الذكاء الاصطناعي أدى إلى وقوع عشرات الآلاف من المدنيين الأبرياء، وتدمير الآلاف من البيوت والبنية التحتية، ونتيجة ذلك أن أكثر من (2.3) مليون فلسطيني يواجهون معاناة الإبادة والجوع. استخدام الذكاء الاصطناعي في الحروب يتطلب دراسة متأنية، وعلى صانعي هذا الذكاء إعادة فهم طبيعته، وكيفية عمله.
كاتب وتربوي بحريني