الذكاء الاصطناعي والأخطاء الاسرائيلية الكارثية في غزة

حسناء بو حرفوش

أفادت تقارير عدة بأن الجيش الاسرائيلي استخدم الذكاء الاصطناعي لمساعدته في تحديد أهداف للغارات الجوية في غزة ما أدى إلى أخطاء كارثية ومقلقة للغاية. ووفقاً لمقال في موقع صحيفة “ديلي بيست” الالكترونية، “تكمن المشكلة الأكبر في أن الذكاء الاصطناعي العسكري هو نتاج تصميم وتدريب بشري، وهذا يعني أنه قادر على ارتكاب الأخطاء على غرار البشر. وقد تأتي هذه الأخطاء بصورة أسرع وعلى نطاق أوسع. وبالتالي، هذا يعني أنه مثلما قد يقوم المتخصص البشري، الذي يمسح صور المسيرات أو صور الأقمار الصناعية بحثاً عن دليل على وجود هدف عسكري في مدينة تعج بالمدنيين، بارتكاب خطأ وبتحديد المبنى الخطأ كهدف لغارة جوية قادمة، قد ترتكب خوارزمية برمجية الخطأ نفسه مراراً وتكراراً. وتترجم النتيجة بسقوط عدد كبير من القتلى في صفوف المدنيين. وفي هذا السياق، يقول كارلو كوب، المحلل الخبير في دراسة مشكلات المراقبة والاستهداف في مركز أبحاث Air Power Australia ان هناك مخاطر جدية لا بد من أخذها في الاعتبار. ويضيف: ان الحقيقة المروعة ترتبط ببحث العديد من الجيوش الرائدة في العالم عن تطوير الأدوات الحديثة ونشرها من أجل حل مشكلة عمرها قرون: أين يجب توجيه أسلحتهم الثقيلة؟

وكانت مجلة (+972) من أوائل المجلات التي سارعت الى نشر تقرير عن استهداف الجيش الاسرائيلي لمواقع باستخدام الذكاء الاصطناعي. ووفقاً للمجلة، تسببت خوارزمية تستخدم نظاماً قائماً على الذكاء الاصطناعي تحت اسم “حبسورا” لاستهداف عدد كبير من الأهداف، بضرر كبير في الحياة المدنية في غزة.

وقتل أكثر من 15500 من سكان غزة، بالاضافة إلى 75 جندياً إسرائيلياً، في هجمات متبادلة منذ هجوم 7 أكتوبر (تشرين). أما الخسائر في صفوف المدنيين في غزة، فهي إلى حد كبير نتيجة للقصف الاسرائيلي المكثف على منطقة تعد واحدة من أكثر الأماكن اكتظاظاً على وجه الأرض. وساعد النظام الذكي في تحويل الاستهداف الجوي للجيش الاسرائيلي إلى مصنع اغتيالات جماعية، حسب ما أشار ضابط مخابرات سابق لم يذكر اسمه ومع ذلك، ليس هذا النظام بجديد ولا بفريد من نوعه بالنسبة الى الجيش الاسرائيلي. والحقيقة المروعة هي سعي الجيوش الرائدة في العالم الى تطوير أنظمة مشابهة لتحديد أهداف أسلحتهم الثقيلة.

ويقوم الجيش الإسرائيلي باستمرار بمسح منافسيه من الفضاء، من الجو وحتى من الأرض عن طريق عملاء سريين. كما أن كمية البيانات المتاحة لمسؤولي الاستهداف هائلة، وتتزايد بصورة هائلة وبمعدل هائل مع ازدياد تطور الأقمار الصناعية والمسيرات وأجهزة الاستشعار الأخرى وعددها. ومن ثم، تقترح المباني التي سيتم تفجيرها من خلال مسح مقاطع الفيديو والصور ضوئياً، بالاضافة إلى المعلومات غير المرئية مثل مخططات الارسال اللاسلكي وخرائط مصادر الحرارة وحتى أنماط حركة المركبات والسير على الأقدام. ويتم تطوير الأهداف باستخدام عملية جمع وتحديد وتحليل تستغرق وقتاً طويلاً، ثم يحصل الهجوم ومن بعده، تقوّم الأضرار لتحديد ما إذا كانت إعادة الهجوم مبررة”.

ويكلف الذكاء الاصطناعي بإجراء التفتيش ومن حيث المبدأ، يمكن للخوارزمية اكتشاف التفاصيل الواضحة بصورة أسرع وأكثر دقة. “يُنظر الآن إلى البيانات الضخمة والتعلم الآلي وتكنولوجيا الذكاء الاصطناعي على أنها أدوات لتسريع نطاق تحليل منتجات [المراقبة] وتوسيعها، بحيث أثبتت فعاليتها الكبيرة في غربلة كميات هائلة من البيانات الرقمية، بأحجام كبيرة بصورة أسرع من قدرة البشر على ذلك”، ولكن المشكلة، بالنسبة الى أي متخصص في الاستهداف العسكري، وخصوصاً بالنسبة الى المتخصصين الاسرائيليين الذين يدعمون هجوماً فوضوياً في منطقة مزدحمة للغاية، هي أن الناس يقومون بتشفير أنظمة الذكاء الاصطناعي؛ ويقوم الأشخاص بتدريب هذه الأنظمة باستخدام مجموعات البيانات التي ينشئها الأشخاص؛ ويختار الأشخاص متى وأين وكيف يتم نشر الذكاء الاصطناعي.

وعندما يكون الاستهداف آلياً للغاية، عادةً ما يتخذ البشر القرار النهائي بالضغط على الزناد. ولكن مع تحرك الحروب بصورة أسرع، يتخلى البشر أحيانًا عن تلك السيطرة السريعة. “هناك الكثير من التناقض بين الادعاءات التي تفترض أن البشر سيبقون المحور والاستقلالية الناشئة المدفوعة بـ… الابتكار السريع”، حسب ما يقول صامويل بينديت، الباحث في مركز الدراسات الاستراتيجية والدولية في واشنطن.

الناس غير معصومين من الخطأ، ولهذا السبب ترغب العديد من الجيوش في دعمهم بالخوارزميات. ولكن إذا كانت الخوارزميات تعاني من ضعف بشري في تكوينها نفسه، فهل هذا يعني أن الخوارزميات أفضل؟ من المؤكد أنها قد تساعد البشر على اتخاذ القرارات بصورة أسرع. ولكن هل يمكنهم مساعدة البشر على القيام بهذه المهمة الفظيعة بشكل أفضل وأكثر عدالة؟ يصرّ كوب على أن “نموذج الذكاء الاصطناعي الذي لقن من مجموعات البيانات التي أنشأها الانسان عادة ما يرتكب الأخطاء نفسها التي يرتكبها المحللون البشريون”.

وهناك أمثلة لا حصر لها عن الأخطاء في تحديد الهدف غالباً بمساعدة كبيرة من التكنولوجيا الآلية، فتم الخلط مثلاً بين المزارعين والمسلحين المتسللين أو من يغيّر إطار سيارته ومن يزرع قنبلة. ويمكن التعويل على الذكاء الاصطناعي لارتكاب العديد من الأخطاء نفسها، ولكن بسرعة هائلة وبنطاق لا يمكن تخيله. وهذا يعني في النهاية أن ما يحصل في غزة لن يكون أول ولا آخر إراقة دماء جماعية ترتكبها الآلات… وبالنيابة عن البشر”.

شارك المقال