|
أكد خبراء أن أدوات الذكاء الاصطناعي التي يستخدمها الاحتلال الإسرائيلي بذخيرته العسكرية، لا تستطيع التمييز بين المدنيين والعسكرين، كما أنها صّممت لاتخاذ قرارات قتل بالجملة دون الرجوع للبشر.
فقد أوضح الخبير العسكري والإستراتيجي إلياس حنا أن قوات الاحتلال الإسرائيلي توظف تقنيات الذكاء الاصطناعي على جميع المستويات السياسية والإستراتيجية والعملية والتكتيكية بما يغيّر شكل اتخاذ القرار في ساحات القتال.
وقال إن دور الذكاء الاصطناعي يتمثل في تجميع وتحليل بيانات كبيرة، ثم العمل على اقترح أهداف بسيطة لتسريع اتخاذ القرار،”وعندما ينضب بنك الأهداف الأساسي تبدأ المنظومة التقنية بتوليد أهداف جديدة من خلال ما تملكه من معلومات”.
وأوضح حنا أن تلك المنظومة تتدرب على البيانات الضخمة وتربطها بالمصادر المفتوحة من معلومات لتحديثها واقتراح المزيد من الأهداف.
ووصف حنا الإستراتيجية التي تستخدمها قوات الاحتلال بأنها “حرب وكيلية” رقمية وكأنها تمنح توكيلا لمنظومة رقمية تجمع المعلومات وتدققها وتحللها ثم تتخذ القرار دون العودة إلى العنصر البشري.
وتحدث الخبير العسكري عن “انحياز” هذه النماذج في إصدار الأهداف التي تخدم مصلحة تل أبيب، مشيرا إلى عدد من البرمجيات وأنظمة الذكاء الاصطناعي التي يستخدمها الجيش في عملياته في قطاع غزة:
- فاير فاكتور: لجدولة الأهداف وتقدير كمية المتفجرات اللازمة للقضاء على هدف محدد.
- ديبث أوف ويسدام: لربط وتتبع معلومات الأنفاق في قطاع غزة، ووضع إستراتيجيات للقضاء عليها.
- كيميست: يعمل كجهاز إنذار يبيّن وجود مخاطر للقوات المقاتلة أثناء المهمات التكتيكية.
- لافاندر: نموذج ذكاء اصطناعي طوره الجيش لتحليل بيانات الهواتف والصور ووسائل التواصل الاجتماعي. ويؤكد حنا أن نظام “لافاندر” منحاز بشكل كامل للمصالح الإسرائيلية، لأن مصدر البيانات والخرائط التي يُدرّب عليها تميل لصالح تل أبيب.
كما لفت حنا إلى استخدام روبوتات متفجرة تحمل أطنانا من المتفجرات، وأشار إلى نظام “أربل” الذي يُحسّن من دقة الإطلاق عبر آليات قتالية مثل البنادق والمناظير الليلية.
وقال إن قنبلة مثل “جي بي يو 32” تلقى على مجمع سكني حتى وإن كان خاليا فهي بالتأكيد تتسبب في إسقاط مدنيين، بالإضافة إلى ما يتيحه نموذج “لافاندر” من إمكانية للمستعمل لاستهداف مدنيين بأعداد محددة وفق رتبته العسكرية.
إشراف بشري ضئيل
ومن زاوية المسؤولية القانونية والأخلاقية، قالت الخبيرة في الاستخدام المسؤول للذكاء الاصطناعي جيسيكا دورسي إن الكارثة الحقيقية تكمن في توليد قوائم مستهدفين تضم مدنيين مع إشراف بشري ضئيل أو غير كاف على القرارات الآلية، مما يرقى إلى خروقات لقواعد الاستهداف الدولية.
ووجهت الخبيرة أصابع الاتهام للحكومة الإسرائيلية بشأن سقوط مدنيين رغم استعانتها بأدوات الذكاء الاصطناعي التي من المفترض أن تحمي المدنيين نظرا لدقتها في تحديد الأهداف.
وحذّر حنا من مخاطر هذا الاعتماد الكلي على منظومة الذكاء الاصطناعي، مشيرا إلى أنه لا يميّز بموثوقية كافية بين هدف عسكري وآخر مدني، خصوصا في بيئة ذات كثافة سكانية عالية مثل قطاع غزة، الأمر الذي يرفع احتمالات سقوط ضحايا من المدنيين.
وأعطى حنا مثالا صريحا بخصوص سياسات استهداف قد تسمح لقيادي من رتبة معينة بارتكاب “خسائر مدنية” تصل إلى أعداد محددة.
وبحسب حنا، إنْ كان قياديا عسكريا من الدرجة الثانية فيسمح له باتخاذ قرار بقتل 20 مدنيا، أما إن كان قياديا من الدرجة الأولى فيسمح له بإسقاط 100 قتيل مدني.
وشددت دورسي على أهمية توظيف الإدراك البشري خلف الآلة لرصد تحركاتها وتعديل قرارتها قبل أن تتخذ أي قرار وتستهدف أهدافا غير مرجوة.
وأشارت الخبيرة بالذكاء الاصطناعي إلى دور شركات تقنية دولية مثل “مايكروسوفت” في تزويد الجيش الإسرائيلي بمنتجات تقنية تُستخدم في هذا السياق.
كيف تفوقت حماس؟
رغم التفوق التقني الهائل، أوضح حنا أن فشل الاحتلال في تحقيق أهدافه الإستراتيجية خلال العامين الماضيين يعود إلى إخفاقات في إدارة الحرب داخل القطاع، وإستراتيجية حركة المقاومة الإسلامية (حماس) المعقّدة والمرنة.
إذ إن المقاتلين من المقاومة “حضّروا أرضية المعركة بشكل لا تماثلي واستخدموا تكتيكات وبيئة قتالية تجعل من استخدام القوة التكنولوجية الأعظم -مثل الدبابات والذخائر المتطورة- أقل فاعلية داخل التجمعات الحضرية والأنفاق”.
واعتبر حنا أن الأسلحة والبرمجيات المتطورة لا تضمن النصر وحده؛ فغياب الضابط البشري الأخلاقي والإستراتيجيات الميدانية المناسبة، بالإضافة إلى خصائص ساحة المعركة في قطاع غزة، قلصت فاعلية هذه التقنيات وأدت إلى نتائج عكسية من وجهة نظر إسرائيلية.