---
slug: "qv2fto"
title: "الذكاء الاصطناعي يعيد تعريف حروب غزة: دراسة تكشف تحوّلًا خطيرًا في قرارات القتل"
excerpt: "دراسة من مركز الجزيرة للدراسات تُظهر استخدام أنظمة الذكاء الاصطناعي في تحديد أهداف غزة.. كيف تُحوّل الخوارزميات الحرب إلى تجربة مختبرية؟"
category: "general"
imageUrl: "https://cdn.hatrek.co/imgs/532baae51daef9ab.webp"
readTime: 3
---

أظهرت دراسة أكاديمية من مركز الجزيرة للدراسات، نُشرت هذا الشهر في مجلة "لباب"، أن حرب غزة لم تكن مجرد تطبيق تقني للذكاء الاصطناعي، بل دفعت باتجاه نمط جديد من الحرب يُركّز على الخوارزميات كشريك فاعل في صناعة القرار العسكري. تُبرز الدراسة التي أعددها الباحثان **محمد عباس** و**رنا صباح** كيف استخدمت أنظمة الذكاء الاصطناعي في إدارة بنك الأهداف عبر تحليل كميات هائلة من البيانات لتحديد الأشخاص والمباني والمواقع.  

### تحوّل البيانات إلى سلاح  
أصبحت البيانات السُبُل الأساسية للتحليل العسكري، حيث استُخدمت أنظمة مثل **لافندر** و**غوسبل** في توليد أهداف بسرعة تفوق القدرة البشرية. تشير التقارير الإسرائيلية إلى أن هذه الأنظمة تُنتج مئات الأهداف في وقت قصير، مما يقلل من الحاجة إلى تحليل ميداني مباشر.  

تُشير الدراسة إلى أن هذا التحوّل يُحوّل الفرد إلى "نوع بيانات" قابل للتصنيف، مما يثير مخاوف من أن تصبح الحياة المدنية هدفًا غير مقصود. تقول الدراسة: "كلما اتسعت دائرة التحليل الآلي، زادت احتمالية وقوع أخطاء في التصنيف، خاصة في بيئة كثيفة مثل غزة".  

### الخوارزميات تُعيد رسم الخريطة العسكرية  
أكّدت الدراسة أن الحرب لم تعد مواجهة بين أفراد وسلاح فقط، بل أصبحت لعبة بيانات وتحليل. فأنظمة الذكاء الاصطناعي لا تقوم فقط بجمع المعلومات، بل تُرشّح الأهداف وتُعدّل الأولويات بناءً على قواعد برمجية. هذا التطور، بحسب الباحثين، يمنح القرار العسكري مظهرًا "علميًا" ومحايدًا، رغم أن الخوارزميات تعتمد على افتراضات بشرية قد تحمل تحيزات.  

### إشكالية المسؤولية في عصر الخوارزميات  
أحد أكثر القضايا إثارةً هو تحديد من يتحمّل المسؤولية عند وقوع أخطاء فادحة. تتساءل الدراسة: "إذا ارتكبت مجزرة بسبب خطأ في تصنيف أهداف الذكاء الاصطناعي، فمن المسؤول؟ الضابط الذي وافق على التنفيذ؟ أم المبرمج؟ أم المؤسسة التي صمّمت النظام؟".  

تشير التقارير الغربية والإسرائيلية إلى اعتماد متزايد على "أنظمة التوصية الآلية" في تحديد الأهداف، مما يُقلّل دور الإنسان إلى "مُصادق سريع" على نتائج الآلة. هذا الواقع، حسب الدراسة، يعيد إنتاج المعضلة الأخلاقية للحرب في صورة أكثر تعقيدًا، لأنه يجعل النتائج الإنسانية والعنيفة تُنتج عبر قرارات تبدو باردة ومحايدة.  

### الحرب كتجربة مختبرية  
في قراءة للباحثين، لم تكن غزة مجرد ساحة قتال، بل مختبر مبكر لعالم عسكري جديد. حيث تُصبح الخوارزميات شريكًا في اتخاذ القرار، ويتحول الإنسان تدريجيًا من "مركز العملية القتالية" إلى "عنصر ضمن منظومة أوسع".  

تُحذر الدراسة من أن كل زيادة في الاعتماد على الذكاء الاصطناعي تُضاعف أثر الأخطاء. فالخوارزمية قد تبدو دقيقة رياضيًا، لكنها تعمل في واقع متغير، مما يجعل خطأ بسيط في البيانات قادرًا على التحوّل إلى كارثة.  

### مستقبل الحروب في ظل الذكاء الاصطناعي  
الخلاصة التي تصل إليها الدراسة أن ما حدث في غزة ليس استثناءً، بل مؤشرًا على شكل الحروب المستقبلية. فالمعركة لم تعد فقط مواجهة عسكرية، بل صراع يُدار عبر البيانات والتحليل.  

تُحذر الدراسة من أن هذا التحوّل قد يُفقد الحرب قيمها الأخلاقية ويُحوّلها إلى تجربة تقنية باردة، رغم أن نتائجها تُتركز على البشر. وتُضيف: "العالم يشهد تحوّلًا جذريًا في طبيعة الحرب، حيث تصبح الآلة الشريك الأكبر في صنع القرار، وتتقلّص دور الإنسان إلى إدارة أنظمة لا يفهمها".  

الباحثون يؤكدون أن هذا الواقع يحتم على المجتمع الدولي إعادة النظر في قوانين الحرب التقليدية، والعمل على وضع قيود على استخدام الذكاء الاصطناعي في العمليات العسكرية.
