الذكاء الاصطناعي يدخل ساحة المعركة.. هل يهمّش الإنسان في قرارات القصف؟

» خاص خدماتي نيو
كشفت تقارير دولية عن استخدام أدوات الذكاء الاصطناعي في تنفيذ هجمات عسكرية على أهداف داخل إيران، في تطور يراه خبراء مؤشرًا على دخول الحروب عصرًا جديدًا يعتمد على الأتمتة وتسريع اتخاذ القرار، وسط مخاوف متزايدة من تراجع الدور البشري في تقييم شرعية الضربات.
ووفق ما أوردته صحيفة The Guardian، استخدم الجيش الأمريكي نموذج الذكاء الاصطناعي «كلود» التابع لشركة Anthropic ضمن عمليات تخطيط الضربات، حيث تسهم التقنية في اختصار ما يُعرف بـ«سلسلة القتل»، وهي العملية التي تبدأ بتحديد الهدف مرورًا بالمراجعة القانونية وصولًا إلى تنفيذ الهجوم.
900 غارة في 12 ساعة
وأشارت التقارير إلى أن الولايات المتحدة وإسرائيل — التي سبق أن استخدمت أنظمة ذكاء اصطناعي لتحديد الأهداف في غزة — نفذتا قرابة 900 غارة على أهداف إيرانية خلال أول 12 ساعة فقط من العمليات، ما يعكس تسارعًا غير مسبوق في وتيرة القصف المدعوم تقنيًا.
ويقول أكاديميون إن هذه التقنيات تُقلّص زمن التخطيط للضربات المعقدة، في ظاهرة تُعرف بـ«ضغط القرار»، حيث يُخشى أن يقتصر دور الخبراء العسكريين والقانونيين على الموافقة الشكلية على توصيات أنظمة الذكاء الاصطناعي.
من التخطيط إلى التنفيذ الآلي
في عام 2024، نشرت شركة Anthropic نموذجها داخل مؤسسات الدفاع الأمريكية، كما أصبح «كلود» جزءًا من نظام طورته شركة Palantir Technologies بالتعاون مع وزارة الدفاع الأمريكية، بهدف تحسين تحليل المعلومات الاستخباراتية وتسريع عمليات صنع القرار.
ويعتمد نظام Palantir على تقنيات التعلم الآلي لتحديد الأهداف وترتيب أولوياتها والتوصية بالأسلحة المناسبة، مع تقييم الأسس القانونية لكل ضربة عبر أنظمة استدلال آلي، ما يعزز سرعة التنفيذ ويزيد نطاق العمليات المتزامنة.
سباق تقني عسكري
وفي تطور متصل، وقّعت شركة OpenAI اتفاقية تعاون مع البنتاغون لاستخدام نماذجها في تطبيقات عسكرية، ما يعكس تصاعد المنافسة بين شركات الذكاء الاصطناعي في قطاع الدفاع.
وترى مراكز أبحاث دفاعية أن استخدام الذكاء الاصطناعي يتوسع ليشمل مجالات اللوجستيات والتدريب والصيانة وإدارة القرارات، معتبرة أنه أداة لتمكين صانعي القرار وتحليل البيانات بوتيرة أسرع وأكثر كفاءة.
غير أن خبراء يحذرون من أن الاعتماد المفرط على الخوارزميات قد يغيّر طبيعة الحروب جذريًا، مع انتقال مركز الثقل من التقدير البشري إلى الأنظمة الآلية، ما يفتح نقاشًا عالميًا حول أخلاقيات استخدام الذكاء الاصطناعي في النزاعات المسلحة.
