البحار نت
شهدت الحرب في إيران التي اندلعت في فبراير 2026 بعد هجمات أمريكية–إسرائيلية استخدام أدوات الذكاء الاصطناعي بشكل غير مسبوق، وكان من أبرزها كلود (Claude)، نموذج الذكاء الاصطناعي التابع لشركة أنثروبيك. وعلى الرغم من أن الشركة لم تمنح موافقتها للاستخدام العسكري، فقد وظّف الجيش الأمريكي كلود في عمليات قتالية مباشرة، ما أثار جدلاً واسعاً حول أخلاقيات استخدام الذكاء الاصطناعي في الحروب.
دور كلود في العمليات
استخدم الجيش الأمريكي كلود في مجموعة واسعة من المهام التقنية والاستخباراتية. شملت هذه المهام التقييمات الاستخباراتية، تحديد الأهداف، محاكاة السيناريوهات القتالية، وتنسيق الضربات الجوية المشتركة بين الولايات المتحدة وإسرائيل. كما كان كلود جزءًا من البنية التقنية التي ساهمت في ضربات أسفرت عن مقتل مسؤولين بارزين، بما في ذلك المرشد الإيراني، رغم أن النظام لم يكن مستقلاً أو “متصرفاً بذاته”، بل كان مدمجًا في أنظمة القيادة المركزية الأمريكية (CENTCOM) لتسهيل اتخاذ القرار وتنفيذ الضربات بدقة أكبر.
الجدل مع أنثروبيك والحظر الرئاسي
شركة أنثروبيك كانت قد أعربت مسبقاً عن رفضها للاستخدام العسكري غير المقيد لنماذجها، خصوصاً في الأسلحة الذاتية أو برامج المراقبة واسعة النطاق. وتواصلت مع البنتاغون قبل اندلاع الحرب لمحاولة وضع قيود، لكن حظر الرئيس السابق ترامب في 28 فبراير 2026 لكل أدوات الشركة كـ”تهديد للأمن القومي” لم يمنع الاستخدام الفعلي، إذ استخدم الجيش كلود في الضربات نفسها في اليوم ذاته.
تشير هذه التطورات إلى صعوبة تطبيق القيود الأخلاقية والقانونية على أدوات الذكاء الاصطناعي بمجرد دمجها في الأنظمة العسكرية، وتطرح تساؤلات حول استقلالية الشركات التقنية وقدرتها على حماية منتجاتها من الاستخدام غير المنظم.
شريك أم ضحية؟
في الوقائع الأخيرة، يبدو أن كلود كان “ضحية الاستخدام” أكثر من كونه شريكًا متعاونًا. فالشركة لم توافق صراحة على الاستخدام العسكري، وكانت تحذر من مخاطر الاعتماد على الذكاء الاصطناعي في الحروب دون ضوابط واضحة. ومع ذلك، اعتمد الجيش الأمريكي على كلود كأداة مدمجة في منظومة القيادة والسيطرة، ما أوجد وضعاً أخلاقياً وقانونياً معقداً.
أثارت الواقعة مخاوف واسعة حول مستقبل “الحروب بالذكاء الاصطناعي”، خصوصاً استخدام نماذج ذكية في اتخاذ قرارات قتالية مباشرة، وما إذا كان من الممكن تطوير آليات تضمن المساءلة والحد من المخاطر. كما يواجه مستقبل أنثروبيك تهديدات بإقصائها من بعض العقود الدفاعية، في ظل استمرار الجدل حول مسؤوليتها عن الاستخدام العسكري لنماذجها.
في المحصلة، تجربة كلود في الحرب على إيران تكشف التحدي الأخلاقي والتقني الأكبر في دمج الذكاء الاصطناعي في العمليات العسكرية. فهي توضح أن النماذج الذكية قد تُستخدم كأدوات فعالة دون موافقة صريحة من مطوريها، ما يضع الشركات والحكومات أمام مسؤوليات جديدة لضمان استخدام آمن ومسؤول للتقنيات المتقدمة.

