غير مصنف

الذكاء الاصطناعي بين قرار الحظر وساحة المعركة: كيف كشفت أزمة Anthropic حدود سيطرة السياسة على تكنولوجيا الحرب

الذكاء الاصطناعي بين قرار الحظر وساحة المعركة: كيف كشفت أزمة Anthropic حدود سيطرة السياسة على تكنولوجيا الحرب
كتب ا. د. وائل بدوى

في تطورات دولية لافتة أثارت الكثير من الجدل حول العلاقة بين الحكومات الكبرى وشركات الذكاء الاصطناعي، أعلنت الإدارة الأميركية بقيادة الرئيس دونالد ترامب قبل أيام توجيهات صارمة لوقف استخدام أدوات الذكاء الاصطناعي التي تطورها شركة Anthropic داخل الوكالات الفيدرالية، بما في ذلك وزارة الدفاع، وذلك بعد خلاف طويل بين الشركة والحكومة حول شروط استخدام تقنياتها في العمليات العسكرية والاستخباراتية. 

ومع ذلك، وبالرغم من هذا الإعلان الرسمي، كشفت تقارير إخبارية أن القوات المسلحة الأميركية استخدمت بالفعل أداة الذكاء الاصطناعي Claude التابعة لشركة Anthropic في هجوم كبير على إيران، وذلك بعد ساعات قليلة فقط من إعلان الرئيس ترامب عن وقف التعامل معها. هذا يظهر كيف أن أدوات الذكاء الاصطناعي أصبحت متداخلة بشكل عميق داخل أنظمة الحرب والاستخبارات، حتى عندما تتصاعد التوترات السياسية بين صانعي التكنولوجيا والحكومات. 

الأزمة بدأت عندما رفضت Anthropic تلبية متطلبات وزارة الدفاع الأمريكية التي طالبت بإلغاء القيود المفروضة على استخدام نموذجها Claude في جميع السيناريوهات القانونية، بما في ذلك التطبيقات ذات الطابع العسكري أو الميداني. الشركة رفضت التراجع عن سياساتها الأخلاقية التي تمنع استخدام تقنياتها في المراقبة الجماعية داخل الولايات المتحدة أو في الأسلحة المستقلة بالكامل، معتبرة أن مثل هذه التطبيقات تنتهك معايير السلامة والأمن. 

في مواجهة هذا الرفض، اتخذت الإدارة الأميركية قرارًا مثيرًا بوضع Anthropic في قائمة ما سمتها مخاطر على سلسلة التوريد الأمني، وهو تصنيف يُستخدم عادة ضد الشركات الأجنبية التي تُعد تهديدًا للأمن القومي، ما يعني حظر التعامل معها من قبل جميع مقاولين وزارة الدفاع. وأصدر ترامب توجيهًا بوقف استخدام تكنولوجيا الشركة على الفور، ممهداً فترة انتقالية مدتها ستة أشهر للجهات التي تعتمد بالفعل على هذه الأدوات. 

الغريب أن هذه التوجيهات جاءت في وقت تتواصل فيه الاعتماد على هذه التقنيات في عمليات عسكرية فعلية، وهو ما كشفت عنه تقارير حول استخدام Claude في عمليات ضاربة، بما في ذلك الضربة العسكرية على إيران، مما يعكس مدى الارتباط الواقع بين الذكاء الاصطناعي وعمليات التخطيط والتنفيذ، وهو ارتباط لا يمكن تعطيله بين عشية وضحاها. 

الأمر لا يقتصر على هذا النزاع فقط، بل يعكس صراعًا أوسع بين هيئات التكنولوجيا والحكومة الأميركية حول حدود استخدام الذكاء الاصطناعي في الأمن القومي. بينما ترى بعض المؤسسات الحكومية أن الاستخدام غير المحدود لهذه الأدوات ضرورة استراتيجية، تصر الشركات التقنية على وضع ضوابط أخلاقية تشدد على حماية القيم الأساسية مثل الحريات المدنية ومنع الاستخدام العسكري الكامل دون إشراف بشري. 

التقارير تشير أيضًا إلى أن الشركات المنافسة بدأت تستفيد من الموقف، حيث أعلنت جهات أخرى مثل OpenAI عن اتفاقيات جديدة مع وزارة الدفاع لتوفير نماذج أخرى للذكاء الاصطناعي مع ضوابط سلامة محددة، في محاولة لسد الفجوة التي خلفها تراجع Anthropic عن توفير تقنياتها دون شروط. 

هذه الأحداث تثير عدة أسئلة أساسية:

🔹 كيف يمكن للحكومات الاعتماد على شركات خاصة في تقنيات حساسة تتعلق بالأمن القومي؟

🔹 أين تقع الحدود بين الاستخدام الأخلاقي والاستخدام العسكري للذكاء الاصطناعي؟

🔹 هل يمكن لأي رئيس أو إدارة أن تقرر فجأة إلغاء تقنيات أصبحت جزءًا من بنية الأمن القومي؟

في النهاية، ما يحدث ليس مجرد خلاف بين شركة وحكومة، بل هو نقطة فارقة في تاريخ العلاقة بين الذكاء الاصطناعي وسياسات الحرب والأمن الدولي، ويبدو أنه سيظل موضوع جدل واسع بين المجتمعين السياسي والتقني في المستقبل القريب.

تم نسخ الرابط بنجاح!

مقالات ذات صلة

زر الذهاب إلى الأعلى