هدد وزير الدفاع الأمريكي بيت هيغسيث بوضع شركة "آنثروبيك" على القائمة الحكومية السوداء في حال رفضت إزالة القيود المفروضة على تقنيات الذكاء الاصطناعي المقدمة للبنتاغون، وفقا لتقرير وكالة "سي إن إن". ويأتي هذا التهديد في ظل تصاعد الخلاف بين شركة الذكاء الاصطناعي والبنتاغون حول استخدام هذه التقنيات في تطوير الأسلحة ذاتية التشغيل وتقنيات المراقبة الشاملة.

وأوضحت الشركة في وقت سابق أنها ترفض استخدام تقنيات الذكاء الاصطناعي الخاصة بها في تطوير الأسلحة ذاتية التشغيل وتقنيات المراقبة الشاملة. ومنح هيغسيث شركة آنثروبيك مهلة حتى يوم الجمعة المقبل للاستجابة لطلبات البنتاغون بإزالة هذه القيود والسماح بوصول غير مشروط إلى تقنيات الذكاء الاصطناعي الخاصة بها.

واذا رفضت الشركة الامتثال، فان البنتاغون سيلجا إلى قانون الإنتاج الدفاعي الأمريكي، الذي يمنح الرئيس الأمريكي سلطة كاملة للتحكم في الشركة لصالح الدفاع الوطني، حسبما ذكر تقرير لموقع "فايننشال تايمز" الإخباري.

اجتماع طارئ لمناقشة تداعيات الأزمة

ودعا البنتاغون شركة آنثروبيك، ممثلة برئيسها التنفيذي داريو أمودي، إلى اجتماع طارئ مع هيغسيث لمناقشة هذا الأمر وتداعياته على الشركة. واضاف هيغسيث، بينما يثني على التقنيات التي طورتها آنثروبيك ومكانتها في قطاع الذكاء الاصطناعي، فانه استمر في تهديداته مشيرا إلى إنهاء عقود الشركة مع البنتاغون، حسب تقرير صحيفة "واشنطن بوست".

واشار تقرير الى أن آنثروبيك حصلت سابقا على عقود تبلغ قيمتها 200 مليون دولار من البنتاغون، وذلك لدمج تقنيات الذكاء الاصطناعي الخاصة بها مع أنظمة وزارة الدفاع الأمريكية واستخدامها في الملفات السرية وذات الطبيعة الحساسة. وبين امودي في اجتماعه مع البنتاغون أن القيود التي وضعتها الشركة لن تعيق عمل الوزارة، وهي مجرد قيود أمنية عامة موضوعة على التقنية.

ويشير التقرير إلى أن عددا من شركات الذكاء الاصطناعي وافقت بالفعل على شروط البنتاغون ومنحته وصولا كاملا إلى تقنياتها، ومن بينها شركة "إكس إيه آي" ومديرها التنفيذي إيلون ماسك. ووفقا لذلك، تمت الموافقة على استخدام "غروك" الذي تطوره الشركة مع الملفات السرية والمستندات العسكرية الخاصة بوزارة الدفاع الأمريكية، مع توقعات بأن تتم الموافقة على بقية الشركات خلال الأيام المقبلة.

مخاوف بشأن استخدام الذكاء الاصطناعي في الأسلحة

واكد مراقبون ان تصاعد التوتر بين البنتاغون وآنثروبيك يسلط الضوء على المخاوف المتزايدة بشأن استخدام تقنيات الذكاء الاصطناعي في تطوير الأسلحة ذاتية التشغيل وتقنيات المراقبة الشاملة. وبين هؤلاء المراقبين ان بعض الشركات التكنولوجية الكبرى ترفض المشاركة في تطوير هذه التقنيات بسبب المخاوف الأخلاقية والقانونية.

واضاف المراقبون انه من المرجح أن يستمر الجدل حول استخدام الذكاء الاصطناعي في المجال العسكري في المستقبل المنظور. وشدد المراقبون على ان الامر يستدعي وضع ضوابط ومعايير واضحة لضمان استخدام هذه التقنيات بطريقة مسؤولة وأخلاقية.

واوضح المراقبون ان القضية تثير تساؤلات حول حدود تدخل الحكومات في عمل الشركات التكنولوجية، خاصة عندما يتعلق الأمر بالأمن القومي. واكد المراقبون ان التوازن بين الأمن القومي وحرية الشركات في تحديد سياساتها يمثل تحديا كبيرا في عصر الذكاء الاصطناعي.