تصعيد أمريكي ضد شركة أنثروبيك: تصنيفها خطراً على الأمن القومي وحظر التعامل
في خطوة عاجلة وصفت بالحاسمة، وجه وزير الحرب الأمريكي بيت هيجيست بتصنيف شركة أنثروبيك، المتخصصة في مجال الذكاء الاصطناعي، على أنها تشكل خطراً على الأمن القومي الأمريكي. وأكد الوزير أن هذا القرار نهائي، مشدداً على أن الجنود الأمريكيين لن يكونوا رهائن لأهواء شركات التكنولوجيا الكبرى.
حظر شامل على التعامل مع أنثروبيك
كما أصدر هيجيست تعليمات صارمة تحظر على أي متعاقد أو مورد أو شريك يتعامل مع الجيش الأمريكي ممارسة أي نشاط تجاري مع شركة أنثروبيك. هذا الإجراء يأتي في إطار تصعيد التوترات بين البنتاجون والشركة، بعد أن رفضت الأخيرة استخدام تكنولوجيا الذكاء الاصطناعي التي تنتجها دون قيود أخلاقية.
رفض أنثروبيك للضغوط العسكرية
من جهتها، أكدت شركة أنثروبيك، عبر بيان صادر عن الرئيس التنفيذي داريو أمودي، أنها لن توافق على استخدام وزارة الدفاع الأمريكية لتكنولوجيتها "من دون قيود"، رغم الضغوط الكبيرة التي مارستها واشنطن. وقال أمودي: "هذه التهديدات لا تغيّر موقفنا: لا يمكننا، بملء ضميرنا، أن نستجيب لطلبهم".
مهلة قصيرة وتهديدات بالعقوبات
وكان البنتاجون قد أمهل الشركة حتى يوم الجمعة الماضي للموافقة على الاستخدام العسكري غير المشروط لتكنولوجيا الذكاء الاصطناعي الخاصة بها، حتى وإن كان ذلك يتعارض مع مبادئها الأخلاقية. وفي حال الرفض، هددت واشنطن بإجبار الشركة على الامتثال بموجب صلاحيات فيدرالية طارئة، بما في ذلك استخدام "قانون الإنتاج الدفاعي".
قيود أخلاقية ورفض للرقابة الجماعية
وأوضح أمودي أن أنثروبيك تتعاون بالفعل مع البنتاجون والوكالات الاستخباراتية في نشر نماذج الذكاء الاصطناعي للدفاع عن البلاد، لكنه شدد على وجود قيود أخلاقية صارمة. وقال: "استخدام هذه الأنظمة للرقابة الداخلية الجماعية لا يتوافق مع القيم الديمقراطية". كما أكد أن الشركة لن تقدم أي منتج يعرض الجنود والمدنيين الأمريكيين للخطر، مشيراً إلى عدم الاعتماد على أنظمة الذكاء الاصطناعي لتشغيل الأسلحة الفتاكة دون سيطرة بشرية.
تداعيات التصنيف الخطير
يذكر أن تصنيف أنثروبيك كخطر على سلاسل الإمداد، وهو تصنيف يُخصص عادة للشركات من بلدان معادية، قد يؤدي إلى إضرار كبير بقدرة الشركة على العمل مع الحكومة الأمريكية وبسمعتها على المستوى الدولي. هذه الخطوة تعكس تصاعد التوتر بين القطاع التكنولوجي والأجهزة الأمنية الأمريكية حول حدود استخدام الذكاء الاصطناعي في المجالات العسكرية.
