ترجمات

“فورين أفيرز”: أسلحة الذكاء الاصطناعي والوهم الخطير للتحكم البشري

المؤشر 14-12-2024  مجلة “فورين أفيرز” الأميركية تنشر تقريراً كتبه سيباستيان إلباوم وجوناثان بانتر، تناولا فيه خطورة استقلالية الأنظمة العسكرية المدعومة بالذكاء الاصطناعي، والحاجة إلى ربطها دائماً بالتحكم البشري.

“سأعود”، هذا ما وعد به أرنولد شوارزنيجر في فيلم الخيال العلمي الشهير “The Terminator” عام 1984. ولم يكن يمزح! وخلال مقابلة له أجريت عام 2023، أشار الممثل الذي أصبح حاكماً إلى أنّ رؤية الفيلم للأسلحة المستقلة باتت اليوم حقيقة واقعة.

وفي المستقبل المظلم للفيلم، يصمم الإنسان نظاماً عسكرياً مدعوماً بالذكاء الاصطناعي، ليتجاوز بعدها التعليمات ويدمر البشرية. بالمعنى الدقيق للكلمة، هذا لم يحدث. إلا أنه في الوقت نفسه، تغيرت الحرب بشكل لا يمكن إنكاره خلال الأربعين عاماً التي تلت ظهور فيلم “The Terminator” في دور العرض. إذ يتم نشر الأسلحة المدعومة بالذكاء الاصطناعي بقوّة في ساحات القتال من أوكرانيا إلى غزة، ومن المرجّح أن تلعب دوراً حاسماً في أي صراع بين الولايات المتحدة والصين.

إنّ تحذير الفيلم من أنّه لا يمكن الوثوق بالآلات لاتخاذ القرارات المهمة، مثل متى ومن يجب أن يطلق النار، لا يزال مستمراً في النفس البشرية الجماعية. ومع ذلك، فإنّ الخطر الحقيقي قد لا يكمن في ضعف التحكم البشري بهذه الأنظمة، بل في الوهم بإمكانية السيطرة عليها. ويوفر هذا الوهم راحة زائفة للحكومات والجيوش والمجتمعات الديمقراطية من خلال تغذية الأمل الساذج في قدرتها على تصميم أنظمة أفضل من خلال إشراك البشر في هذه الدائرة.

ومع ذلك، عندما يتعلق الأمر بالتحكم البشري في أنظمة الأسلحة المدعومة بالذكاء الاصطناعي، يظل الرأي السائد هو أنّ الإكثار منها يعطي نتائج أفضل. فعلى سبيل المثال، تتطلب سياسة الحكومة الأميركية بوضوح تصميم أسلحة فتاكة مستقلة ذات قدرة على التدخل البشري المناسب. ويؤكد كبار المسؤولين بانتظام  هذه الحقيقة. وفي أواخر عام 2023، بعد أن أطلقت وزارة الدفاع مبادرة “Replicator”، وهي محاولة لنشر آلاف الأنظمة المستقلة عبر الخدمات العسكرية بحلول آب/أغسطس 2025، صرحت نائبة وزير الدفاع كاثلين هيكس قائلةً: “هناك دائماً شخص مسؤول عن استخدام القوة. نقطة انتهى!” وتسعى الأمم المتحدة إلى فرض حظر على الأسلحة المستقلة بالكامل، واقترحت قواعد ملزمة دولياً تتطلب تدخل الإنسان في هذا المجال. وقد تبنى عدد من المنظمات غير الحكومية، بما في ذلك حملة “أوقفوا الروبوتات القاتلة” (Stop Killer Robots)، ومعهد مستقبل الحياة (Future of Life Institute)، ومنظمة العفو الدولية، قضية التحكم البشري بالأسلحة المستقلة.

وعلى الرغم من أنه من المطمئن أن نتصور أنّ البشر الذين يعيشون ويتنفسون سيمنعون الخوارزميات الطائشة من القتل العشوائي،فإن هذا الإجماع لا يتماشى مع الواقع التكنولوجي. فغالباً ما تكون نماذج الذكاء الاصطناعي التي توجّه الأسلحة المستقلة المعاصرة معقدة جداً بحيث لا يمكن حتى للمشغلين المدربين مراقبتها. بالإضافة إلى ذلك، فإنّ كل استخدام مقترح للأسلحة المستقلّة يتصوّر أنّها تعمل على نطاق واسع، الأمر الذي يتطلب مستويات من البيانات والسرعة والتعقيد التي من شأنها أن تجعل التدخل البشري الهادف مستحيلاً. في ظل الظروف الطبيعية، يصعب توقع أن يقوم شخص بتقييم مزايا تحليل نظام الذكاء الاصطناعي واقتراح مسارات عمل؛ أما في الظروف القتالية، التي تتميز بالضغط الشديد والوقت المحدود والاتصالات المنقطعة أو غير الموجودة بين الأفراد والوحدات والسلطات العليا، فيكون القيام بذلك أمراً مستحيلاً.

اظهر المزيد

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى