استخدام الذكاء الاصطناعي في النواحي العسكرية.. هل الآلة تخطئ؟

كتب: أشرف التهامي

نشر آرثر هولاند ميشيل تقريراً علمياً على موقع ” just security” حول استخدام الذكاء الاصطناعي في النواحي العسكرية يستعرض فيه احتمالات الخطأ والصواب في الاعتماد على الذكاء الاصطناعي في المواجهات العسكرية وفي الحروب.

واستند الكاتب فى تقريره على القتال الدائر في غزة كمثال.

كما خلص في نهاية تقريره على أن خطأ الآلات باستخدام الذكاء الاصطناعي في الحروب، حتما يعود على الإنسان لأنه هو من أدخل المعلومات وغذى الآلة بالخوارزميات التي يقتنع بها وما على الآلة إلا تطبيق نواتخ الخوارزميات التي لقنها إياها الإنسان.

واليكم النص المترجم للتقرير .

التقرير

عندما نتحدث عن استخدام الذكاء الاصطناعي في الحرب، فإننا نميل إلى افتراض أن الذكاء الاصطناعي ينتج مخرجات إما صحيحة أو خاطئة. والمثال النموذجي هو نظام دعم القرار المدعوم بالذكاء الاصطناعي (AI-DSS) الذي يصنف الطفل الذي يلعب بالعصا على أنه شخص بالغ يحمل مسدسًا.
ولكن في الواقع، أنظمة الذكاء الاصطناعي لا تفشل. طالما أنها لم تتعرض للاختراق أو لم تتعرض لعطل فني بحت، فإن أجهزة الكمبيوتر تنتج مخرجات وفقًا لخوارزمياتها وترميزها.
فمثلاً، إذا قُتل طفل على يد بشر بناءً على توصية من نظام الذكاء الاصطناعي، فإن الذكاء الاصطناعي كان يقوم بعمله تمامًا كما تم تصميمه؛ لقد كان البشر هم المخطئون.
هذا ليس اختيار الصئبان. اعترفت الجيوش بأن الآلات ليست كيانات مسؤولة قانونيًا بموجب قوانين الحرب. لذلك، إذا أصررنا على أن الآلات لا تطبق القانون بشكل إيجابي عندما تكون على حق، فيجب علينا أيضًا أن نقبل أنها لا يمكن أن تفشل في تطبيق القانون عندما تكون مخطئة.
أما البشر، من ناحية أخرى، فيمكنهم أن يخطئوا ويخطئون. وعندما يرتكبون خطأً ما، فإنهم (نظريًا على الأقل) يتحملون المسؤولية. في الحالة المذكورة أعلاه، يجب على الإنسان اكتشاف خطأ الذكاء الاصطناعي في التعرف على الطفل ووقف الهجوم على الطفل. إذا لم يمسكوا به، فيجب أن يحاسبوا (أو أي شخص آخر). وإلا فإن النظام بأكمله ينهار.
وبعبارة أخرى، يجب أن يتمتع الجنود البشر دائمًا بالقدرة على اتخاذ القرار الصحيح، بغض النظر عما يطلب منهم نظام الذكاء الاصطناعي القيام به. فإن هذا يعني أن الإنسان يجب أن يكون قادرًا على معرفة مدى ارتباط أي ناتج معين للذكاء الاصطناعي بالسياق المحدد للقرار. وهذا بدوره يتطلب معرفة وفهم الشكوك والافتراضات والتحيزات دعنا نسميها (UABs) المضمنة في هذا الناتج.

أبجديات UABs

تحتوي جميع مخرجات الذكاء الاصطناعي التي تمر أمام أعين صانع القرار على شكوك وافتراضات وتحيزات يجب أخذها في الاعتبار عند اتخاذ القرار.
أولا، هناك شكوك. يجب أن يكون الإنسان الذي يستخدم نظام الذكاء الاصطناعي قادرًا على قياس مقدار ما لا يعرفه بالضبط.
على سبيل المثال، لا يتضمن البث من قمر صناعي يعمل بالأشعة تحت الحمراء بيانات حول لون الكائنات. وبالمثل، فإن التغذية الواردة من القمر الصناعي لنظام تحديد المواقع العالمي (GPS) لا تكون دقيقة على الإطلاق فيما يتعلق بموقع الأشياء. إذا كان اللون أو الموقع الدقيق لجسم ما يمكن أن يوضح الفرق بين كونه مدنيًا أو عسكريًا، فيجب دراسة هذه الشكوك بعناية قبل أن يتصرف الإنسان على المخرجات المحوسبة التي تستخدم تلك البيانات.
وبالمثل، فإن بيانات التدريب الخاصة بأنظمة التعلم الآلي تشكل مصدرًا لعدم اليقين. كم عدد الأمثلة على الأطفال الذين يستخدمون العصي الموجودة في مجموعة البيانات؟ هل من الممكن أنه لم يكن هناك أي شيء على الإطلاق؟ إن تجاهل هذه الأنواع من حالات عدم اليقين في المواقف التي قد تكون ذات صلة قد يشكل انتهاكًا لقانون النزاعات المسلحة.
ثانيًا، تعمل جميع أنظمة الكمبيوتر الداعمة للقرار وفقًا لافتراضات معينة. وذلك لأن الافتراضات هي التي تحول البيانات الأولية (على سبيل المثال، مجموعة متنوعة من وحدات البكسل في مقطع فيديو) إلى معلومات (“تلك البكسلات هي شخص، وهذا الشخص يحمل مسدسًا”).
في أنظمة الكمبيوتر التقليدية، يتم تدوين هذه الافتراضات عمدا عن طريق قواعد محددة. على سبيل المثال، قد تكون القاعدة كما يلي:
“إذا كان هناك جسم يتحرك بسرعة تزيد عن 300 عقدة ويتجه نحوك، فيجب دائمًا تحديده على أنه تهديد محتمل وارد ووضع علامة عليه بمؤشر أحمر.”
في الأنظمة القائمة على التعلم الآلي، يتم إنشاء هذه الافتراضات بواسطة الكمبيوتر نفسه أثناء عملية التدريب على البيانات. إذا كان هناك عدد ذو دلالة إحصائية من أمثلة التدريب التي تم تصنيفها على أنها “تهديد وارد” تتضمن أشياء تسير بسرعة تزيد عن 300 عقدة في اتجاه معين، فمن المحتمل أن يقوم النظام بتصنيف أي أمثلة مماثلة يواجهها أثناء الاستخدام على أنها “تهديد وارد”.
تلعب مثل هذه الافتراضات دورًا مهمًا للغاية في الحرب القائمة على البيانات. في عمليات مكافحة التمرد – حيث يكون الهدف هو تحديد المتمردين من بين السكان المدنيين الأوسع – فإن العديد من أنظمة الكشف المحوسبة، بما في ذلك بعض تلك المستخدمة حاليا في غزة، تعتمد على افتراضات حول أنماط معينة من السلوك. ووفقا للتقارير الأخيرة، إذا قام شخص ما في غزة بتغيير رقم هاتفه بانتظام، على سبيل المثال، فإن هذا يمكن أن يساعد -بالاشتراك مع مؤشرات أخرى -في تصنيف بعض الأفراد على أنهم “مقاتلون”.
إن الافتراضات التي تحول البيانات إلى معلومات تكون دائمًا حساسة للسياق. غالبًا ما تطير الطائرات التجارية بسرعة تزيد عن 300 عقدة، وأحيانًا تفعل ذلك في اتجاه المنشآت العسكرية. إن النظام الذي يحدد جميع الطائرات التي تحلق بسرعة تزيد عن 300 عقدة على أنها تهديدات سيكون مشكلة في المجال الجوي المختلط ما لم يأخذ البشر هذا الافتراض في الاعتبار عند النظر إلى كل نقطة حمراء على شاشتهم.
تلعب الافتراضات أيضًا دورًا مختلفًا في السياقات الثقافية أو العملية المختلفة. في بعض البلدان، تعمل فرق العمل على الطرق التي تحفر الحفر على طول الطرق -وهو السلوك الذي يمكن ترميزه كمؤشر على أنهم متمردون يزرعون القنابل على جانب الطريق -في الغالب في الليل لأن الجو أكثر برودة من النهار. وفي غزة، يقوم المدنيون في كثير من الأحيان بتغيير أرقامهم بسبب فقدان هواتفهم أو فقدان الخدمة نتيجة العمليات العسكرية المحيطة بهم.
وأخيرا، يمكن أن تكون الأنظمة متحيزة. تنشأ التحيزات عندما تكون هناك تناقضات منهجية بين خصائص العالم النظري الذي تم ترميز الكمبيوتر أو تدريبه عليه وخصائص الحياة الواقعية للعالم الذي تم نشره فيه. إن النظام الذي يحدد الأشخاص على أنهم تهديدات يعتمد فقط على ما إذا كانوا يحملون أسلحة أم لا، سوف يظهر تحيزًا ضد الأشخاص الذين من المرجح أن يحملوا أسلحة لأسباب لا علاقة لها بالعمليات العدائية النشطة المستمرة (على سبيل المثال، حماية المزارعين للماشية).
إذا حاول أي شخص أن يخبرك أن أنظمة الذكاء الاصطناعي يمكن أن تكون “متحيزة”، فلا تصدقه. لا يوجد شيء اسمه نظام كمبيوتر غير متحيز ضد شيء ما أو شخص ما في سياقات معينة. وأفضل ما يمكن فعله هو قصر استخدام النظام على المواقف التي يقل فيها احتمال ظهور التحيزات. وهذا يتطلب معرفة عميقة بماهية تلك التحيزات والسياق المادي والثقافي والديموغرافي الذي سيتم استخدام الأنظمة فيه.
إن التفاعل بين حالات عدم اليقين والافتراضات والتحيزات يزيد من تعقيد هذه المشكلة. يمكن أن تؤدي الافتراضات إلى تحيزات ضمنية، وقد تكون هذه التحيزات ذات صلة فقط في سياق حالات عدم اليقين المحددة. إن الافتراضات والتحيزات التي لا يفهمها المستخدم البشري هي في حد ذاتها مصدر لعدم اليقين.

ما الذي يجب فعله؟

ويشير “الإعلان السياسي بشأن الاستخدام العسكري المسؤول للذكاء الاصطناعي والحكم الذاتي” في العام الماضي -والذي أقرته 52 دولة -إلى مشكلة UABs. وينص على أن أعضاء الخدمة الذين يستخدمون الذكاء الاصطناعي يجب أن يكونوا قادرين على “إصدار أحكام مناسبة مستنيرة بالسياق”. لكن هذا لا يعكس حجم المهمة التي تنتظرنا. من الصعب تعليم أنظمة الذكاء الاصطناعي التمييز بين العصي والبنادق؛ إن تعليم البشر كيفية الحكم بشكل موثوق ومسؤول على طريقهم نحو UABs يمثل تحديًا هائلاً.
تقول الجيوش إن البشر سيكونون دائمًا “في الحلقة” عندما يتعلق الأمر بالذكاء الاصطناعي. إذا كان الأمر كذلك، فيتعين عليهم أن يكونوا صادقين بشأن حقيقة مفادها أنه على الرغم من عقود من البحث العلمي الشاق حول هذه المسألة، فإن العديد من الأسئلة حول كيفية حساب UABs تظل بلا إجابة تماما. غالبا ما تتحدث الحكومات عن التحيزات في أنظمة الذكاء الاصطناعي، لكنها لا تتحدث أبدا عن الشكوك والافتراضات. ويجب على الدول أيضًا أن تكون واضحة في أن الدروس المستفادة من الاستخدامات المدنية للذكاء الاصطناعي لن تؤدي إلا إلى تحقيق تقدم كبير في المعركة.
إحدى الدوافع العسكرية الأساسية لاعتماد الذكاء الاصطناعي هي السرعة؛ عندما يُتوقع من البشر أن يمثلوا UABs بسرعة في ضباب وغضب الحرب، تتضاعف التحديات.

من الذي ينبغي أن يتحمل المسؤولية

وفي غياب إجابات أفضل، فسوف يظل السؤال الكبير بلا إجابة: من الذي ينبغي أن يتحمل المسؤولية عن الضرر الناشئ عن التفاعلات غير الكاملة بين البشر والآلات؟
ولا يمكن إلقاء اللوم بالكامل على المشغل البشري إذا لم يكن على علم بالافتراضات الإحصائية الخاطئة للنظام، أو تحيزاته غير المعلنة، أو شكوكه غير المرئية. في هذه الحالة، هل من المحتمل أن يسقط الأشخاص الذين صمموا النظام؟
على الاغلب لا؛ إما أنهم معفون من المسؤولية، أو أن تلك UABs لم تظهر أبدًا في الاختبار. ماذا عن القادة الذين قرروا أن استخدام الذكاء الاصطناعي سيكون فكرة جيدة في المقام الأول، هل يمكن تقديمهم للمحاكمة العسكرية؟ من غير المرجح.
وهذا ما يشار إليه باسم “فجوة المساءلة”. يمكن أن تنشأ مثل هذه الفجوات حتى عندما تعمل التكنولوجيا بشكل جيد للغاية بشكل عام. إذا أكد لك الجيش أن أنظمته البشرية والآلة تنجز الأمر بشكل صحيح بنسبة 99.9% من الوقت، لكنه لا يستطيع أن يخبرك بكيفية تطبيق القانون في تلك الحالات التي لا يفعل ذلك فيها، فهذا ليس جيدًا بما فيه الكفاية.
ونظراً للاهتمام الشديد بالذكاء الاصطناعي بين الجيوش في جميع أنحاء العالم، والطريقة الواسعة التي يخطئ بها الخطاب في توصيف الأخطاء، فإن هذه أخبار سيئة لتطبيق القانون والأخلاق على القرار البشري في الحرب. كل هذا قد يجعل الأمر يبدو وكأن ساحة الخطاب العام قد خذلتنا فيما يتعلق بمسألة الذكاء الاصطناعي العسكري. لكن هذا ليس صحيحا. لقد كان هناك الكثير من الدراسات الهائلة حول هذه القضايا في الآونة الأخيرة. أرى تقدما حقيقيا. إن الكثير من الأطراف، وبعض البلدان، تطرح الأسئلة الصحيحة. ولكن من فضلك، دعونا نتوقف عن القول بأن الآلة قد أخطأت.

…………………………………………………………

نبذة عن الكاتب

Arthur Holland Michel  آرثر هولاند ميشيل، صحفي وباحث مولود في بيرو، يكتب ويتحدث عن التقنيات الناشئة.

ظهرت كتاباته في The Economist، وThe Washington Post، وThe Atlantic، وWired، وVice، وForeign Policy، وThe Verge، وFast Company، وMotherboard، والجزيرة أمريكا، وBookforum، ونشرة علماء الذرة، وMashable Spotlight، وأبحاث أكسفورد.

الموسوعة، من بين منافذ أخرى. كتابه الأول، عيون في السماء، حول صعود تكنولوجيا المراقبة الجوية المتقدمة، تم نشره من قبل هوتون ميفلين هاركورت في يونيو 2019.

يعمل آرثر حاليًا كزميل أول في مجلس كارنيجي لأخلاقيات الشؤون الدولية في نيويورك، وهو مؤسس مركز دراسة الطائرة بدون طيار، وهو معهد أبحاث في كلية بارد في ولاية نيويورك حيث شغل منصب المدير المشارك من عام 2012 إلى عام 2020.

طالع المزيد:

زر الذهاب إلى الأعلى