
تقرير لجنة الأمن القومي الأمريكي للذكاء الاصطناعي.. تهديدات وفرص عسكرية واقتصادية
عرض فردوس عبد الباقي وآية عبد العزيز
يسعى التقرير المرحلي الصادر عن لجنة الأمن القومي الأمريكي للذكاء الاصطناعي في نوفمبر 2019، إلى النظر في الأساليب والوسائل اللازمة للمضي قدمًا في تطوير الذكاء الاصطناعي والتعلم الآلي والتقنيات المرتبطة به للتصدي الشامل للاحتياجات الأمنية والدفاعية للولايات المتحدة. جاء التقرير بناءً على طلب الكونجرس لإجراء تقييم أولي من اللجنة للتحديات والفرص المحتملة للذكاء الاصطناعي، كما أنها محاولة لإبلاغ السياسة والنقاش العام حول كيفية ارتباط التطورات في الذكاء الاصطناعي باتجاهات الأمن القومي الأوسع.
يرتكز عمل اللجنة على ما تعتبره أكثر التحديات إلحاحًا والفرص الأكثر تحولًا التي يقدمها الذكاء الاصطناعي للأمن القومي الأمريكي حتى الآن في:
● التهديدات الخارجية للأمن القومي في عصر الذكاء الاصطناعي الحالي.
● كيف يمكن للذكاء الاصطناعي تحسين قدرة الحكومة على الدفاع عن البلاد والتعاون مع الحلفاء والحفاظ على توازن إيجابي للقوة العسكرية في العالم.
● العلاقة بين الذكاء الاصطناعي والقدرة التنافسية الاقتصادية كعنصر من عناصر الأمن القومي، بما في ذلك قوة مجتمع البحث العلمي وقوة العمل الأكبر لدينا.
● الاعتبارات الأخلاقية في نشر أنظمة الذكاء الاصطناعي لأغراض الأمن القومي.
ماهية الذكاء الاصطناعي
أفاد التقرير أن الذكاء الاصطناعي هو قدرة نظام الكمبيوتر على حل المشكلات وأداء المهام خلافًا ذلك فهو الذكاء البشري. وقد تطورت تقنيات الذكاء الاصطناعي لعقود عديدة، بما في ذلك التعرف على الأنماط، والتعلم الآلي، ورؤية الكمبيوتر، وفهم اللغة الطبيعية، والتعرف على الكلام. كما تم تسخير هذه التقنيات لتعزيز قدرات كل من البشر والآلات، ومساعدتهم على اتخاذ قرارات ذات جودة أعلى وبسرعة أكبر ولكن لا تزال محدودة في بعض المجالات؛ حيث استلهم العديد من باحثي الذكاء الاصطناعي أنه يمكن للآلات تحقيق أداء يشبه الإنسان أو أفضل منه من خلال تحليل كميات كبيرة من البيانات، وتحديد الأنماط، وإجراء عمليات بحث ضخمة للحصول على إجابات وتقييمات وتوصيات مفيدة، ويستخدم مصطلح “الذكاء الاصطناعي العام” أحيانًا للإشارة إلى هذا الهدف.
ووفقًا للتقرير، تتحسن هذه الأنظمة مع تحول أحدث التقنيات من الأنظمة القديمة على نماذج صريحة إلى أنظمة التعلم الآلي التي يمكنها التعلم من الخبرة وتحسين أدائها، بما في ذلك تلك التي يمكن أن تتعلم من مجموعات بيانات كبيرة وقوية.
وعليه سيشكل تطوير الذكاء الاصطناعي مستقبل القوة، وإن الدولة ذات القاعدة الاقتصادية الأكثر مرونة وإنتاجية ستكون في وضع أفضل للاستيلاء على عباءة القيادة العالمية. تعتمد هذه القاعدة بشكل متزايد على قوة اقتصاد الابتكار، الذي سيعتمد بدوره على الذكاء الاصطناعي. سيقود الذكاء الاصطناعي موجات من التقدم في التجارة، والنقل، والصحة، والتعليم، والأسواق المالية، والحكومة، والدفاع الوطني.
التهديدات التي يشكلها الذكاء الاصطناعي للولايات المتحدة
كشف التقرير أن التقارب بين ثورة الذكاء الاصطناعي وإعادة ظهور منافسة بين القوى العظمى يجب أن يكون محور اهتمام الولايات المتحدة. فهذان العاملان يهددان دور واشنطن كمحرك عالمي للابتكار والتفوق العسكري الأمريكي. فإذا فشلت في الحفاظ على مزاياها، فلن يكون ذلك لأنها فوجئت، ولكن لتصدر الدول الكبرى وشركات التكنولوجيا ذات الكميات الهائلة من البيانات والقدرة الحاسوبية، مقابل إتاحة الخوارزميات التي تغذي تطبيقات الذكاء الاصطناعي للجمهور بوتيرة متسارعة، وعليه فقد نشرت العديد من البلدان خططًا وطنية للذكاء الاصطناعي.
فعلى سبيل المثال أعلنت الصين، المنافس الاستراتيجي لواشنطن عزمها على أن تصبح رائدة العالم في مجال الذكاء الاصطناعي بحلول عام 2030 كجزء من استراتيجية أوسع تتحدى موقع الولايات المتحدة العسكري والاقتصادي في آسيا وخارجها. لذا فإن حجم التغيير التكنولوجي في لحظة الخطر الاستراتيجي تتطلب أن تجد الحكومة مسارًا لمواجهة التحديات بنفس المخيلة والعمل الحاسم والإرادة الوطنية التي استدعت في منعطفات حرجة أخرى في التاريخ الأمريكي.
وعليه فقد أفاد التقرير أن الذكاء الاصطناعي كثف من التهديدات الحالية وتسريعها، بجانب زيادة تهديدات جديدة إذا تم استخدامه بدون ضمانات التي تتجسد في:
● تآكل التفوق العسكري الأمريكي: يريد المنافسون الاستراتيجيون، بقيادة الصين وروسيا، استخدام أنظمة مستقلة للذكاء الاصطناعي في استراتيجياتهم وعملياتهم وقدراتهم العسكرية لتقويض التفوق العسكري الأمريكي والردع التقليدي. إذا تجاوزوا واشنطن في هذه الجهود، سيعرض التحالفات الدولية التي مهدت لحالة من الحرية للخطر.
● تعرض الاستقرار الاستراتيجي للخطر: يمكن تقويض الاستقرار العالمي والردع النووي إذا سمحت الأنظمة التي تدعم الذكاء الاصطناعي بتتبع واستهداف الأصول العسكرية التي كانت عرضة للخطر سابقًا. يمكن لهذه الديناميكية أن تدفع الدول إلى تبني مواقف أكثر عدوانية تزعزع الاستقرار الثنائي أو الإقليمي أو العالمي الحالي، مما يؤدي إلى التصعيد السريع للصراع، أو حتى زيادة الحوافز لضربة أولى.
● نشر قدرات الذكاء الاصطناعي: يزداد احتمال الاستخدام المتهور وغير الأخلاقي للتقنيات التي تدعم الذكاء الاصطناعي من قبل الدول المارقة أو الجهات الفاعلة غير الحكومية مع توفر تطبيقات الذكاء الاصطناعي بسهولة أكبر. سيكون للعديد من الخوارزميات والتطبيقات المتاحة في المجال العام استخدامات مفيدة، ولكن يمكن استخدامها أيضًا للأغراض الخبيثة. قد يكون المجرمون والإرهابيون والذئاب الوحيدة التي تم تمكينها بالفعل في العصر السيبراني قادرين على الوصول إلى أبعد وأسرع وبإسناد أقل إلى النظام المالي والبنية التحتية والحياة الشخصية للمواطنين.
● التضليل والتهديد للنظام الديمقراطي الأمريكي: سيسرع الذكاء الاصطناعي من تهديد حملات التضليل التي تمكّن الإنترنت، التي تهدد نزاهة خطاب العام وانتخابات الأمريكية من خلال قيادة المواطنين إلى اتخاذ خيارات على أساس الأكاذيب، وتفاقم الانقسامات القائمة في المجتمع.
● تآكل الخصوصية الفردية والحريات المدنية: توفر أدوات الذكاء الاصطناعي الجديدة للدول إمكانات أكبر لرصد وتتبع مواطنيها أو مواطني الدول الأخرى. بينما يمكن استخدام بيانات المواطنين لأغراض مشروعة وشرعية، إلا أن انتشار مصادر البيانات الجديدة -مثل تلك التي يتم إنشاؤها من خلال المدن الذكية أو الشرطة الذكية- يزيد من خطر انتهاكات حقوق الإنسان أو انتهاك الخصوصية الفردية. في حين تم توثيق استخدام الصين لأدوات مراقبة الذكاء الاصطناعي بشكل جيد، فإن 74 دولة أخرى على الأقل تشارك أيضًا في المراقبة التي تعمل بالذكاء الاصطناعي، بما في ذلك العديد من الديمقراطيات الليبرالية.
● الهجمات السيبرانية المتسارعة: سيعمل الذكاء الاصطناعي على تطوير القدرات السيبرانية التقليدية التي يمكن أن تتحرك من خلال أنظمة متعددة بسرعة خارقة. ستكتشف البرمجيات الخبيثة الذكية نقاط ضعف النظام وتستغلها بشكل مستقل، وستلعب دور الهجوم والدفاع في نفس الوقت، وتستهدف أنظمة محددة بذكاء. كما يوسع الذكاء الاصطناعي من عوامل التهديد المعرضة للهجمات السيبرانية.
العلاقة بين الذكاء الاصطناعي والأمن القومي
تسعى اللجنة من خلال المناقشة العامة الحالية للذكاء الاصطناعي الدائرة من خلال بناء إجماع حول سبعة مبادئ أساسية حول العلاقة بين الذكاء الاصطناعي والأمن القومي التي تتمثل في:
● الريادة العالمية في تكنولوجيا الذكاء الاصطناعي التي تعد أولوية أمنية وطنية: نظرًا لمركزية الذكاء الاصطناعي لمستقبل الاقتصاد والمجتمع والأمن الأمريكي، فيجب على الحكومة اتباع استراتيجية استثمار توسع الحافة التكنولوجية الأمريكية. مع منح وكالات الدفاع والأمن إمكانية الوصول إلى أفضل التقنيات، لتعزيز البحث والتطوير في هذا المجال مع ضمان تأمين هذه التكنولوجيا.
● اعتماد الذكاء الاصطناعي لأغراض الدفاع والأمن باعتباره ضرورة وطنية ملحة: إن تسريع تطبيقات الذكاء الاصطناعي في مهمات الأمن القومي هو ضرورة تنظيمية. لحماية الشعب الأمريكي ومصالحه وحلفائه، ولكن لا تحبذ اللجنة احتمالات الحرب المدعومة بالذكاء الاصطناعي. ولكن يتم استخدام التكنولوجيا الجديدة دائمًا في السعي وراء السلطة.
● يجب على قادة القطاع الخاص والمسؤولين الحكوميين الشعور بالمسؤولية عن رفاهية وأمن الشعب الأمريكي: يجب على الحكومة تعزيز الصناعة من خلال وضع معايير وسياسات واضحة للاستخدام المسؤول، وإعادة بناء الثقة من خلال شفافية أكبر، وتقديم رؤية لهدف مشترك. لتحقيق إمكانات الذكاء الاصطناعي، مع الالتزام المشترك بحماية قيم ومبادئ السوق الحرة والأمن.
● أهمية العنصر البشري: إعطاء الأولوية لرعاية المواهب المحلية عن طريق القيام باستثمارات طويلة الأجل في تعليم العلوم والتكنولوجيا والهندسة والرياضيات. على المدى القريب، تعد الهجرة ذات المهارات العالية مهمة للنمو السريع لمجموعة المواهب الأمريكية. تتمثل إحدى المزايا الأمريكية في أن جامعاتها وشركاتها ومجال الابتكار جاذبة لأفضل مواهب الذكاء الاصطناعي في العالم.
● الحفاظ على قوة الاستفسار المجاني: تعتمد بيئة الابتكار المنفتحة والتعاونية للذكاء الاصطناعي على مبادئ الاستفسار المجاني والمشاريع الحرة والتدفق الحر للأفكار. لذا يجب حماية الملكية الفكرية والتكنولوجيا الحساسة، مع ضمان عدم استغلال التكنولوجيا والابتكار الأمريكيين لتطوير جيوش الخصوم أو انتهاك لحقوق الإنسان.
● الأخلاق والضرورة الاستراتيجية متوافقة مع بعضها البعض: يجب على وكالات الدفاع والأمن القومي تطوير ونشر الذكاء الاصطناعي بطريقة مسؤولة وموثوقة وأخلاقية للحفاظ على الدعم العام، وزيادة الفعالية التشغيلية إلى أقصى حد، والحفاظ على نزاهة مهنة الأسلحة، وتعزيز التحالفات الدولية.
● أن تعكس الطريقة الأمريكية للذكاء الاصطناعي القيم الأمريكية بما في ذلك سيادة القانون: بالنسبة لوكالات تطبيق القانون الفيدرالي التي تجري تحقيقات الأمن القومي في الولايات المتحدة، فإن هذا يعني استخدام الذكاء الاصطناعي بطرق تتوافق مع المبادئ الدستورية للإجراءات القانونية الواجبة والخصوصية الفردية، والحماية المتساوية، وعدم التمييز. بالنسبة للدبلوماسية الأمريكية هذا يعني الوقوف بحزم ضد استخدام الذكاء الاصطناعي من قبل الحكومات الاستبدادية لقمع الحرية الفردية أو انتهاك حقوق الإنسان لمواطنيها.
آليات الحفاظ على التفوق الأمريكي
حدد التقرير نقاط أساسية للحفاظ على التفوق الأمريكي تتجلى في عدد من الآليات:
- الاستثمار في البحث والتطوير بالذكاء الاصطناعي
أشار التقرير إلى أن أساس التنافسية الأمريكية العالمية في الذكاء الاصطناعي يعتمد بالأساس على تحقيق طفرات تكنولوجية في البحث والتطوير الفيدرالي والأكاديمي والتجاري. يتم البحث والتطوير التكنولوجي في الولايات المتحدة من خلال “تحالف ثلاثي” بين الوكالات الحكومية والجامعات والشركات الخاصة، وهو ما دفع البلاد إلى القيادة التكنولوجية العالمية والازدهار الاقتصادي. لكن استمر التمويل الفيدرالي للبحث والتطوير في الانخفاض على مدى عقود، ومن ناحية أخرى يتزايد التعاون الأكاديمي بين الشركات في أبحاث الذكاء الاصطناعي، ويلعب القطاع التجاري الآن دورًا مهمًا في أبحاث الذكاء الاصطناعي.
واعتبر التقرير أن الاستثمارات ضرورية ولكنها غير كافية لديمومة مزايا الولايات المتحدة، إذ تحتفظ الحكومة بدور حاسم خاصة في دعم البحث العلمي الأساسي، وكذلك البحوث ذات الصلة المباشرة بالأمن القومي. لم تستجب حكومة الولايات المتحدة بعد بالموارد اللازمة لتلبية احتياجات البحث الحالية وتهيئة الظروف للابتكار المستقبلي.
نوه التقرير بأن خسارة القيادة الوطنية في تطوير تكنولوجيا الذكاء الاصطناعي ستعني أنه سيتعين على الجيش الأمريكي ووكالات الاستخبارات الحصول على أنظمة أدنى أو شراء أنظمة أفضل من الصين أو أي مكان آخر. زاد التمويل الفيدرالي لعام 2020 لأبحاث الذكاء الاصطناعي خارج قطاع الدفاع بنسبة تقل عن 2% عن المستويات المقدرة للسنة المالية 2019. وعلى مدار السنوات الخمسة الماضية، زاد التمويل الفيدرالي للبحث والتطوير لعلوم الكمبيوتر (التي تضم الذكاء الاصطناعي) بنسبة 12.7%.
فيما اعتبرت اللجنة في التقرير أن زيادة الاستثمارات الفيدرالية في مجال البحث والتطوير يمكن أن تحفز تطوير تقنيات الذكاء الاصطناعي الأكثر أمانًا وقوة ومقاومة للهجوم، وتقليص الوقت اللازم لاكتشاف المواد المتقدمة، البنية التحتية وبيانات التدريب لباحثي الذكاء الاصطناعي، والقوى العاملة اللازمة لتطوير الذكاء الاصطناعي واستخدامه بفعالية. ورأت اللجنة أنه لتحقيق أفضل نتيجة، يجب أن تتم الاستثمارات الفيدرالية على مراحل على المدى القريب والمتوسط والطويل.
- تطبيق الذكاء الاصطناعي على مهمات الأمن القومي
اعتمدت الاستراتيجية العسكرية الأمريكية لفترة طويلة على الابتكار التكنولوجي لتحقيق الأهداف الاستراتيجية والحفاظ على الميزة الأمريكية. وقد تم تمكين الثورتين التكنولوجيتين العسكريتين من خلال اختراقات تكنولوجية حلت مشاكل الدفاع الأساسية وردع التهديد السوفيتي لأوروبا الغربية من خلال تصغير المكونات النووية لبناء جيل جديد من الأسلحة النووية في ساحة المعركة.
بدأت الجهود الأمريكية المبذولة لمواكبة التطور التكنولوجي للمنافسين عبر مبادرة الابتكار الدفاعي لعام 2014، التي انعكست على مبادئها في استراتيجية الدفاع الوطني لعام 2018، يرى تقرير اللجنة أن الذكاء الاصطناعي سيكون بمثابة القفزة التي ستوسع مزايا الولايات المتحدة.
لذا فهناك عقبات تواجه الجهود المبذولة لدمج الذكاء الاصطناعي، إذ يشير تاريخ الابتكار العسكري إلى أن التغلب على هذه التحديات ضروري لاستخدام التكنولوجيا الجديدة بشكل فعال، ويتفاقم التحدي لأن الحكومة لم تقم بعد بتضمين التطورات التجارية بفعالية.
كي تحافظ الولايات المتحدة على قدرتها التنافسية، يجب أن تسرع الحكومة جهود تطبيق الذكاء الاصطناعي وإعادة التفكير في العقيدة العسكرية والاستراتيجية والتنظيم وإدارة المواهب والتكتيكات والتدريب والبنية التحتية. يمكن للذكاء الاصطناعي معالجة المعلومات والتفاعل معها بسرعة فائقة، مما يوفر ميزة في مهام الأمن القومي التي يتطلب إنجازها سرعة حاسمة مثل الأمن السيبراني أو الدفاع الصاروخي.
تعاني الحكومة من نقص في البيانات، وتواجه وكالات الأمن الوطنية تحديات فريدة في إدارة البيانات عبر مجالات تصنيف الأمان.
- تدريب وتوظيف المواهب في الذكاء الاصطناعي
تحتاج وكالات الدفاع والاستخبارات الوصول إلى المزيد من الأشخاص ذوي مهارات وخبرات الذكاء الاصطناعي، داخل وخارج الحكومة، لكن الحكومة بطيئة في إدراك أهمية المهارات التقنية اللازمة للقوى العاملة الجاهزة للذكاء الاصطناعي.
أشار التقرير إلى أن ممارسات إدارة البيانات القديمة والافتقار إلى قوة المعالجة قد خلق عقبات أمام دمج أنظمة الذكاء الاصطناعي. نتيجة لذلك، تزيد المشروعات من ارتفاع التكاليف وتتطلب جداول زمنية أطول للابتكار والنشر. يمكن للحكومة تدريب الأشخاص لديها وتوظيف مواهب جديدة والشراكة مع مؤسسات خارجية.
تنظر اللجنة إلى أن خبراء الذكاء الاصطناعي سيكونون على استعداد للعمل في الحكومة إذا استطاع المسؤولون خلق شعور أكثر إلحاحًا بالغرض وبيئة تقنية داخل الحكومة من شأنها زيادة مواهبهم. يتطلب هذا الأمر أيضًا فحص الجوانب ذات الصلة بنظام التعليم الأمريكي ودور الطلاب والعمال الدوليين.
وعليه يجب أن يكون لدى منظمات الأمن القومي قوى عاملة بالذكاء الاصطناعي قادرة على أداء ست وظائف هي: تخطيط وتنفيذ استراتيجية على مستوى المنظمة، شراء وصيانة البنية التحتية للبرامج والأجهزة؛ إدارة وتحليل البيانات؛ تطوير البرمجيات عند الضرورة لتلبية الاحتياجات الفريدة؛ إجراء التحقيق والاختبار والتقييم؛ وتحديد وقت وكيفية استخدام أدوات الذكاء الاصطناعي.
- حماية مزايا التكنولوجيا الأمريكية والبناء عليها
حافظت الولايات المتحدة على مدار عقود من الزمان على اقتصاد مفتوح ودافعت عن الحرية الأكاديمية، وعملت في نفس الوقت على حماية تقدمها في مجال الدفاع والتكنولوجيا ذات الصلة بالأمن.
هناك عدد من الملامح الجغرافية والسياسية والتكنولوجية التي تجهد القدرات الأمريكية على إنشاء نظام متماسك وفعال لحماية التكنولوجيا:
- صعوبة حماية تكنولوجيات الذكاء الاصطناعي الخاصة بالأمن القومي لأن أبحاث الذكاء الاصطناعي لامركزية إلى حد كبير ومدفوعة بالصناعة.
- يعد الوصول المفتوح إلى أبحاث الذكاء الاصطناعي معيارًا قويًا في علوم الكمبيوتر، حتى لو تم وضع قيود على منتجات أو خدمات الذكاء الاصطناعي، لكن هناك الكثير المتاح للجمهور.
- ترتبط الولايات المتحدة والصين بروابط وثيقة في مجال الذكاء الاصطناعي، بما في ذلك التبادل المستمر للأشخاص والبحوث والتمويل والاستثمار المتبادل.
- تستفيد الصين من انفتاح المجتمع الأمريكي لنقل المعرفة بالذكاء الاصطناعي، وهو ما يجعل الجامعات ومعاهد البحث الأخرى عرضة للاستغلال الأجنبي وأشكال التأثير الأخرى من قبل المنافسين الاستراتيجيين، ولا سيما الصين.
- تعاون عالمي في الذكاء الاصطناعي
طالب التقرير بضرورة أن تتولى الولايات المتحدة والدول ذات التفكير المماثل قيادة الذكاء الاصطناعي، ليكون ذلك بين الجيوش وأجهزة المخابرات والدبلوماسيين والباحثين العلميين. فعلى المستوى العسكري والاستخباري، يمكن أن توفر هذه التحالفات والشراكات إطارًا للتخطيط التعاوني ومشاركة البيانات والمشتريات وإمكانية التشغيل المتبادل. وفي مجال البحث والتطوير، وأشار إلى أن الشركاء يطلقون برامج مخصصة لاستثمارات الذكاء الاصطناعي وجداول الأعمال البحثية الجديدة.
وعليه سيحظى هذا التحالف بالقيادة الفنية بفرص فريدة لوضع معايير الذكاء الاصطناعي لتحديد ما هو مقبول وما هو مرفوض. يستهدف هذا التحالف تعزيز المصالح والقيم الأمريكية وحلفاءها، وبناء خبرات وقدرات الذكاء الاصطناعي بشكل جماعي، وبذل الجهود لتحسين محو الأمية بالذكاء الاصطناعي وتعليم علوم الكمبيوتر.
وذلك في سياق استكشاف طرق لإنشاء إجماع دولي أكبر على بناء أنظمة ذكاء اصطناعي آمنة وموثوقة لتقليل العواقب غير المقصودة، لتبدأ النقاشات حول سلامة الذكاء الاصطناعي بتحديد المجالات التي يشكل فيها الذكاء الاصطناعي مخاطر غير مقبولة تساهم في التصعيد أو فقدان السيطرة. يظهر هنا دور الدبلوماسية العلمية في تعزيز التعاون العالمي للذكاء الاصطناعي لتخفيف المعاناة الإنسانية وتوفير السلع المشتركة، فيمكن له تعزيز تطبيقات علاج السرطان أو الإغاثة من الكوارث.
- الذكاء الاصطناعي الأخلاقي والجدير بالثقة
ترى اللجنة أن هناك أخلاقيات للذكاء الاصطناعي للبحث والتطوير والتطبيق والتدريب والحماية والتعاون في مجال الذكاء الاصطناعي، والحفاظ على الحقوق والحريات المطبقة عند استخدامه.
نوهت اللجنة إلى أن استخدام الذكاء الاصطناعي الأخلاقي بالظروف التي يكون من المناسب فيها نشر الذكاء الاصطناعي، ويرتبط أيضًا بالحفاظ على الحقوق والحريات الفردية كما يحميها القانون. أشادت اللجنة بجهود مجلس الابتكار الدفاعي لتطوير مبادئ الذكاء الاصطناعي وتحث الوكالات الأخرى على الانخراط في عملية مماثلة، وسيساعد التعاون بين الوكالات على مواصلة تنفيذ هذه المبادئ. تثار أيضًا مسألة أخلاقيات استخدام الذكاء الاصطناعي في النزاعات المسلحة، وكيفية استخدام أنظمة الذكاء الاصطناعي محليًا بطرق تحافظ على الحقوق والحريات المدنية.