لا خصوصية ولا حقوق مدنية ولا حريات بعد اليوم.. لا رقابة على وكالات الأمن القومي الأمريكى

 كتب: أشرف التهامي

تقديم

بينما تتسابق وكالات الأمن القومي لتبني الذكاء الاصطناعي، فمن الأهمية بمكان أن يعزز الكونجرس وإدارة بايدن الرقابة على هذه التقنيات، التي يعترفون بأنها تشكل مخاطر جسيمة على الخصوصية والحقوق المدنية والحريات المدنية.

وفى هذا الصدد أصدر مكتب الإدارة والميزانية الأمريكي (OMB) مؤخرًا إرشادات تنص على الشفافية في الاستخدامات الفيدرالية للذكاء الاصطناعي، وتحدد العديد من الاستخدامات التي من المفترض أن تؤثر على الحقوق والسلامة، وتتطلب الحد الأدنى من ممارسات إدارة المخاطر – بما في ذلك شرط قيام الوكالات بتزويد الأفراد بإشعار وفرصة لتحدي القرارات المتخذة باستخدام الذكاء الاصطناعي.

لكن أنظمة الأمن القومي الأمريكي – التي تشمل كل شيء بدءًا من برامج الاستخبارات المحلية إلى أنظمة الأسلحة المستقلة – معفاة من هذا التوجيه.
يثير هذا الإعفاء مخاوف أمريكية هائلة بشأن الرقابة، خاصة وأن وسائل الحماية مثل الإشعارات تساعد الأفراد المتضررين على الكشف عن المعلومات التي يمكن استخدامها لتحدي عملية صنع القرار المتحيزة أو غير الدقيقة في المحاكم.

وفى هذا الصدد نشرت عضو هيئة التحريربالموقع، وتعمل فايزة باتيل كمديرة أولى لبرنامج الحرية والأمن القومي في مركز برينان للعدالة في كلية الحقوق بجامعة نيويورك، تقريرا يتناول هذه الإشكالية، وتم نشر التقرير على موقع (Just security”) ونورد لكم ترجمة لنص التقرير فى التالى:

التقرير:

إن الاعتراض على قرارات الأمن القومي التي تؤثر على الأفراد – حتى الأميركيين والأشخاص الذين يعيشون في الولايات المتحدة – يشكل تحديا هائلا. الإشعارات وسبل الانتصاف هي الاستثناء وليس القاعدة، وحتى في حالة وجودها، فهي غالبًا ما تكون غير فعالة. يواجه المتقاضون عوائق شديدة في الوصول إلى المحاكم، نظرا للطبيعة السرية للعديد من أنظمة الأمن القومي الامريكي واستخدام الحكومة الامريكية للسرية لإحباط مراجعة المحكمة. إن أنظمة الصندوق الأسود للذكاء الاصطناعي – حيث يفتقر الجمهور إلى معلومات مهمة حول الخوارزميات الأساسية، مثل البيانات المستخدمة لتدريبهم أو القواعد التي يعتمدون عليها – لن تؤدي إلا إلى تفاقم فجوة الرقابة هذه، والتي تستحق اهتماما فوريا.

إلى مجلس مراقبة الخصوصية والحريات المدنية (PCLOB) كنموذج

للبدء في معالجة هذه المشكلة، يمكن لإدارة بايدن والكونغرس أن ينظرا إلى مجلس مراقبة الخصوصية والحريات المدنية (PCLOB) كنموذج. أنشئت لجنة PCLOB في عام 2007 للتخفيف من مخاطر الخصوصية والحريات المدنية التي تشكلها برامج مكافحة الإرهاب بعد أحداث 11 سبتمبر، وقد جلبت خبرة مستقلة وتقييمًا لبعض الأنشطة الأكثر حساسية للحكومة. على الرغم من أننا لم نتفق دائمًا مع استنتاجات مجلس الإدارة – وأن أنشطته ليست بديلاً عن الإشعار الفردي للأشخاص المتأثرين وتوفير سبل الانتصاف – فقد وفرت PCLOB مقياسًا حاسمًا للشفافية والمساءلة في نظام يتمتع بإشراف محدود للغاية.

قلق بالغ فيما يتعلق بكل من أنظمة الذكاء الاصطناعي وبرامج الأمن القومي

ومع ذلك، لا التفويض الحالي للجنة PCLOB ولا قدرتها على تمكينها من ممارسة الرقابة على جميع أنظمة الذكاء الاصطناعي المستخدمة لأغراض الأمن القومي. وسيغطي تفويضها لمكافحة الإرهاب العديد من هذه الأنظمة، لكنه قد يتجاهل استخدام الذكاء الاصطناعي في جهود مثل الاستهداف الأخير للمتظاهرين في مجال العدالة العنصرية تحت ستار حماية الآثار الفيدرالية وبرامج مكافحة التجسس التي تستهدف الأمريكيين من أصل صيني. علاوة على ذلك، لم تركز التقارير العامة للمجلس حتى الآن على جوانب الحقوق المدنية للبرامج التي يدرسها، مثل التأثير على المجموعات العرقية أو مجتمعات الأقليات، وهو مصدر قلق بالغ فيما يتعلق بكل من أنظمة الذكاء الاصطناعي وبرامج الأمن القومي.
ولا تتمتع PCLOB أيضًا بالموارد اللازمة لمراجعة عدد لا يحصى من أنظمة الذكاء الاصطناعي التي تستعد وكالات الأمن القومي لاستخدامها. رئيس مجلس الإدارة المكون من خمسة أعضاء فقط هو الذي يعمل بدوام كامل، وكثيرًا ما كان لدى المجلس مناصب شاغرة تمنع عمله. لسنوات، كان لدى المجلس عدد قليل من الموظفين مقارنة بتفويضه وبرامج مكافحة الإرهاب الشاملة التي يشرف عليها، ويعمل كواحدة من أصغر الوكالات الفيدرالية. وحتى في نهاية عام 2023، كان عدد موظفيها 25 موظفًا فقط، تم تحديد واحد منهم فقط على أنه تقني. وتنعكس القدرة المحدودة لـPCLOB في مخرجاتها العامة: فمنذ إنشائها، أصدرت ثمانية تقارير عامة فقط حول برامج مكافحة الإرهاب وأربعة تقييمات للمتابعة.

اقتراحات حول كيفية هيكلة هيئة رقابية لأنظمة الأمن القومي للذكاء الاصطناعي

لتوفير الإشراف المستقل المطلوب بشدة على الأمن القومي للذكاء الاصطناعي، يمكن للكونغرس إما توسيع نطاق اختصاص وموارد PCLOB حتى تتمكن من خدمة هذا الدور، أو يمكنه إنشاء هيئة جديدة. وأيًا كان المسار الذي تختاره، فيجب عليها التأكد من أن تفويض وموارد هيئة الرقابة على الذكاء الاصطناعي تتناسب مع الأنظمة الناشئة التي ستحتاج إلى مراقبتها. نقدم أدناه اقتراحات حول كيفية هيكلة هيئة رقابية لأنظمة الأمن القومي للذكاء الاصطناعي.

استقلال

لا يمكن المبالغة في أهمية الإشراف المستقل، خاصة في سياق الأمن القومي. وكما رأينا مراراً وتكراراً فيما يتعلق بالمراقبة، ووضع قوائم المراقبة، والتدقيق في الهجرة والسفر، واكتشاف “التهديدات الداخلية”، فمن غير المرجح أن توفر آليات الرقابة الداخلية وحدها الحماية الكافية للحقوق الفردية. غالبًا ما تخضع مكاتب الحريات المدنية لسيطرة الوكالة أو تهميشها من قبل قيادة الوكالة أو ثقافتها أو هيكلها. قد لا يتم فرض حواجز الحماية الخاصة بالذكاء الاصطناعي بشكل موثوق – أو قد يتم تفسيرها من قبل محامي الوكالة المصممين – دون الضغط والمساءلة التي يوفرها المشرفون الخارجيون.
لقد جلبت PCLOB هذا النوع من الاستقلالية إلى برامج مراجعة عملها مثل مجموعة وكالة الأمن القومي الضخمة من سجلات مكالمات الأمريكيين والمراقبة بدون إذن قضائي للأمريكيين بموجب المادة 702 من قانون مراقبة الاستخبارات الأجنبية. قد تنزعج وكالات الاستخبارات مثل مكتب التحقيقات الفيدرالي، ووكالة المخابرات المركزية، ووكالة الأمن القومي عندما تؤدي إشراف المجلس إلى استنتاجات مختلفة حول فعالية أو قانونية أو حكمة برامجها بعد مراعاة مصالح الخصوصية والحريات المدنية. ولكن هذه هي على وجه التحديد مهمة PCLOB، وهي الوظيفة التي ستكون هناك حاجة ماسة إليها مع انتشار أنظمة الذكاء الاصطناعي المعقدة والمتطفلة.

تفويض

وكما يغطي اختصاص PCLOB على نطاق واسع “الإجراءات التي تتخذها السلطة التنفيذية لحماية الأمة من الإرهاب”، يجب أن تتمتع هيئة الرقابة على الذكاء الاصطناعي بتفويض واسع يغطي جميع الذكاء الاصطناعي المستخدم في أنظمة الأمن القومي. وهذا يتوافق مع نطاق الأنظمة المستبعدة صراحةً من قواعد مكتب الإدارة والميزانية فيما يتعلق بالذكاء الاصطناعي المؤثر على الحقوق، والتي بالتالي هي في أمس الحاجة إلى الرقابة. كما أنه يوازي سلطة PCLOB. يغطي المجلس جميع برامج مكافحة الإرهاب باستثناء العمليات السرية ولا يميز بين المحلية والدولية أو العسكرية والمدنية، على الرغم من أنه في الواقع ركز في المقام الأول على الجهود الاستخباراتية التي لها آثار خطيرة على الناس في الولايات المتحدة.
إن PCLOB مكلف بالموازنة بين الحاجة إلى برامج مكافحة الإرهاب والحاجة إلى حماية الخصوصية والحريات المدنية. ويبدو أن هذه كانت صياغة عملية. فيما يتعلق ببرنامج سجلات المكالمات القسم 215 والاستفسارات الشخصية الأمريكية بموجب القسم 702، ساهمت PCLOB بشكل كبير في الفهم العام ومناقشات الإصلاح من خلال توفير الشفافية حول كيفية عمل هذه البرامج، وتقييمات فعاليتها بناءً على المعلومات التي تحتفظ بها الوكالات، وتوصيات الإصلاح. للتخفيف من آثار الخصوصية والحريات المدنية. وهذا لا يعني أن مجلس PCLOB كان يلبي التوقعات دائمًا (انظر على سبيل المثال الانتقادات الموجهة لتقريره الضعيف بشأن الأمر التنفيذي رقم 12333)، ولكنه عمل بشكل عام على تعزيز الشفافية وإصلاح البرامج الحكومية المبهمة.
سواء كانت وكالة الرقابة هي PCLOB أو هيئة جديدة، فإننا نوصي بأن تشمل ولايتها ما يلي:
أولاً، يجب أن تتضمن ولاية هيئة الرقابة على الذكاء الاصطناعي بشكل واضح حماية الحقوق المدنية. وسيكون هذا متسقًا مع الأمر التنفيذي رقم 14110 الصادر عن الرئيس بشأن الذكاء الاصطناعي وتوجيهات مكتب الإدارة والميزانية، وكلاهما يعترف بمخاوف جدية بشأن التمييز والتحيز الخوارزمي.
ثانيًا، يجب أن يوضح التفويض أن هيئة الرقابة على الذكاء الاصطناعي مكلفة بمراجعة دورة حياة الذكاء الاصطناعي الكاملة، بما في ذلك القرار الأولي لنشر نظام الذكاء الاصطناعي، وأي تقييمات للأثر وعمليات تدقيق تم إجراؤها. كما تم التأكيد عليه في كل من إرشادات مكتب الإدارة والميزانية وإطار إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا، فإن تحديد مخاطر وآثار الذكاء الاصطناعي وإدارتها بشكل مناسب يتطلب تقييمات مستمرة طوال دورة حياة نظام الذكاء الاصطناعي – بدءًا من التخطيط والتطوير وحتى النشر والاستخدام، بما في ذلك التغييرات في الأنظمة. أو شروط استخدامها بعد النشر.
ثالثًا، يجب أن ينص التفويض صراحةً على أنه إذا قررت هيئة الرقابة على الذكاء الاصطناعي أن الحاجة إلى نظام للأمن القومي للذكاء الاصطناعي لا تفوق بشكل ملموس المخاطر التي تهدد الخصوصية والحقوق المدنية والحريات المدنية، فقد توصي الوكالات بالتوقف عن استخدام هذا النظام. وتنص مذكرة مكتب الإدارة والميزانية على وضع حد لاستخدام الأنظمة أو الأدوات القائمة على الذكاء الاصطناعي في هذه الظروف، وقد قدمت PCLOB سابقًا مثل هذه التوصيات لبرامج مكافحة الإرهاب.
بالإضافة إلى مراجعة أنظمة الأمن القومي، ينبغي تكليف هيئة الإشراف على الذكاء الاصطناعي بضمان مراعاة المخاوف المتعلقة بالخصوصية والحقوق المدنية والحريات المدنية بشكل مناسب عند تطوير وتنفيذ القوانين واللوائح والسياسات المتعلقة بأنظمة الأمن القومي للذكاء الاصطناعي. (لدى PCLOB هذا النوع من السلطة الاستشارية لأنشطة مكافحة الإرهاب). وبينما يدرس الكونجرس كيفية تنظيم الذكاء الاصطناعي وتتحرك الوكالات بسرعة لدمجه في وظائفها، فإن المشورة المقدمة من هيئة الرقابة على الذكاء الاصطناعي قبل إطلاق النظام يمكن أن تساعد في ضمان دمج الضمانات في وظائفها. النظام منذ البداية .

القيادة والموارد

يجب أن تتمتع هيئة الرقابة على الذكاء الاصطناعي بالقيادة والخبرة والموارد اللازمة لتنفيذ مهامها بفعالية وسرعة.
توفر مؤهلات أعضاء PCLOB معايير أساسية للتعيينات في هيئة الرقابة على الذكاء الاصطناعي. ويتم تعيين أعضاء مجلس الإدارة “فقط على أساس مؤهلاتهم المهنية، وإنجازاتهم، ومكانتهم العامة، وخبرتهم في مجال الحريات المدنية والخصوصية، والخبرة ذات الصلة”. بالنسبة لهيئة الإشراف على الذكاء الاصطناعي، يجب أن تشمل المؤهلات أيضًا الخبرة في علوم الكمبيوتر والتعلم الآلي، وكذلك في التحقيق في تأثير أنظمة الذكاء الاصطناعي. من المفترض أن يتم اختيار الأعضاء “بغض النظر عن انتمائهم السياسي” على الرغم من أنه لا يمكن أن يكون أكثر من ثلاثة أعضاء في مجلس الإدارة “أعضاء في نفس الحزب السياسي”.
لمواكبة التقنيات المتطورة، نوصي بتفويض هيئة الرقابة على الذكاء الاصطناعي بشكل صريح لإنشاء لجنة من الخبراء الفنيين الخارجيين لتقديم المشورة للأعضاء والموظفين.
ويبدو أن المدة الحالية البالغة ست سنوات لأعضاء PCLOB مع إمكانية إعادة التعيين مناسبة لهيئة الرقابة على الذكاء الاصطناعي أيضًا؛ تسمح مدة الخدمة الطويلة لأعضاء مجلس الإدارة باكتساب الخبرة والعمل على القضايا المعقدة. ولكن ينبغي لجميع أعضاء هيئة الرقابة على الذكاء الاصطناعي أن يشاركوا على أساس التفرغ. سيؤدي ذلك إلى تحسين هيكل PCLOB، حيث يعمل أعضاء مجلس الإدارة، باستثناء الرئيس، على أساس عدم التفرغ، ويتقاضون أجورهم مقابل كل يوم يشاركون فيه في واجبات PCLOB ويكون عددهم محدودًا في عدد الأيام التي يمكنهم فيها أداء عمل مجلس الإدارة في السنة. . ربما يكون هذا قد ساهم في معدل دوران كبير في PCLOB (عضو واحد فقط خدم لمدة ست سنوات كاملة، وأغلبهم خدم حوالي ثلاث سنوات، وكان مجلس الإدارة في كثير من الأحيان دون نصاب قانوني).

ومن المحتمل أيضًا أن يكون هذا الهيكل قد ساهم في بطء وتيرة عمله المذكورة أعلاه.

يجب أن يكون لدى الهيئة عدد كافٍ من الموظفين بدوام كامل يتمتعون بالمهارات والمعرفة والتدريب والخبرة المطلوبة لأداء مسؤولياتهم الرقابية، بما في ذلك الخبرة الفنية ذات الصلة (بما في ذلك أنظمة التدقيق) والخبرة في الخصوصية والحقوق المدنية والحريات المدنية. تعاني PCLOB من نقص شديد في الموارد، حيث تبلغ ميزانية عام 2023 12.3 مليون دولار فقط و25 موظفًا مخصصين للإشراف على مشروع مكافحة الإرهاب الأمريكي بأكمله، والذي تضمن إنفاقًا يقدر بحوالي 175 مليار دولار في عام 2018. وتتضاءل ميزانية PCLOB مقارنة بميزانيات هيئات الرقابة. مثل مكتب المفتش العام التابع لوزارة الأمن الوطني (214.9 مليون دولار) ومكتب المفتش العام التابع لوزارة العدل (149 مليون دولار). وفي حين تشرف هذه المكاتب على مجموعة واسعة من القضايا – وإن كان ذلك داخل وكالة واحدة – فإن نطاق إشراف السلطة عبر السلطة التنفيذية ونية الإدارة لمواصلة دمج الذكاء الاصطناعي المعقد تقنيًا في العمليات الاستخباراتية والعسكرية يستدعي ميزانية كبيرة. في الوقت الحاضر، تتمتع وكالات الاستخبارات التي ستكون محور تركيز كبير لهيئة الرقابة على الذكاء الاصطناعي بميزانية تزيد على 70 مليار دولار، وقد تضاعف الإنفاق الدفاعي على الذكاء الاصطناعي ثلاث مرات تقريبًا من عام 2022 إلى عام 2023، ومن المؤكد أن يتضخم أكثر.
ويجب على الكونجرس أيضًا معالجة الفجوة في الرواتب التي منعت العديد من الوكالات الفيدرالية من توظيف موظفين ذوي خبرة فنية. وجه الأمر التنفيذي بشأن الذكاء الاصطناعي مكتب إدارة شؤون الموظفين لمساعدة الوكالات في الحصول على خبراء في مجال الذكاء الاصطناعي من خلال استخدام مرونة الأجور والمزايا ومعدلات الرواتب الخاصة لتقديم رواتب تنافسية. وباستخدام هذه المرونة، أعلنت وزارة الأمن الوطني مؤخراً أنها ستوظف “فيلق الذكاء الاصطناعي” المكون من 50 شخصاً. وينبغي أن يكون هذا النوع من مرونة الرواتب متاحًا أيضًا لهيئة الرقابة على الذكاء الاصطناعي.

الدخول الى المعلومات

سيكون الوصول إلى المعلومات أمرًا بالغ الأهمية لنجاح هيئة الرقابة على الذكاء الاصطناعي. توفر PCLOB نموذجًا عمليًا: عندما يجد مجلس الإدارة أنه من الضروري القيام بمسؤولياته، يكون لديه حق الوصول إلى المستندات وموظفي الوكالات الفيدرالية، بما في ذلك المعلومات السرية، مع إمكانية رفع المشكلات إلى رئيس الوكالة. في حين أن تعريف المستندات التي يمكن لـ PCLOB الوصول إليها يعد موسعًا، بالنسبة لهيئة الرقابة على الذكاء الاصطناعي، يجب على الكونجرس أن يوضح – كما يفكر في القيام به في عام 2021 – أنه يجب توفير معلومات إضافية تتعلق بالبيانات الأساسية وعمليات التدريب والاختبار والنماذج. . يمكن لـ PCLOB أيضًا الحصول على أمر استدعاء (عن طريق المدعي العام) للحصول على مستندات ومعلومات من أشخاص خارج السلطة التنفيذية. سيكون هذا مهمًا بشكل خاص لهيئة الرقابة على الذكاء الاصطناعي نظرًا لأن المعلومات المهمة ذات الصلة قد تحتفظ بها أطراف ثالثة تقوم بتصميم أنظمة الذكاء الاصطناعي وتطويرها. ومن الجدير بالذكر أن PCLOB لم تعرب عن أي مشاكل تتعلق بالوصول إلى المعلومات في تقاريرها، على الرغم من أن هيئات الرقابة عادة ما تشارك في بعض المفاوضات في هذا الصدد.
تحتاج هيئات الرقابة الخارجية أيضًا إلى معلومات لتقرر أين يجب تركيز الاهتمام عندما تواجه وكالات وبرامج مترامية الأطراف. يمكن لمسؤولي الخصوصية والحريات المدنية في الوكالات المساعدة؛ فهم مطالبون، على سبيل المثال، بتقديم تقارير نصف سنوية إلى PCLOB. ومع ذلك، من المرجح أن يختلف مدى حصول هذه المكاتب على معلومات حول أنظمة الأمن القومي للذكاء الاصطناعي. لذلك نوصي بأن يطلب الكونجرس أيضًا من كل رئيس وكالة تعيين مسؤول كبير لتزويد سلطة الإشراف على الذكاء الاصطناعي بإشعار بأي نظام ذكاء اصطناعي قائم أو مقترح للأمن القومي. إذا أنشأ البيت الأبيض نظامًا للوكالات لجرد أنظمة الأمن القومي الخاصة بها والإبلاغ عنها إلى سلطة محددة كما أوصينا، فيجب إتاحة هذه الوثائق أيضًا لهيئة الرقابة على الذكاء الاصطناعي.

تعزيز الشفافية والمساءلة

يمكن لهيئة الرقابة على الذكاء الاصطناعي أيضًا أن تلعب دورًا مهمًا في تحقيق الشفافية وتعزيز ثقة الجمهور في استخدامات الأمن القومي للذكاء الاصطناعي. غالبًا ما لعبت PCLOB هذا الدور. على سبيل المثال، فقد لفتت انتباه الجمهور إلى معلومات مهمة حول برامج المراقبة القسم 215 والقسم 702. والمجلس مكلف بإتاحة تقاريره المقدمة إلى الكونجرس للجمهور “إلى أقصى حد يتوافق مع حماية المعلومات السرية والقانون المعمول به”. على الرغم من هذا التفويض القانوني، تعرضت PCLOB لانتقادات، بما في ذلك من قبل أحد أعضاء مجلس الإدارة، لفشلها في رفع السرية عن تقريرها حول برنامج XKeyscore التابع لوكالة الأمن القومي. لتعزيز الشفافية، نوصي بأن يُطلب من هيئة الرقابة على الذكاء الاصطناعي السعي لرفع السرية عن تقاريرها، بما في ذلك عن طريق طلب رفع السرية عن المعلومات للمصلحة العامة ورفع الحالات التي تعتبر فيها السلطة أن المعلومات سرية بشكل مفرط أو غير لائق مع الوكالات.
ختاماً
إن أنظمة الأمن القومي التي تستخدم الذكاء الاصطناعي هي ببساطة مخاطر كبيرة للغاية بالنسبة للشعب الأمريكي بحيث لا يمكن تركها لآليات الرقابة الداخلية غير الخاضعة للمساءلة والمبهمة. وللتخفيف من هذه المخاطر، يجب على الكونجرس إنشاء هيئة إشرافية للذكاء الاصطناعي تتمتع بالتفويض والموارد اللازمة للمساعدة في بناء ضمانات في هذه الأنظمة منذ البداية، لمراقبة عملها عن كثب، والتأكد من إبلاغ الجمهور وصانعي السياسات بمدى اتساع نطاقها. والاستخدام والتأثير.

……………………………………………………….

المصدر / موقع “. Just security”
الكاتبة / فايزة بطل Faiza Patel

عضو هيئة التحريربالموقع، وتعمل فايزة باتيل كمديرة أولى لبرنامج الحرية والأمن القومي في مركز برينان للعدالة في كلية الحقوق بجامعة نيويورك. وهي أيضًا عضو في الفريق العامل التابع لمجلس حقوق الإنسان التابع للأمم المتحدة المعني باستخدام المرتزقة.

في السابق، عملت فايزة كمسؤولة سياسات كبيرة في منظمة حظر الأسلحة الكيميائية، وموظفة في المحكمة الجنائية الدولية ليوغوسلافيا السابقة.

تم نشر أعمالها في منشورات أكاديمية رائدة، بما في ذلك المجلة الأمريكية للقانون الدولي، ومجلة إيموري للقانون الدولي، والمجلة الأوروبية للقانون الدولي، ومجلة جامعة نيويورك للقانون الدولي والسياسة.

فايزة هي معلقة متكررة على قضايا الأمن القومي لوسائل الإعلام مثل نيويورك تايمز، ولوس أنجلوس تايمز، والجارديان، وإم إس إن بي سي، والجزيرة، والإذاعة الوطنية العامة. ولدت ونشأت في باكستان، وتخرجت من كلية هارفارد وكلية الحقوق بجامعة نيويورك.

طالع المزيد:

عاطف عبد الغنى يكتب: « الذكاء الاصطناعى طلع صهيونى »

زر الذهاب إلى الأعلى