يقدم دليل مركز الدراسات الدولي إطارًا شاملاً مصممًا لسد الفجوة بين المبادئ رفيعة المستوى والسياسة العملية والقابلة للتنفيذ. فهو يستجيب للحاجة الملحة إلى فهم مشترك لكل من الفرص والمخاطر التي تمثلها التكنولوجيات الناشئة. هذه وثيقة أساسية للعاملين في مجال السياسات في عصرنا الرقمي سريع التغير.
يستكشف الإطار إمكانات الذكاء الاصطناعي ومشتقاته من خلال عدسة شاملة تشمل رفاهية الإنسان والمجتمع إلى جانب العوامل الخارجية مثل الاقتصاد والسياسة والبيئة والأمن. قد تكون بعض جوانب القائمة المرجعية أكثر أهمية من غيرها، اعتمادًا على السياق، ولكن من المرجح أن يتم اتخاذ قرارات أفضل إذا تم أخذ جميع المجالات في الاعتبار، حتى لو كان من الممكن تحديد بعضها بسرعة على أنها غير ذات صلة في حالات معينة. هذه هي القيمة المتأصلة لنهج القائمة المرجعية.
"في عصر يتسم بالابتكار التكنولوجي السريع والتحديات العالمية المعقدة، فإن إطار مركز الدراسات الدولي للتحليل الشامل والمتعدد الأبعاد للتأثيرات المحتملة يمكّن القادة من اتخاذ قرارات مستنيرة ومسؤولة. فهو يضمن أننا مع تقدمنا التكنولوجي، نفعل ذلك مع دراسة متأنية للآثار الأخلاقية والاجتماعية والاقتصادية.
بيتر جلوكمان ، رئيس مركز الدراسات الدولي
في حين تم إصدار مبادئ رفيعة المستوى من قبل اليونسكو ومنظمة التعاون والتنمية في الميدان الاقتصادي والمفوضية الأوروبية والأمم المتحدة، من بين آخرين، وما زالت المناقشات المختلفة مستمرة بشأن قضايا الحوكمة والتنظيم والأخلاق والسلامة المحتملة، إلا أن هناك فجوة كبيرة بين هذه المبادئ وبين الإطار الإداري أو التنظيمي. وتعالج لجنة الدراسات الدولية هذه الحاجة من خلال دليلها الجديد لصانعي السياسات.
لا يهدف هذا الدليل الموجه لصانعي السياسات إلى حظر وجود نظام تنظيمي، بل إلى اقتراح إطار تحليلي متكيف ومتطور يمكن أن يدعم أي تقييم وعمليات تنظيمية قد يطورها أصحاب المصلحة، بما في ذلك الحكومات والنظام المتعدد الأطراف.
"يعد الإطار خطوة حاسمة في المحادثة العالمية حول الذكاء الاصطناعي لأنه يوفر أساسًا يمكننا من خلاله بناء توافق في الآراء حول آثار التكنولوجيا في الحاضر والمستقبل".
هيما سريدهار، كبيرة المستشارين العلميين السابقة، وزارة الدفاع، نيوزيلندا، والآن زميلة أبحاث أولى، جامعة أوكلاند، نيوزيلندا.
منذ أكتوبر 2023، كانت هناك العديد من المبادرات الوطنية والمتعددة الأطراف المهمة مع مزيد من النظر في أخلاقيات الذكاء الاصطناعي وسلامته. إن آثار الذكاء الاصطناعي على سلامة بعض أنظمتنا الحيوية، بما في ذلك الأنظمة المالية والحكومية والقانونية والتعليمية، بالإضافة إلى أنظمة المعرفة المختلفة (بما في ذلك المعرفة العلمية والمحلية)، تثير قلقًا متزايدًا. ويعكس الإطار هذه الجوانب كذلك.
وتنعكس التعليقات التي وردت من أعضاء اللجنة الدائمة والمجتمع الدولي لصانعي السياسات حتى الآن في النسخة المنقحة من الإطار التحليلي، الذي صدر الآن كدليل لصانعي السياسات.
دليل لصانعي السياسات: تقييم التقنيات سريعة التطور بما في ذلك الذكاء الاصطناعي ونماذج اللغات الكبيرة وما بعدها
توفر ورقة المناقشة هذه الخطوط العريضة لإطار أولي لإثراء المناقشات العالمية والوطنية المتعددة الجارية فيما يتعلق بالذكاء الاصطناعي.
قم بتنزيل الإطار لاستخدامه في مؤسستك
نقدم هنا أداة إطار العمل كورقة Excel قابلة للتحرير لاستخدامها في مؤسستك. إذا كنت تفضل صيغة مفتوحة المصدر، يرجى الاتصال [البريد الإلكتروني محمي].
المُقدّمة
تمثل التقنيات الناشئة بسرعة قضايا صعبة عندما يتعلق الأمر باستخدامها وإدارتها وتنظيمها المحتمل. وقد أدت السياسات الجارية والمناقشات العامة حول الذكاء الاصطناعي واستخدامه إلى تسليط الضوء على هذه القضايا بشكل حاد. لقد تم الإعلان عن مبادئ واسعة للذكاء الاصطناعي من قبل اليونسكو ومنظمة التعاون الاقتصادي والتنمية والأمم المتحدة وغيرها، بما في ذلك إعلان بلتشلي في المملكة المتحدة، وهناك محاولات قضائية ناشئة لتنظيم جوانب التكنولوجيا من خلال الذكاء الاصطناعي في الاتحاد الأوروبي، على سبيل المثال. القانون أو الأمر التنفيذي الأخير لمنظمة العفو الدولية في الولايات المتحدة.
في حين تتم مناقشة استخدام الذكاء الاصطناعي باستفاضة في هذه المنتديات وغيرها، عبر الانقسامات الجيوسياسية وفي البلدان على جميع مستويات الدخل، لا تزال هناك فجوة وجودية بين تطوير مبادئ عالية المستوى ودمجها في الممارسة من خلال التنظيم أو السياسة أو الحوكمة. أو أساليب الإشراف. إن المسار من المبدأ إلى الممارسة غير محدد بشكل جيد، ولكن نظرا لطبيعة ووتيرة تطوير الذكاء الاصطناعي وتطبيقه، وتنوع الاهتمامات المعنية ومجموعة التطبيقات المحتملة، فإن أي نهج لا يمكن أن يكون عاما أو توجيهيا بشكل مفرط.
ولهذه الأسباب، يواصل المجتمع العلمي غير الحكومي لعب دور خاص. أصدر المجلس الدولي للعلوم (ISC) - بعضويته التعددية من العلوم الاجتماعية والطبيعية - ورقة مناقشة في أكتوبر 2023 تقدم إطارًا تحليليًا أوليًا يأخذ في الاعتبار المخاطر والفوائد والتهديدات والفرص المرتبطة بالتكنولوجيا الرقمية سريعة الحركة. على الرغم من أنه تم تطويره ليأخذ بعين الاعتبار الذكاء الاصطناعي، إلا أنه بطبيعته لا يعتمد على التكنولوجيا ويمكن تطبيقه على مجموعة من التقنيات الناشئة والمدمرة، مثل البيولوجيا التركيبية والكم. وقد دعت ورقة المناقشة هذه إلى تلقي تعليقات من الأكاديميين وصانعي السياسات. جعلت ردود الفعل الساحقة إجراء مثل هذا التحليل ضروريًا وشكل نهجًا قيمًا لمعالجة التقنيات الناشئة مثل الذكاء الاصطناعي.
والغرض من هذا الإطار هو توفير أداة لإبلاغ جميع أصحاب المصلحة - بما في ذلك الحكومات والمفاوضون التجاريون والهيئات التنظيمية والمجتمع المدني والصناعة - بتطور هذه التكنولوجيات لمساعدتهم على تحديد كيفية النظر في الآثار الإيجابية أو السلبية المترتبة على هذه التكنولوجيات. التكنولوجيا نفسها، وبشكل أكثر تحديدًا تطبيقها الخاص. وقد تم تطوير هذا الإطار التحليلي بشكل مستقل عن المصالح الحكومية والصناعية. إنها تعددية إلى أقصى حد في وجهات نظرها، حيث تشمل جميع جوانب التكنولوجيا وآثارها بناءً على مشاورات وملاحظات واسعة النطاق.
ولا تهدف ورقة المناقشة هذه الموجهة لصانعي السياسات إلى حظر وجود نظام تنظيمي، بل إلى اقتراح إطار تحليلي متكيف ومتطور يمكن أن يدعم أي تقييم وعمليات تنظيمية قد يطورها أصحاب المصلحة، بما في ذلك الحكومات والنظام المتعدد الأطراف.
وبينما يدرس صناع القرار على المستويين العالمي والوطني إعدادات السياسات والأدوات المناسبة لتحقيق التوازن بين مخاطر ومكافآت التكنولوجيا الجديدة مثل الذكاء الاصطناعي، فإن الهدف من الإطار التحليلي هو أن يكون أداة تكميلية لضمان عكس المجموعة الكاملة من الآثار المحتملة بشكل مناسب.
الخلفية: لماذا الإطار التحليلي؟
إن الظهور السريع للتكنولوجيات ذات التعقيد والآثار المترتبة على الذكاء الاصطناعي يدفع العديد من المطالبات ذات الفائدة الكبيرة. ومع ذلك، فإنه يثير أيضًا مخاوف من مخاطر كبيرة، من المستوى الفردي إلى المستوى الجيوستراتيجي.1 لقد تم النظر في الكثير من المناقشات حتى الآن بالمعنى الثنائي حيث أن الآراء المعبر عنها علنًا تميل إلى الحدوث في أقصى أطراف الطيف. غالبًا ما تكون الادعاءات المقدمة لصالح أو ضد الذكاء الاصطناعي مبالغ فيها، ونظرًا لطبيعة التكنولوجيا، يصعب تقييمها.
من الضروري اتباع نهج أكثر واقعية حيث يتم استبدال المبالغة بتقييمات معايرة وأكثر تفصيلاً. ستستمر تكنولوجيا الذكاء الاصطناعي في التطور، ويظهر التاريخ أن كل تقنية تقريبًا لها استخدامات مفيدة وضارة. والسؤال إذن هو: كيف يمكننا تحقيق النتائج المفيدة من هذه التكنولوجيا، مع تقليل مخاطر العواقب الضارة، والتي قد يكون بعضها وجوديا في حجمها؟
إن المستقبل غير مؤكد دائمًا، ولكن هناك ما يكفي من الأصوات الموثوقة والخبراء فيما يتعلق بالذكاء الاصطناعي والذكاء الاصطناعي التوليدي لتشجيع اتباع نهج احترازي نسبيًا. بالإضافة إلى ذلك، يعد اتباع نهج الأنظمة ضروريًا لأن الذكاء الاصطناعي هو فئة من التقنيات ذات الاستخدام والتطبيق على نطاق واسع من قبل أنواع متعددة من المستخدمين. وهذا يعني أنه يجب أخذ السياق الكامل في الاعتبار عند النظر في الآثار المترتبة على أي استخدام للذكاء الاصطناعي على الأفراد والحياة الاجتماعية والحياة المدنية والحياة المجتمعية وفي السياق العالمي.
على عكس معظم التقنيات الأخرى، بالنسبة للتكنولوجيات الرقمية والتكنولوجيات ذات الصلة، فإن الوقت بين التطوير والإصدار والتطبيق قصير للغاية، ويعود ذلك إلى حد كبير إلى مصالح شركات الإنتاج أو الوكالات. بحكم طبيعته ــ ونظرا لاستناده إلى العمود الفقري الرقمي ــ سيكون للذكاء الاصطناعي تطبيقات سريعة الانتشار، كما رأينا بالفعل مع تطور نماذج اللغات الكبيرة. ونتيجة لذلك، قد لا تظهر بعض الخصائص إلا بعد إطلاق سراحها، مما يعني أن هناك خطر حدوث عواقب غير متوقعة، سواء كانت خبيثة أو خيرية.
سوف تؤثر أبعاد القيم المجتمعية الهامة، خاصة عبر المناطق والثقافات المختلفة، على كيفية إدراك وقبول أي استخدام. علاوة على ذلك، تهيمن المصالح الجيواستراتيجية بالفعل على المناقشة، حيث تتقاطع المصالح السيادية والمتعددة الأطراف بشكل مستمر، مما يؤدي بالتالي إلى المنافسة والانقسام.
حتى الآن، تم النظر إلى الكثير من تنظيم التكنولوجيا الافتراضية إلى حد كبير من خلال عدسة "المبادئ" والامتثال الطوعي، على الرغم من أن قانون الاتحاد الأوروبي للذكاء الاصطناعي2 وعلى نحو مماثل، نشهد تحولًا إلى لوائح أكثر قابلية للتنفيذ ولكنها ضيقة إلى حد ما. لا يزال إنشاء نظام فعال لإدارة التكنولوجيا و/أو النظام التنظيمي على المستوى العالمي أو الوطني يمثل تحديًا ولا يوجد حل واضح. وستكون هناك حاجة إلى طبقات متعددة من عملية صنع القرار المستنيرة بالمخاطر على طول السلسلة، من المخترع إلى المنتج، إلى المستخدم، إلى الحكومة، وإلى النظام المتعدد الأطراف.
في حين تم إصدار مبادئ رفيعة المستوى من قبل اليونسكو ومنظمة التعاون الاقتصادي والتنمية والمفوضية الأوروبية والأمم المتحدة، من بين آخرين، وما زالت المناقشات رفيعة المستوى مستمرة بشأن قضايا الإدارة والتنظيم والأخلاق والسلامة المحتملة، إلا أن هناك فجوة كبيرة بين هذه المبادئ. المبادئ والإطار الإداري أو التنظيمي. هذا يحتاج إلى معالجة.
وكنقطة انطلاق، تدرس لجنة الدراسات الدولية تطوير تصنيف للاعتبارات التي يمكن لأي مطور أو منظم أو مستشار سياسات أو مستهلك أو صانع قرار الرجوع إليها. ونظرًا للآثار الواسعة النطاق لهذه التقنيات، فإن مثل هذا التصنيف يجب أن يأخذ في الاعتبار مجمل الآثار بدلاً من إطار ضيق التركيز. يتزايد التشرذم العالمي بسبب تأثير المصالح الجيواستراتيجية على عملية صنع القرار، ونظرًا للحاجة الملحة لهذه التكنولوجيا، فمن الضروري أن تدافع الأصوات المستقلة والمحايدة باستمرار عن نهج موحد وشامل.
1) هندوستان تايمز. 2023. يجب على مجموعة العشرين إنشاء لجنة دولية معنية بالتغير التكنولوجي.
https://www.hindustantimes.com/opinion/g20-must-set-up-an-international-panel-on-technological-change-101679237287848.html
2) قانون الاتحاد الأوروبي للذكاء الاصطناعي. 2023. https://artificialintelligenceact.eu
تطوير الإطار التحليلي
مركز الدراسات الدولي هو المنظمة العالمية غير الحكومية الرئيسية التي تدمج العلوم الطبيعية والاجتماعية. إن نطاقها العالمي والتخصصي يعني أنها في وضع جيد يمكنها من تقديم مشورة مستقلة وذات صلة عالميًا لتوجيه الخيارات المعقدة المقبلة، خاصة وأن الأصوات الحالية في هذا المجال تأتي إلى حد كبير من الصناعة أو من المجتمعات السياسية والسياسية للقوى التكنولوجية الكبرى.
وبعد فترة من المناقشة المستفيضة، والتي شملت النظر في عملية تقييم غير حكومية، خلصت لجنة الدعم الدولية إلى أن مساهمتها الأكثر فائدة هي إنتاج إطار تحليلي تكيفي يمكن استخدامه كأساس للخطاب وصنع القرار من قبل الجميع. أصحاب المصلحة، بما في ذلك خلال أي عمليات تقييم رسمية تظهر.
وقد اتخذ الإطار التحليلي الأولي، الذي تم إصداره للمناقشة وإبداء التعليقات في أكتوبر 2023، شكل قائمة مرجعية شاملة مصممة للاستخدام من قبل المؤسسات الحكومية وغير الحكومية. حدد الإطار واستكشف إمكانات تكنولوجيا مثل الذكاء الاصطناعي ومشتقاته من خلال عدسة واسعة تشمل رفاهية الإنسان والمجتمع، بالإضافة إلى العوامل الخارجية مثل الاقتصاد والسياسة والبيئة والأمن. قد تكون بعض جوانب القائمة المرجعية أكثر أهمية من غيرها، اعتمادًا على السياق، ولكن من المرجح أن يتم اتخاذ قرارات أفضل إذا تم أخذ جميع المجالات في الاعتبار، حتى لو كان من الممكن تحديد بعضها بسرعة على أنها غير ذات صلة في حالات معينة. هذه هي القيمة المتأصلة لنهج القائمة المرجعية.
تم استخلاص الإطار الأولي من العمل والتفكير السابقين، بما في ذلك تقرير الشبكة الدولية للمشورة العلمية الحكومية (INGSA) حول الرفاهية الرقمية وإطار منظمة التعاون الاقتصادي والتنمية لتصنيف أنظمة الذكاء الاصطناعي،3 لعرض مجمل الفرص والمخاطر والآثار المحتملة من الذكاء الاصطناعي. كانت هذه المنتجات السابقة أكثر تقييدًا في غرضها نظرًا لوقتها وسياقها؛ هناك حاجة إلى إطار شامل يعرض مجموعة كاملة من القضايا على المدى القصير والطويل.
منذ إصدارها، تلقت ورقة المناقشة دعمًا كبيرًا من العديد من الخبراء وصانعي السياسات. وقد أيد الكثيرون على وجه التحديد التوصية الخاصة بوضع إطار تكيفي يسمح بالنظر المتعمد والاستباقي في مخاطر التكنولوجيا وآثارها، وبذلك، يأخذ في الاعتبار دائمًا مجمل الأبعاد من الفرد إلى المجتمع والأنظمة.
وكانت إحدى الملاحظات الرئيسية التي تم تقديمها من خلال التعليقات هي الاعتراف بأن العديد من الآثار التي تم النظر فيها في الإطار متعددة الأوجه بطبيعتها وتمتد عبر فئات متعددة. على سبيل المثال، يمكن النظر إلى المعلومات المضللة من المنظور الفردي والجيوستراتيجي؛ وبالتالي فإن العواقب ستكون واسعة النطاق.
كما تم اقتراح خيار إدراج دراسات حالة أو نماذج لاختبار الإطار. ويمكن استخدام ذلك لوضع مبادئ توجيهية لتوضيح كيفية استخدامه عمليا في سياقات مختلفة. ومع ذلك، سيكون هذا بمثابة مهمة كبيرة وقد يحد من كيفية إدراك المجموعات المختلفة لاستخدام هذا الإطار. ومن الأفضل أن يقوم بذلك واضعو السياسات الذين يعملون مع خبراء في ولايات قضائية أو سياقات محددة.
منذ أكتوبر 2023، كانت هناك العديد من المبادرات الوطنية والمتعددة الأطراف المهمة مع مزيد من النظر في أخلاقيات الذكاء الاصطناعي وسلامته. إن آثار الذكاء الاصطناعي على سلامة بعض أنظمتنا الحيوية، بما في ذلك الأنظمة المالية والحكومية والقانونية والتعليمية، بالإضافة إلى أنظمة المعرفة المختلفة (بما في ذلك المعرفة العلمية والمحلية)، تثير قلقًا متزايدًا. ويعكس الإطار المنقح هذه الجوانب كذلك.
وتنعكس التعليقات الواردة حتى الآن في النسخة المنقحة من الإطار التحليلي، الذي صدر الآن كدليل لصانعي السياسات.
في حين يتم تقديم الإطار في سياق الذكاء الاصطناعي والتقنيات ذات الصلة، فإنه قابل للتحويل على الفور إلى اعتبارات التقنيات الأخرى الناشئة بسرعة مثل البيولوجيا الكمومية والتركيبية.
3) Gluckman, P. and Allen, K. 2018. فهم الرفاهية في سياق التحولات الرقمية السريعة والتحولات المرتبطة بها. INGSA.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
4) منظمة التعاون الاقتصادي والتنمية. 2022. إطار منظمة التعاون الاقتصادي والتنمية لتصنيف أنظمة الذكاء الاصطناعي. أوراق الاقتصاد الرقمي لمنظمة التعاون الاقتصادي والتنمية، رقم 323#. باريس، منشورات منظمة التعاون الاقتصادي والتنمية.
https://oecd.ai/en/classificatio
إطار العمل
يعرض الجدول التالي أبعاد الإطار التحليلي المفترض. يتم تقديم أمثلة لتوضيح سبب أهمية كل مجال؛ وفي السياق، سيتطلب الإطار توسيعًا ملائمًا للسياق. من المهم أيضًا التمييز بين المشكلات العامة التي تنشأ أثناء تطوير النظام الأساسي وتلك التي قد تظهر أثناء تطبيقات معينة. ولا ينبغي التعامل مع أي اعتبار واحد مدرج هنا كأولوية، وعلى هذا النحو، ينبغي فحص كل الاعتبارات.
يتم تجميع القضايا على نطاق واسع في الفئات التالية على النحو المبين أدناه:
يوضح الجدول الأبعاد التي قد يلزم أخذها في الاعتبار عند تقييم تقنية جديدة.
🔴إنغسا. 2018. فهم الرفاهية في سياق التحولات الرقمية السريعة والتحولات المرتبطة بها.
https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
🟢 أوصاف جديدة (يتم الحصول عليها من خلال الاستشارات الشاملة والتعليقات ومراجعة الأدبيات)
🟡 إطار منظمة التعاون الاقتصادي والتنمية لتصنيف أنظمة الذكاء الاصطناعي: أداة لسياسات الذكاء الاصطناعي الفعالة.
https://oecd.ai/en/classification
المعايير | أمثلة على كيفية انعكاس ذلك في التحليل |
🟡 كفاءة الذكاء الاصطناعي للمستخدمين | ما مدى كفاءة ودراية المستخدمين المحتملين بخصائص النظام والذين سيتفاعلون مع النظام؟ كيف سيتم تزويدهم بمعلومات المستخدم والتحذيرات ذات الصلة؟ |
🟡 صاحب المصلحة المتأثر | من هم أصحاب المصلحة الرئيسيون الذين سيتأثرون بالنظام (الأفراد، المجتمعات، الضعفاء، العاملون في القطاعات، الأطفال، صناع السياسات، المهنيون، إلخ)؟ |
🟡 الاختيارية | هل يتم منح المستخدمين الفرصة لإلغاء الاشتراك في النظام أم يتم منحهم فرصًا للطعن في المخرجات أو تصحيحها؟ |
🟡المخاطر التي تهدد حقوق الإنسان والقيم الديمقراطية | هل يؤثر النظام بشكل أساسي على حقوق الإنسان، بما في ذلك على سبيل المثال لا الحصر، الخصوصية وحرية التعبير والإنصاف وعدم التمييز وما إلى ذلك؟ |
🟡التأثيرات المحتملة على رفاهية الناس | هل تتعلق مجالات تأثير النظام برفاهية المستخدم الفردي (جودة الوظيفة، التعليم، التفاعلات الاجتماعية، الصحة العقلية، الهوية، البيئة وما إلى ذلك)؟ |
🟡 احتمالية نزوح العمالة البشرية | هل هناك إمكانية للنظام لأتمتة المهام أو الوظائف التي كان ينفذها البشر؟ وإذا كان الأمر كذلك، فما هي العواقب المترتبة على ذلك؟ |
🟡 احتمالية التلاعب بالهوية أو القيم أو المعرفة | هل النظام مصمم أو من المحتمل أن يكون قادرًا على التعامل مع هوية المستخدم أو ضبط القيم أم نشر المعلومات المضللة؟ |
🔴 فرص للتعبير عن الذات وتحقيق الذات | هل هناك احتمال للخداع والشك في الذات؟ هل هناك احتمال كاذبة أو ادعاءات لا يمكن التحقق منها من الخبرة؟ |
🔴 مقاييس قيمة الذات | هل هناك ضغط لتصوير الذات المثالية؟ هل يمكن للأتمتة أن تحل محل الشعور؟ من تحقيق الشخصية؟ هل هناك ضغوط لمنافسة النظام في مكان العمل؟ هل من الصعب حماية السمعة الفردية من المعلومات المضللة؟ |
🔴 الخصوصية | هل هناك مسؤوليات متناثرة لحماية الخصوصية، وهل هناك أي مسؤوليات الافتراضات التي يتم وضعها حول كيفية استخدام البيانات الشخصية؟ |
🔴 الحكم الذاتي | هل يمكن لنظام الذكاء الاصطناعي أن يؤثر على استقلالية الإنسان من خلال توليد الاعتماد المفرط عليه؟ المستخدمين النهائيين؟ |
🔴 التنمية البشرية | هل هناك تأثير على اكتساب المهارات الأساسية للتنمية البشرية مثل الوظائف التنفيذية أو مهارات التعامل مع الآخرين، أو التغيرات في وقت الاهتمام التي تؤثر التعلم وتنمية الشخصية ومخاوف الصحة العقلية وما إلى ذلك؟ |
🔴الرعاية الصحية الشخصية | هل هناك ادعاءات بالتشخيص الذاتي أو حلول الرعاية الصحية الشخصية؟ لو ذلك، هل تم التحقق من صحتها وفقًا للمعايير التنظيمية؟ |
🔴الصحة النفسية | هل هناك خطر لزيادة القلق أو الشعور بالوحدة أو مشاكل الصحة العقلية الأخرى، أو هل يمكن للتكنولوجيا أن تخفف من هذه التأثيرات؟ |
🟢 تطور الإنسان | هل يمكن لنماذج اللغة الكبيرة والذكاء العام الاصطناعي أن يغيرا الواقع؟ مسار تطور الإنسان؟ |
🟢 التفاعل بين الإنسان والآلة | هل يمكن أن يؤدي الاستخدام إلى فقدان المهارات والاعتماد على الأفراد بمرور الوقت؟ نكون هناك آثار على التفاعل البشري؟ |
المعايير | أمثلة على كيفية انعكاس ذلك في التحليل |
🔴 القيم المجتمعية | هل يغير النظام طبيعة المجتمع بشكل جذري، أو يتيح تطبيع الأفكار التي كانت تعتبر في السابق معادية للمجتمع، أو ينتهك القيم المجتمعية للثقافة التي يتم تطبيقه فيها؟ |
🔴 التفاعلات الاجتماعية | هل هناك تأثير على الاتصال الإنساني الهادف، بما في ذلك العلاقات العاطفية؟ |
🔴 صحة السكان | هل هناك إمكانية للنظام لتعزيز أو تقويض نوايا صحة السكان؟ |
🔴 التعبير الثقافي | هل من المحتمل أو يصعب معالجة الزيادة في الاستيلاء الثقافي أو التمييز؟ هل الاعتماد على نظام اتخاذ القرار يستبعد أو يهمش الروابط الفئوية ذات الصلة ثقافيا في المجتمع؟ |
🔴 التعليم العمومي | هل هناك تأثير على أدوار المعلم أو المؤسسات التعليمية؟ هل يؤكد النظام على الفجوة الرقمية وعدم المساواة بين الطلاب أو يقلل منها؟ هل القيمة الجوهرية للمعرفة أو الفهم النقدي متقدمة أم مقوضة؟ |
🟢 حقائق مشوهة | هل لا تزال الأساليب المستخدمة لتمييز ما هو حقيقي قابلة للتطبيق؟ هل تصور الواقع معرض للخطر؟ |
المعايير | أمثلة على كيفية انعكاس ذلك في التحليل |
🟡 القطاع الصناعي | في أي قطاع صناعي يتم نشر النظام (المالية، الزراعة، الرعاية الصحية، التعليم، الدفاع، إلخ)؟ |
🟡 نموذج العمل | في أي وظيفة عمل يتم استخدام النظام وبأي صفة؟ أين يتم استخدام النظام (خاص، عام، غير ربحي)؟ |
🟡 التأثيرات على الأنشطة الحرجة | هل سيؤثر تعطيل وظيفة النظام أو نشاطه على الخدمات الأساسية أو البنى التحتية الحيوية؟ |
🟡 اتساع نطاق النشر | كيف يتم نشر النظام (الاستخدام الضيق داخل الوحدة مقابل الاستخدام الواسع النطاق على المستوى الوطني/الدولي)؟ |
🟡 النضج الفني | ما مدى نضج النظام من الناحية الفنية؟ |
🟢 إمكانية التشغيل البيني | هل من المحتمل أن تكون هناك صوامع، على المستوى الوطني أو العالمي، تمنع التجارة الحرة وتؤثر على التعاون مع الشركاء؟ |
🟢 السيادة التكنولوجية | هل الرغبة في السيادة التكنولوجية هي التي تقود السلوكيات، بما في ذلك السيطرة على سلسلة توريد الذكاء الاصطناعي بأكملها؟ |
🔴إعادة توزيع الدخل والروافع المالية الوطنية | هل يمكن المساس بالأدوار الأساسية للدولة ذات السيادة (على سبيل المثال، البنوك الاحتياطية)؟ فهل ستتقدم أم ستتقلص قدرة الدولة على تلبية توقعات المواطنين وانعكاساتها (الاجتماعية والاقتصادية والسياسية وغيرها)؟ |
🟢 الفجوة الرقمية (تقسيم الذكاء الاصطناعي) | هل تتفاقم أوجه عدم المساواة الرقمية الحالية أم تنشأ حالات جديدة؟ |
المعايير | أمثلة على كيفية انعكاس ذلك في التحليل |
🔴الحكم والخدمة العامة | وهل يمكن أن تتأثر آليات الحوكمة ونظام الحوكمة العالمي إيجاباً أم سلباً؟ |
🔴 وسائل الإعلام الإخبارية | هل من المحتمل أن يصبح الخطاب العام مستقطبًا وراسخًا على مستوى السكان؟ فهل سيكون هناك تأثير على مستويات الثقة في السلطة الرابعة؟ فهل ستتأثر أخلاقيات الصحافيين التقليدية ومعايير النزاهة بشكل أكبر؟ |
🔴 سيادة القانون | هل سيكون هناك تأثير على القدرة على تحديد الأفراد أو المنظمات لمحاسبتهم (على سبيل المثال، ما نوع المساءلة التي سيتم تعيينها لخوارزمية للنتائج السلبية)؟ هل هناك فقدان للسيادة (البيئية والمالية والاجتماعية والأخلاقية وما إلى ذلك)؟ |
🔴السياسة والتماسك الاجتماعي | هل هناك إمكانية لوجهات نظر سياسية أكثر رسوخاً وفرص أقل لبناء الإجماع؟ هل هناك إمكانية لمزيد من تهميش الفئات؟ هل أصبحت الأساليب العدائية في السياسة أكثر أو أقل احتمالا؟ |
🟢 رخصة اجتماعية | هل هناك مخاوف تتعلق بالخصوصية، وقضايا ثقة، ومخاوف أخلاقية يجب أخذها في الاعتبار عند قبول أصحاب المصلحة للاستخدام؟ |
🟢 المعرفة الأصلية | هل يمكن إتلاف معارف وبيانات السكان الأصليين أو اختلاسها؟ هل هناك تدابير كافية للحماية من التحريف والمعلومات الخاطئة والاستغلال؟ |
🟢 النظام العلمي | هل النزاهة الأكاديمية والبحثية معرضة للخطر؟ هل هناك فقدان للثقة في العلم؟ هل هناك احتمالات لسوء الاستخدام أو الإفراط في الاستخدام أو سوء الاستخدام؟ ما هي نتيجة ممارسة العلم؟ |
المعايير | أمثلة على كيفية انعكاس ذلك في التحليل |
🟢 مراقبة دقيقة | هل الأنظمة مدربة على البيانات السلوكية والبيولوجية الفردية وهل يمكن استخدامها لاستغلال الأفراد أو المجموعات؟ |
🟢 المنافسة الرقمية | هل يمكن للجهات الفاعلة الحكومية أو غير الحكومية (مثل شركات التكنولوجيا الكبرى) تسخير الأنظمة والبيانات لفهم السكان والأنظمة البيئية في البلدان الأخرى والسيطرة عليها، أو تقويض السيطرة القضائية؟ |
🟢 المنافسة الجيوسياسية | هل يمكن للنظام إثارة المنافسة بين الدول حول تسخير البيانات الفردية والجماعية للمصالح الاقتصادية والطبية والأمنية؟ |
🟢 التحول في القوى العالمية | فهل أصبح وضع الدول القومية، باعتبارها الجهات الفاعلة الجيوسياسية الأساسية في العالم، مهدداً؟ فهل تتمتع شركات التكنولوجيا بالسلطة التي كانت في السابق حكراً على الدول القومية، وهل أصبحت جهات فاعلة مستقلة وذات سيادة (النظام العالمي التكنولوجي الناشئ)؟ |
🟢 معلومات مضللة | هل سيسهل النظام إنتاج ونشر المعلومات المضللة من قبل الجهات الحكومية وغير الحكومية بما يؤثر على التماسك الاجتماعي والثقة والديمقراطية؟ |
🟢 التطبيقات ذات الاستخدام المزدوج | هل هناك إمكانية للتطبيق العسكري وكذلك الاستخدام المدني؟ |
🟢 تفتيت النظام العالمي | هل يمكن أن تتطور صوامع أو مجموعات من التنظيم والامتثال بحيث تعيق التعاون وتؤدي إلى تناقضات في التطبيق وتخلق مجالاً للصراع؟ |
المعايير | أمثلة على كيفية انعكاس ذلك في التحليل |
🟢 استهلاك الطاقة والموارد (البصمة الكربونية) | هل يزيد النظام والمتطلبات من استهلاك الطاقة والموارد بالإضافة إلى مكاسب الكفاءة التي يتم الحصول عليها من خلال التطبيق؟ |
🟢 مصدر الطاقة | من أين يتم الحصول على الطاقة اللازمة للنظام (الوقود المتجدد مقابل الوقود الأحفوري وما إلى ذلك)؟ |
المعايير | أمثلة على كيفية انعكاس ذلك في التحليل |
🟡 التوجيه والتحصيل | هل يتم جمع البيانات والمدخلات بواسطة البشر أم بواسطة أجهزة الاستشعار الآلية أم كليهما؟ |
🟡 مصدر البيانات | هل البيانات والمدخلات المقدمة من الخبراء مقدمة أم تمت ملاحظتها أم أنها اصطناعية أم مشتقة؟ هل هناك حماية للعلامة المائية لتأكيد المصدر؟ |
🟡 الطبيعة الديناميكية للبيانات | هل البيانات ديناميكية أم ثابتة أم يتم تحديثها من وقت لآخر أم في الوقت الفعلي؟ |
🟡 الحقوق | هل البيانات ملكية أم عامة أم شخصية (تتعلق بأفراد يمكن تحديد هويتهم)؟ |
🟡 تحديد الهوية والبيانات الشخصية | إذا كانت شخصية، هل البيانات مجهولة المصدر أم مستعارة؟ |
🟡 بنية البيانات | هل البيانات منظمة أم شبه منظمة أم معقدة منظمة أم غير منظمة؟ |
🟡 تنسيق البيانات | هل تنسيق البيانات والبيانات الوصفية موحد أم غير موحد؟ |
🟡 مقياس البيانات | ما هو مقياس مجموعة البيانات؟ |
🟡 ملاءمة وجودة البيانات | هل مجموعة البيانات مناسبة للغرض؟ هل حجم العينة مناسب؟ هل هي ممثلة وكاملة بما فيه الكفاية؟ ما مدى ضجيج البيانات؟ هل هو عرضة للخطأ؟ |
المعايير | أمثلة على كيفية انعكاس ذلك في التحليل |
🟡 توفر المعلومات | هل تتوفر أي معلومات حول نموذج النظام؟ |
🟡 نوع نموذج الذكاء الاصطناعي | هل النموذج رمزي (قواعد من صنع الإنسان) أم إحصائي (بيانات الاستخدام) أم مختلط؟ |
🟡 الحقوق المرتبطة بالنموذج | هل النموذج مفتوح المصدر أم مملوك، أم تتم إدارته ذاتيًا أم بواسطة طرف ثالث؟ |
🟡 مفرد من موديلات متعددة | هل يتكون النظام من نموذج واحد أم عدة نماذج مترابطة؟ |
🟡 توليدية أو تمييزية | هل النموذج توليدي أم تمييزي أم كليهما؟ |
🟡 البناء النموذجي | هل يتعلم النظام بناءً على قواعد كتبها الإنسان، من البيانات، من خلال التعلم الخاضع للإشراف أو من خلال التعلم المعزز؟ |
🟡 تطور النموذج (انجراف الذكاء الاصطناعي) | هل يتطور النموذج و/أو يكتسب قدرات من التفاعل مع البيانات في الميدان؟ |
🟡 التعلم الموحد أو المركزي | هل تم تدريب النموذج مركزيًا أو في عدة خوادم محلية أو أجهزة "حافة"؟ |
🟡 التطوير/الصيانة | هل النموذج عالمي أم قابل للتخصيص أم مصمم خصيصًا لبيانات ممثل الذكاء الاصطناعي؟ |
🟡 حتمية أو احتمالية | هل النموذج مستخدم بطريقة حتمية أم احتمالية؟ |
🟡 الشفافية النموذجية | هل المعلومات متاحة للمستخدمين للسماح لهم بفهم مخرجات النموذج وقيوده أو قيود الاستخدام؟ |
🟢 القيد الحسابي | هل هناك قيود حسابية على النظام؟ هل من الممكن التنبؤ بقفزات القدرات أو قوانين القياس؟ |
المعايير | أمثلة على كيفية انعكاس ذلك في التحليل |
🟡 المهمة (المهام) التي يؤديها النظام | ما هي المهام التي يؤديها النظام (التعرف، والكشف عن الأحداث، والتنبؤ، وما إلى ذلك)؟ |
🟡 الجمع بين المهام والإجراءات | هل يجمع النظام بين عدة مهام وإجراءات (أنظمة توليد المحتوى، الأنظمة الذاتية، أنظمة التحكم، إلخ)؟ |
🟡 مستوى استقلالية النظام | ما مدى استقلالية تصرفات النظام وما هو الدور الذي يلعبه البشر؟ |
🟡 درجة المشاركة البشرية | هل هناك بعض المشاركة البشرية للإشراف على النشاط العام لنظام الذكاء الاصطناعي والقدرة على تحديد متى وكيف يتم استخدام نظام الذكاء الاصطناعي في أي موقف؟ |
🟡 التطبيق الأساسي | هل ينتمي النظام إلى مجال التطبيق الأساسي مثل تقنيات اللغة البشرية أو رؤية الكمبيوتر أو الأتمتة و/أو التحسين أو الروبوتات؟ |
🟡 التقييم | هل المعايير أو الأساليب المتاحة لتقييم مخرجات النظام؟ |
كيف يمكن استخدام هذا الإطار؟
ويمكن استخدام هذا الإطار بعدة طرق، بما في ذلك:
الطريق إلى الأمام
باختصار، يتم توفير الإطار التحليلي كأساس لمجموعة أدوات يمكن أن يستخدمها أصحاب المصلحة للنظر بشكل شامل في أي تطورات مهمة سواء في المنصات أو الاستخدام بطريقة متسقة ومنهجية. إن الأبعاد المعروضة في هذا الإطار لها صلة بتقييم التكنولوجيا بالسياسة العامة، ومن التنمية البشرية إلى علم الاجتماع، ودراسات المستقبل والتكنولوجيا. على الرغم من أنه تم تطويره من أجل الذكاء الاصطناعي، إلا أن هذا الإطار التحليلي له تطبيق أوسع بكثير على أي تقنية ناشئة أخرى.
6 المجلس الاستشاري لمنظمة العفو الدولية التابع للأمم المتحدة. 2023. تقرير مؤقت: إدارة الذكاء الاصطناعي من أجل الإنسانية. https://www.un.org/sites/un2.un.org/files/ai_advisory_body_interim_report.pd
شكر وتقدير
لقد تمت استشارة العديد من الأشخاص وقدموا تعليقاتهم في تطوير ورقة المناقشة الأولية والتعليقات بعد إصدارها. وقد قام بصياغة الورقتين السير بيتر جلوكمان، رئيس مركز الدراسات الدولي وهيما سريدهار، كبير المستشارين العلميين السابق بوزارة الدفاع في نيوزيلندا والآن زميل أبحاث أول في جامعة أوكلاند بنيوزيلندا.
وعلى وجه الخصوص، اللورد مارتن ريس، الرئيس السابق للجمعية الملكية والمؤسس المشارك لمركز دراسة المخاطر الوجودية بجامعة كامبريدج؛ والبروفيسور شيفاجي سوندي، أستاذ الفيزياء بجامعة أكسفورد؛ والبروفيسور ك. فيجاي راغافان، المستشار العلمي الرئيسي السابق لحكومة الهند؛ أمانديب سينغ جيل، مبعوث الأمين العام للأمم المتحدة المعني بالتكنولوجيا؛ شون أوهيجيارتاي، المدير التنفيذي لمركز دراسة المخاطر الوجودية، جامعة كامبريدج؛ السير ديفيد سبيجلهالتر، أستاذ وينتون للفهم العام للمخاطر، الجامعة
كامبريدج؛ أماندا جون براونر، كبيرة مستشاري السياسات وإيان ويغينز، مدير الشؤون الدولية، الجمعية الملكية، المملكة المتحدة؛ والدكتور جيروم دوبيري، المدير العام والدكتورة ماري لور ساليس، مديرة معهد جنيف للدراسات العليا؛ وتشور فارن لي، مركز المستقبل الاستراتيجي، مكتب رئيس الوزراء، سنغافورة؛ وبارند مونس والدكتور سايمون هودسون، لجنة البيانات (CoDATA)؛ البروفيسور يوكو هاراياما، المدير التنفيذي السابق لـ RIKEN؛ أستاذ
وريمي كيريون، رئيس INGSA؛ والدكتورة كلير كريج، جامعة أكسفورد والرئيسة السابقة لقسم الاستشراف بالمكتب الحكومي للعلوم؛ البروفيسور يوشوا بنجيو، المجلس الاستشاري العلمي للأمين العام للأمم المتحدة وفي جامعة مونتريال؛ والعديد من الأشخاص الآخرين الذين قدموا تعليقاتهم إلى لجنة الدراسات الدولية بشأن ورقة المناقشة الأولية.
إعداد النظم البيئية البحثية الوطنية للذكاء الاصطناعي: الاستراتيجيات والتقدم في عام 2024
توفر ورقة العمل هذه الصادرة عن مركز الأبحاث التابع لمركز الدراسات الدولي، مركز مستقبل العلوم، معلومات أساسية وإمكانية الوصول إلى الموارد من بلدان من جميع أنحاء العالم، في مراحل مختلفة من دمج الذكاء الاصطناعي في أنظمتها البيئية البحثية.