بينما يجتمع المجتمع العالمي من أجل الاجتماع الوزاري لمنظمة التعاون الاقتصادي والتنمية بشأن سياسات العلوم والتكنولوجيا في الفترة من 23 إلى 34 أبريل 2024، من الواضح أن التقدم السريع في التقنيات مثل الذكاء الاصطناعي (AI) ونماذج اللغات الكبيرة يعيد تشكيل عالمنا. في هذا العصر التحولي، أصدر مجلس العلوم الدولي (ISC) مورده المحوري: "دليل لصانعي السياسات: تقييم التقنيات سريعة التطور بما في ذلك الذكاء الاصطناعي ونماذج اللغات الكبيرة وما بعدها". يعد هذا الدليل أداة لا غنى عنها لواضعي السياسات الذين يتعاملون مع وتيرة التغير التكنولوجي وتعقيده.
يقدم دليل مركز الدراسات الاستراتيجية إطارًا شاملًا مصممًا لسد الفجوة بين المبادئ رفيعة المستوى والسياسات العملية القابلة للتنفيذ. ويستجيب هذا الدليل للحاجة الملحة إلى فهم مشترك للفرص والمخاطر التي تُمثلها التقنيات الناشئة. وكما قالت هيما سريدهار، المؤلفة المشاركة للتقرير والمستشارة العلمية الرئيسية السابقة في وزارة الدفاع النيوزيلندية، والتي تشغل حاليًا منصب كبير الباحثين Fellow في جامعة أوكلاند، يقول:
"يعد الإطار خطوة حاسمة في المحادثة العالمية حول الذكاء الاصطناعي لأنه يوفر أساسًا يمكننا من خلاله بناء توافق في الآراء حول آثار التكنولوجيا في الحاضر والمستقبل."
هيما سريدهار
هذا الدليل ليس أكاديميًا فحسب؛ إنها دعوة للعمل للمجتمع العلمي وصانعي السياسات على حد سواء. وهو يوفر تصنيفًا معتمدًا للقضايا التي تستحق النظر فيها، ويدعم الحكومات أثناء قيامها بتطوير استراتيجيات وسياسات وطنية للذكاء الاصطناعي. على سبيل المثال، يفرض قانون الذكاء الاصطناعي التابع للاتحاد الأوروبي على المنظمات التي تطبق تقنيات الذكاء الاصطناعي إجراء تقييمات شاملة للأثر لتقييم المخاطر المحتملة ووضع استراتيجيات الإدارة المناسبة. ويعزز الإطار الذي اقترحه مركز الدراسات الدولي هذا المطلب من خلال تقديم نهج منظم وشامل لهذه التقييمات. ومن خلال الاستفادة من تصنيف اعتبارات مركز الدراسات الدولي، يمكن لواضعي السياسات والتقنيين إجراء تحليل منهجي للآثار الأوسع لتطبيقات الذكاء الاصطناعي - ليس فقط من حيث المخاطر المباشرة، ولكن أيضًا بالنظر إلى التأثيرات الاجتماعية والبيئية والجيوسياسية طويلة المدى. وهذا يجعل من الممكن مواءمة عمليات نشر الذكاء الاصطناعي بشكل أكثر فعالية مع التوقعات التنظيمية والقيم المجتمعية.
علاوة على ذلك، تم تصميم الإطار ليكون قابلاً للتكيف، ليكون بمثابة أساس لمسح الأفق، وتقييم المخاطر، وتعزيز المبادئ الأخلاقية التي تحكم استخدام الذكاء الاصطناعي. ومن خلال توفير نهج منهجي لتقييم تأثيرات الذكاء الاصطناعي، من المجتمع إلى الجيوسياسية، يضمن الدليل أن نشر هذه التقنيات يتماشى مع القيم المجتمعية والمعايير التنظيمية.
مع اجتماع الوزراء والمجتمع المدني وممثلي لجنة الأمن السيبراني في مقر منظمة التعاون الاقتصادي والتنمية بباريس، يُشكل هذا الدليل موردًا بالغ الأهمية لجميع أصحاب المصلحة، من صانعي السياسات إلى قادة الصناعة والمجتمع المدني. فهو يُسهّل فهمًا أعمق للمخاطر ذات الصلة، ويعزز نهجًا تعاونيًا لحوكمة التكنولوجيا. Peter سيُلقي غلوكمان، رئيس مركز العلوم والتكنولوجيا والمؤلف المشارك للتقرير، مداخلةً في اجتماع منظمة التعاون الاقتصادي والتنمية حول العلوم والتكنولوجيا والابتكار التحويلي من أجل التحول الأخضر. كما سيُعرض التقرير في غداء العمل الوزاري الخاص حول الذكاء الاصطناعي في مجال العلوم والتكنولوجيا والابتكار.
"في عصر يتسم بالابتكار التكنولوجي السريع والتحديات العالمية المعقدة، فإن إطار مركز الدراسات الدولي للتحليل الشامل والمتعدد الأبعاد للتأثيرات المحتملة يمكّن القادة من اتخاذ قرارات مستنيرة ومسؤولة. فهو يضمن أننا مع تقدمنا التكنولوجي، نفعل ذلك مع دراسة متأنية للآثار الأخلاقية والاجتماعية والاقتصادية.
Peter جلوكمان، رئيس ISC
انضم إلينا في تبني هذه الأداة لتشكيل مستقبل تعمل فيه التكنولوجيا على تضخيم إمكاناتنا دون المساس بقيمنا.
دليل لصانعي السياسات: تقييم التقنيات سريعة التطور بما في ذلك الذكاء الاصطناعي ونماذج اللغات الكبيرة وما بعدها
توفر ورقة المناقشة هذه الخطوط العريضة لإطار أولي لإثراء المناقشات العالمية والوطنية المتعددة الجارية فيما يتعلق بالذكاء الاصطناعي. انقر هنا للقراءة باللغة التي تختارها.
قم بتنزيل التقريرقم بتنزيل الإطار لاستخدامه في مؤسستك
نقدم هنا أداة إطار العمل كورقة Excel قابلة للتحرير لاستخدامها في مؤسستك. إذا كنت تفضل صيغة مفتوحة المصدر، يرجى الاتصال [البريد الإلكتروني محمي].
قابلة للتحرير في إكسلاتصال: مدير الاتصالات | أليسون ميستون | [البريد الإلكتروني محمي]
إعداد النظم البيئية البحثية الوطنية للذكاء الاصطناعي: الاستراتيجيات والتقدم في عام 2024
يقدم التقرير تحليلاً شاملاً لدمج الذكاء الاصطناعي في العلوم والبحث في مختلف البلدان. وهو يتناول التقدم المحرز والتحديات التي تمت مواجهتها في هذا المجال، مما يجعله قراءة قيمة لقادة العلوم وصانعي السياسات ومحترفي الذكاء الاصطناعي والأكاديميين.
العجز في السياق: إعادة صياغة الثقة في العلوم من أجل السياسة المتعددة الأطراف
تتناول ورقة العمل هذه هذه المشكلة الحاسمة من خلال مراجعة ما تعلمته الأبحاث والممارسات في مجموعة من المجالات، من الصحافة إلى التنظيم، حول الثقة في العلوم في السنوات الأخيرة، وآثار تلك المعرفة على صانعي السياسات.
المنظمات العلمية في العصر الرقمي
تجمع ورقة المناقشة النتائج التي توصلت إليها دراسة استقصائية واسعة النطاق، والمقابلات التفصيلية، ودراسات الحالة التي شارك فيها أعضاء مركز الدراسات الدولي. وهو بمثابة انعكاس حالي للحالة الرقمية في مجتمع العلوم ودليل للمؤسسات التي تشرع في رحلات التحول الرقمي الخاصة بها.