أطلقت دول الخليج (السعودية والإمارات وقطر) ومعهم مصر استراتيجياتهم للذكاء الاصطناعي في خطوة جديرة بالاحترام كالعالم المتقدم الذي يطور و يجابه هذه التقنية المتقدمة التي يستعد العالم لإدماجها في كل مناحي الحياة و نستعرض في هذا المقال القيم و السياسات المقترحة بعد مراجعة المواثيق والمؤسسات الدولية بل والاستراتيجيات العربية المعلنة سواء بدول الخليج أو مصر للتعامل مع الذكاء الاصطناعي وتطبيقاته للوصول إلى الذكاء الاصطناعي المسؤول إلى أن يتم تدخل مواثيق أخلاقيات الذكاء الاصطناعى المختلفة من المؤسسات العالمية و الحكومات المحلية حيذ التشريع والتنفيذ، فما زلت أرى أن مواثيق بدون قوانين منظمة ورادعة لن تسيطر على تطور الذكاء الاصطناعي في الاتجاه التنموي الصحيح .
الاستثمار المسؤول في البحث والتطوير للذكاء الاصطناعي
يستطيع الذكاء الاصطناعي والاكتشافات العلمية أن تساعد في حل التحديات المجتمعية وإنشاء صناعات جديدة تمامًا. وسبق القطاع الخاص أخذ زمام المبادرة في الاستثمارات التطبيقية في البحث والتطوير في مجال الذكاء الاصطناعي في السنوات الأخيرة، فإن الحكومات، التي تكملها أحيانًا مؤسسات تركز على الصالح العام، تلعب دورًا مهمًا في توفير الاستثمار المستدام في البحث العام بآفاق طويلة الأجل. هذا النوع من الاستثمار ضروري لقيادة وتشكيل ابتكارات الذكاء الاصطناعي الجديرة بالثقة وضمان نتائج مفيدة للجميع، لا سيما المجالات التي لا تخدمها استثمارات مدفوعة بالسوق.
بالإضافة إلى ذلك، نظرًا لأن للذكاء الاصطناعي مدى واسع وآثار واسعة الانتشار على جوانب متعددة من الحياة، فإن هذه التوصية تدعو إلى الاستثمار في البحث متعدد التخصصات، بشأن الآثار الاجتماعية والقانونية والأخلاقية للذكاء الاصطناعي ذات الصلة بالسياسة العامة ليصل بنا إلى الذكاء الاصطناعي المسؤول والمرتبط بتحقيق أهداف التنمية المستدامة.
نظرًا لأهمية البيانات لدورة حياة نظام الذكاء الاصطناعي، فإن العنصر الأساسي في ضمان مزيد من البحث والتطوير في مجال الذكاء الاصطناعي هو توافر مجموعات بيانات تمثيلية ومفتوحة ويمكن الوصول إليها لا تمس الخصوصية وحماية البيانات الشخصية والمستهلكين وحقوق الملكية الفكرية وغيرها من الحقوق المهمة. على وجه الخصوص، في حين أنه قد يكون من المستحيل تحقيق بيئة "خالية من التحيز" تمامًا، فمن خلال توفير (وتقديم الحوافز) لمجموعات البيانات التمثيلية المتاحة للجمهور، يمكن للحكومات المساهمة في التخفيف من مخاطر التحيز غير الملائم في أنظمة الذكاء الاصطناعي. على سبيل المثال، أنظمة الذكاء الاصطناعي التي تستخدم مجموعات البيانات غير الممثلة بشكل كافٍ وفقًا للاستخدام المقصود للنظام، حتى بدون نية التمييز.
والجدير بالذكر أهمية تعزيز نظام بيئي رقمي للذكاء الاصطناعي، نظرًا لأن الاستثمار طويل الأجل في التقنيات الرقمية والبنية التحتية وآليات مشاركة المعرفة بالذكاء الاصطناعي هي وسائل لتعزيز هذا النظام البيئي الرقمي. على وجه الخصوص، يسهل الاستثمار في مجموعات البيانات التمثيلية والمفتوحة التي يسهل الوصول إليها مشاركة معرفة الذكاء الاصطناعي.
وأخيرًا يجب على الحكومات النظر في الاستثمار العام طويل الأجل، وتشجيع الاستثمار الخاص، في البحث والتطوير، بما في ذلك الجهود متعددة التخصصات، لتحفيز الابتكار في مجال الذكاء الاصطناعي الجدير بالثقة والذي يركز على القضايا التقنية الصعبة وعلى الآثار الاجتماعية والقانونية والأخلاقية وقضايا السياسات المتعلقة بالذكاء الاصطناعي.
الذكاء الاصطناعى والتنمية المستدامة والقيم الإنسانية
أن توجيه تطوير واستخدام الذكاء الاصطناعي نحو الازدهار والنتائج المفيدة للناس والكوكب يمثل أولوية. يمكن أن يلعب الذكاء الاصطناعي الجدير بالثقة دورًا مهمًا في تعزيز النمو الشامل والتنمية المستدامة والرفاهية وأهداف التنمية العالمية. في الواقع، يمكن الاستفادة من الذكاء الاصطناعي من أجل الصالح الاجتماعي ويمكن أن يساهم بشكل كبير في تحقيق أهداف التنمية المستدامة (SDGs) في مجالات مثل التعليم والصحة والنقل والزراعة والبيئة والمدن المستدامة، من بين أمور أخرى.
يجب أن يسعى دور الإشراف المسؤول على تطبيقات الذكاء الاصطناعي إلى معالجة الإشكاليات المتعلقة بعدم المساواة وخطر أن تؤدي التفاوتات في الوصول إلى التكنولوجيا إلى زيادة الانقسامات القائمة داخل البلدان المتقدمة والبلدان النامية وفيما بينها. Yن أنظمة الذكاء الاصطناعي يمكن أن تظهر التحيزات الموجودة ولها تأثير متباين على الفئات الضعيفة والممثلة تمثيلًا ناقصًا، مثل الأقليات العرقية والنساء والأطفال وكبار السن والأقل تعليمًا أو ذوي المهارات المنخفضة. التأثير المتباين هو خطر خاص في البلدان المنخفضة والمتوسطة الدخل. يؤكد هذا المبدأ على أن الذكاء الاصطناعي يمكن ويجب استخدامه لتمكين جميع أفراد المجتمع وللمساعدة في الحد من التحيزات.
كما يجب تطوير الذكاء الاصطناعي بما يتماشى مع القيم التي محورها الإنسان، مثل الحريات الأساسية والمساواة والإنصاف وسيادة القانون والعدالة الاجتماعية وحماية البيانات والخصوصية، فضلاً عن حقوق المستهلك والعدالة التجارية.
بعض تطبيقات أو استخدامات أنظمة الذكاء الاصطناعي لها آثار على حقوق الإنسان، بما في ذلك المخاطر التي قد تتعرض لها حقوق الإنسان (كما هو محدد في الإعلان العالمي لحقوق الإنسان) والقيم التي تركز على الإنسان عن قصد أو عن غير قصد. لذلك من المهم تعزيز "محاذاة القيم" في أنظمة الذكاء الاصطناعي (أي تصميمها مع ضمانات مناسبة) بما في ذلك القدرة على التدخل البشري والرقابة، بما يتناسب مع السياق. يمكن أن تساعد هذه المواءمة في ضمان أن سلوكيات أنظمة الذكاء الاصطناعي تحمي حقوق الإنسان وتعززها وتتوافق مع القيم التي تركز على الإنسان في جميع مراحل عملها. سيساعد الحفاظ على القيم الديمقراطية المشتركة على تعزيز ثقة الجمهور في الذكاء الاصطناعي ودعم استخدام الذكاء الاصطناعي لحماية حقوق الإنسان وتقليل التمييز أو غيره من النتائج غير العادلة و / أو غير المتكافئة.
ولتحقيق هذه الغاية، يجب على الجهات الفاعلة في مجال الذكاء الاصطناعي تنفيذ آليات وضمانات، مثل القدرة على تقرير الإنسان، المناسبة للسياق والمتسقة مع الحالة الفنية
الذكاء الاصطناعي والاعتمادية والأمن والسلامة
تعد معالجة تحديات السلامة والأمن لأنظمة الذكاء الاصطناعي المعقدة أمرًا بالغ الأهمية لتعزيز الثقة في الذكاء الاصطناعي. في هذا السياق، تشير القدرة مجابهة مخاطر الأمن الرقمي. أي أن أنظمة الذكاء الاصطناعي يجب ألا تشكل مخاطر غير معقولة على السلامة بما في ذلك الأمن المادي، في ظروف الاستخدام العادي أو المتوقع أو سوء الاستخدام طوال دورة حياتها. تحدد القوانين واللوائح الحالية في مجالات مثل حماية المستهلك بالفعل ما يشكل مخاطر غير معقولة على السلامة. يجب على الحكومات، بالتشاور مع أصحاب المصلحة، تحديد إلى أي مدى تنطبق على أنظمة الذكاء الاصطناعي.
يمكن للجهات الفاعلة في الذكاء الاصطناعي استخدام نهج إدارة المخاطر (انظر أدناه) لتحديد إساءة الاستخدام المتوقعة والحماية منها، وكذلك ضد المخاطر المرتبطة باستخدام أنظمة الذكاء الاصطناعي لأغراض أخرى غير تلك التي صممت من أجلها في الأصل. قضايا متانة وأمن وسلامة الذكاء الاصطناعي مترابطة. على سبيل المثال، يمكن أن يؤثر الأمن الرقمي على سلامة المنتجات المتصلة مثل السيارات والأجهزة المنزلية إذا لم تتم إدارة المخاطر بشكل مناسب.0
تسلط التوصية الضوء على طريقتين للحفاظ على أنظمة ذكاء اصطناعي قوية وآمنة:
- التتبع والتحليل والاستفسار اللاحقين.
- تطبيق نهج إدارة المخاطر.
مثل القابلية للتفسير، يمكن أن تساعد إمكانية التتبع في التحليل والاستفسار عن نتائج نظام الذكاء الاصطناعي وهي طريقة لتعزيز المساءلة. تختلف إمكانية التتبع عن القابلية للتفسير من حيث التركيز على الاحتفاظ بسجلات خصائص البيانات، مثل البيانات الوصفية ومصادر البيانات وتنقية البيانات، ولكن ليس بالضرورة البيانات نفسها. في هذا، يمكن أن تساعد إمكانية التتبع على فهم النتائج، ومنع الأخطاء المستقبلية، وتحسين مصداقية نظام الذكاء الاصطناعي.
نهج إدارة المخاطر: تعترف التوصية بالمخاطر المحتملة التي تشكلها أنظمة الذكاء الاصطناعي على حقوق الإنسان، والسلامة الجسدية، والخصوصية، والإنصاف، والمساواة، والمتانة. كما يعترف بتكاليف الحماية من هذه المخاطر، بما في ذلك من خلال بناء الشفافية والمساءلة والسلامة والأمن في أنظمة الذكاء الاصطناعي. كما تدرك أن الاستخدامات المختلفة للذكاء الاصطناعي تنطوي على مخاطر مختلفة، وأن بعض المخاطر تتطلب مستوى أعلى من الوقاية أو التخفيف من غيرها.
يمكن لنهج إدارة المخاطر، المطبق طوال دورة حياة نظام الذكاء الاصطناعي، أن يساعد في تحديد وتقييم وترتيب أولويات وتخفيف المخاطر المحتملة التي يمكن أن تؤثر سلبًا على سلوك النظام ونتائجه. قد تقدم معايير منظمة التعاون الاقتصادي والتنمية الأخرى بشأن إدارة المخاطر.
تعزيز نظام بيئي رقمي ممكن للذكاء الاصطناعي
ليس سرًا أن النظام البيئى للذكاء الاصطناعى يبدأ من خطة استراتيجية محكمة كما فعلت السعودية وقطر والإمارات ومصر ونقيم هذه الاستراتيجيات لاحقًا، هذه الخطة أيضًا لابد أن تكون واضحة الأولويات والمبادرات والقيم والمحددات والإطار المؤسسي والسياسي والقانوني ومؤشرات الأداء لنمو علوم وتطبيقات ومطوري التطبيقات للذكاء الاصطناعى الاعتمادي المسؤؤل والجدير بالثقة.
يتطلب تطوير الذكاء الاصطناعي الموثوق نظامًا بيئيًا ممكّنًا. تدعو هذه التوصية الحكومات -الانخراط مع القطاع الخاص حسب الاقتضاء -إلى العمل من أجل توفير أو تعزيز توفير البنية التحتية والتقنيات الرقمية للذكاء الاصطناعي وآليات تبادل المعرفة بالذكاء الاصطناعي، مع مراعاة أطرها واستراتيجيتها الوطنية.
تشمل التقنيات والبنية التحتية الرقمية الضرورية الوصول إلى شبكات وخدمات النطاق العريض عالية السرعة بأسعار معقولة، وقوة الحوسبة وتخزين البيانات -بالإضافة إلى دعم تقنيات توليد البيانات مثل (إنترنت الأشياء (على سبيل المثال، يمكن أن تُعزى التطورات الحديثة في الذكاء الاصطناعي، جزئيًا، إلى الزيادة الهائلة في السرعة الحسابية بما في ذلك موارد وحدة معالجة الرسومات. الآليات المناسبة لمشاركة معرفة الذكاء الاصطناعي، بما في ذلك البيانات، والتعليمات البرمجية، والخوارزميات، والنماذج، والبحوث، والمعرفة، مطلوبة أيضًا لفهم دورة حياة نظام الذكاء الاصطناعي والمشاركة فيها. يجب أن تحترم هذه الآليات الخصوصية والملكية الفكرية والحقوق الأخرى. أدوات مفتوحة المصدر ومجموعات بيانات تدريبية عالية الجودة لإدارة واستخدام الذكاء الاصطناعي.
عند تطوير وسائل مشاركة البيانات، يجب على الحكومات الانتباه إلى المخاطر المتعلقة بالوصول إلى البيانات ومشاركتها: قد تشمل المخاطر التي يتعرض لها الأفراد (بما في ذلك المستهلكين) والمنظمات انتهاكات السرية والخصوصية، المخاطر على حقوق الملكية الفكرية وحماية البيانات والمنافسة والمصالح التجارية، فضلاً عن المخاطر المحتملة للأمن القومي والأمن الرقمي. عندما يتعلق الأمر بمجموعات البيانات نفسها، فإن الحكومات مدعوة لتعزيز واستخدام مجموعات البيانات التي تكون شاملة ومتنوعة وتمثيلية قدر الإمكان لضمان عدم التحيز لأي فئة أقلية أو عرقية أو دينية وهكذا.
كذلك لابد من اهتمامً خاصً بالسياسات الخاصة بالشركات الصغيرة والمتوسطة الحجم لتسهيل وصولها إلى البيانات وتقنيات الذكاء الاصطناعي والبنية التحتية ذات الصلة من أجل تعزيز ريادة الأعمال الرقمية، المنافسة والابتكار من خلال اعتماد الذكاء الاصطناعي.
بالنظر إلى الوتيرة السريعة لتطورات الذكاء الاصطناعي، فإن وضع بيئة سياسية تتسم بالمرونة الكافية لمواكبة التطورات وتعزيز الابتكار ومع ذلك تظل آمنة وتوفر اليقين القانوني يمثل تحديًا كبيرًا. تسعى هذه التوصية إلى مواجهة هذا التحدي من خلال تحديد وسائل تحسين القدرة على التكيف والتفاعلية والتنوع وإنفاذ أدوات السياسة، من أجل الإسراع بشكل مسؤول في الانتقال من التنمية إلى النشر، وعند الاقتضاء، التسويق. في تعزيز استخدام الذكاء الاصطناعي، يجب اتباع نهج محوره الإنسان.
وياتى دور التجريب كوسيلة لتوفير بيئات خاضعة للرقابة وشفافة يمكن من خلالها اختبار أنظمة الذكاء الاصطناعي والتي يمكن أن تزدهر فيها نماذج الأعمال القائمة على الذكاء الاصطناعي والتي يمكن أن تعزز حلول التحديات العالمية. يمكن أن تعمل تجارب السياسات في "وضع بدء التشغيل" حيث يتم نشر التجارب وتقييمها وتعديلها ثم توسيع نطاقها أو تصغيرها أو التخلي عنها، اعتمادًا على نتائج الاختبار.
الذكاء الاصطناعى وبناء القدرات البشرية
من المتوقع على نطاق واسع أن يغير الذكاء الاصطناعي طبيعة العديد من جوانب الحياة، حيث ينتشر عبر القطاعات. هذا صحيح بشكل خاص في سياق العمل والتوظيف ومكان العمل -حيث سيكمل الذكاء الاصطناعي البشر في بعض المهام، ويستبدلهم في مهام أخرى ويولد أنواعًا جديدة من الوظائف وتنظيم العمل. إذا تمت إدارة هذه التحولات في سوق العمل بشكل سيئ، فقد يكون لها تكاليف اقتصادية واجتماعية كبيرة. في إدارة هذه التحولات والتأكد من أنها عادلة.
تتطلب إدارة التحولات العادلة سياسات للتعلم مدى الحياة وتنمية المهارات والتدريب التي من شأنها أن تسمح للأفراد والعاملين (في سياقات تعاقدية مختلفة) على وجه الخصوص بالتفاعل مع أنظمة الذكاء الاصطناعي والتكيف مع التغييرات الناتجة عن الذكاء الاصطناعي والوصول إلى فرص جديدة في العمل سوق. يتضمن ذلك المهارات المطلوبة من ممارسي الذكاء الاصطناعي (التي تعاني نقصًا حاليًا) والمهارات المطلوبة للعاملين الآخرين (مثل الأطباء أو المحامين) حتى يتمكنوا من الاستفادة من الذكاء الاصطناعي في مجالات خبرتهم، بحيث يعمل الذكاء الاصطناعي على زيادة القدرات البشرية. بالتوازي مع ذلك، ستحتاج سياسات تنمية المهارات إلى التركيز على الجوانب البشرية المميزة والضرورية لاستكمال أنظمة الذكاء الاصطناعي، مثل الحكم والتفكير الإبداعي والنقدي والتواصل بين الأشخاص.
بالإضافة إلى ذلك، قد تتطلب التغييرات التي يقودها الذكاء الاصطناعي في سوق العمل تكييف أو اعتماد معايير واتفاقيات العمل بين الإدارة والعاملين، عند الاقتضاء، لتعكس هذه التغييرات، ومعالجة التحديات المحتملة للمساواة والتنوع والإنصاف (المطروحة، على سبيل المثال، من خلال جمع البيانات والتجهيز)، وتعزيز أماكن العمل الموثوقة والآمنة والمنتجة. يمكن تحقيق ذلك من خلال مزيج من التنظيم والحوار الاجتماعي والمفاوضة الجماعية من المهم السماح بالمرونة في مكان العمل مع الحفاظ على استقلالية العمال وجودة العمل.
الذكاء الاصطناعي والشفافية والمساءلة
تعني الشفافية تمكين الأشخاص من فهم كيفية تطوير نظام الذكاء الاصطناعي وتدريبه وتشغيله ونشره في مجال التطبيق ذي الصلة، بحيث يمكن للمستهلكين، على سبيل المثال، اتخاذ خيارات أكثر استنارة. تشير الشفافية أيضًا إلى القدرة على توفير معلومات ذات مغزى ووضوح حول المعلومات المقدمة ولماذا. وبالتالي، لا تمتد الشفافية بشكل عام إلى الكشف عن المصدر أو رمز الملكية الأخرى أو مشاركة مجموعات البيانات الخاصة، والتي قد تكون كلها معقدة من الناحية الفنية بحيث لا تكون مجدية أو مفيدة لفهم النتيجة. قد تخضع أيضًا شفرة المصدر ومجموعات البيانات للملكية الفكرية، بما في ذلك الأسرار التجارية.
مصطلح الشفافية يحمل معانٍ متعددة، ينصب التركيز أولاً على الكشف عن وقت استخدام الذكاء الاصطناعي (في توقع أو توصية أو قرار، أو أن المستخدم يتفاعل مباشرة مع وكيل مدعوم بالذكاء الاصطناعي، مثل روبوت المحادثة). يجب أن يتم الإفصاح بما يتناسب مع أهمية التفاعل.(
يتعلق جانب إضافي من جوانب الشفافية بتسهيل الخطاب العام ومتعدد أصحاب المصلحة وإنشاء كيانات مخصصة، حسب الضرورة، لتعزيز الوعي العام وفهم أنظمة الذكاء الاصطناعي وزيادة القبول والثقة.
تعني القابلية للتفسير تمكين الأشخاص المتأثرين بنتائج نظام الذكاء الاصطناعي لفهم كيفية الوصول إليه. يستلزم ذلك توفير معلومات سهلة الفهم للأشخاص المتأثرين بنتائج نظام الذكاء الاصطناعي التي يمكن أن تمكن المتأثرين سلبًا من تحدي النتيجة، ولا سيما العوامل والمنطق الذي أدى إلى النتيجة. على الرغم من ذلك، يمكن تحقيق القابلية للتفسير بطرق مختلفة اعتمادًا على السياق مثل أهمية النتائج.
لذلك، عندما يقدم الطورين شرحًا لنتيجة ما، فقد يفكرون في تقديم -بعبارات واضحة وبسيطة، وحسب الاقتضاء للسياق -العوامل الرئيسية في القرار، أو العوامل المحددة، أو البيانات، أو المنطق أو الخوارزمية الكامنة وراء المعنى المحدد. النتيجة، أو شرح لماذا أدت الظروف المتشابهة إلى نتيجة مختلفة. يجب أن يتم ذلك بطريقة تسمح للأفراد بفهم النتيجة وتحديها مع احترام التزامات حماية البيانات الشخصية، إذا كان ذلك مناسبًا.
ترتبط مصطلحات المساءلة والمسؤولية ارتباطًا وثيقًا ولكنها مختلفة، وتحمل أيضًا معاني مختلفة عبر الثقافات واللغات. بشكل عام، تعني "المساءلة" توقعًا أخلاقيًا أو معنويًا أو توقعًا آخر (على سبيل المثال، على النحو المنصوص عليه في ممارسات الإدارة أو قواعد السلوك) الذي يوجه تصرفات الأفراد أو المنظمات أو سلوكهم ويسمح لهم بشرح أسباب اتخاذ القرارات والإجراءات. في حالة وجود نتيجة سلبية، فإنه يعني أيضًا اتخاذ إجراءات لضمان نتيجة أفضل في المستقبل. تشير "المسؤولية" بشكل عام إلى الآثار القانونية السلبية الناشئة عن تصرفات الشخص (أو المنظمة) أو تقاعسه. يمكن أن يكون "للمسؤولية" أيضًا توقعات أخلاقية أو أخلاقية ويمكن استخدامها في كل من السياقات القانونية وغير القانونية للإشارة إلى علاقة سببية بين الفاعل والنتيجة.
بالنظر إلى هذه المعاني، تشير "المساءلة" إلى توقع أن المنظمات أو الأفراد سيضمنون الأداء السليم، طوال دورة حياتهم، لأنظمة الذكاء الاصطناعي التي يصممونها أو يطورونها أو يشغلونها أو ينشرونها، وفقًا لأدوارهم والأطر التنظيمية المعمول بها، ولإثبات ذلك من خلال إجراءاتهم وعملية صنع القرار (على سبيل المثال، من خلال توفير وثائق حول القرارات الرئيسية طوال دورة حياة نظام الذكاء الاصطناعي أو إجراء أو السماح بالتدقيق حيثما كان ذلك مبررًا).
التعاون الدولي للذكاء الاصطناعي الجدير بالثقة
تدعو هذه التوصية إلى التعاون الدولي بين الحكومات ومع أصحاب المصلحة، لمواجهة الفرص والتحديات العالمية للذكاء الاصطناعي. ويشمل هذا التعاون النهوض بتنفيذ ونشر هذه المبادئ والسياسات عبر منظمة التعاون والتنمية في الميدان الاقتصادي والبلدان الشريكة، بما في ذلك البلدان النامية والبلدان الأقل نمواً، ومع أصحاب المصلحة الآخرين.
يمكن للتعاون الدولي الاستفادة من المنتديات الدولية والإقليمية لمشاركة المعرفة بالذكاء الاصطناعي من أجل بناء خبرة طويلة الأمد في مجال الذكاء الاصطناعي؛ لتطوير المعايير التقنية للذكاء الاصطناعي القابل للتشغيل المتبادل والجدير بالثقة؛ وتطوير ونشر واستخدام المقاييس لتقييم أداء أنظمة الذكاء الاصطناعي، مثل الدقة والكفاءة والنهوض بالأهداف المجتمعية والإنصاف والمتانة. يمكن أن يساهم أيضًا في تدفقات البيانات عبر الحدود بثقة، مما يحمي الأمن والخصوصية والملكية الفكرية وحقوق الإنسان والقيم الديمقراطية والتي تعد أساسية لابتكار الذكاء الاصطناعي.
- يجب على الحكومات، بما في ذلك البلدان النامية ومع أصحاب المصلحة، أن تتعاون بنشاط لتعزيز هذه المبادئ والتقدم في الإشراف المسؤول على الذكاء الاصطناعي الجدير بالثقة.
- يجب على الحكومات العمل معًا في منظمة التعاون الاقتصادي والتنمية والمنتديات العالمية والإقليمية الأخرى لتعزيز تبادل المعرفة في مجال الذكاء الاصطناعي، حسب الاقتضاء. يجب عليهم تشجيع المبادرات الدولية متعددة القطاعات والمفتوحة لأصحاب المصلحة المتعددين لاكتساب خبرة طويلة الأجل في مجال الذكاء الاصطناعي.
- يجب على الحكومات تعزيز تطوير معايير فنية عالمية متعددة المصلحة تستند إلى توافق الآراء للذكاء الاصطناعي القابل للتشغيل البيني والجدير بالثقة.
يجب على الحكومات أيضًا تشجيع تطوير واستخدام مقاييس قابلة للمقارنة دوليًا لقياس أبحاث الذكاء الاصطناعي وتطويره ونشره، وجمع قاعدة الأدلة لتقييم التقدم المحرز في تنفيذ هذه المبادئ