مستقبل الذكاء الاصطناعي يتشكل من خلال قمة السلامة العالمية للذكاء الاصطناعي

 يقف مستقبل الذكاء الاصطناعي عند مفترق طرق حاسم بينما يجتمع قادة العالم في القمة العالمية الرائدة لسلامة الذكاء الاصطناعي. في الواقع، يجمع هذا الاجتماع غير المسبوق ممثلين من 28 دولة لمناقشة التحديات المعقدة التي تطرحها التقنيات المتقدمة بسرعة في مجال الذكاء الاصطناعي. يُعقد القمة في المملكة المتحدة، وتركز بشكل خاص على وضع معايير السلامة العالمية والأطر التنظيمية التي يمكنها مواكبة الابتكار في مجال الذكاء الاصطناعي. علاوة على ذلك، ومع مشاركة من الأمم المتحدة والاتحاد الأوروبي والرؤساء التنفيذيين البارزين في مجال التكنولوجيا، يقدم هذا الحدث البارز مؤشرات قدرة جديدة وأنظمة تصنيف المخاطر المصممة لتوجيه السياسة الدولية. ومع ذلك، وسط المناقشات التقنية، تؤكد النقاشات الأخلاقية حول المراقبة والتحيز والمعلومات المضللة على الحاجة الملحة للإشراف التعاوني في تشكيل كيفية تحول الذكاء الاصطناعي لعالمنا في العقود القادمة.

القادة العالميون يجتمعون لمناقشة سلامة الذكاء الاصطناعي

انعقدت القمة العالمية الافتتاحية لسلامة الذكاء الاصطناعي في بليتشلي بارك، باكينجهامشير، في الأول والثاني من نوفمبر 2023، مما يمثل لحظة محورية في التعاون الدولي بشأن حوكمة الذكاء الاصطناعي. مثّل هذا التجمع التاريخي المرة الأولى التي تناولت فيها القوى العالمية بشكل جماعي التحديات الأمنية التي تطرحها التقنيات المتقدمة بسرعة في مجال الذكاء الاصطناعي.

قمة استضافتها المملكة المتحدة بمشاركة 28 دولة

القمة التي استضافتها المملكة المتحدة جمعت تحالفًا غير مسبوق من 28 دولة، بما في ذلك قوى الذكاء الاصطناعي الكبرى مثل الولايات المتحدة، الصين، البرازيل، فرنسا، ألمانيا، اليابان، الهند، والاتحاد الأوروبي. شملت المشاركين البارزين رئيس الوزراء البريطاني ريشي سوناك، ونائبة الرئيس الأمريكي كامالا هاريس، ورئيسة الوزراء الإيطالية جورجيا ميلوني، ونائب وزير العلوم والتكنولوجيا الصيني وو تشاوهوي. بالإضافة إلى ذلك، ألقى جلالة الملك تشارلز الثالث خطابًا افتراضيًا، واصفًا الذكاء الاصطناعي بأنه "واحد من أعظم القفزات التكنولوجية في تاريخ الجهد البشري"، مشيرًا إلى إمكانياته في تحويل الرعاية الصحية من خلال تحسين العلاجات لحالات مثل السرطان وأمراض القلب.

حمل موقع القمة في بلتشلي بارك دلالة رمزية باعتباره الموقع التاريخي الذي قام فيه علماء الرياضيات وخبراء التشفير البريطانيون، بما في ذلك آلان تورينج، بكسر شفرة إنجما النازية خلال الحرب العالمية الثانية. أكد هذا الإعداد على الأهمية البالغة لاستغلال التكنولوجيا المتقدمة لتحقيق الفائدة العالمية مع التخفيف من المخاطر المحتملة.

خطابات رئيسية من الأمم المتحدة والاتحاد الأوروبي والرؤساء التنفيذيين لشركات التكنولوجيا

ألقى الأمين العام للأمم المتحدة أنطونيو غوتيريش خطابًا مؤثرًا يسلط الضوء على ثلاث قضايا حاسمة: "إن سرعة وانتشار تكنولوجيا الذكاء الاصطناعي اليوم غير مسبوقة. الفجوة بين الذكاء الاصطناعي وحوكمته واسعة وتزداد اتساعًا. نحن بحاجة ماسة إلى دمج تلك المبادئ في سلامة الذكاء الاصطناعي. أعلن غوتيريش أيضًا عن تشكيل هيئة استشارية متعددة الأطراف بشأن الذكاء الاصطناعي لدراسة نماذج الحوكمة الفعالة.

مثلت رئيسة المفوضية الأوروبية أورسولا فون دير لاين الاتحاد الأوروبي، بينما قدم قادة صناعة التكنولوجيا وجهات نظر حاسمة من القطاع الخاص. شمل المشاركون إيلون ماسك (تسلا، سبيس إكس، X، xAI)، سام ألتمان (أوبن إيه آي)، نيك كليج (ميتا)، ومصطفى سليمان (المؤسس المشارك لديب مايند). أكدت مشاركتهم على التعاون الأساسي بين الحكومات والصناعة والأوساط الأكاديمية والمجتمع المدني في تشكيل مستقبل الذكاء الاصطناعي.

التركيز على مواءمة معايير السلامة العالمية للذكاء الاصطناعي

توّجت القمة بإعلان "بلتشلي" التاريخي، وهو اتفاق بارز وقعته جميع الدول المشاركة، حيث تم التوصل إلى فهم مشترك لمخاطر وفرص الذكاء الاصطناعي المتقدم. أقرت الوثيقة صراحةً "بالإمكانية لحدوث أضرار خطيرة، بل وكارثية، سواء كانت متعمدة أو غير مقصودة، ناتجة عن القدرات الأكثر أهمية لهذه النماذج الذكاء الاصطناعي"، مع التأكيد على أن هذه المخاطر "يُفضل معالجتها من خلال التعاون الدولي".

التزم الموقعون ببناء "فهم مشترك قائم على العلم والأدلة لهذه المخاطر" أثناء تطوير "سياسات قائمة على المخاطر لضمان السلامة". أكد الإعلان بشكل خاص أن الكيانات التي تطور قدرات الذكاء الاصطناعي المتقدمة "تتحمل مسؤولية قوية بشكل خاص لضمان سلامة هذه الأنظمة الذكية".

وضع القمة مسارًا مستقبليًا للتعاون المستمر، حيث وافقت كوريا الجنوبية على استضافة قمة مصغرة افتراضية في غضون ستة أشهر، تليها استضافة فرنسا للقمة الحضورية التالية في عام 2024. أعلنت وزيرة التجارة الأمريكية جينا ريموندو عن إنشاء معهد أمريكي لسلامة الذكاء الاصطناعي تحت مظلة المعهد الوطني للمعايير والتكنولوجيا، والذي سيتعاون مع معهد سلامة الذكاء الاصطناعي الذي تم إنشاؤه حديثًا في المملكة المتحدة.

أطلق هذا القمة الافتتاحية ما سيصبح سلسلة من الاجتماعات الدولية التي تُعقد مرتين في السنة، حيث ستواصل القمة الفرنسية في فبراير 2025 العمل الحاسم لوضع أطر عالمية لتطوير الذكاء الاصطناعي المسؤول. من خلال هذا التعاون المستمر، يهدف قادة العالم إلى تسخير الإمكانات التحويلية للذكاء الاصطناعي مع الحماية من مخاطره الأكثر أهمية.

القمة تكشف عن إطار عمل دولي لسلامة الذكاء الاصطناعي

ظهر إطار شامل للسلامة في مجال الذكاء الاصطناعي على المستوى الدولي كإنجاز أساسي للقمة، حيث وضع آليات ملموسة لحوكمة المشهد المتطور بسرعة لتقنيات الذكاء الاصطناعي.

إرشادات جديدة لتصنيف مخاطر الذكاء الاصطناعي

يقدم الإطار نظام تصنيف مخاطر الذكاء الاصطناعي متعدد المستويات المستوحى من النهج الرائد للاتحاد الأوروبي. وفقًا لهذا النظام، يتم تصنيف تطبيقات الذكاء الاصطناعي بناءً على تأثيرها المحتمل على المجتمع، بدءًا من المخاطر الدنيا إلى المخاطر غير المقبولة. بشكل أساسي، تحدد أربعة مستويات مختلفة من المخاطر كيفية تنظيم أنظمة الذكاء الاصطناعي:

  • خطر غير مقبول: التطبيقات التي تعتبر غير متوافقة مع الحقوق والقيم الأساسية
  • عالي المخاطر: الأنظمة التي يمكن أن تؤثر سلبًا على الصحة أو السلامة أو الحقوق الأساسية أو البيئة
  • مخاطر محدودة: التطبيقات التي لديها إمكانية التلاعب أو الخداع والتي تتطلب الشفافية
  • مخاطر ضئيلة: أنظمة تثير قلقًا ضئيلًا دون التزامات إلزامية

عزز المعهد الوطني للمعايير والتكنولوجيا (NIST) هذا الإطار بشكل أكبر من خلال إطار عمل إدارة مخاطر الذكاء الاصطناعي، الذي تم إصداره في يناير 2023 بعد مشاورات مكثفة. تهدف هذه المقاربة الشاملة إلى "تحسين القدرة على دمج اعتبارات الموثوقية في تصميم وتطوير واستخدام وتقييم منتجات الذكاء الاصطناعي". بعد ذلك، أصدرت NIST ملفًا شخصيًا محددًا للذكاء الاصطناعي التوليدي في يوليو 2024، لمساعدة المنظمات في تحديد المخاطر الفريدة التي تطرحها هذه الأنظمة المتزايدة القوة.

التزامات طوعية من مختبرات الذكاء الاصطناعي الكبرى

كان من الإنجازات البارزة للقمة تأمين التزامات طوعية بالسلامة من 16 شركة رائدة في مجال الذكاء الاصطناعي تمتد عبر أمريكا الشمالية وآسيا وأوروبا والشرق الأوسط. تتطلب هذه الالتزامات غير المسبوقة من الشركات نشر أطر سلامة مفصلة توضح كيفية قياسها لمخاطر نماذج الذكاء الاصطناعي المتقدمة. وبالتالي، يجب على الشركات أن تحدد عتبات واضحة لما يشكل مستويات خطر "لا تُحتمل" وأن تلتزم بوقف التطوير تمامًا عندما لا يمكن التخفيف من المخاطر بشكل كافٍ.

تستند هذه الالتزامات إلى تعهدات سابقة من الصناعة، بما في ذلك تلك التي تم تقديمها مع البيت الأبيض في يوليو 2023 عندما وعدت سبع شركات كبرى في مجال الذكاء الاصطناعي (أمازون، أنثروبيك، جوجل، إنفليكشن، ميتا، مايكروسوفت، وأوبن إيه آي) بتحسين الاختبار والشفافية وتبادل المعلومات حول الأضرار المحتملة. علاوة على ذلك، تشمل الالتزامات تطوير آليات تقنية مثل وضع العلامات المائية لتحديد المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي بوضوح.

يجب نشر أطر السلامة قبل قمة العمل للذكاء الاصطناعي في فرنسا المقررة في أوائل عام 2025. من الجدير بالذكر أن الشركات ستدمج مدخلات من جهات موثوقة، بما في ذلك الحكومات المحلية، عند تحديد عتبات المخاطر.

منظمة التعاون الاقتصادي والتنمية والأمم المتحدة للإشراف على التنفيذ

أعلنت منظمة التعاون الاقتصادي والتنمية (OECD) والأمم المتحدة عن تعاون رسمي للإشراف على تنفيذ هذا الإطار العالمي لحوكمة الذكاء الاصطناعي. اجتمع ممثلو المنظمتين على هامش قمة المستقبل في مقر الأمم المتحدة في نيويورك، وأسسوا شراكة تركز على "تقييمات منتظمة للمخاطر والفرص المتعلقة بالذكاء الاصطناعي تستند إلى العلم والأدلة".

يوفر مرصد سياسات الذكاء الاصطناعي التابع لمنظمة التعاون الاقتصادي والتنمية والعمل الواسع على مبادئ الذكاء الاصطناعي الأساس التقني لهذه الآلية الرقابية. مبادئ الذكاء الاصطناعي لمنظمة التعاون الاقتصادي والتنمية، التي تم اعتمادها في مايو 2019، أصبحت معيارًا عالميًا مع التزام 47 دولة بها. تُعزز هذه المبادئ الذكاء الاصطناعي الذي يكون "مبتكرًا وجديرًا بالثقة ويحترم حقوق الإنسان والقيم الديمقراطية".

لدعم هذا الإطار، ستركز الشبكة الدولية الجديدة لمعاهد سلامة الذكاء الاصطناعي على ثلاثة مجالات حيوية: إدارة مخاطر المحتوى الاصطناعي، اختبار النماذج الأساسية، وإجراء تقييمات المخاطر. تشمل هذه الشبكة الأعضاء المؤسسين من أستراليا، كندا، الاتحاد الأوروبي، فرنسا، اليابان، كينيا، كوريا الجنوبية، سنغافورة، المملكة المتحدة، والولايات المتحدة. تم تأمين أكثر من 11 مليون دولار في تمويل الأبحاث العالمية لدعم هذه الجهود.

كيف ستوجه مؤشرات قدرات الذكاء الاصطناعي السياسات

كشفت منظمة التعاون الاقتصادي والتنمية عن مؤشرات قدرات الذكاء الاصطناعي الرائدة التي ستعمل كنظام "جي بي إس" لفهم قدرات الذكاء الاصطناعي مقارنة بالقدرات البشرية. تمثل هذه المؤشرات الجهد الأكثر شمولاً حتى الآن لإنشاء إطار عمل موحد لتقييم أنظمة الذكاء الاصطناعي بما يتجاوز الادعاءات التسويقية والمعايير الانتقائية.

تسع فئات من قدرات الذكاء الاصطناعي موضحة

إطار مؤشرات قدرات الذكاء الاصطناعي يقيم التقدم عبر تسعة مجالات متميزة تتوافق مع القدرات البشرية الأساسية:

  1. اللغة - من التعرف على الكلمات الأساسية إلى توليد الخطاب السياقي
  2. التفاعل الاجتماعي - تقييم الذكاء العاطفي والطلاقة في المحادثة
  3. حل المشكلات - تقييم قدرات التفكير والتخطيط
  4. الإبداع - قياس الأصالة والقدرة التوليدية
  5. ما وراء المعرفة والتفكير النقدي - تحليل المراقبة الذاتية والتقييم
  6. المعرفة، التعلم والذاكرة - تقييم معالجة المعلومات
  7. الرؤية - تقييم التعرف على الأجسام وفهم المشهد
  8. التحكم - قياس التحكم الدقيق في الحركة في الروبوتات
  9. الذكاء الروبوتي - تكامل الملاحة، والتحكم، والإدراك

تُمكِّن هذه المؤشرات الشاملة صانعي السياسات من التنبؤ بتأثير الذكاء الاصطناعي عبر مختلف المجالات ذات الصلة بالعمل والتعليم. على عكس المعايير التقنية، فإنها توفر إطارًا يمكن فهمه لأولئك الذين هم خارج المجال.

تم تقديم مقياس التكافؤ البشري المكون من خمس مستويات

يتم قياس كل قدرة على مقياس من خمس مستويات يوضح التقدم نحو التكافؤ البشري:

  • المستوى 1: أساسي، مشاكل محلولة (مثل التعرف على الكلمات المفتاحية)
  • المستوى 2: قدرة محدودة على التكيف في البيئات الخاضعة للسيطرة
  • المستوى 3: فهم دلالي موثوق مع بعض التعميمات
  • المستوى 4: التفكير المتقدم مع التكيف السياقي
  • المستوى 5: التكافؤ البشري الكامل مع إتقان كامل للقدرات

يوفر هذا النهج المنظم نظام قياس واضح لفهم تطوير الذكاء الاصطناعي. في أحد الأطراف، يعكس المستوى 1 الجوانب التي تم حلها منذ فترة طويلة، في حين يمثل المستوى 5 الأنظمة التي يمكنها تكرار جميع جوانب القدرات البشرية المقابلة.

أنظمة الذكاء الاصطناعي الحالية مصنفة في مستويات متوسطة

بناءً على تقييمات نوفمبر 2024، تعمل أنظمة الذكاء الاصطناعي المتقدمة بين المستويين 2 و3 عبر جميع مجالات القدرات. تسجل نماذج اللغة الأكثر تقدمًا مثل GPT-4 في المستوى 3 من حيث القدرات اللغوية، مما يُظهر معرفة متقدمة ولكنها لا تزال تواجه صعوبة في التفكير التحليلي وتوليد معلومات واثقة ولكن غير صحيحة في بعض الأحيان.

في التفاعل الاجتماعي، بالكاد تصل الأنظمة المتقدمة إلى المستوى الثاني، حيث تعمل بشكل أساسي كممثلين متطورين دون فهم حقيقي لديناميات الاجتماعية. تصل قدرات الرؤية إلى المستوى 3، حيث تتعامل مع التغيرات في الإضاءة والأهداف المستهدفة أثناء تنفيذ مهام فرعية متعددة.

تظل الأنظمة الروبوتية عند المستوى 2، حيث تعمل بفعالية في البيئات المنظمة ذات المهام المحددة مسبقًا ولكنها غير قادرة على أداء العمل التعاوني متعدد الخطوات. يكشف هذا التقييم أنه على الرغم من التقدم السريع، لا يزال مستقبل الذكاء الاصطناعي يواجه فجوات كبيرة في الوصول إلى قدرات بمستوى الإنسان.

الخبراء يناقشون التحديات الأخلاقية والتنظيمية

وسط المناقشات التقنية حول قدرات الذكاء الاصطناعي، ظهرت المخاوف الأخلاقية كمحور رئيسي بين الخبراء في القمة. تسلط هذه المناقشات الضوء على التحديات الأساسية التي يجب معالجتها من أجل تطوير الذكاء الاصطناعي بشكل مسؤول.

مخاوف بشأن المراقبة والتحيز والمعلومات المضللة

يحدد الخبراء الأخلاقيون ثلاثة مجالات رئيسية تثير القلق بشأن مستقبل الذكاء الاصطناعي: الخصوصية والمراقبة، التحيز والتمييز، والسؤال الفلسفي الأعمق المتعلق بالحكم البشري. المراقبة المدعومة بالذكاء الاصطناعي تثير قضايا أخلاقية وقانونية كبيرة، تتعلق بشكل أساسي بجمع البيانات لأغراض دون موافقة صريحة. علاوة على ذلك، يمكن لهذه الأنظمة أن تكرس التحيزات القائمة إذا تم تدريبها على بيانات متحيزة، مما يؤدي إلى نتائج تمييزية مع معدلات خطأ أعلى للأشخاص ذوي البشرة الملونة والمجتمعات المهمشة.

الزيادة الأسية في المعاملات البيانية المدفوعة بالذكاء الاصطناعي تؤدي إلى تسلل المعلومات المضللة إلى أنظمة المعلومات. مع تطور تكنولوجيا الذكاء الاصطناعي التوليدي، تزداد قدرتها على إنشاء نصوص وصور وفيديوهات مقنعة، مما يثير مخاوف جدية بشأن التزييف العميق والمعلومات المضللة. نظرًا لأن أدوات الذكاء الاصطناعي تفتقر إلى الفهم السياقي الفطري لاكتشاف ما إذا كان المحتوى حقيقيًا، فإنها يمكن أن تنشر معلومات خاطئة تبدو موثوقة بسبب طريقة عرضها.

الدعوة إلى الشفافية في بيانات تدريب الذكاء الاصطناعي

أصبحت الشفافية بشأن بيانات تدريب الذكاء الاصطناعي قضية حاسمة حيث تقوم الشركات الرائدة بشكل متزايد بحجب المعلومات حول مجموعات بياناتها. على سبيل المثال، نشرت شركة OpenAI معلومات مفصلة حول بيانات التدريب لنموذج GPT-3 لكنها لم تقدم مثل هذه التفاصيل لنموذج GPT-4، مشيرة إلى "المشهد التنافسي والآثار المتعلقة بالسلامة". ومع ذلك، فإن الحصول على فهم أفضل لبيانات التدريب أمر بالغ الأهمية لفحص نماذج الذكاء الاصطناعي وتأثيرها الأوسع.

يعالج قانون الذكاء الاصطناعي للاتحاد الأوروبي هذا القلق من خلال مطالبة مطوري نماذج الذكاء الاصطناعي ذات الأغراض العامة بنشر "ملخصات مفصلة بشكل كافٍ" لبيانات التدريب. هذه المعلومات ضرورية لأصحاب حقوق الطبع والنشر ومراقبي الخصوصية لفهم ما إذا كانت الأنظمة تستخدم بيانات محمية بحقوق الطبع والنشر أو بيانات شخصية. توفر معلومات معالجة البيانات، بما في ذلك طرق التصفية، نظرة ثاقبة حول ما إذا كانت أنواع معينة من البيانات، مثل المعلومات الشخصية، قد تمت إزالتها من محتوى التدريب.

اقتراحات لإنشاء منظمة رقابية عالمية للذكاء الاصطناعي

أعرب الأمين العام للأمم المتحدة أنطونيو غوتيريش عن دعمه لمقترحات إنشاء هيئة رقابية دولية للذكاء الاصطناعي مشابهة للوكالة الدولية للطاقة الذرية. رداً على التحذيرات الصادرة من مطوري الذكاء الاصطناعي أنفسهم، صرح غوتيريش: "أجراس الإنذار بشأن الشكل الأحدث من الذكاء الاصطناعي - الذكاء الاصطناعي التوليدي - تصم الآذان. "وهم الأكثر صخبًا من المطورين الذين صمموه."

داعمًا لهذه الفكرة، اقترح مبتكر ChatGPT شركة OpenAI أن مثل هذا الكيان يمكن أن يفرض قيودًا على النشر، ويتحقق من الامتثال لمعايير السلامة، ويتتبع استخدام قوة الحوسبة. وبالمثل، دعا رئيس الوزراء البريطاني ريشي سوناك إلى هذا النهج، معبراً عن رغبته في أن تستضيف بريطانيا تنظيم سلامة الذكاء الاصطناعي العالمي. سيتخذ جهاز الرقابة التدابير المناسبة لحماية البيانات الشخصية والملكية الفكرية من خلال آليات شفافية مناسبة لمجموعات بيانات التدريب.

ما الذي يأتي بعد قمة سلامة الذكاء الاصطناعي؟

في أعقاب المناقشات التاريخية في قمة السلامة العالمية للذكاء الاصطناعي، تتشكل خطط التنفيذ لتوطيد الحوكمة الدولية لتقنيات الذكاء الاصطناعي. تحدد خارطة الطريق الملموسة التي تم وضعها في القمة الخطوات التالية الحاسمة لضمان تطوير مسؤول لهذه الأنظمة القوية.

منظمة التعاون الاقتصادي والتنمية تطلق مستودع المعايير في عام 2026

حددت منظمة التعاون الاقتصادي والتنمية (OECD) جدولاً زمنياً شاملاً لحوكمة الذكاء الاصطناعي المستمرة. في البداية، ستقوم المنظمة بتطوير منهجية التحديث الخاصة بها طوال عام 2025، مع تحديد أول تحديث رسمي في أوائل عام 2026. بالتزامن، تطلق منظمة التعاون الاقتصادي والتنمية مستودعًا عبر الإنترنت مصممًا خصيصًا لجمع الأدلة بشكل منهجي من المعايير التي تختبر قدرات الذكاء الاصطناعي المرتبطة بكل مؤشر. سيمكن هذا المنصة الباحثين في مجال الذكاء الاصطناعي من تقديم معايير جديدة وأشكال أخرى من تقييم الذكاء الاصطناعي للمراجعة والدمج المحتمل في التحديثات المستقبلية لمقاييس القدرات.

توظيف لجنة الخبراء وآلية التغذية الراجعة

لضمان رقابة قوية، ستبدأ منظمة التعاون الاقتصادي والتنمية في توظيف خبراء خلال عام 2025 لتشكيل لجنة استقصاء خبراء دورية رسمية، مع الإطلاق الرسمي المتوقع في عام 2026. سيقدم هذا الفريق مراجعة نقدية وملاحظات حول البيانات الرئيسية المتعلقة بقدرات الذكاء الاصطناعي. وفي الوقت نفسه، ستقوم منظمة التعاون الاقتصادي والتنمية بتنفيذ إجراءات لتحديث نتائج الذكاء الاصطناعي بانتظام على الاختبارات المعيارية الحالية، وستواصل تحديد معايير جديدة للمستويات المفقودة في كل مقياس للقدرات. ورشة عمل أولية في عام 2026 ستركز على تطوير معايير جديدة لتقييم قدرات الذكاء الاصطناعي بدقة في المجالات التي تقصر فيها الاختبارات الحالية.

القمة القادمة مقررة لعام 2026 في اليابان

اليابان في وضع يمكنها من لعب دور قيادي في مستقبل حوكمة الذكاء الاصطناعي. أعلن رئيس الوزراء كيشيدا، الذي شارك عبر الإنترنت في القمة الافتتاحية التي استضافتها المملكة المتحدة في نوفمبر 2023، أن اليابان ستستضيف القمة الكبرى المقبلة لسلامة الذكاء الاصطناعي في عام 2026. في إطار التحضير، من المقرر أن تفتتح اليابان معهدها الخاص لسلامة الذكاء الاصطناعي لإجراء البحوث حول طرق تقييم سلامة الذكاء الاصطناعي. تخطط الدولة أيضًا لإنشاء مركز طوكيو للشراكة العالمية في الذكاء الاصطناعي (GPAI) - وهي شراكة دولية بين القطاعين العام والخاص - لإجراء أبحاث وتحليلات متخصصة حول الذكاء الاصطناعي التوليدي. حاليًا، أعربت أكثر من 50 دولة ومنطقة عن دعمها لعملية هيروشيما للذكاء الاصطناعي، مما يخلق زخمًا لتوسيع التعاون الدولي.

الخاتمة

يمثل قمة السلامة العالمية للذكاء الاصطناعي لحظة فاصلة للتعاون الدولي في الإشراف على الذكاء الاصطناعي. لا شك أن إعلان بليتشلي التاريخي يؤسس لأساس حوار مستمر بين الدول، بغض النظر عن التوترات الجيوسياسية في أماكن أخرى. يعترف هذا الاتفاق غير المسبوق بكل من الفوائد المحتملة الهائلة والمخاطر الكبيرة التي تقدمها أنظمة الذكاء الاصطناعي المتقدمة.

بالتأكيد، يوفر نظام تصنيف المخاطر إطارًا عمليًا يوازن بين الابتكار والضمانات الضرورية. توجه الآن أربع فئات مخاطرة متميزة النهج التنظيمي، مما يضمن الإشراف المناسب دون عرقلة التطوير. في الوقت نفسه، تُظهر الالتزامات الطوعية من مختبرات الذكاء الاصطناعي الكبرى استعداد الصناعة للمشاركة في الحوكمة المسؤولة، وهو عامل حاسم لأي نظام تنظيمي ناجح.

مؤشرات القدرة على الذكاء الاصطناعي التي تم إنشاؤها حديثًا تقدم إنجازًا مهمًا آخر. توفر هذه الفئات التسع نظام قياس موحد يتجاوز الادعاءات التسويقية، مما يتيح تقييمًا أكثر موضوعية لأنظمة الذكاء الاصطناعي. على الرغم من أن التقنيات الحالية تعمل بشكل أساسي عند مستويات متوسطة على مقياس التكافؤ البشري، فإن هذا الإطار يسمح لصانعي السياسات بتتبع التقدم بشكل منهجي.

على الرغم من هذه الإنجازات، تظل التحديات الأخلاقية في طليعة مناقشات حوكمة الذكاء الاصطناعي. تسلط المخاوف بشأن المراقبة والتحيز والمعلومات المضللة الضوء على الحاجة إلى اليقظة المستمرة. بالإضافة إلى ذلك، فإن الدعوة إلى مزيد من الشفافية في بيانات التدريب تؤكد على التوترات بين المصالح التنافسية ومتطلبات السلامة العامة.

بالنظر إلى المستقبل، توفر خطط التنفيذ الملموسة خارطة طريق لتحويل التزامات القمة إلى حوكمة عملية. سيساعد مستودع المعايير التابع لمنظمة التعاون الاقتصادي والتنمية، وتوظيف لجنة الخبراء، وآليات التغذية الراجعة في تحسين أساليب الحوكمة استنادًا إلى الأدلة الواقعية. بعد ذلك، سيعزز استضافة اليابان للقمة المقبلة في عام 2026 هذا الأساس، مما يوسع التعاون الدولي بشأن سلامة الذكاء الاصطناعي.

تُظهر الجهود الجماعية المبذولة في بلتشلي بارك أن الإشراف التعاوني لا يزال ممكنًا حتى بالنسبة للتقنيات التي تتطور بسرعة غير مسبوقة. على الرغم من أن هناك عملاً كبيراً ينتظرنا، فإن هذه القمة الافتتاحية قد وضعت حواجز حاسمة لمستقبل الذكاء الاصطناعي - وهي تقنية تواصل تحويل عالمنا بطرق عميقة.

أحدث أقدم

نموذج الاتصال