عاجل:

دعوات دولية متزايدة لتنظيم الذكاء الاصطناعي: خبراء يحذرون من مخاطر "غير مسبوقة"

  • ٦٩

طالب عشرات الباحثين والمديرين التنفيذيين في قطاع الذكاء الاصطناعي بضرورة وضع إطار تنظيمي دولي ملزم يهدف إلى فرض قيود على استخدام هذه التقنية، محذرين من آثارها المحتملة التي قد تُشكل تهديدًا خطيرًا للبشرية في حال استُخدمت دون رقابة.

وجاء هذا النداء المشترك بالتزامن مع افتتاح أعمال الجمعية العامة للأمم المتحدة في نيويورك، حيث أشار الموقعون إلى أن "الذكاء الاصطناعي يحمل إمكانات هائلة لتعزيز رفاه الإنسان، إلا أن مساره الحالي يمثل مخاطر غير مسبوقة تهدد البشرية جمعاء".

ودعا البيان إلى تعاون دولي عاجل للتوصل إلى "اتفاقات دولية بشأن الخطوط الحمراء لاستخدام الذكاء الاصطناعي"، يتم فرضها على الجهات الكبرى العاملة في تطوير هذه التقنية. وشدد الموقعون على أهمية وضع "ضمانات دنيا" تكون بمثابة "جامع مشترك" تتفق عليه الحكومات لحصر أخطر التهديدات المرتبطة بالذكاء الاصطناعي.

وتقف خلف هذه المبادرة مؤسسات بارزة، منها المركز الفرنسي للأمان في الذكاء الاصطناعي، ومنظمة "ذا فيوتشر سوسايتي"، ومركز الذكاء الاصطناعي المتوافق مع الإنسان في جامعة بيركلي، إلى جانب أكثر من 20 منظمة شريكة.

وأوضح الخبراء أن الذكاء الاصطناعي قد يصل في المستقبل القريب إلى تجاوز القدرات البشرية بكثير، مما يرفع من احتمالية ظهور مخاطر جسيمة تشمل: انتشار الأوبئة، تصاعد المعلومات المضللة، تهديدات للأمن القومي، بطالة جماعية، وانتهاكات لحقوق الإنسان.

وشملت قائمة الموقعين أسماء مرموقة في القطاع، منهم جيسون كلينتون، كبير مسؤولي الأمن المعلوماتي في شركة Anthropic، وعدد من زملائه، إلى جانب موظفين من شركتي DeepMind التابعة لشركة غوغل، وOpenAI المطورة لـ"ChatGPT".

كما وقع على النداء علماء بارزون مثل جيفري هينتون، الحائز على جائزة نوبل في الفيزياء لعام 2024 وأحد مؤسسي الذكاء الاصطناعي الحديث، ويوشوا بينجيو، أستاذ جامعة مونتريال وأحد أبرز الأصوات العلمية في هذا المجال.

وتهدف الجهود الحالية لدى العديد من المؤسسات التقنية الكبرى إلى تطوير ما يُعرف بـالذكاء الاصطناعي العام، وهو النوع الذي يعادل القدرات الفكرية البشرية، بل ويتجاوزها في ما يُعرف بـالذكاء الخارق، ما يثير قلقًا واسعًا بشأن إمكانية فقدان السيطرة على هذه التقنيات.

واختتم الموقعون بيانهم بالتذكير بأن البشرية نجحت سابقًا في وضع اتفاقات دولية للحد من مخاطر تقنيات فتاكة، مثل معاهدة عدم انتشار الأسلحة النووية (1970) وبروتوكول جنيف (1925) الخاص بحظر الأسلحة الكيميائية، ما يُعزز إمكانية التوصل إلى اتفاقات مماثلة بشأن الذكاء الاصطناعي.

المنشورات ذات الصلة