الصين تتحرك دبلوماسياً لاحتواء توترات مضيق هرمز وتطلق جولة إقليمية لمبعوثها
تحالف خبراء يطالب بإلزام مطوري الذكاء الاصطناعي بتركيب "مفاتيح إيقاف" طارئة
أطلق تحالف دولي يضم مئات الخبراء التقنيين ومسؤولين سابقين خارطة طريق جريئة تهدف لضبط سباق تطوير الذكاء الاصطناعي، وتطالب الوثيقة بفرض قيود تشريعية صارمة، أبرزها إلزام الشركات بدمج "مفاتيح إيقاف" حتمية في جميع نماذج الذكاء الاصطناعي القوية لضمان بقاء السيطرة البشرية المطلقة.
هذه الوثيقة الشاملة تسعى لتنظيم الفوضى التكنولوجية الراهنة، وتنص بوضوح على منع تطوير أنظمة الذكاء الخارق (Superintelligence) دون وجود إجماع علمي دقيق وموثوق. وتأتي هذه المطالبة استجابة للمخاوف المتزايدة، حيث أظهرت استطلاعات الرأي، وفقاً لموقع "بيتس ديك"، أن الجمهور يرفض بشدة هذا السباق غير المنظم للوصول إلى ذكاء يفوق البشر.
تدعو الخارطة أيضاً إلى حظر تصميم أي خوارزميات قادرة على الاستنساخ الذاتي أو التطوير التلقائي المستقل دون رقابة بشرية مباشرة. بالإضافة إلى ذلك، تشدد الوثيقة على ضرورة إجراء اختبارات سلامة إجبارية قبل إطلاق أي منتجات ذكية موجهة للأطفال والناشئين لتفادي أي تلاعب نفسي محتمل.
يأتي هذا التحرك الجماعي الحاسم في ظل غياب تشريعات حكومية فعالة تواكب السرعة الهائلة لتطورات الذكاء الاصطناعي التوليدي. ويعكس الموقف إدراكاً متزايداً للمخاطر الوجودية والمجتمعية التي قد تنجم عن فقدان السيطرة على هذه الأنظمة المتطورة.
أما فيما يتعلق بمفهوم "مفاتيح الإيقاف"، فهي آليات تقنية وبرمجية مدمجة تتيح للمشغلين البشريين تعطيل البرامج القوية فوراً في حال ظهور سلوك خطير أو خروج النظام عن نطاق السيطرة، خاصة وأن الذكاء الخارق يمثل مستوى مستقبلياً يتجاوز القدرات العقلية البشرية في جميع المجالات المعرفية.