الأمم المتحدة تدعو إلى إبطاء سباق الذكاء الاصطناعي في مجال التسلح

الرئيس نيوز 0 تعليق ارسل طباعة تبليغ حذف

دعا خبراء نزع السلاح في الأمم المتحدة وقادة شركات "التكنولوجيا الكبرى" إلى تباطؤ سباق الذكاء الاصطناعي وتحديدا في مجال التسلح، وأكدوا أنه يجب على شركات تكنولوجيا المعلومات التركيز على الصورة الأكبر لضمان عدم إساءة استخدام هذه التكنولوجيا في ساحة المعركة.

وقالت جوسيا لوى، نائبة رئيس معهد الأمم المتحدة للأبحاث نزع السلاح (UNIDIR): "إن الانخراط مع مجتمع التكنولوجيا ليس أمرا اختياريا لصانعي السياسات الدفاعية - بل هو أمر ضروري للغاية أن يكون هذا المجتمع مشاركا منذ البداية في تصميم وتطوير واستخدام الأطر التي ستوجه سلامة وأمن أنظمة وقدرات الذكاء الاصطناعي"، بحسب الموقع الرسمي للأمم المتحدة.

وتحدثت جوسيا في مؤتمر الأمم المتحدة للأمن والأخلاقيات في جنيف، مشيرة إلى أهمية بناء الحواجز الوقائية بينما يتعامل العالم مع ما يسمى "لحظة أوبنهايمر" للذكاء الاصطناعي – في إشارة إلى روبرت أوبنهايمر، الفيزيائي النووي الأمريكي الشهير بدوره الحاسم في إنشاء القنبلة الذرية.

وأكدت مسؤولة معهد الأمم المتحدة للأبحاث نزع السلاح على الحاجة إلى الرقابة لضمان احترام تطورات الذكاء الاصطناعي لحقوق الإنسان والقانون الدولي والأخلاقيات، خصوصا في مجال الأسلحة الموجهة بالذكاء الاصطناعي، لضمان أن تتطور هذه التكنولوجيا القوية بطريقة منضبطة ومسؤولة.

ولفتت إلى أن تقنيات الذكاء الاصطناعي خلقت بالفعل معضلة أمنية للحكومات والجيوش حول العالم.

وحسب تحذير أرنو فالّي، رئيس الشؤون العامة في شركة كوماند للذكاء الاصطناعي، أدى الطابع المزدوج لتقنيات الذكاء الاصطناعي – حيث يمكن استخدامها في بيئات مدنية وعسكرية على حد سواء – إلى تحذير المطورين من أنهم قد يفقدون الاتصال بواقعية الظروف في ساحة المعركة، حيث قد تتسبب برمجياتهم في فقدان الأرواح.

وأضاف أن الأدوات لا تزال في مراحلها الأولى لكنها أثارت مخاوف طويلة الأمد من إمكانية استخدامها في اتخاذ قرارات حياة أو موت في بيئة حرب، مما يلغي الحاجة إلى اتخاذ قرارات بشرية وتحمل المسؤولية.. ومن هنا تأتي الدعوات المتزايدة لتنظيم هذه التكنولوجيا، لتجنب الأخطاء التي قد تؤدي إلى عواقب كارثية.

وقال ديفيد سالي، الرئيس التنفيذي لشركة "أدفاي" في لندن: "نرى هذه الأنظمة تفشل طوال الوقت، وهذه التقنيات لا تزال غير موثوقة". وأضاف: "لذلك، جعلها تخطئ ليس بالأمر الصعب كما يعتقد البعض أحيانا".

في مايكروسوفت، تركز الفرق على المبادئ الأساسية للسلامة والأمن والشمولية والعدالة والمساءلة، وفقا لما قاله مايكل كريمين، مدير الدبلوماسية الرقمية.

وأوضح كريمين أن عملاق التكنولوجيا الأمريكي الذي أسسه بيل جيتس يضع قيودا على تكنولوجيا التعرف على الوجوه في الوقت الفعلي التي تستخدمها قوات إنفاذ القانون والتي قد تسبب ضررا نفسيا أو جسديا.

وأضاف أنه يجب وضع ضوابط واضحة ويجب على الشركات التعاون لكسر الحواجز، مشيرا إلى أن الابتكار ليس شيئا يحدث داخل منظمة واحدة فقط، بل هناك مسؤولية في المشاركة.

وقالت سولينا نور عبدالله، رئيسة التخطيط الاستراتيجي والمستشارة الخاصة للأمين العام في الاتحاد الدولي للاتصالات: "إن تطور الذكاء الاصطناعي يتجاوز قدرتنا على إدارة مخاطره العديدة". وأضافت: "يجب أن نعالج مفارقة حوكمة الذكاء الاصطناعي، مع الاعتراف بأن التنظيمات في بعض الأحيان تتأخر عن التكنولوجيا، مما يجعل من الضروري إجراء حوار مستمر بين الخبراء السياسيين والتقنيين لتطوير أدوات للحوكمة الفعالة".

إخترنا لك

أخبار ذات صلة

0 تعليق