OpenAI تشكل فريقاً للتصدي لتهديدات الذكاء الاصطناعي النووية

Cover

ميدار.نت - سان فرانسيسكو

كشفت شركة "أوبن أي آي" عن تشكيل فريق جديد يُعنى بدراسة وتقييم نماذج الذكاء الاصطناعي والتحقيق في مخاطرها بهدف الحماية من ما يصفونه بـ "المخاطر الكارثية".

ويقود هذا الفريق المسمى:(الاستعداد) السيد ألكسندر مادري، مدير مركز تقنية التعلم الآلي القابل للنشر بمعهد MIT، الذي انضم إلى "أوبن أي آي" في شهر مايو الماضي بصفته رئيس قسم الاستعداد، وفقًا لصفحته على "لينكدإن".

ويتضمّن دور فريق (الاستعداد) تتبع مخاطر الأنظمة الذكية الاصطناعية المستقبلية والتنبؤ بها والدفاع عنا منها.

ويشمل هذا قدرتها على إقناع البشر وخداعهم، مثلما يحدث في هجمات التصيد الاحتيالي، بالإضافة إلى قدرتها على إنشاء تعليمات برمجية ضارة.

ويبدو أن بعض فئات المخاطر التي سيتقيمها فريق (الاستعداد) تظهر أكثر إثارة للقلق مقارنةً بغيرها، بما في ذلك التهديدات الكيميائية والبيولوجية والإشعاعية والنووية وفقًا لمنشور "أوبن أي آي".

ويعد سام ألتمان، المدير التنفيذي لشركة "أوبن أي آي"، من بين أكثر المتشائمين بخصوص التقنية، حيث يعبر غالبًا عن مخاوفه من أن الذكاء الاصطناعي قد يهدد بانقراض البشر.

وتستعد الشركة أيضاً إلى دراسة المجالات ذات الوضوح والارتباط الأعلى بالمخاطر المتعلقة بالتقنيات الناشئة.

 

أفكار من المجتمع

وطلبت "أوبن أي آي" أفكاراً من المجتمع لدراسات المخاطر مع عرض جوائز قيمتها 25,000 دولار وفرص عمل في فريق (الاستعداد) عبر الإنترنت لأفضل عشرة طلبات، وذلك بالتزامن مع تشكيل فريق (الاستعداد).

وتعقد "أوبن أي آي" العزم على استكمال أعمالها في مجال سلامة الذكاء الاصطناعي، مع التركيز على مراحل النشر السابقة واللاحقة للنماذج.

وتهدف الشركة إلى تقديم فهم وبنية تحتية لضمان سلامة أنظمة الذكاء الاصطناعي ذات القدرة العالية، مع تقديم سياسة تطوير مستنيرة للمخاطر وأدوات مراقبة، وإجراءات للحد من المخاطر وتنظيم الإدارة.

وتعتقد "أوبن أي آي" أن نماذج التقنية المستقبلية ستقدم فوائد كبيرة للبشرية، ولكنها تمثل أيضاً تحديات كبيرة تتطلب فهماً عميقاً وتدابير وقائية.

وتأتي هذه الخطوة في إطار جهود أوسع لضمان أمان التكنولوجيا والذكاء الاصطناعي.

ويأتي الإعلان عن فريق (الاستعداد) بالتزامن مع جهود أخرى مماثلة لتعزيز سلامة الذكاء الاصطناعي، مما يظهر العمل المستمر لـ "أوبن أي آي" في هذا المجال.