OpenAIتشكّل فريقاً خاصاً لتأمين مستقبل الذكاء الاصطناعي

Cover

ميدار.نت - سان فرانسيسكو

شكّلت شركة OpenAI فريقاً خاصاً مختص في تحديد ومنع المخاطر المرتبطة بتقنيات الذكاء الاصطناعي، مما يسلط الضوء على التزامها بضمان سلامة تطور هذه التقنية المتقدمة.

ويتناول هذا الخبر الأحداث التي سبقت إعلان تأسيس الفريق ويكشف عن تفاصيل المبادرة الرائدة.

وتم إشهار الخبر بعد شهر من إقالة مبتكر واجهة المحادثة "تشات جي بي تي" سام ألتمان، الذي عاد إلى منصبه بعد فترة قصيرة.

 

تحمّل المسؤوليات

وأشارت تقارير أميركية إلى تفضيل مجلس الإدارة لتطوير OpenAI بشكل سريع، حتّى في حال كان ذلك يتسبب في احتمال انتهاكات قد تتطلب تحمل مسؤوليتها.

ويتسلط الضوء في النص على قيادة الفريق للباحث في علوم الكمبيوتر ألكسندر مادري، الذي يعمل أستاذاً في معهد ماساتشوستس للتكنولوجيا.

ويستعرض الخبر تفاصيل الإطار الذي سيعتمد عليه الفريق في تحليل المخاطر وتقييم كل نموذج جديد في أربع فئات رئيسية.

 

نموذج مؤثر

ويشكّل التنبؤ بقدرة النموذج على تنفيذ هجمات سيبرانية، وتأثيره في إنشاء مواد ضارة، وتأثيره على السلوك البشري، واستقلاليته المحتملة أهم فئات التقييم.

وستقدم النتائج إلى المجموعة الاستشارية للسلامة، حيث يتخذ قرار رئيس OpenAI بتعديلات ممكنة لتقليل المخاطر المحتملة.

وتعكس هذه الخطوة التزام OpenAI بالتقنية المسؤولة وتفادي المخاطر، مما يؤكد على دورها الريادي في مجال الذكاء الاصطناعي والسعي المستمر لتطويره بشكل أمن وفعال.