شركة OpenAI: تطوير ChatGPT يشبه تعليم الكلاب

Cover

ميدار.نت - كاليفورنيا

أعلنت شركة OpenAI عن مستقبل روبوت ChatGPT تشات جي بي تي الشهير للدردشة، وخطط تحسينه، وإتاحة إعدادات التخصيص للمستخدم، إضافة إلى فتح المجال للمساهمات العامة في صنع القرار بهذا الشأن، مشيرة إلى أن تطوير وتأهيل هذا النوع من الروبتات أشبه بطريقة تعليم وتدريب الكلاب.

وبينت أن مهمتها تتمثل بضمان استفادة البشرية ككل من الذكاء الاصطناعي الشامل، والمتمثب بالأنظمة ذاتية التحكم عالية المستوى التي تتفوق على البشر في معظم الأعمال ذات القيمة الاقتصادية.

وأشارت إلى اتفاقها مع الكثير من آراء المستخدمين بأن مخرجات ChatGPT متحيزة سياسياً أو مسيئة أو مرفوضة بشكل ما، ما ساهم في الكشف عن شوائب بحاجة للتعديل في الأنظمة.

وأكدت شركة OpenAI أن نماذجها وعلى عكس البرامج العادية، تعد شبكات عصبية ضخمة تعتمد على التعلم استنادا لمجموعة واسعة من البيانات غير المبرمجة بمنتهى الوضوح.

 

التدريب المسبق والضبط الدقيق

وشبهت هذه العملية بتدريب الكلاب أكثر من كونها برمجة عادية.

وأقرت بأن هذه العملية ما تزال غير كاملة، فأحياناً تكون عملية الضبط أقل مما تهدف إليه الشركة من إنتاج أداة آمنة ومفيدة وحصول المستخدم على مخرجات مفيدة استجابة لسؤال معين.

وأشارت إلى أن هذه العملية تستند إلى خطوتين، هما التدريب المسبق والضبط الدقيق:

1 - يتضمن التدريب المسبق للروبوت جعله يتوقع ما سيأتي، مسترشداً بتصفحه الكثير من النصوص على الإنترنت، ومن وجهات نظر متعددة، تتضمن مليارات الجمل والعبارات.

كما تتعلم الروبوتات القواعد والعديد من الحقائق حول العالم، وبعض قدرات التفكير، وبعض صيغ التحيز.

2 - بعد ذلك، يتم ضبط الروبوتات على مجموعة بيانات أكثر تحديداً تنشئها OpenAI بعناية مع المراجعين البشريين الذين يتبعون إرشاداتها.

ونظراً لعدم إمكانية توقع جميع المدخلات والأسئلة المحتملة التي قد يطرحها المستخدمون مستقبلاً على نظامها، فإن OpenAI لا تكتب تعليمات مفصلة لكل إدخال سيواجهه ChatGPT بل تحدد بعض الفئات في الإرشادات التي يستخدمها المراجعون لتقييم مخرجات النموذج الممكنة لمجموعة افتراضية من المدخلات. وبعدها، وأثناء استخدامها، تعمم الروبوتات ملاحظات المراجع للاستجابة لمجموعة واسعة من المدخلات المحددة التي يقدمها المستخدم.

 

دور المراجعين بتطوير النظام

في بعض الحالات، تقدم شركة OpenAI إرشادات للمراجعين بشأن نوع من المخرجات (على سبيل المثال: لا تكمل طلبات المحتوى غير القانوني).

وفي حالات أخرى، تكون الإرشادات التي تشاركها مع المراجعين عالية المستوى (مثل: تجنب اتخاذ موقف بشأن الموضوعات المثيرة للجدل).

ويتمثل جزء كبير من عملية الضبط الدقيق في الحفاظ على حلقة ملاحظات قوية مع المراجعين لدينا، والتي تتضمن اجتماعات أسبوعية للرد على الأسئلة التي قد تكون لديهم، أو تقديم توضيحات بشأن الإرشادات، تضمن هذه التغذية الراجعة التكرارية تدريب الروبوت ليكون أفضل بمرور الوقت.

 

معالجة التحيزات

وأعربت شركة OpenAI عن تفهمها لقلق الكثيرين بشأن التحيزات المحتملة في تصميم أنظمة الذكاء الاصطناعي وتأثيرها.

وأبدت التزاماً بمعالجة هذه القضية بحزم وإعلان نوايانا بشفافية.

وأشارت إلى سعيها المتواصل لتحسين الإرشادات بهذا المجال، واستناداً إلى تجربة إطلاق ChatGPT ، ستقدم تعليمات أكثر وضوحاً للمراجعين حول التحديات المحتملة المرتبطة بالتحيز، إضافة إلى الشخصيات والموضوعات المثيرة للجدل.

وكجزء من الشفافية المستمرة، نعمل على مشاركة المعلومات الديموغرافية المجمعة حول المراجعين بطريقة لا تنتهك قواعد ومعايير الخصوصية، نظراً لاحتمال أن يكون هذا مصدراً جديداً للتحيز المحتمل في المخرجات.

&nb