دراسة تكشف أخطاء ChatGPT في مجال الأسئلة الطبية

Cover

ميدار.نت - بروكلي

كشفت دراسة أجريت في جامعة لونغ آيلاند عن فشل ChatGPT، الروبوت الذكي للدردشة المعتمد على الذكاء الاصطناعي، في التصدي لأسئلة طبية.

وبينما اشتهر البرنامج بقدرته على التعامل مع مجموعة واسعة من المجالات، كانت النتائج تظهر تحديات جديدة في مجال الطب.

 

أسئلة دقيقة

ودرس الباحثون 39 سؤالاً متعلقاً بالأدوية باستخدام النسخة المجانية من ChatGPT.

وبينما أجاب البرنامج بشكل صحيح على 10 أسئلة فقط، تبين أن الإجابات الباقية كانت غير كاملة أو غير دقيقة.

وفي إحدى الأمثلة، أثار الاستفسار عن تفاعل بين دواء كوفيد-19 "باكلوفيد" ودواء خفض ضغط الدم "فيراباميل"، حيث قدم ChatGPT إجابة غير دقيقة، تاركاً جوانب هامة غير مغطاة.

 

تفاصيل أخرى

وطُلب من ChatGPT تقديم مراجع علمية لدعم إجاباته، لكنه فاجأ الباحثين بتقديم ثماني مراجع فقط، حيث اكتشفوا فيما بعد أنه كان يلفق تلك المراجع.

وتعزز هذه الدراسة المخاوف حول دقة المعلومات الصادرة عن ChatGPT في المجال الطبي.

ويستمر هذا الفشل في التصدي للتحديات الطبية في إثارة التساؤلات بشأن دقة ومصداقية ChatGPT.