Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
أخبار التكنولوجيا

بعد اجتيازه اختبار الترخيص الطبى الأميركى.. هل يمكن أن يكون ChatGPT طبيباً؟


تعاون الدكتور إسحاق كوهين الطبيب وعالم الكمبيوتر في جامعة هارفارد مع اثنين من زملائه لاختبار  GPT-4، بهدف رئيسي واحد هو معرفة كيفية أداء أحدث نموذج ذكاء اصطناعي من OpenAI في مجال الطب حسبما نقلت CNBC.


 

ومع ذلك، فإن GPT-4 ليس مجرد مجيب جيد على الاختبار ومكتشف للحقائق، إنه أيضًا مترجم قوي، فهو قادر على ترجمة بيانات مريض يتحدث البرتغالية، وتبسيط المصطلحات التقنية غير التقليدية إلى شيء يمكن قراءته بسهولة.


 


ويمكن لـ GPT-4 أيضًا أن يقدم نصائح للأطباء حول كيفية التحدث إلى المرضى حول ظروفهم بلغة رحيمة وواضحة، ويمكنه قراءة التقارير أو الدراسات المطولة وتلخيصها في غمضة عين. 


 


ولكن إذا سألت GPT-4 عن كيفية قيامه بكل هذا، فمن المحتمل أن يخبرك أن كل ذكاءه لا يزال “مقصورًا على أنماط في البيانات ولا يتضمن فهمًا حقيقيًا أو عن قصد.” هذا ما قاله GPT-4 لمؤلف الكتاب، عندما سأله عما إذا كان بإمكانه فعلاً الانخراط في التفكير السببي. 


 


حتى مع وجود مثل هذه القيود، كما اكتشف كوهين في الكتاب، يمكن لـ GPT-4 محاكاة كيفية تشخيص الأطباء للحالات بنجاح مذهل – وإن كان غير كامل.




كيف يمكن لـ GPT-4 التشخيص كطبيب؟


قام كوهين بتجربة فكرية إكلينيكية باستخدام GPT-4 في الكتاب، بناءً على حالة من الحياة الواقعية تضمنت طفلًا حديث الولادة عالجه قبل عدة سنوات. 


 


بإعطاء الروبوت بعض التفاصيل الأساسية حول الطفل جمعها من الفحص البدني، بالإضافة إلى بعض المعلومات من مستويات الموجات فوق الصوتية والهرمونات، كان الروبوت قادرًا على تشخيص هذه الحالة – وهي واحدة من كل 100 ألف حالة تسمى تضخم الغدة الكظرية الخلقي – بشكل صحيح تمامًا كما فعل كوهين مع كل سنوات دراسته وخبرته، على حد قوله.


 


GPT-4 ليس صحيحًا دائمًا وليس له بوصلة أخلاقية


لا يمكن الاعتماد على GPT-4 دائمًا، والكتاب مليء بأمثلة على أخطائه، وهي تتراوح من الأخطاء الكتابية البسيطة، مثل الخطأ في تقدير مؤشر كتلة الجسم الذي قام الروبوت بحسابه بشكل صحيح قبل لحظات، إلى الأخطاء الحسابية مثل “حل” لغز سودوكو بشكل غير دقيق. 


 


غالبًا ما تكون الأخطاء خفية، ويميل النظام إلى التأكيد على صحة معلوماته، حتى عند الاعتراض عليه. ليس من المبالغة أن نتخيل كيف يمكن أن يؤدي الرقم الخاطئ أو الوزن الخاطئ إلى أخطاء جسيمة في الوصفات الطبية أو التشخيص.


 


بسؤاله عن هذا الأمر، قال GPT-4: “لا أنوي خداع أو تضليل أي شخص، لكنني أحيانًا أرتكب أخطاء أو أقدم افتراضات بناءً على بيانات غير كاملة أو غير دقيقة، كما أنني لا أمتلك الحكم السريري أو المسؤولية الأخلاقية لطبيب أو ممرضة بشرية”.


 


ومن الواضح أن GPT-4 لديه القدرة على توفير الوقت الثمين والموارد في العيادات، مما يسمح للأطباء بأن يكونوا أكثر حضوراً مع المرضى، بدلاً من تركيزهم في شاشات الكمبيوتر.


 


يقول في كتابه الذي سيصدر قريباً “ثورة الذكاء الاصطناعي في الطب” إن GPT-4 – الذي تم إصداره في مارس 2023 للمشتركين الذين يدفعون رسومًا – يجيب على أسئلة ترخيص الفحص الطبي في الولايات المتحدة بشكل صحيح بنسبة تتجاوز 90%، فكان أداؤه أفضل بكثير من نماذجChatGPT السابقة و GPT-3 و -3.5 وأفضل من بعض الأطباء المرخصين أيضًا.


اكتشاف المزيد من إن سفن

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من إن سفن

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading