أخبار التكنولوجيا

جدل ومخاوف أخلاقية بعد استخدام أداة ذكاء اصطناعى ChatGPT فى الصحة النفسية


تستخدم إحدى الشركات الذكاء الاصطناعي لتجربة رعاية الصحة العقلية الرقمية، مع توسع حالات استخدام أداة ChatGPT، مما يثير المخاوف الأخلاقية حول استخدام التكنولوجيا، حيث كتب روب موريس، الشريك المؤسس لـ Koko، وهي خدمة مجانية للصحة العقلية وغير ربحية تتعاون مع المجتمعات عبر الإنترنت للعثور على الأفراد المعرضين للخطر وعلاجهم، في موضوع على تويتر، أن شركته استخدمت روبوتات الدردشة GPT-3 للمساعدة في تطوير ردود على 4000 مستخدم.


 

وفقا لما ذكره موقع “business insider”، قال موريس، إن الشركة اختبرت نهجًا مساعدًا مع البشر الذين يشرفون على الذكاء الاصطناعي حسب الحاجة في الرسائل المرسلة عبر دعم الزملاء، وهي منصة وصفها في مقطع فيديو مصاحب بأنها “مكان يمكنك فيه الحصول على المساعدة من شبكة أو مساعدة شخص آخر”.


 


قال موريس في الفيديو: “نجعل من السهل جدًا مساعدة الآخرين، وباستخدام GPT-3، نجعل الأمر أكثر سهولة وكفاءة وفعالية كمقدم مساعدة”.


 


يعد  ChatGPTهو أحد أشكال GPT-3، والذي يقوم بإنشاء نص يشبه الإنسان بناءً على المطالبات، وكلاهما تم إنشاؤه بواسطة OpenAI.


 


لم يتم إبلاغ مستخدمي Koko في البداية بأن الردود طورت بواسطة روبوت، وكتب موريس، “بمجرد أن علم الناس أن الرسائل تم إنشاؤها بشكل مشترك بواسطة آلة، فإنها لم تنجح”.


 


وقالت التغريدة: “لم نقم بإقران الأشخاص للدردشة مع GPT-3 ، دون علمهم”، مضيفة “تم تفعيل هذه الميزة، كان الجميع يعرفها عندما كانت متاحة لبضعة أيام.”


 


وأشار إلى أن الرسائل المستندة إلى الذكاء الاصطناعي “تم تصنيفها أعلى بكثير من تلك التي كتبها البشر بأنفسهم”، وأن أوقات الاستجابة انخفضت بنسبة 50٪ بفضل التكنولوجيا.




المخاوف الأخلاقية والقانونية


أدت التجربة إلى احتجاج على تويتر، حيث دعا بعض المتخصصين في مجال الصحة العامة والتكنولوجيا الشركة إلى مزاعم انتهاكها لقانون الموافقة المستنيرة، وهي سياسة فيدرالية تفرض على البشر تقديم الموافقة قبل المشاركة في أغراض البحث.


 


وكتب المحلل الإعلامي والباحث إريك سيوفيرت على تويتر يوم السبت “هذا غير أخلاقي بالمرة”.


 


وغرد كريستيان هيسكث، الذي وصف نفسه على تويتر بأنه عالم إكلينيكي: “يا إلهي.. كان يجب أن يعطي المشاركون موافقة مستنيرة ويجب أن يمر هذا من خلال مجلس المراجعة المؤسسية IRB.”


 


قال موريس إن الشركة لا تجمع الأشخاص للدردشة مع GPT-3، وقال إن خيار استخدام التكنولوجيا قد أزيل بعد أن أدركت أنها “بدت وكأنها تجربة غير أصلية”.


 


وأوضح موريس: “يجب على كل فرد أن يقدم موافقته على استخدام الخدمة”، “إذا كانت هذه دراسة جامعية، وهي ليست كذلك، لقد كانت مجرد ميزة منتج تم استكشافها، فسيتم تصنيفها ضمن فئة البحث” المعفاة “.


 


وتابع: “هذا لم يفرض مزيدًا من المخاطر على المستخدمين، ولا خداعًا، ولا نجمع أي معلومات شخصية أو معلومات صحية شخصية، مضيفا “لا يوجد بريد إلكتروني، أو رقم هاتف، أو عنوان IP ، أو اسم مستخدم”.


 


ومع ذلك، فإن التجربة تثير تساؤلات حول الأخلاقيات والمناطق الرمادية المحيطة باستخدام روبوتات الدردشة الذكية في الرعاية الصحية بشكل عام، بعد أن أثارت بالفعل اضطرابات في الأوساط الأكاديمية.


 


كتب آرثر كابلان، أستاذ أخلاق الطب الحيوي في كلية جروسمان للطب بجامعة نيويورك، أن استخدام تقنية الذكاء الاصطناعي دون إبلاغ المستخدمين “غير أخلاقي تمامًا”.


 


وأضاف كابلان: “إن تدخل ChatGPT ليس معيارًا للرعاية”، موضحا “لم تتحقق أي مجموعة نفسية من فعاليتها أو تحدد المخاطر المحتملة.”

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى