الصحة العالمية تدعو لتوخى الحذر فى استخدام أدوات نماذج اللغة بالذكاء الاصطناعي
تدعو منظمة الصحة العالمية (WHO) إلى توخي الحذر في استخدام أدوات نماذج اللغة الكبيرة (LLMs) التي تم إنشاؤها بواسطة الذكاء الاصطناعي (AI) لحماية وتعزيز رفاهية الإنسان وسلامة الإنسان والاستقلالية والحفاظ على الصحة العامة.
وقالت: “من الضروري فحص المخاطر بعناية عند استخدام LLMs لتحسين الوصول إلى المعلومات الصحية، كأداة لدعم القرار أو حتى لتعزيز القدرة التشخيصية في ظروف ضعف الموارد لحماية صحة الناس وتقليل عدم المساواة.”
وفى هذا الصدد، قالت هيئة الأمم المتحدة، رغم تحمسها للاستخدام المناسب للتقنيات ، بما في ذلك LLMs ، لدعم المتخصصين في الرعاية الصحية والمرضى والباحثين والعلماء ، “هناك قلق من أن الحذر الذي يتم اتخاذه عادة لأي تقنية جديدة لا يتم اتخاذه تمارس باستمرار مع LLMs. ويشمل ذلك الالتزام الواسع النطاق بالقيم الرئيسية للشفافية والشمول والمشاركة العامة والإشراف الخبير والتقييم الصارم. “
5 أشياء تقلق من حول LLMs
قد تكون البيانات المستخدمة لتدريب الذكاء الاصطناعي متحيزة، وتولد معلومات مضللة أو غير دقيقة يمكن أن تشكل مخاطر على الصحة والإنصاف والشمولية؛
و LLMs تولد استجابات يمكن أن تبدو موثوقة ومعقولة للمستخدم النهائي، ومع ذلك قد تكون هذه الاستجابات غير صحيحة تمامًا أو تحتوي على أخطاء جسيمة، خاصة بالنسبة للاستجابات المتعلقة بالصحة.
قد يتم تدريب LLM على البيانات التي ربما لم يتم تقديم الموافقة عليها مسبقًا لمثل هذا الاستخدام، وقد لا تحمي LLM البيانات الحساسة (بما في ذلك البيانات الصحية) التي يقدمها المستخدم لتطبيق ما لإنشاء استجابة.
وبينما تلتزم منظمة الصحة العالمية بتسخير التقنيات الجديدة، بما في ذلك الذكاء الاصطناعي والصحة الرقمية لتحسين صحة الإنسان، فإنها توصي صانعي السياسات بضمان سلامة المرضى وحمايتهم بينما تعمل شركات التكنولوجيا على تسويق LLMs.
اكتشاف المزيد من إن سفن
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.