دعت منظمة الصحة العالمية إلى توخي الحذر عند استخدام تطبيقات الذكاء الاصطناعي في استشارات الرعاية الصحية العامة، قائلة إن البيانات التي يستخدمها الذكاء الاصطناعي للتوصل إلى قرارات قد تتسم بالتحيز أو يساء استخدامها.
وتضم “LLMs” بعضًا من أسرع المنصات توسعاً مثل ChatGPT و Bard و Ber وغيرها التي تحاكي الفهم والمعالجة وإنتاج الاتصالات البشرية.
وشددت المنظمة في بيان أصدرته الثلاثاء الماضي، على ضرورة فحص المخاطر بعناية عند استخدام LLMs لتحسين الوصول إلى المعلومات الصحية، كأداة لدعم القرار أو حتى لتعزيز القدرة التشخيصية في ظروف ضعف الموارد لحماية صحة الناس وتقليل عدم المساواة.”
ووفقا لما نقل موقع “اليوم السابع” عن المنظمة، فقد تكون البيانات المستخدمة لتدريب الذكاء الاصطناعي متحيزة، وتولد معلومات مضللة أو غير دقيقة يمكن أن تشكل مخاطر على الصحة والإنصاف والشمولية؛ وLLMs تولد استجابات يمكن أن تبدو موثوقة ومعقولة للمستخدم النهائي، ومع ذلك قد تكون هذه الاستجابات غير صحيحة تمامًا أو تحتوي على أخطاء جسيمة، خاصة بالنسبة للاستجابات المتعلقة بالصحة.
كما قد يتم تدريب LLM على البيانات التي ربما لم يتم تقديم الموافقة عليها مسبقًا لمثل هذا الاستخدام، وقد لا تحمي LLM البيانات الحساسة (بما في ذلك البيانات الصحية) التي يقدمها المستخدم لتطبيق ما لإنشاء استجابة.
ويمكن إساءة استخدام LLM لتوليد ونشر معلومات مضللة مقنعة للغاية في شكل محتوى نصي أو صوتي أو فيديو يصعب على الجمهور تمييزه عن المحتوى الصحي الموثوق.
ورغم التزامها بتسخير التقنيات الجديدة، بما في ذلك الذكاء الاصطناعي والصحة الرقمية لتحسين صحة الإنسان، أوصت المنظمة الأممية صانعي السياسات بضمان سلامة المرضى وحمايتهم بينما تعمل شركات التكنولوجيا على تسويقLLMs.