دعوة لتوخي الحذر بشأن استخدام الذكاء الاصطناعي في مجال الصحة

دعوة لتوخي الحذر بشأن استخدام الذكاء الاصطناعي في مجال الصحة

[ad_1]

وأكدت المنظمة في بيان اليوم الثلاثاء على ضرورة فحص المخاطر بعناية عند استخدام “نماذج اللغات الكبيرة” المعروفة اختصارا باسم (LLMs) لتحسين الوصول إلى المعلومات الصحية بوصفها أداة لدعم اتخاذ القرار، أو حتى لتعزيز القدرة التشخيصية في ظروف ضعف الموارد بهدف حماية صحة الناس وتقليل عدم المساواة.

نماذج اللغات الكبيرة هي أدوات ذكاء اصطناعي يمكنها قراءة النص وتلخيصه وترجمته. وهذا يمكنها من التنبؤ بالكلمات وصياغة جمل ونصوص مثلما يفعل البشر.

تشمل نماذج اللغات الكبيرة بعضا من أسرع المنصات توسعا مثل ChatGPT وBard وBert والعديد من المنصات الأخرى التي تحاكي فهم البشر وطريقة معالجة وإنتاج التواصل البشري.

حماس وقلق

يؤدي الانتشار السريع والمتزايد لهذه التقنيات والاستخدام التجريبي للأغراض المتعلقة بالصحة إلى إثارة حماسة كبيرة حول إمكانية استخدامها لدعم الاحتياجات الصحية للأشخاص، وفقا لمنظمة الصحة العالمية.

وبرغم إبداء المنظمة حماسا إزاء الاستخدام المناسب لهذه التقنيات لدعم المتخصصين في الرعاية الصحية والمرضى والباحثين والعلماء، إلا أنها أعربت عن القلق من أن الحذر الذي يتم اتباعه عادة مع ظهور أي تقنية جديدة لا تتم ممارسته بشكل يتسق مع هذه التقنيات.

مخاوف كبيرة

وحذرت منظمة الصحة العالمية من أن التبني السريع للأنظمة غير المختبرة قد يؤدي إلى ارتكاب أخطاء من قبل العاملين في مجال الرعاية الصحية، والتسبب في ضرر للمرضى، وتقويض الثقة في الذكاء الاصطناعي، وبالتالي تقويض (أو تأخير) الفوائد والاستخدامات المحتملة على المدى الطويل لهذه التقنيات في جميع أنحاء العالم.

تشمل المخاوف التي تتطلب رقابة صارمة بشأن استخدام تقنيات الذكاء الاصطناعي بطرق آمنة وفعالة وأخلاقية ما يلي:

  • قد تكون البيانات المستخدمة لتدريب الذكاء الاصطناعي متحيزة، وتولد معلومات مضللة أو غير دقيقة يمكن أن تشكل مخاطر على الصحة والإنصاف والشمولية؛
  • تولد نماذج اللغات الكبيرة (LLMs) استجابات يمكن أن تبدو موثوقة ومعقولة للمستخدم النهائي. ومع ذلك، قد تكون هذه الاستجابات غير صحيحة تماما أو تحتوي على أخطاء جسيمة، خاصة بالنسبة للاستجابات المتعلقة بالصحة؛
  • قد يتم تدريب نماذج اللغات الكبيرة على البيانات التي ربما لم تتم الموافقة عليها مسبقا لمثل هذا الاستخدام، وقد لا تحمي هذه النماذج البيانات الحساسة للمستخدمين.
  • يمكن إساءة استخدام نماذج اللغات الكبيرة لتوليد ونشر معلومات مضللة مقنعة للغاية في شكل محتوى نصي أو صوتي أو فيديو يصعب على الجمهور تمييزه عن المحتوى الصحي الموثوق.
  • بينما تلتزم منظمة الصحة العالمية بتسخير التقنيات الجديدة- بما في ذلك الذكاء الاصطناعي والصحة الرقمية لتحسين صحة الإنسان- فإنها توصي صانعي السياسات بضمان سلامة المرضى وحمايتهم، في وقت تعمل فيه شركات التكنولوجيا على إضفاء الطابع التجاري لنماذج اللغات الكبيرة.

ستة مبادئ أساسية

واقترحت منظمة الصحة العالمية معالجة هذه المخاوف، وقياس الأدلة الواضحة للفوائد قبل استخدامها على نطاق واسع في الرعاية الصحية الروتينية والطب – سواء من قبل الأفراد أو مقدمي الرعاية أو مديري النظام الصحي وصانعي السياسات.

وأكدت المنظمة مجددا على أهمية تطبيق المبادئ الأخلاقية والحوكمة المناسبة، على النحو الوارد في إرشاداتها بشأن أخلاقيات وحوكمة الذكاء الاصطناعي في مجال الصحة، عند تصميم الذكاء الاصطناعي وتطويره ونشره في مجال الصحة.

المبادئ الأساسية الستة التي حددتها منظمة الصحة العالمية هي:

  1. حماية الاستقلالية؛
  2. تعزيز رفاهية الإنسان وسلامته والمصلحة العامة؛
  3. ضمان الشفافية وقابلية التفسير والوضوح؛
  4. تعزيز المسؤولية والمساءلة؛
  5. ضمان الشمول والإنصاف؛
  6. تعزيز الذكاء الاصطناعي المستجيب والمستدام.

[ad_2]

Source link

Leave a Reply