مفوضة حقوق الإنسان تدعو إلى اعتماد إجراءات عاجلة بشأن مخاطر الذكاء الاصطناعي

مفوضة حقوق الإنسان تدعو إلى اعتماد إجراءات عاجلة بشأن مخاطر الذكاء الاصطناعي

[ad_1]

ودعت أيضا إلى حظر تطبيقات الذكاء الاصطناعي التي لا يمكن استخدامها بما يتماشى والقانون الدولي لحقوق الإنسان.

وقالت مفوضة حقوق الإنسان، في بيان صدر اليوم الأربعاء، إن الذكاء الاصطناعي قد يشكّل “قوة لنشر الخير، فيساعد المجتمعات على التغلب على بعض التحديات البارزة في عصرنا”.

ولكنها حذرت من أن تكنولوجيات الذكاء الاصطناعي قد تحمل “آثارا سلبية، لا بل كارثية، إذا ما تم استخدامها من دون إيلاء اعتبار كافٍ لكيفية تأثيرها على حقوق الإنسان”.

تأثير الذكاء الاصطناعي على الحقوق

وضمن إطار عملها في مجال التكنولوجيا وحقوق الإنسان، أفادت مفوضيّة حقوق الإنسان بنشر تقرير، اليوم الأربعاء، يحلل كيفية تأثير الذكاء الاصطناعي- بما في ذلك التصنيف وأتمتة عمليّة اتخاذ القرارات وغيرها من تكنولوجيات التعلم الآلي الأخرى- على حق الأشخاص في الخصوصية والحقوق الأخرى، بما في ذلك الحقوق في الصحة والتعليم وحرية التنقل وحرية التجمع السلمي وتكوين الجمعيات وحرية التعبير.

وقالت السيدة باشيليت إن الذكاء الاصطناعي يطال، حاليا، كلّ ركن من أركان حياتنا الجسدية والعقلية، وحياتنا العاطفية.

“وتُستَخدَم أنظمة الذكاء الاصطناعي لتحديد من يحصل على الخدمات العامة، ومن يتمتّع بفرصة الحصول على وظيفة، كما تؤثّر بالطبع على نوع المعلومات التي يراها الناس ويمكنهم مشاركتها عبر الإنترنت”.


شركات السيارات مثل تسلا تستخدم الذكاء الاصطناعي بشكل أكبر للتحكم بالمركبات.

Unsplash/David von Diemar

شركات السيارات مثل تسلا تستخدم الذكاء الاصطناعي بشكل أكبر للتحكم بالمركبات.

 

بيانات معيبة أو تمييزية

وينظر تقرير مفوضية حقوق الإنسان في الوتيرة السريع التي غالبا ما اعتمدتها الدول والشركات على حد سواء، من أجل دمج تطبيقات الذكاء الاصطناعي، ففشلت في بذل العناية الواجبة.

وأشار التقرير إلى بروز العديد من الحالات، حيث عومل الأشخاص معاملة غير عادلة بسبب الذكاء الاصطناعي، مثل حرمانهم من تعويضات الضمان الاجتماعي بسبب أدوات الذكاء الاصطناعي المعيبة أو القبض عليهم بسبب خلل في أنظمة التعرف على الوجه”.

ويوضح التقرير، بالتفصيل، كيف تعتمد أنظمة الذكاء الاصطناعي على مجموعات كبيرة من البيانات، تتضمّن معلومات حول الأفراد، يتم جمعها ومشاركتها ودمجها وتحليلها بطرق متنوّعة ومبهمة في أغلب الأحيان.

وقد تكون البيانات المستخدمة لإثراء أنظمة الذكاء الاصطناعي وتوجيها معيبة أو تمييزية أو قديمة أو لا تمتّ بصلة بالموضوع المطروح. ويولّد تخزين البيانات الطويل الأمد مخاطر معينة، حيث يمكن استغلال البيانات في المستقبل بطرق غير معروفة بعد في يومنا هذا.

وأضافت باشيليت قائلة:

“يبقى سد الفجوة الهائلة البارزة على مستوى المساءلة عن كيفية جمع البيانات وتخزينها ومشاركتها واستخدامها، من أكثر قضايا حقوق الإنسان إلحاحا، نظرا إلى النمو السريع والمستمر للذكاء الاصطناعي”.


الذكاء الاصطناعي لديه قدرة على تحليل البيانات الهائلة.

Unsplash/Franki Chamaki

الذكاء الاصطناعي لديه قدرة على تحليل البيانات الهائلة.

 

أسئلة جدية

وأوضح التقرير أن الاستنتاجات والتوقّعات وعمليات الرصد التي تقوم بها أدوات الذكاء الاصطناعي، بما في ذلك البحث عن إيضاحات حول أنماط السلوك البشري، تثير أسئلة جدية. وقد تؤدي مجموعات البيانات المتحيزة التي تعتمد عليها أنظمة الذكاء الاصطناعي إلى اتّخاذ قرارات تمييزية، وتبقى الفئات المهمّشة أصلاً أكثر عرضة لهذا النوع من المخاطر، بحسب التقرير.

وقالت باشيليت إنّ خطر التمييز المرتبط بالقرارات التي يديرها الذكاء الاصطناعي، وهي قرارات قد تغير أو تحدد أو تلحق الضرر بحياة البشر، هو خطر حقيقي بكل ما للكلمة من معنى، وشددت على أهمية إجراء تقييم منهجي بشأن تأثير أنظمة الذكاء الاصطناعي ورصدها، من أجل تحديد المخاطر التي تهدّد حقوق الإنسان، ومن أجل التخفيف من حدتها.

وقالت إنه من الضروري أيضا أن تعبّر الشركات والدول عن مزيد من الشفافية حول كيفيّة تطويرها للذكاء الاصطناعي واستخدامه.


فتاة تلعب ألعاب الفيديو باستخدام هاتفها الجوال

UN News/Elizabeth Scaffidi

فتاة تلعب ألعاب الفيديو باستخدام هاتفها الجوال

 

تقويض طرق إدراك آثار أنظمة الذكاء الاصطناعي

وأشار تقرير مفوضية حقوق الإنسان إلى أنّ “بيئة البيانات والخوارزميات والنماذج الكامنة وراء تطوير أنظمة الذكاء الاصطناعي وتشغيلها المعقّدة، فضلا عن السرية المتعمّدة للجهات الحكومية والخاصة، من العوامل التي تقوض الطرق الهادفة التي تسمح للرأي العام بأن يدرك آثار أنظمة الذكاء الاصطناعي على حقوق الإنسان والمجتمع”.

وشدّدت باشيليت على أنه لا يمكننا الاستمرار في مُجاراة الذكاء الاصطناعي وفي مواكبة وتيرته الفائقة السريعة، “وأن نسمح باستخدامه ضمن حدود معيّنة أو رقابة محدودة أو بدون أي حدود أو رقابة، ومن ثمّ أن نتعامل مع العواقب الحتمية لذلك على حقوق الإنسان بعد وقوعها”.

“ولا يمكننا أن ننكر قدرة الذكاء الاصطناعي على خدمة الناس. ولكن لا يمكننا أن ننكر أيضا قدرة الذكاء الاصطناعي على تغذية انتهاكات حقوق الإنسان على نطاق هائل بدون أي سيطرة على ذلك. لا بدّ لنا من أن نتّخذ الإجراءات اللازمة فورا من أجل حماية حقوق الإنسان في سياق استخدام الذكاء الاصطناعي، خدمة لصالحنا جميعنا”.

 

[ad_2]

Source link

Leave a Reply