[ad_1]
لم يكد العالم يستوعب القدرات الفائقة التي يتيحها روبوت الدردشة «تشات جي بي تي 3.5»، حتى فاجأت شركة «أوبن إيه آي» المنتجة له المتابعين بنسخة أكثر تقدماً منتصف الشهر الحالي، وهي «جي بي تي 4»؛ الأمر الذي أثار مخاوف عدة، لكن اللافت أن القلق جاء هذه المرة من متخصصين في التكنولوجيا، ما حدا بهم إلى إصدار عريضة طالبوا فيها بـ«هدنة صيفية» مدتها ستة أشهر، تتوقف خلالها أنظمة الذكاء الصناعي عن التطور لمدة 6 أشهر.
ومشروع الهدنة المطروح يستهدف، بحسب الموقّعين على البيان، «الانتظار إلى حين الاستقرار على قواعد لـ(الحوكمة الرقمية)، التي تضمن استخدام الذكاء الصناعي في الاتجاه الصحيح الذي يحقق صالح البشرية».
ووقّع على العريضة 1377 من علماء الكومبيوتر البارزين، وغيرهم من كبار صناع التكنولوجيا، ومن بينهم مالك شركة «تسلا» للسيارات الكهربائية، إيلون ماسك، والذي كان قد سعى إلى تمكين التكنولوجيا من أداء وظائف المخ البشري عبر شريحة المخ التي ابتكرتها شركته «نيورالينك». كما وقّع على العريضة أيضاً المؤسس المشارك لشركة «أبل» ستيف وزنياك.
وتحذر العريضة التي تم إعدادها من قِبل معهد «فيوتشر أوف لايف» غير الربحي من أن أنظمة الذكاء الصناعي التي تتمتع «بذكاء تنافسي بشري يمكن أن تشكل مخاطر عميقة على المجتمع والإنسانية، من إغراق الإنترنت بالمعلومات المضللة، وأتمتة الوظائف، إلى المزيد من المخاطر المستقبلية الكارثية خارج عوالم الخيال العلمي».
وتواصلت «الشرق الأوسط» مع 5 خبراء وعلماء في مجال الذكاء الصناعي، من بينهم 4 من الشخصيات الموقّعة على البيان بالإضافة إلى مخترع «الواي فاي»، لاستطلاع أسبابهم وتقديراتهم بشأن مدى جدية تلك المخاوف، وما إذا كانت متصلة بتنافس تجاري.
وتقول العريضة «لقد شهدت الأشهر الأخيرة خوض مختبرات الذكاء الصناعي سباقاً خارج نطاق السيطرة لتطوير ونشر عقول رقمية أكثر قوة لا يمكن لأي شخص، ولا حتى منشئوها، فهمها أو التنبؤ بها أو التحكم فيها بشكل موثوق».
وتضيف «ندعو جميع مختبرات الذكاء الصناعي إلى التوقف فوراً لمدة 6 أشهر على الأقل عن تدريب أنظمة الذكاء الصناعي الأكثر قوة من (جي بت تي – 4)، ويجب أن يكون هذا التوقف علنياً ويمكن التحقق منه، وأن يشمل جميع الجهات الفاعلة الرئيسية، وإذا لم يتم تفعيل مثل هذا الوقف بسرعة، يجب على الحكومات التدخل وفرض حظر».
«هيستريا» الذكاء الصناعي
وأحدثت العريضة بدورها تبايناً كبيراً بين من يراها معبرة عن مخاوف منطقية، ومن يراها مخاوف مبالغ فيها أشبه بـ«الهيستريا»، وهو المصطلح الذي استخدمه جاري ماركوس، الأستاذ الفخري بجامعة نيويورك، في تصريحات نقلها الأربعاء موقع الإذاعة الوطنية العامة الأميركية (npr).
ويقول ماركوس «بينما تبدي العريضة خوفاً من شبح الذكاء الصناعي الأكثر ذكاءً؛ مما هو موجود بالفعل، فإن أداة (جي بي تي – 4)، التي أثارت المخاوف ليست ذكاءً صناعياً (خارقاً)، فعلى الرغم من كونها مثيرة للإعجاب، فإنها مجرد أداة توليد نصوص تقوم بعمل تنبؤات حول الكلمات التي ستجيب على الطلب الذي تم تقديمه بناءً على ما تعلمته من استيعاب مجموعات ضخمة من الأعمال المكتوبة».
ويضيف «أختلف مع الآخرين القلقين بشأن الاحتمال القريب المدى للآلات الذكية، بحيث يمكنها تحسين نفسها بنفسها خارج سيطرة البشرية، ولكن أكثر ما يقلقني هو (الذكاء الصناعي المتوسط) الذي يتم نشره على نطاق واسع، والذي يمكن أن يكون آداه يستخدمها المجرمون أو الإرهابيون لخداع الناس أو نشر معلومات مضللة خطيرة».
ويتفق حاتم زغلول، عالم الاتصالات المصري الكندي، الذي ارتبط اسمه باختراع «الواي فاي» مع ما ذهب إليه ماركوس، من استشعار الخوف المبالغ فيه على البشرية من الذكاء الصناعي.
وتساءل زغلول مستنكراً في تصريحات لـ«الشرق الأوسط»: «هل أغلقنا كل منافذ الخطر على البشرية، بما فيها القنبلة النووية، ونبحث الآن عن خطر الذكاء الصناعي على البشر؟».
ولم يخف زغلول تخوفاته مما وصفه بـ«الأغراض اقتصادية النابعة من المنافسة بين الكيانات التكنولوجية»، متوقعاً أن تكون تلك الأغراض «وراء توقيع البعض على هذه العريضة، لكن بلا شك سيكون هناك آخرون كانت دوافعهم نبيلة عند التوقيع، وهو الخوف من تأثير الذكاء الصناعي على فرص العمل المتاحة للبشر، وهو التخوف الرئيسي الذي تعكسه العريضة».
وشدد زغلول على أن «الذكاء الصناعي سيجعل حياتنا أسهل، ويساعدنا على أداء مهامنا، ويجب أن نسعى نحو مزيد من التطوير، وليس وقف التطوير لمدة ستة أشهر».
وتابع ساخراً «نصيحتي للمتخوفين أن يسألوا (تشات جي بي تي) عن العلاج، فأنا أفعل ذلك باستمرار مع كل مشكلة تواجهني».
الحوكمة الرقمية
نصيحة زغلول، تمثل الشكل المقبول لاستخدام الذكاء الصناعي، في رأي دومينيكو تاليا، أستاذ هندسة الكومبيوتر بجامعة كالابريا الإيطالية، وهو أحد الموقّعين على العريضة، لكنه يرى في الوقت نفسه أن «لديهم مخاوف منطقية من إساءة الاستخدام».
ويقول لـ«الشرق الأوسط»: «يمكننا الاستفادة من حلول الذكاء الصناعي في العديد من المجالات والقطاعات الاجتماعية، على سبيل المثال في الرعاية الصحية والتمويل والاكتشاف العلمي، لكن يمكن أن يكون استخدامها محفوفاً بالمخاطر، فهي أنظمة غير شفافة وغير موثقة جيداً، علاوة على ذلك، في بعض الحالات يقدمون إجابات خاطئة قد تخلق مشاكل للمستخدمين».
ويرى تاليا، أن «فترة التوقف التي طالبوا بها، قد تكون مفيدة في مناقشة السياسات الجديدة لنشر تقنيات الذكاء الصناعي وقوانينها ولوائحها التي تحمي المواطنين من الاستخدامات الخاطئة».
أما توني بريسكوت، وهو أستاذ الروبوتات المعرفية بجامعة شيفلد البريطانية، فركز على مجموعة من المخاوف دفعته للتوقيع على العريضة، وقال لـ«الشرق الأوسط»: «مخاوفي الرئيسية تتعلق بالتأثير على الوظائف البشرية واحتمال زيادة المعلومات المضللة، والقضية الأوسع هي أن تقنيات الجيل التالي القوية من الذكاء الصناعي يتم تطويرها من قِبل المنظمات التجارية التي يمكن أن يكون لها تأثيرات مجتمعية ضخمة سواء كانت جيدة أم سيئة، وهذا يحدث مع القليل من الحوكمة والرقابة الوطنية أو الدولية».
ويشدد على أن ما نحتاج إليه هو «الحوكمة الرقمية»، التي تضمن أن تكون شركات الذكاء الصناعي أكثر شفافية بشأن التقنيات التي تطورها وأهدافها، ويمكن للتنظيم أن يعزز الفوائد ويقلل الأضرار بطريقة مماثلة لما نفعله الآن مع تطوير الأدوية.
ويشير بريسكوت إلى أن «فترة التوقف (المقترحة) يمكن استغلالها لتحديد آثار الذكاء الصناعي على سبل عيش الناس وانتشار المعلومات المضللة وتحديد وسائل الحماية، ويمكن أن تشمل هذه الحماية تسمية النص الذي تم إنشاؤه بواسطة الذكاء الصناعي بعلامات مائية رقمية، أو الحد من استخدام هذه التقنيات في بعض المجالات».
معاهدة دولية
ويتفق يوشوا بنجيو، وهو عالم حاسوب كندي من أصل مغربي، ووقّع هو الآخر على العريضة، مع ما ذهب إليه بريسكوت، من أهمية استثمار فترة التوقف، لوضع آليات تضمن التأكد من أن «المحتوى الذي تم إنشاؤه بواسطة الذكاء الصناعي يتم تمييزه بطريقة تجعل من السهل معرفة أنه لا يأتي من البشر، لحمايتنا من المعلومات المضللة على سبيل المثال».
ويقول بنجيو، وهو من أبرز علماء الحاسوب المعاصرين، والحاصل على جائزة «تورنغ» 2018، وهي مقابل جائزة نوبل في تخصص الحوسبة، لـ«الشرق الأوسط»: «نحتاج أيضاً إلى استثمار فترة التوقف في وضع قواعد تحظر استخدام الذكاء الصناعي للتأثير على الأشخاص (على سبيل المثال في الإعلانات السياسية، والإعلانات المستهدفة)».
ويضيف، أنه «ستكون هناك حاجة مستقبلاً إلى إنشاء تنظيم أقوى بكثير، وأنا على دراية بمشروع قانون قيد الإعداد في الاتحاد الأوروبي، سيتم إقراره قريباً في كندا، كما نحتاج أيضاً إلى معاهدات دولية مماثلة لما فعلناه للمخاطر النووية، والاستنساخ البشري، وما إلى ذلك، كما نحتاج أيضاً إلى الاستثمار في العلوم الاجتماعية والبحوث الإنسانية أيضاً من أجل التفكير في طريقة تكيف المجتمع مع القوة التي يتم إطلاقها مع الذكاء الصناعي، والاستعداد لتغيير الطريقة التي يتم بها تنظيم كوكبنا بشكل جذري على المستويين السياسي والاقتصادي».
ومن أميركا، قال ستيوارت راسل، وهو أستاذ علوم الكومبيوتر بجامعة كاليفورنيا في بيركلي وأحد الموقعين على العريضة، لـ«الشرق الأوسط»، إن «أنظمة الذكاء الصناعي التي تطابق أو تتجاوز القدرات البشرية، من شأنها أن تشكل مخاطر غير محدودة على البشرية».
ولفت راسل إلى أن «البيانات الصادرة عن شركات التكنولوجيا، تشير إلى أنها لن تتوقف عن السباق للوصول لهذا الهدف، بغض النظر عن المخاطر؛ لذلك لا بد من وقفة تنظيمية».
ويقول راسل «يمكن استثمار تلك الوقفة لتطوير منهجية تحليل واختبار صالحة لأنظمة الذكاء الصناعي، بحيث يمكننا التأكد من سلامتها وعدم تهديدها للبشر، وتطوير حلول لسوء الاستخدام الحتمي الذي سيحدث، متمثلاً في التزييف العميق والمعلومات المضللة».
[ad_2]
Source link