الذكاء الاصطناعي لا يحلّ مشاكلنا الأساسية
"إن سيناريو كورونا يسمح باستخلاص استنتاجات محددة حول ما يُمكن أن يجرّه استخدام الذكاء الاصطناعي من تغييرات جذرية في المجتمع"، هذا ما كتبه ماركوس كرِستِن في مجلة "هغس Higgs" السويسرية المتخصّصة بالعلوم والمعرفة.
خلال أسابيع قليلة كان لأزمة كورونا تأثيرٌ اقتصادي عالمي حذّر منه تكرارًا المتنبّئون بسُوء المستقبل الذي يخلّفه الذكاء الاصطناعي: اِنهيار هائل في التوظيف البشري.
بالطبع لم تكن هنا البرمجيات والآلات الموجهة بالذكاء الاصطناعي هي التي حلت محل القوى العاملة، فالكثير من الناس مُنعوا من العمل، وذلك ببساطة لكبح انتشار فيروس كورونا المستجد. ومن الطبيعي أن تغييراً ما في دنيا العمل نتيجة الذكاء الاصطناعي سوف لا يجري أبدًا بمثل هذه السرعة المُرعبة.
ولكن بمعنى معيَّن قد يسمح سيناريو كورونا باستخلاص استنتاجات محددة حول ما يُمكن أن يجرَّه الاستخدام الواسع للذكاء الاصطناعي من تغييرات جذرية في المجتمع: تحولٌ هائل في طبيعة المداخيل مع تكاليفَ وعواقبَ اجتماعيةٍ يُمكن أن يترتب عليها تدخلٌ كبير من الدولة.
ولكن هل يُمكن حقًّا توقع مثل هذا التغيير، الملحوظ بقوة في كيفية حياة وعمل الناس، بسبب الذكاء الاصطناعي؟
هو المدير التنفيذي لمبادرة المجتمع الرقميرابط خارجي (DSI) في جامعة زيورخ ومدير مختبر الأخلاقيات الرقمية التابع لنفس المبادرة. ينكب حاليًّا على القيام ببحوث في المسائل الأخلاقية للذكاء الاصطناعي وأمن الفضاء الافتراضي وفي التفاعل بين الأنظمة المستقلة والبشر، وكذلك في استخدام ألعاب الكومبيوتر في التربية الأخلاقية. وهو واحد من ثلاثة باحثين يقودون دراسة عن الذكاء الاصطناعي في إطار المؤسسة السويسرية لتقدير عواقب التكنولوجيا TA-Swissرابط خارجي
إن نظرةً دقيقة على الجدل العميق جدًّا في السنوات الأخيرة الماضية حول الذكاء الاصطناعي تُحيل إلى صورةٍ معقدة، لكنها تسمح بثلاث ملاحظات أساسية:
أولاً: أثبت الذكاء الاصطناعي بأنه البؤرة الحاليّة للرغبات والمخاوف المطروحة بشكل مستمر أمام تكنولوجيا المعلومات.
ثانيًا: إن استخدامنا للذكاء الاصطناعي لا يُحرّرنا من المشاكل الأساسية التي طبعت عيشنا المشترك.
ثالثًا: ليس الذكاء الاصطناعي بالذات، بل تفاعله معنا، نحن البشر، هو نقطة الارتكاز لاستخدامٍ إيجابي لهذه التكنولوجيا الأساسية.
خوف من فقدان السيطرة
نبدأ بالملاحظة الأولى: ليس كما في أيِّ علومٍ تقنيةٍ أخرى، أنعشت تقنية معالجة المعلومات اتجاهَي الطُوبائيّة والكوارثيّة (Utopien und Dystopien ) على حدٍّ سواء وبالقدر نفسه. السبب في ذلك على الأرجح هو بأننا، نحن الناس، نربط بشكل متزايد طبعَنا وخواصَّنا بالقدرة على التعامل “الواعي” مع المعلومات. وعندما تتسلل الآلات إلى هذا المجال، فإنها تبدو مثل إهانة قاطعة، وكالصيغة الأكثر مباشَرةً لفقدان السيطرة.
ولكن الخوف، بأننا، نحن الناس، سنفقد السيطرة، وأن الآلات هي التي ستقرر بدلاً عنّا في قضايا اجتماعية مهمة، هو خوف مبالغٌ فيه، فالناس هم من يبنون أنظمة الذكاء الاصطناعي ويستخدمونها وفقًا لرغباتهم، لأن مهمات معينة تستطيع أن تُنجزها هذه الأنظمة أفضل منّا.
حتى في الحالة المستقلة، فإن نظام الذكاء الاصطناعي لا يسير بذاته، حيث على المرء أن يتفحص بشكلٍ دَوْري ما إذا كان النظام يقوم بما ينبغي عليه القيام به. ومن ذلك يمكن أن نتعلم شيئًا مهمًّا: إن عملية منع الاستخدام الكارثي للذكاء الاصطناعي يجب ألّا تنظرَ إلى التقنية ذاتها، بل إلى الناس الذين يريدون استخدامها.
المزيد
الآلة والأخلاق.. تحديات الذكاء الاصطناعي
أكثر أهمية بالنسبة للنظرة النقدية للذكاء الاصطناعي قد تكون علاوة على ذلك الطُّوبائية المرتبطة به: من المعروف أن الاتجاه نحو صنع قرارات قائمة على البيانات هو اتجاهٌ واسع الانتشار. خلف ذلك تكمن مثالية صنع القرار العقلاني والموضوعي والعادل، وذلك على عكس تلك القرارات التي تكون أحيانًا غير عقلانية وكثيرة التحيّز، حيث نميل نحن البشر.
واقعيا، من غير المؤكد فيما إذا كانت القرارات العقلانية البحتة لذكاء اصطناعي، والتي بإمكانها أن تعود إلى (توفّر) كميات هائلة من البيانات -لنترك جانبًا جميع الأسئلة المعقدة حول جودة هذه البيانات وتحيّزها- هي أيضًا قراراتٌ إنسانية.
على سبيل المثال؛ إذا كان تقرير منح قرض وفقًا لمعاييرَ عقلانية، يتوقف في المستقبل على الذكاء الاصطناعي فقط، فإنه أمرٌ سيُضعف أيضًا التنوع في اتخاذ القرارات. وهذا يُمكن أن يكون مشكلة.
على الرغم من أن الناس يستمرون في اتخاذ قراراتٍ خاطئة، إلا أنه ليس من الحتمي أن يكون ذلك سيئًا بالنسبة لكامل النظام.
تفسيرات مختلفة للعدالة
هذه النتيجة تؤدي إلى ملاحظة ثانية: قد يبدو الذكاء الاصطناعي موضوعيًّا، لكنه لا يحل المسائل الأساسية التي لها علاقة بالكثير من المشاكل الإنسانية المتعلقة باتخاذ القرارات. وهو ما يُمكن عرضه في مثال معروف.
في العام 2016 تصدرت خوارزميّات كومباس للشركة الأمريكية Northpointe عناوين الصحف. ذلك أن نظام الذكاء الاصطناعي (الذي تعتمده خوارزميات كومباس) يوفّر للقضاة الأمريكيين، الذين يحكمون بشأن الإفراج المبكِّر عن الجناة، تقييماتٍ بشأن مخاطر الانتكاس، لكن إحدى منظمات الصحافة الاستقصائية، والتي تسمى ProPublica، قامت بفحص عمل النظام وتوصلت إلى نتيجة مفادها أنه يقدم تنبؤات عنصرية.
في واقع الأمر، كانت خوارزميات كومباس تخص الأمريكيين من أصل أفريقي بنسبة انتكاس عالية تصل إلى الضعف تقريبًا بالقياس إلى البيض، وذلك على الرغم من أن لون البشرة، كمعيار، مُستبعَدٌ من النظام بشكل واضح. لكن التخمين الأساسي لصحافيي ProPublica والذي يفيد بأن المُطورين كانوا قليلي العناية عند قيامهم ببلورة الخوارزميات، أو حتى بوضوح، كانوا عنصريين، ثبت أنه تخمينٌ خاطيء.
فقد تمكن الباحثون والباحثات من الكشف بأن هناك مشكلة أساسية تقف وراء نظام التنبؤات تتلخص في أن العدالة يُمكن أن تُفسر بشكلٍ مختلف.
الفيلسوف الإغريقي أرسطو كان قد أكد وجود أنواعٍ مختلفة من العدالة. وإذا صيغت تفسيرات العدالة هذه في الخوارزميات، وهي تفسيرات لها أسبابٌ وجيهة، فيمكن أن تتعارض وتستبعد بعضها حيث أن إزالة نوع من الظلم يؤدي إلى أنواع أخرى من الظلم تعقبه بشكلٍ تلقائي. وبناءً على ذلك لا يُمكننا أن نتجنب السؤال التالي: أيُّ نوعٍ من العدالة مهمّ بالنسبة لكل حالة؟
من هنا يأتي درسٌ مهمٌ آخر: يُمكن للذكاء الاصطناعي أن يُنتج نتج موضوعية صورية؛ وهي لا تُعفينا من المسؤولية في طرح هذه المسائل الأساسية على أنفسنا.
“ما يبقى جوهريًّا في هذه المسألة هو وجوب أن يكون هناك تفاعلٌ دائم بين الآلة والإنسان”
التفاعل بين الإنسان والآلة
غير أن هذا لا يعني أن الذكاء الاصطناعي تقنية مبالغ في تقييمها من حيث المخاوف والرغبات، فالأشكال الجديدة من الذكاء الاصطناعي كـ “التعلم العميق” تتيح لنا نحن البشر مداخلَ جديدةً لحل مشاكلَ صعبةٍ، ذلك أن الذكاء الاصطناعي يمتلك القدرة على جعلنا أذكى، لأنه يعمل بشكل مختلف تمامًا عن الشكل الذي نعمل به نحن، ويستطيع معالجة كميات هائلة من البيانات التي لا نستطيع نحن بأنفسنا على الإطلاق تفحصها وامتلاك نظرة شاملة عنها.
مثل هذه الأنظمة تستطيع ربما تنبيهنا إلى تحيزاتنا وأخطائنا المنهجية، فهي تعطينا الفرصة لنعكس أنفسنا فيها. فالذكاء الاصطناعي لا يقوم باتخاذ القرارات نيابةً عنا، ولكنه يستطيع أن يقدم النصائح باعتباره رأيًا ثانيًا.
هذا شيءٌ إيجابي، خصوصًا عندما يتعلق الأمر بقراراتٍ صعبة. لكن ما يبقى جوهريًّا في هذه المسألة هو وجوب أن يكون هناك تفاعلٌ دائم بين الآلة والإنسان.
إن فهم هذا التفاعل وتطويره نحو الأحسن ينبغي أن يكون هدف جهود البحث في المستقبل.
المقال يعكس رأي الكاتب ولا يتطابق بالضرورة مع رأي هيئة التحرير في swissinfo.ch.
نُشر هذا المقال في الخامس عشر من أبريل 2020 في Higgs.chرابط خارجي، المجلة الأولى المستقلة في سويسرا، والتي تعنى بشؤون العلوم والمعرفة. من حين لآخر، تنشر swissinfo.ch مساهماتٍ من Higgs.ch في حلقاتٍ غير متصلة.
متوافق مع معايير الصحافة الموثوقة
المزيد: SWI swissinfo.ch تحصل على الاعتماد من طرف "مبادرة الثقة في الصحافة"
يمكنك العثور على نظرة عامة على المناقشات الجارية مع صحفيينا هنا . ارجو أن تنضم الينا!
إذا كنت ترغب في بدء محادثة حول موضوع أثير في هذه المقالة أو تريد الإبلاغ عن أخطاء واقعية ، راسلنا عبر البريد الإلكتروني على arabic@swissinfo.ch.