ما الذي يحدث عندما تتخلى غوغل عن “أخلاقياتها”؟
قال باحثون في سويسرا يعملون في هذا القطاع إن عمالقة التكنولوجيا مثل غوغل ليسوا على دراية كاملة بقوة أدوات الذكاء الإصطناعي التي يقومون ببلورتها وابتكارها. ويثير طرد خبيرة رفيعة المستوى في المجال الأخلاقي مؤخرا من شركة غوغل تساؤلات حول ما إذا كان احترام القواعد الأخلاقية المحيطة بالذكاء الاصطناعي يندرج حقا ضمن أولويات عمالقة التكنولوجيا أم لا.
“الخوارزميات التي نعمل عليها هي مسألة تتعلق بالمصلحة العامة، وليست لأغراض شخصية”، هذا ما قاله المهدي المحمدي، الموظّف الوحيد في مشروع ” Google Brain” في أوروبا، والذي يعمل ضمن فريق أخلاقيات الذكاء الاصطناعي عبر حسابه على تويتررابط خارجي حول الفصل المتسرّع لمديرته تيمنت غيبرو من وظيفتها في ديسمبر 2020. والهدف من مشروع ” Google Brain” هو تكرار عمل الدماغ البشري الطبيعي باستخدام أنظمة التعلّم العميق.
وتعتبر غيبرو من أبرع الباحثين في مجال أخلاقيات الذكاء الإصطناعي. وفي مقالرابط خارجي كتبته مع زملاء آخرين لها، حذّرت من المخاطر الأخلاقية للنماذج اللغوية الكبيرة التي تشكل أساس عمل محرّك بحث غوغل وأعماله. وأشارت هذه الخبيرة إلى أن هذه النماذج تحلل كميات هائلة من النصوص على الإنترنت، ومعظمها قادم من العالم الغربي. وينطوي هذا التحيّز الجغرافي، من بين أمور أخرى، على خطر أن تنتقل اللغة العنصرية والمتحيّزة جنسيا والمسيئة من الويب إلى بيانات غوغل، وهكذا يُعاد انتاجها بواسطة نظام الذكاء الاصطناعي. وكان رد فعل غوغل هو توجيه طلب إلى غيبرو بسحب دراستها. وعندما رفضت ذلك، فصلوها من العمل.
"Google’s short-sighted decision to fire and retaliate against a core member of the Ethical AI team makes it clear that we need swift and structural changes if this work is to continue…1\https://t.co/ojaCydyS6fرابط خارجي
— Timnit Gebru (@timnitGebru) December 17, 2020رابط خارجي
كذلك اكتشف باحثون آخرون أيضا التطوّر غير المنضبط لأنظمة الذكاء الاصطناعي وأبرزوا مخاطر ذلك. ويقول ألكسندر كالوسيس، أستاذ التنقيب في البيانات والتعلّم الآلي في جامعة العلوم التطبيقية الواقعة غرب سويسرا إن هناك “فيل في الغرفة”: “الذكاء الاصطناعي موجود في كل مكان ويتطوّر بوتيرة سريعة، ومع ذلك غالبا ما يكون مطوّرو أدوات الذكاء الأصطناعي والنماذج غير مدركين حقا كيف ستتصرف هذه الأدوات عندما يتم استخدامها في اعدادات العالم الواقعي المعقّدة”، كما يحذّر بأن “إدراك العواقب يأتي متأخرا، هذا إذا حدث فعلا”.
Wtf @Googleرابط خارجي @GoogleAIرابط خارجي??
— Lê Nguyên Hoang (Science4All) (@le_science4all) February 28, 2021رابط خارجي
Before deploying any larger language models, are you confident that such a dangerous misinformation, probably ubiquitous in your training dataset, will not be repeated by your algorithms?
How does firing your ethics team help you make "responsible AIs"? https://t.co/9Fw8bOHonCرابط خارجي
وتقول آنا جوبين، الباحثة في معهد هومبولت للإنترنت والمجتمع في برلين وخبيرة في أخلاقيات التكنولوجيا الجديدة: “إذا تعاملوا مع متخصصة معترف بها في مجال أخلاقيات الذكاء الاصطناعي بهذه الطريقة، فكيف يمكن لغوغل أن تأمل في أن تصبح أكثر أخلاقية؟”.
If a company cannot even pretend to care about its internal "Ethical AI" co-leader, how much do you think they care about the rest of us?
— Dr. Anna Jobin (@annajobin) December 9, 2020رابط خارجي
In the wake of Google's outing of @timnitgebruرابط خارجي, my two cents on #AIethicsرابط خارجي #BigTechرابط خارجي #IStandWithTimnitرابط خارجي: https://t.co/xzxlaNwPvCرابط خارجي
“غسيل- الاخلاقيات”
كانت غيبرو رمزًا لجيل جديد من القيادات النسائية ومن السود في عالم التكنولوجيا، حيث يهيمن الرجال البيض على قوتها العاملة. وجنبا إلى جنب مع زميلتها مارغريت ميشال، التي تم فصلها هي الأخرى من الشركة في شهر فبراير، قامت غيبرو بتكوين فريق متعدد الثقافات للبحث وتعزيز البعد الأخلاقي المتكامل في أنظمة الذكاء الاصطناعي داخل شركة غوغل.
بعد تحديد مبادئها الأخلاقية التوجيهية في مجال الذكاء الاصطناعي، قررت غوغل في عام 2019 إكمال هيكل الحوكمة الداخلي الخاص بها من خلال إنشاء مجموعة مستقلة للإشراف على تطوير أنظمة الذكاء الاصطناعي في الشركة، وهو المجلس الاستشاري الخارجي للتكنولوجيا المتقدمة (ATEAC).
“ستنظر هذه المجموعة في بعض التحديات الأكثر تعقيدًا التي تواجه غوغل، والتي تنشأ بموجب مبادئ الذكاء الاصطناعي، مثل التعرف على الوجه والإنصاف في التعلم الآلي، وتقديم وجهات نظر متنوعة لإثراء عملنا. ونتطلع إلى المشاركة مع أعضاء ATEAC فيما يتعلق بهذه القضايا المهمة ،” كتب كينت ووكر، نائب الرئيس الأول للشؤون العالمية في الشركة، في مدونة غوغل.
على الرغم من هذه التصريحات، تم إغلاق المجموعة بعد أقل من أسبوعين من إطلاقها بسبب الضجة التي أحدثها التعيين المثير للجدل لعضوين في مجلس الإدارة، أحدهما كان يُعتبر محافظًا ومناهضا للمثليين ومزدوجي الميل الجنسي ومغايري الهوية الجنسانية” ، والاستقالة اللاحقة لعضو آخر.
لكن جوبين تقول إنه ما لم يتم التعامل مع المشكلة بشكل صحيح، وتمكين مثل هذه الفرق من التصرف وفقًا لنتائج أبحاثهم ، يمكن أن يتحوّل الذكاء الاصطناعي الأخلاقي إلى “قوة غير أخلاقية”، عبارة عن علامة تجميلية بحتة لإخفاء التعطش للأعمال التجارية التي هي في الواقع في صراع مفتوح مع المبادئ الأخلاقية.
كما هو الحال مع “الغسيل الأخضر”، حيث تروج الشركات للسياسات البيئية ولكن لا تتصرف وفقًا لها، يمكن للمرء أن يتحدث عن “غسيل الأخلاقيات” – أي ، سد النوافذ التي يتسرّب منها النقد الأخلاقي، توضح جوبين: “كمن يقول: نحن أخلاقيون، لذا توقفوا عن مضايقتنا”.
ويتساءل بوراك أمير، كبير الموظفين ومهندس برمجيات عمل في مقر شركة غوغل بزيورخ لمدة 13 عامًا ، عن الغرض من وراء أبحاث الشركة الأخلاقية بعد إقالة غيبرو.
It took me a while (sorry), but I read up on available info & came around to think that @timnitgebruرابط خارجي's reaction makes sense. The demands formulated here are reasonable, and research leadership has to move to regain trust.https://t.co/2Wc3ImG0g7رابط خارجي#ISupportTimnitرابط خارجي #BelieveBlackWomenرابط خارجي
— Burak Emir (@burakemir) December 6, 2020رابط خارجي
“لماذا لدينا قسم للأخلاقيات إذا كان بإمكانك كتابة كلمات لطيفة فقط؟” يتساءل المهندس. “إذا كان الهدف هو نشر بحث لطيف وإظهار حسن النية فقط، فلا داعي للقول إنه يتم لزيادة المعرفة. نحن بحاجة إلى مزيد من الشفافية.”
وقد أعرب العديد من العلماء والباحثين عن تضامنهم مع غيبرو، بما في ذلك بعض الذين يعيشون ويعملون في سويسرا. وللتذكير يقع أكبر مركز أبحاث لشركة غوغل خارج الولايات المتحدة في زيورخ.
ويركز هذا المركز، من بين أمور أخرى، على التعلم الآلي والذكاء الاصطناعي. أمير هو واحد من أكثر من 2600 من موظفي الشركة الذين وقّعوا عريضة لدعم غيبرو وشككوا في نهج الشركة تجاه أخلاقيات الذكاء الاصطناعيرابط خارجي.
I understand the concern over Timnit’s resignation from Google. She’s done a great deal to move the field forward with her research. I wanted to share the email I sent to Google Research and some thoughts on our research process.https://t.co/djUGdYwNMbرابط خارجي
— Jeff Dean (@JeffDean) December 4, 2020رابط خارجي
“الطربوش لا يصنع الراهب”
نفت شركة غوغل كونها قامت “بإقصاء” غيبرو، في ردّ تلقته SWI swissinfo.ch بعد طلبها توضيح من الشركة في زيورخ، وأحالنا مكتب الاتصالات التابع لها إلى البيانات الرسمية التي أدلى بها مسبقًا المسؤولون التنفيذيون في الشركة. أحد هذه التصريحاترابط خارجي كان من قبل جيف دين، رئيس قسم الذكاء الاصطناعي، الذي قال إن البحث الذي وقّعت عليه غيبرو لم يستوفِ معايير النشر، وأن الشركة لم تطردها، لكنها قبلت استقالتها (التي تقول غيبرو إنها لم تقدمها أبدًا. ).
I was fired by @JeffDeanرابط خارجي for my email to Brain women and Allies. My corp account has been cutoff. So I've been immediately fired 🙂
— Timnit Gebru (@timnitGebru) December 3, 2020رابط خارجي
بالنسبة لروبرتا فيشلي، الباحثة في جامعة سانت غالن، والتي وقعت أيضًا على العريضة التي تدعم غيبرو، تقول إن صورة شركة غوغل في مجتمع الأخلاقيات والذكاء الاصطناعي قد تأثرت سلبا منذ طردت باحثة الأخلاقيات. وتعتقد فيشلي أن تضارب المصالح أمر لا مفر منه عند إجراء بحث يطرح تساؤلات حول الممارسات الحالية داخل الشركة، لذلك كان هناك بعض المخاطر التي ينطوي عليها منذ البداية.
وتضيف الباحثة: “من الناحية النظرية، تحب ترغب الشركات في وجود باحثين نقديين. ولكن من الناحية العملية، يؤدي ذلك عن غير قصد إلى تضارب المصالح إذا بدأ الباحثون في انتقاد صاحب العمل”.
تلاحظ فيشلي أن الباحثين الذين يسعون إلى القيام بعمل رائد في أخلاقيات الذكاء الاصطناعي غالبًا ما لا يكون لديهم الكثير من الخيارات، وينتهي بهم الأمر في الشركات الخاصة لأن هذا هو المكان الذي تتركز فيه معظم الموارد. “لذا فهم يحاولون فهم آليات معينة بشكل أفضل وتغيير الأشياء من الداخل، وهو أمر لا تٌحمد عقباه دائما”.
واصل عملاق الويب القيام بأعمال تجارية على ما يبدو دون عائق بعد طرد غيبرو، لكن رمال ما قد تحركت. فقد شكلت مجموعة من موظفي الشركة في الولايات المتحدة في يناير أول نقابة في التاريخ داخل شركة تكنولوجية كبيرة متعددة الجنسيات، وهي نقابة عمال الأبجديةرابط خارجي. بعد ذلك، شكل موظفو غوغل حول العالم تحالفًا نقابيًا عالميًا في 10 دول، بما في ذلك المملكة المتحدة وسويسرا.
Hard to understate the importance of this against the background of @timnitGebruرابط خارجي’s forced departure from #Googleرابط خارجي’s AI Ethics team. Time to take ethics, diversity and labor law – and your own corporate slogan seriously, Google! #ISupportTimnitرابط خارجي https://t.co/H0AORkHKE0رابط خارجي
— Roberta Fischli (@leonieclaude) December 3, 2020رابط خارجي
“فيل في الغرفة”
لكن تأثير غوغل وما يسمى بمجموعة (GAFA) اختصارا للأحرف الأولى من أسماء شركات غوغل وآمازون وفيسبوك وآبل يمتد إلى ما هو أبعد من حدود مكاتب الشركات. إن ما يفعله هؤلاء العمالقة في مجال التكنولوجيا وما يخططون له يفرض أيضًا جدول أعمال البحث الأكاديمي العالمي.
يقول ألكسندر كالوسيس من جامعة العلوم التطبيقية في غرب سويسرا: “من الصعب العثور على بحث في المؤسسات الأكاديمية والبحثية الكبيرة لا ترتبط، أو ربما ليس مموّلا من قبل شركات التكنولوجيا الكبرى.”
بالنظر إلى هذا التأثير، يجد أنه من الأهمية بمكان أن يكون لديك أصوات مستقلة “خارجة عن المألوف” تسلط الضوء على مخاطر الاستغلال غير المنضبط للبيانات من قبل عمالقة التكنولوجيا.
ويضيف الباحث السويسري: “هذه هي المشكلة الكبرى في مجتمعنا. يمكن أن تكون المناقشات حول الأخلاق في بعض الأحيان مصدر إلهاء” عن هذه السيطرة المفروضة من قبل شركات التكنولوجيا الكبرى.
هل يمكن أن يكون البحث مستقلاً كما ينبغي من أجل التشكيك بموضوعية في مخاطر النشر على نطاق واسع لتقنيات الذكاء الاصطناعي؟ ليس حقاً ، على ما يبدو. تتجاوز المشكلة حدود غوغل، وتتعلق بجميع الشركات في السوق التي توظّف أنظمة الذكاء الاصطناعي بدون قواعد وحدود. بالنسبة لنا، هذا يعني أن التكنولوجيا تملي ما هو مقبول أخلاقيا وما هو غير مقبول وهذا الأمر يشكّل حياتنا ويصيغ عقليتنا.
(نقله من الانجليزية وعالجه: عبد الحفيظ العبدلي)
متوافق مع معايير الصحافة الموثوقة
المزيد: SWI swissinfo.ch تحصل على الاعتماد من طرف "مبادرة الثقة في الصحافة"
اكتب تعليقا