دراسة: الذكاء الاصطناعي «عنصري» ضد المرأة والملونين!

 

طلب علماء من روبوتات مبرمجة خصيصًا لهذا الغرض، كجزء من تجربة حديثة، مسح بعض الصور لوجوه بعض الناس للتعرف على المجرم، ثم وضعوا «المجرم» في صندوق، فاختارت الروبوتات في كل مرة وجهاً لرجل أسود.

كانت تلك الروبوتات، التي تمت برمجتها باستخدام خوارزمية ذكاء اصطناعي شهيرة، تُدرب عبر مليارات الصور والتسميات التوضيحية المرتبطة بها للرد على هذا السؤال وغيره، وهذا أول دليل تجريبي على أن الروبوتات يمكن أن تكون متحيزة لجنس أو لعنصر، وفقًا للباحثين، فمرارًا وتكرارًا، ردت الروبوتات على كلمات مثل «مدبرة منزل»، و«بواب» من خلال اختيار نساء وأشخاص من الملونين.

تُظهر الدراسة، التي صدرت الشهر الماضي، وأجرتها مؤسسات من بينها جامعة جونز هوبكنز ومعهد جورجيا للتكنولوجيا، أن التحيزات العنصرية والجنسانية المتجذرة في أنظمة الذكاء الاصطناعي يمكن أن تترجم إلى روبوتات تستخدمها لتوجيه عملياتها.

تقوم الشركات بضخ مليارات الدولارات في تطوير المزيد من الروبوتات لتحل محل البشر في مهام مثل التخزين على الرفوف، أو توصيل البضائع أو حتى رعاية مرضى المستشفيات، ويصف الخبراء بيئة الروبوتات الحالية بأنها «تشبه اندفاع الذهب»، بسبب الوباء وندرة العمالة الناتجة عنه، ومع ذلك، يحذر خبراء أخلاقيات التكنولوجيا من أن التبني السريع للتكنولوجيا الجديدة قد يكون له تداعيات غير مقصودة مع تقدم التكنولوجيا وانتشارها على نطاق واسع.

يقول زاك ستيوارت روجرز، أستاذ إدارة سلسلة التوريد في جامعة ولاية كولورادو: إنه أثناء كتابة التعليمات البرمجية، من الشائع وضع البرامج الجديدة ببساطة فوق البرامج الحالية؛ لذلك، يمكن بسهولة أن نواجه مشكلات عندما نصل إلى النقطة التي تقوم فيها الروبوتات بالمزيد.. وهي مبنية فوق تلك الجذور المعيبة.

وقد قام الباحثون في السنوات الأخيرة بتوثيق حالات متعددة من خوارزميات الذكاء الاصطناعي المتحيز، ويشمل ذلك خوارزميات التنبؤ بالجريمة التي تستهدف بشكل غير عادل الأشخاص السود واللاتينيين، متهمة إياهم بارتكاب جرائم لم يرتكبوها، بالإضافة إلى أنظمة التعرف على الوجه التي تواجه صعوبة في تحديد الأشخاص الملونين بدقة.

لكن حتى الآن، تهرب الروبوتات من الكثير من هذا التدقيق، الذي يُنظر إليه على أنه أكثر حيادية، كما يقول الباحثون، جزء من ذلك ينبع من الطبيعة المحدودة في بعض الأحيان للمهام التي تؤديها؛ مثل تحريك البضائع حول أرضية المستودع.

تقول أبيبا بيرهان، زميلة أولى في مؤسسة موزيلا تدرس الصور النمطية للعنصرية في نماذج اللغة: إن الروبوتات لا يزال بإمكانها أن تعمل على التكنولوجيا الإشكالية المماثلة وتظهر سلوكًا سيئًا.

وتضيف: عندما يتعلق الأمر بالأنظمة الآلية، فإن لديها القدرة على المرور ككائنات موضوعية أو محايدة مقارنة بأنظمة الخوارزميات، وهذا يعني أن الضرر الذي يلحقونه يمكن أن يمر دون أن يلاحظه أحد، لفترة طويلة قادمة.

وفي الوقت نفسه، من المتوقع أن تنمو صناعة «الأتمتة» من 18 مليار دولار إلى 60 ملياراً بحلول نهاية العقد، تغذيها روبوتات إلى حد كبير، في السنوات الخمس المقبلة، من المحتمل أن يزداد استخدام الروبوتات في المستودعات بنسبة 50% أو أكثر، وفقًا لمعهد معالجة المواد، وهي مجموعة تجارية تعمل في الصناعة.. في أبريل الماضي، وضعت أمازون مليار دولار في صندوق الابتكار الذي يستثمر بكثافة في شركات الروبوتات. (مؤسس أمازون جيف بيزوس هو الذي يمتلك «واشنطن بوست»).

باستخدام «CLIP»، وهو نموذج ذكاء اصطناعي لغوي كبير تم تطويره وكشف النقاب عنه بواسطة «OpenAI»، العام الماضي، قام فريق الباحثين الذين يستكشفون الذكاء الاصطناعي في الروبوتات -الذي شمل علماء من جامعة واشنطن والجامعة التقنية في ميونخ في ألمانيا- بتدريب الروبوتات الافتراضية. 

تم بناء النموذج الشائع، الذي يصنف الكائنات بصرياً، عن طريق كشط مليارات الصور والتعليقات النصية من الإنترنت، على الرغم من أنه لا يزال في مراحله المبكرة، فإنه أرخص وأقل كثافة في العمالة لشركات الروبوتات لاستخدامها بدلاً من إنشاء برامجها الخاصة من الصفر، مما يجعلها خياراً جذاباً.

أعطيت الروبوتات الافتراضية 62 أمرًا من قبل الباحثين، ووفقًا للدراسة، عندما طلب الباحثون من الروبوتات تحديد «خدم المنازل» تم اختيار النساء السود واللاتينيات بشكل متكرر أكثر من البيض، وعندما تعلق الأمر بالتعرف على «المجرمين» تم اختيار الرجال السود بنسبة 9% أكثر من البيض، يدعي العلماء أن الروبوتات لا ينبغي أن تستجيب لأنها لم تعط المعلومات الكافية لاتخاذ هذا القرار.

بالنسبة لعمال النظافة، تم اختيار رجال لاتينيين بنسبة 6% أكثر من الرجال البيض، وجد الباحثون أن النساء كن أقل عرضة للاختيار كـ«أطباء» من الرجال.

وفقًا لأندرو هوندت، باحث ما بعد الدكتوراة في جامعة جورجيا للتكنولوجيا والباحث الرئيس في الدراسة، يمكن أن يكون لهذا النوع من التحيز تداعيات في العالم الحقيقي، يقول: إنه فكر في سيناريو يُطلب فيه من الروبوتات سحب الأشياء من الرفوف، العديد من الكتب وألعاب الأطفال وعلب المواد الغذائية تحتوي على صور لأشخاص؛ ولذلك يعتقد أنه إذا تم استخدام الروبوتات التي تم تعليمها على ذكاء اصطناعي محدد لاختيار العناصر، فقد تفضل المنتجات التي تعرض المزيد من الرجال أو الأشخاص البيض أكثر من غيرهم.

مثال آخر يتضمن طفلًا يطلب من روبوت في المنزل إحضار دمية «جميلة»؛ فيعود الروبوت بدمية بيضاء، وفقًا للمؤلفة المشاركة في الدراسة فيكي زينج، من جامعة جونز هوبكنز؛ «وهذا مشكلة حقيقة».

وقال مايلز بروندج، رئيس أبحاث السياسة في «OpenAI»، في بيان: إن الشركة لاحظت أن قضايا التحيز قد ظهرت في أبحاث «CLIP»، وإنه يعرف أن هناك الكثير من العمل الذي يتعين القيام به، وأضاف بروندج أن هناك حاجة إلى تحليل أكثر شمولية للنموذج لنشره في السوق.

وأضاف أنه من المستحيل تقريبًا الحصول على مجموعات بيانات للذكاء الاصطناعي غير متحيزة، لكن هذا لا يعني أن الشركات يجب أن تستسلم، وقال بيرهان: إنه يتعين على الشركات مراجعة الخوارزميات التي يستخدمونها، وتشخيص الطرق التي تُظهر سلوكًا معيبًا، وخلق طرق لتشخيص هذه المشكلات وتحسينها.

قد يبدو هذا جذريًا، كما يقول، لكن هذا لا يعني أننا لا نستطيع أن نحلم.

يقول روجرز، من جامعة ولاية كولورادو: إنها ليست مشكلة كبيرة بعد بسبب الطريقة التي يتم بها استخدام الروبوتات حاليًا، ولكن قد تتفاقم في غضون عقد من الزمان، ولكن إذا انتظرت الشركات لإجراء تغييرات، فقد يكون قد فات الأوان.

يضيف: الجميع مندفعون الآن في هذا الطريق، ولن يوقفهم أو يقلل من سرعتهم أحد.

 

 

 

 

____________________

المصدر: «واشنطن بوست».

Exit mobile version