الذكاء الاصطناعي.. 5 تأثيرات اجتماعية ينتظرها العالم

يمر العالم في الوقت الراهن بمرحلة مهمة من تاريخه العلمي والتكنولوجي، ويشهد تغييرات جذرية في المجالات الاجتماعية والاقتصادية والثقافية؛ ويرجع السبب في ذلك إلى ثورة الحاسبات وما تبعها من ظهور وسائل التواصل الاجتماعي، والتطور الحاصل في تقنيات وتطبيقات الذكاء الاصطناعي الذي بات جزءاً لا يتجزأ من حياتنا اليومية، بل صار عنصراً حيوياً في التغيير الاجتماعي لا يمكن التقليل من شأنه، ويشعر الكثيرون بالقلق حياله.

فماذا يعني الذكاء الاصطناعي؟ وكيف يؤثر على حياتنا اليومية؟ وما المخاوف التي يثيرها؟

يعرف «قاموس أكسفورد» الذكاء الاصطناعي بأنه «قدرة الآلة على أداء المهام التي تتطلب ذكاء بشرياً من قبيل: الإدراك البصري، والتعرف على الكلام، واتخاذ القرارات، والترجمة بين اللغات».

وثمة هدفان أساسيان للذكاء الاصطناعي، وفقاً لـ«أكسفورد»؛ الأول: «تكنولوجي»؛ وهو استخدام أجهزة الكمبيوتر لإنجاز مهام مفيدة توظِّف في بعض الأحيان طرقاً غير التي يستخدمها العقل تماماً، والثاني: «علمي وفلسفي»؛ ويتمثل في استخدام مفاهيم الذكاء الاصطناعي ونماذجه للمساعدة في الإجابة عن أسئلة تتعلق بالإنسان وغيره من الكائنات الحية.

على سبيل المثال، مكن الذكاء الاصطناعي علماء النفس وعلماء الأعصاب من وضع نظريات عن العقل والدماغ، تتضمن تلك النظريات نماذج عن آلية عمل الدماغ الإنساني وما الذي يفعله، وقد امتد تأثيره إلى الفلسفة أو بالأحرى إلى رؤية الإنسان إلى عقله أو نفسه، والعلاقة بينه وبين الجسد، حيث ذهب بعض الفلاسفة المتأثرين بالذكاء الصناعي إلى أن النفس/الروح هي بنية حاسوبية ولا شيء آخر.

تثير تلك التوجهات مخاوف لدى ملايين البشر في العالم بحيث يخشى البعض أن وجه الحياة العادية التي نعرفها لن يكون كما كان، وفي هذا السياق يتحدث علماء الاجتماع عن التغيير الذي يحدثه الذكاء الصناعي في مجتمعاتنا والآثار المصاحبة له، ويطرحون في هذا السياق بضع قضايا، مثل:

1- شيوع البطالة:

وهي قضية تثير القلق والمخاوف لدى العمال والأسر على مستوى العالم، ذلك أن توجه الشركات نحو الاعتماد المتزايد على الآلة يهدد ملايين العمال والموظفين وذوي الأعمال الكتابية بالبطالة.

وهو ما يعني أن قطاعات واسعة من البشر يمتهنون مهناً مختلفة مهددون بفقد أعمالهم والتردي في الفقر، ورغم كل ما يقال من أن الذكاء الصناعي سيحل محل الأعمال الرتيبة أو ذات المخاطر العالية، أو أنه يمكن دمج البشر مع الآلات في صيغة لا تستبعد البشر؛ فإن تقديرات الخبراء والإحصاءات الصادرة عن المنتديات الاقتصادية تثير القلق.

إذ يقدر بعض الخبراء أنه بحلول عام 2030م سيكون ما بين 75 مليوناً إلى 375 مليون عامل (حوالي 3 – 14% من قوة العمل العالمية) بحاجة إلى امتهان مهن أخرى وتعلم مهارات جديدة، ويشكل هذا تحدياً كبيراً؛ لأن العمال الذين سيحل محلهم الذكاء الصناعي يشتغلون في مجالات تتطلب مهارات منخفضة ويصعب تدريبهم على مهارات فائقة، وبالتالي فإن مصيرهم هو البطالة، وسيكون على الحكومات إيجاد حل لمشكلة ملايين العاطلين من خلال برامج الرعاية الاجتماعية.

2- ضعف التواصل الاجتماعي:

استطاعت تطبيقات الذكاء الصناعي ممثلة في وسائل التواصل الاجتماعي إضعاف التواصل الفعلي بين بني البشر، فكل وقت يمضيه الإنسان أمام الشاشة يقابله انخفاض مماثل في الوقت الذي ينبغي أن يمضيه مع الأهل والأصدقاء، ويترتب على هذا آثار سلبية؛ من مثل إضعاف الروابط الأسرية، وضمور مهارات التواصل المباشر.

إذ لوحظ تفضيل بعض الأشخاص للمحادثات الإلكترونية على المحادثات المباشرة، وحدوث أمراض نفسية للأشخاص الذين يمضون وقتاً أطول أمام الحواسيب والهواتف، من مثل الاكتئاب والتشتت الذهني الناتج عن التبديل بين التطبيقات المختلفة، والقلق، وصعوبة النوم، وغيرها من الأمراض.

3- غياب الشفافية:

يتحدث الخبراء عن أن بعض برامج وتطبيقات الذكاء الصناعي صممت عن طريق إدخال بيانات خاطئة أو منحازة، والمشكلة أنه لا توجد رقابة على من يقوم بإدخال البيانات ولا قوانين تحدد المعايير التي يفترض الالتزام بها عند التصميم، فضلاً عن أنه لا يمكن فحص آلية عمل هذه التطبيقات ومعرفة سبب الخلل فيها.

وقد وجد، مثلاً، أن التطبيق المكلف بالتنبؤ بإمكانية العودة للجريمة في المحاكم الأمريكية «Compas» قام بتصنيف السود على أنهم أشخاص خطرون بمعدل يفوق الأشخاص البيض، الذين كانوا يصنفون بأنهم ذوو أخطار منخفضة، وبالتالي يتم وصم السود بأنهم يمثلون خطراً كبيراً على المجتمع دون معرفة السبب وراء وصمهم وكيفية تلافيه.

4- التحيز وإعادة إنتاج الكراهية:

لم تعد مشكلة التحيز ذات أبعاد اجتماعية أو ثقافية كما كان الحال في السابق، لكنه صار ذا بعد تقني وتكنولوجي؛ وذلك من خلال البيانات غير المتوازنة التي تغذَّى بها أجهزة الذكاء الاصطناعي، التي تكرس التمييز والعنصرية بين البشر على أساس انتماءاتهم الدينية والعرقية والاجتماعية، ولنضرب نموذجين على هذا التحيز:

أولهما: يتصل بشركة «أمازون» التي أعلنت عن مسابقة للتوظيف، وعهدت بمهمة فحص ملفات المرشحين إلى نماذج الذكاء الاصطناعي التي قامت بتقييم المرشحين وفق خمسة تصنيفات، وقد لوحظ أن من وقع عليهم الاختيار كانوا ذكوراً؛ لأن أجهزة الحاسب في الشركة تم تغذيتها ببيانات تستبعد السير الذاتية للنساء، فكان هذا مثالاً صارخاً للتمييز على أساس الجنس.

وثانيهما: يرتبط بالتحيز ضد المسلمين ومحاولة إلصاق تهمة العنف بهم، وعلى سبيل المثال؛ وجد أن خوارزميات الذكاء الاصطناعي تم تصميمها بحيث تربط بين الإسلام والمسلمين والعنف بمعدل أعلى مما تربط به الأديان والطوائف الأخرى؛ كالمسيحية واليهودية والبوذية والهندوسية.

من جانب آخر، لجأت الحكومة الصينية، مؤخراً، إلى توظيف تقنية التعرف على الوجه لتتبع الإيغور المسلمين وملاحقتهم وارتكاب جرائم الإبادة العرقية بحقهم، ويندرج ضمن هذا قيام موقع «فيسبوك» بحذف أي منشور أو صورة أو إشارة تتضمن إدانة للصهيونية وتأييداً للقضية الفلسطينية، وحظر الحساب لبعض الوقت وربما إغلاقه نهائياً.

5- انتهاك الخصوصية:

تستخدم مواقع التواصل الاجتماعي خوارزميات قادرة على تتبع الشخص ومراقبته على نحو دقيق، وذلك بفضل البيانات الشخصية الدقيقة التي تطلبها لإنشاء الحساب، وقيامها بتتبع الصفحات والأنشطة وقوائم الأصدقاء.

وربما يتوهم البعض أن هذا ليس عيباً؛ اعتقاداً منهم أنهم ليس لديهم ما يخفونه، أو أنهم لا يمارسون أنشطة غير قانونية، لكن تظل فكرة انتهاك خصوصية المرء وتتبع بياناته، بل ومشاركتها دون علمه مع شركات الدعاية والإعلان، أمراً ممقوتاً، بل وغير مشروع إذا ما نظرنا إليه بالمنظور الديني الذي يحرم التجسس وتتبع العورات.

خلاصة القول: إن استخدام الذكاء الصناعي قد يكون مفيداً في بعض القطاعات، مثل القطاع الطبي أو بعض الخدمات، ويمكنه أن يجعل الحياة أيسر من خلال تطبيقاته المختلفة التي تخبرنا بحالة الطقس، وأماكن الازدحام المروري أو تجعلنا نتعلم لغة أو مهارة جديدة.. لكن يظل الأمر بحاجة إلى ميثاق أخلاقي لضبط عمل المبرمجين والمطورين وإلى وضع تشريعات تجر التقنيات المنحازة.

Exit mobile version