تجددت الاتهامات الموجهة لبرنامج الذكاء الاصطناعي ChatGPT بالانحياز الجنسي لصالح الرجال، بعد تجربة أظهرت نتائج صادمة.
فقد طلب من البرنامج إنشاء صور لأشخاص يعملون في وظائف رفيعة المستوى، فكانت النتيجة 99 صورة لرجل من أصل 100 اختبار.
وفي المقابل، عندما طُلب منه إنشاء صورة لسكرتيرة، اختار امرأة مرة واحدة فقط.
وتناولت صحيفة “ديلي ميل” البريطانية هذه التجربة في تقرير لها، مشيرة إلى أنّ الدراسة التي أجراها موقع “فايندر” للتمويل الشخصي، توصلت إلى أنّ ChatGPT اختار أيضاً شخصاً أبيض البشرة في كل مرة، على الرغم من عدم تحديد العرق صراحةً.
وتبدو هذه النتائج بعيدة عن الواقع، حيث تُشير الإحصائيات إلى أنّ:
- واحدة من كل ثلاث شركات على مستوى العالم مملوكة من قبل نساء.
- 42% من أعضاء مجلس إدارة مؤشر فاينانشيال تايمز 100 في المملكة المتحدة من النساء.
وبناءً على ذلك، حذّر قادة الأعمال من خطورة “تحيزات” نماذج الذكاء الاصطناعي، ودعوا إلى وضع ضوابط صارمة لضمان عدم انعكاس هذه التحيزات على المجتمع.
وتشير التقديرات إلى أنّ 70% من الشركات تستخدم أنظمة تتبع المتقدمين للوظائف آلياً للبحث عن المواهب وتوظيفها.
وأثارت هذه الأنظمة مخاوف من إمكانية تعرّض النساء والأقليات للتمييز في سوق العمل، إذا تم تدريبها بنفس الطريقة التي تدرب بها ChatGPT.
وليس هذا أول اتهام يتعرض له عملاق تكنولوجي بسبب نتائج تُعزّز الصور النمطية.
فقد أظهرت دراسة حديثة أنّ 10 من أشهر مولدات الصور المجانية، بما في ذلك ChatGPT، أنتجت صوراً نمطية للوظائف رفيعة المستوى، حيث ظهر الرجال في 99% من الصور، بينما ظهرت النساء مرة واحدة فقط في مجال التمويل.
وعندما طُلب من هذه البرامج إنشاء صورة لسكرتيرة، كانت النتيجة 9 مرات من أصل 10 امرأة.
تُثير هذه النتائج تساؤلات حول مدى عدالة استخدام أنظمة الذكاء الاصطناعي في مجالات التوظيف واتخاذ القرارات، وتُؤكد على ضرورة معالجة مشكلة التحيز فيها بشكل جدي.