تقنية تتعرف على المشاعر بشكل مثالي في عالم غير مثالي
قد تبدو مشاركة ذكاء اصطناعي خلال مقابلات العمل بفحص وجه المتقدمين للوظيفة وتسجيل التوتر أو التعاطف أو غيرهما من المشاعر الإنسانية، أشبه بالخيال العلمي، لكن استخدام هذه الأنظمة يتم بشكل متزايد، وغالبًا من دون معرفة الناس أو موافقتهم.
فتقنية التعرف على المشاعر هي في الواقع صناعة مزدهرة بمليارات الدولارات تهدف إلى استخدام الذكاء الاصطناعي لاكتشاف المشاعر من تعابير الوجه. ومع ذلك، فإن هذا الذكاء الاصطناعي يثير للجدل عما إذا كانت هناك تحيزات مضمنة داخل هذه الأنظمة. تستخدم العديد من الشركات هذه التقنية لاختبار ردود فعل العملاء على منتجاتهم، ولكن يمكن استخدامه أيضًا في المواقف التي تنطوي على مخاطر أعلى بكثير، مثل التوظيف، أو خلال أمن المطارات للإشارة إلى الوجوه على أنها تكشف عن الخداع أو الخوف، أو في مراقبة الحدود أو في تحديد الأشخاص الخطرين أو في التعليم لمراقبة مشاركة الطلاب لواجباتهم المدرسية.
أرضية علمية مهتزة
يبحث الفيلم الوثائقي “تحيز مشفر” الذي تم إصداره أخيرا على نتفليكس في تحيز بعض الخوارزميات بعد أن كشفت باحثة عن عيوب في تقنية التعرف على الوجه، فالعديد من هذه التقنيات لا تكتشف بدقة الوجوه ذات البشرة الداكنة.
وأدى الكشف عن التحيز الخوارزمي في تقنية التعرف على الوجه إلى قيام شركات التكنولوجيا الكبيرة، بما في ذلك مايكروسوفت وأمازون وآي بي إم بوقف المبيعات.
ومثل تقنية التعرف على الوجه تم اتهام نظام التعرف على المشاعر بالتحيز العنصري، فقد أظهرت دراسة أن الأنظمة تقرأ باستمرار وجوه السود على أنها أكثر غضبًا من وجوه الأشخاص البيض، بغض النظر عن تعبير الشخص.
وعلى الرغم من أن دراسة التحيز العنصري في تقنية التعرف على المشاعر صغيرة، إلا أن التحيز العنصري في الأشكال الأخرى للتعرف على الوجه موثق جيدًا.