بموجب مشروع قانون ينظر فيه مجلس مدينة نيويورك حالياً، سيُطلب من أرباب العمل إبلاغ المتقدمين للوظائف بما إذا كانوا يستخدمون تكنولوجيا الذكاء الاصطناعي (AI) في قرارات التوظيف وكيفية استخدامها.
بالإضافة إلى ذلك، سيتعين على مزودي تكنولوجيا الذكاء الاصطناعي إجراء عمليات تدقيق للتحيز في منتجاتهم قبل بيعها، وتقديم عروض لإجراء عمليات تدقيق مستمرة بعد الشراء.
أعرب مشرعون، مثل مقدمة مشروع القانون، عضوة المجلس لوري كومبو، الديمقراطية عن بروكلين، والعديد من الشخصيات الأخرى في قطاعات الصناعة والأوساط الأكاديمية والحكومة، عن قلقهم إزاء احتمال وجود تحيز متأصل في تقنيات فحص وتقييم المرشحين للوظائف التي تستخدم الذكاء الاصطناعي.
وقالت كومبو: "من المهم للغاية أن نناقش كيفية استخدام الذكاء الاصطناعي لمساعدة ودعم جميع الأشخاص، حتى نتمكن من ضمان المساواة في جميع جوانب ممارسات التوظيف لدينا".
وعلى وجه التحديد، ينص مشروع القانون على إلزام أرباب العمل الذين يستخدمون هذه الأدوات بإخطار كل مرشح، في غضون 30 يومًا من إجراء عملية الفرز، بالمنتج المحدد الذي استُخدم لتقييمه، فضلاً عن المؤهلات أو الخصائص التي أخذتها الخوارزميات المستخدمة في الاعتبار. وفي حال إقراره، سيدخل مشروع القانون حيز التنفيذ في 1 يناير 2022.
تزايد استخدام الذكاء الاصطناعي في مجال الموارد البشرية
مع استمرار تطور تكنولوجيا الذكاء الاصطناعي، أصبح المزيد والمزيد من أرباب العمل مهتمين بأتمتة جوانب عملية التوظيف والاستعانة بالعديد من المزايا التي توفرها هذه التكنولوجيا. ويستخدم أرباب العمل الخوارزميات الآلية في تكنولوجيا الذكاء الاصطناعي لفرز السير الذاتية؛ وإجراء تقييمات التوظيف؛ وتقييم تعابير الوجه ولغة الجسد والأصوات لدى المرشحين خلال المقابلات عبر الفيديو.
قالت جوليا ستويانوفيتش، الأستاذة المساعدة في علوم الحاسوب بكلية تاندون للهندسة بجامعة نيويورك والمديرة المؤسسة لمركز الذكاء الاصطناعي المسؤول التابع للكلية: "في العقد الماضي، تزايد استخدام الشركات الكبيرة والصغيرة للأدوات التجارية من أجل التوظيف بشكل أكثر كفاءة، والبحث عن المرشحين وفرزهم بسرعة وبأقل قدر من الأعمال الورقية، واختيار المرشحين الذين سيحققون أداءً جيدًا في العمل بنجاح".
وقالت: "تهدف هذه الأدوات أيضًا إلى تحسين الكفاءة بالنسبة للمتقدمين للوظائف، من خلال مطابقتهم مع الوظائف المناسبة، مما يتيح لهم التقدم بطلب التوظيف بنقرة زر واحدة وتسهيل عملية المقابلة". "ورغم قدرتها على تحسين الكفاءة لكل من أرباب العمل والمتقدمين للوظائف، فإن أنظمة اتخاذ القرار الآلية في مجال التوظيف تثير أيضًا بعض المخاوف".
وقالت إن هناك حالات عديدة من التمييز على أساس الجنس والعرق والإعاقة خلال مراحل البحث عن المرشحين وفرزهم وإجراء المقابلات معهم واختيارهم باستخدام الأدوات الآلية. "وإذا لم يتم التصدي لها، فإن أدوات التوظيف الآلية ستكرر نتائج التمييز التاريخي في التوظيف والعمل وتضخمها وتجعلها أمراً عادياً."
قالت آنا روتشيلد، المحامية في مكتب بوسطن لشركة «هنتون أندروز كورث»، إن الاعتماد المتزايد على الذكاء الاصطناعي في القرارات المتعلقة بالتوظيف أصبح موضع تدقيق بسبب المخاطر القانونية والأخلاقية المحتملة، مثل التحيز الضمني والتأثير التمييزي، وأضافت أنه «استجابةً لذلك، تسارع العديد من حكومات الولايات والمدن إلى تنظيم هذا الاستخدام الجديد للتكنولوجيا».
تعد ولاية إلينوي حالياً الولاية الوحيدة التي تطبق قوانين من هذا القبيل. ينص «قانون خصوصية المعلومات البيومترية» على إلزام أرباب العمل بإبلاغ المرشحين في حال اعتزموا جمع بيانات التعريف البيومترية، كما يتيح للمرشحين حق رفض ذلك. أما «قانون المقابلات المرئية باستخدام الذكاء الاصطناعي»، المعمول به في إلينوي أيضاً، فينظم كيفية استخدام أرباب العمل للذكاء الاصطناعي في تحليل المقابلات المرئية، وقد دخل حيز التنفيذ في شهر يناير.
وقد أطلقت مدن وولايات أخرى، بالإضافة إلى الحكومة الفيدرالية، مبادرات لدراسة التحيز في الخوارزميات وتأثير الذكاء الاصطناعي على قرارات التوظيف، كما أعلنت لجنة تكافؤ فرص العمل عن إجراء تحقيقين على الأقل في قضايا تتعلق بادعاءات بوجود تحيز خوارزمي في عمليات التوظيف.
دعم الشفافية
يدعم ستويانوفيتش هذا التشريع، قائلاً إنه سيعود بالنفع على الباحثين عن عمل من خلال المساعدة في الحد من التحيز في عملية التوظيف، كما سيعود بالنفع على أرباب العمل من خلال مساعدتهم على تقييم الادعاءات التي يقدمها الموردون أثناء عمليات الشراء.
وقالت: "غالبًا ما يدعي بائعو هذه الأدوات بثقة أنه نظرًا لأن البشر معروفون بتحيزاتهم، فإن الأدوات الخوارزمية هي خيارنا الوحيد القابل للتطبيق". "ومن الخطورة بمكان أن نأخذ مثل هذه الادعاءات على محمل الجد. فالأنظمة الخوارزمية نفسها وعمليات تدقيقها لا تبلغ من الجودة إلا بقدر ما تبلغه المعايير والأهداف التي نضعها لها".
كما تدعم شركتان بارزتان في مجال تكنولوجيا الموارد البشرية، ومقرهما مدينة نيويورك، وضع المعايير ومساعي المدينة نحو الشفافية. وقالت أثينا كارب، الرئيسة التنفيذية لشركة «هايردسكور» (HiredScore)، وهي منصة توظيف تعتمد على الذكاء الاصطناعي: «يمكن لأدوات التوظيف غير الشفافة والمتحيزة أن تُحدث عواقب سلبية حقيقية على حياة العمال وعلى تنوع القوى العاملة».
قالت كارب إن أحد الأسباب الرئيسية التي دفعتها إلى تأسيس شركتها هو المساعدة في القضاء على التحيز في عمليات التوظيف والترقيات، فضلاً عن الحد من أوجه القصور في عملية التوظيف. "قبل ظهور الأدوات التكنولوجية، لم يكن لدى أرباب العمل سوى البشر لمراجعة أعداد متزايدة من المرشحين. وللأسف، لا يستطيع البشر تجاهل الأمور التي غالباً ما تؤدي إلى تحيزات لا شعورية، وهو ما يسعى الكثيرون منا إلى استئصاله باستخدام تقنيات مصممة ومختبرة بشكل سليم ودقيق."
كما تؤيد فريدا بولي، الرئيسة التنفيذية والمؤسسة المشاركة لشركة «Pymetrics» المتخصصة في التقييم ومطابقة المواهب في مدينة نيويورك، أحكام الشفافية والمساءلة الواردة في التشريع. وقالت: «بصفتي شخصًا عمل على تطوير وبيع أدوات التوظيف على مدى السنوات القليلة الماضية، أرى أنه لا يوجد سبب يمنع أن تكون المعلومات الواضحة حول التحيز وأدوات التوظيف جزءًا من هذه المعادلة». "علينا أن نبدأ في تغيير الأنظمة، بما في ذلك أنظمة التوظيف — وليس عقول البشر — من أجل معالجة مسألة التنوع. ويمكن تصميم الخوارزميات عن قصد للتخفيف من التحيز بطريقة لا تستطيع عقول البشر القيام بها، ومن خلال عمليات التدقيق المقترحة في هذا القانون، يمكننا ضمان التزام الخوارزميات بهذه المعايير الأعلى".
تود ستويانوفيتش وآخرون، ومن بينهم اتحاد الحريات المدنية في نيويورك، أن يتم توسيع نطاق عمليات تدقيق التحيز التي تجريها الشركات لتتجاوز مسألة «التأثير التبايني» عند النظر في عدالة النتائج، بحيث تشمل أبعادًا أخرى للتمييز، فضلاً عن معلومات حول فعالية الأداة المستخدمة. كما أوصت بأن يقدم أرباب العمل معلومات حول مؤهلات المرشح أو خصائصه التي استندت إليها الأداة المستخدمة في عملية الفرز «بطريقة تسمح لمقدم الطلب بفهم هذه المعلومات، وتصحيحها والطعن فيها إذا لزم الأمر».
ينبغي على أرباب العمل في مدينة نيويورك مراجعة أدوات الاختيار التي يستخدمونها قبل التوظيف لتحديد ما إذا كانت تعتمد على خوارزميات التعلم، وما إذا كانت ستخضع للقانون الجديد في حال إقراره.
وقالت روتشيلد إنه مع استمرار تزايد استخدام الذكاء الاصطناعي في اتخاذ القرارات المتعلقة بالتوظيف، وما يرجح أن يؤدي ذلك إلى مزيد من ردود الفعل السلبية، ينبغي على الشركات أيضًا أن تدرس بعناية ما يمكنها فعله للتحقق من فعالية القرارات التي يتخذها الذكاء الاصطناعي. وأضافت: «وإذا تعرضت للطعن، ما إذا كان بإمكانها تحليل القرارات التي تم التوصل إليها باستخدام الذكاء الاصطناعي لتبرير شرعيتها».
هل كان هذا المورد مفيدًا؟