استخدام الذكاء الاصطناعي في مكان العمل يثير مخاوف قانونية
يوصي الخبراء بتقييم فعالية التقنيات الجديدة للحد من المخاطر
يمكن لأدوات الذكاء الاصطناعي التي تغمر سوق تكنولوجيا الموارد البشرية أن تضيف قيمة كبيرة للمؤسسات، لكنها تنطوي أيضًا على مخاطر قانونية كبيرة إذا لم تتم إدارتها بشكل سليم. ووفقًا لاثنين من الخبراء تحدثا خلال المؤتمر الافتراضي لـ«جمعية إدارة الموارد البشرية» حول قانون العمل والامتثال، يتعين على أي صاحب عمل يرغب في استخدام الذكاء الاصطناعي في مكان العمل أن يوازن بين الفوائد والمخاطر القانونية المحتملة، كما يجب عليه أن يراقب عن كثب القوانين الناشئة لضمان الامتثال لها.
قال إريك دانليفي، مدير قسم الدعاوى القضائية وخدمات التوظيف في مجموعة DCI Consulting Group التي تتخذ من واشنطن العاصمة مقراً لها، وميشيل دنكان، المحامية في مكتب دنفر التابع لشركة Jackson Lewis، إن هناك زيادة كبيرة في عدد العملاء الراغبين في مناقشة استخدام الذكاء الاصطناعي في مراحل ما قبل التوظيف وفي مجال الموارد البشرية بشكل عام.
قال دنليفي: "هذه ليست مسألة مستقبلية". "فأدوات الذكاء الاصطناعي التي تتعلم كيفية أداء المهام التي عادةً ما يقوم بها البشر تُستخدم اليوم في مجال الموارد البشرية".
وأضاف دنكان أن الذكاء الاصطناعي يقود عملية استقطاب المواهب على وجه الخصوص في مجالات البحث عن المرشحين وتوظيفهم وتقييمهم والتواصل معهم.
وقالت: "يبحث أصحاب العمل عن زيادة الكفاءة في عملية التوظيف لديهم، ونحن نرى إمكانية تحقيق نتائج سريعة وقابلة للقياس من خلال الاستعانة بالذكاء الاصطناعي في غربلة المتقدمين". "هناك أدوات مرتبطة بالذكاء الاصطناعي تقوم بالغربلة الأولية للسير الذاتية وطلبات التوظيف،وتقييم المقابلات المسجلة بالفيديو، وإنشاء محاكاة للعمل وبرامج الدردشة الآلية، واستخراج البيانات من وسائل التواصل الاجتماعي لتحديد البصمة الرقمية للمتقدمين. والسؤال القانوني الرئيسي هو ما إذا كانت هذه الأدوات تُستخدم لاتخاذ قرارات بشأن المتقدمين والموظفين. فإذا كنا نستخدم هذه الأدوات لتقرير ما إذا كنا سنسمح للأشخاص بالمرور إلى المرحلة التالية من عملية التوظيف أم لا، أو لمن سنمنح الترقية، فإننا بحاجة إلى إيلاء اهتمام خاص للغاية للتأثير الذي تحدثه هذه الأدوات".
المشهد القانوني
وقالت دنكان إن تكنولوجيا الذكاء الاصطناعي ستخضع للتقييم بموجب القوانين الأساسية المتعلقة بتكافؤ فرص العمل التي تعرفها إدارة الموارد البشرية بالفعل، مثل الباب السابع من قانون الحقوق المدنية، وقانون التمييز على أساس العمر في العمل، وقانون الأمريكيين ذوي الإعاقة، والقوانين المماثلة على مستوى الولايات. وأضافت: "لا يوجد أي قانون اتحادي جديد لتقييم استخدام الذكاء الاصطناعي في التوظيف". "ستجد وكالات الإنفاذ ومحامو المدعين طريقة لتكييف هذه الأدوات المبتكرة مع الإطار القائم بالفعل، وسيتعين على أرباب العمل التأكد من حمايتهم ضد دعاوى التمييز التي تنشأ عن استخدام الذكاء الاصطناعي."
يعتقد الخبيران أن تقنيات الذكاء الاصطناعي ستواجه على الأرجح تحديات في ظل الإطار القانوني المتعلق بالتأثير التمييزي.
وقال دنكان: "سيتم تقييم أدوات الذكاء الاصطناعي بنفس الطريقة التي يتم بها تقييم أي إجراء اختيار آخر، مما يعني أن هيئات الرقابة ستنظر في المسار الكلي من المتقدم للوظيفة إلى التعيين للتحقق من وجود أي تأثير سلبي، ثم ستتعمق في إجراءات الاختيار التي تتبعها الشركة". "وهذا يعني أنهم سيسألون عن الأدوات المختلفة التي تستخدمها والتأثير الذي تحدثه تلك الأدوات. وإذا تقرر أن الأدوات تؤدي بالفعل إلى تأثير سلبي، يقع العبء على عاتق صاحب العمل للتحقق بشكل صحيح من صحة تلك الأداة، أي إثبات أن الأداة مرتبطة بالوظيفة ومطلوبة لضرورة العمل. وهناك أيضًا التزام بتقييم ما إذا كانت هناك بدائل من شأنها أن تقلل من التأثير السلبي".
وقال دنليفي إن هذا هو المجال الذي يمكن لعلماء النفس الصناعي والتنظيمي أن يقدموا فيه مساهمة قيّمة، لأنهم مدربون على إجراء أبحاث التحقق من الصحة. وأضاف: "من أفضل الممارسات التحقق من صحة جميع تقنيات الذكاء الاصطناعي، ليس فقط للحد من المخاطر، بل أيضًا للتأكد من أن الأداة تؤدي بالفعل الغرض المقصود منها".
كما يساور صانعي السياسات والجهات التنظيمية القلق إزاء العدد المتزايد من منصات التوظيف والتعيين الجديدة التي تعمل بالذكاء الاصطناعي والتعلم الآلي، فضلاً عن برامج الفرز والمقابلات التي تعتمد بشكل كبير على الخوارزميات والتي تعمل على تحليل المتقدمين للوظائف وتصنيفهم.
تعد ولاية إلينوي حالياً الولاية الوحيدة التي لديها قانون يغطي هذا المجال الجديد من تكنولوجيا الموارد البشرية. وينظم «قانون المقابلات المصورة باستخدام الذكاء الاصطناعي» كيفية استخدام أرباب العمل للذكاء الاصطناعي في تحليل المقابلات المصورة.
بموجب مشروع قانون ينظر فيه مجلس المدينة حالياً، سيُطلب من أرباب العمل في مدينة نيويورك إبلاغ المتقدمين للوظائف بما إذا كانوا يستخدمون تكنولوجيا الذكاء الاصطناعي في قرارات التوظيف وكيفية استخدامها. بالإضافة إلى ذلك، سيتعين على موردي تكنولوجيا الذكاء الاصطناعي تقديم تقارير تدقيق للتحيز في منتجاتهم قبل بيعها، وعرض إجراء عمليات تدقيق مستمرة بعد الشراء. وفي حال إقرار مشروع القانون، سيدخل حيز التنفيذ في 1 يناير 2022.
وقد أطلقت مدن وولايات أخرى، بالإضافة إلى الحكومة الفيدرالية، مبادرات لدراسة التحيز في الخوارزميات وتأثير الذكاء الاصطناعي على قرارات التوظيف، كما أعلنت لجنة تكافؤ فرص العمل (EEOC) عن إجراء تحقيقين على الأقل في قضايا تتعلق بادعاءات بوجود تحيز خوارزمي في عمليات التوظيف.
وقال دنكان: "يتعين على أرباب العمل أن يكونوا في طليعة الجهود الرامية إلى ضمان ألا تقع الأدوات التي يتم تطبيقها في فخ جديد يتمثل في اهتمام الهيئات التنظيمية بمسألة عدالة الخوارزميات".
كيف يمكن لقسم الموارد البشرية أن يقلل من المخاطر
وقال دنليفي إن الأمر كله يتوقف على قيام قسم الموارد البشرية بإجراء التحريات اللازمة. وقال: "يجب أن يكون لديكم فهم للأساسيات الكامنة وراء هذه الأدوات. ما هو الغرض من الخوارزمية؟ ما هي الخصائص التي يتم تقييمها؟ كيف تُستخدم الخوارزمية في اتخاذ القرارات؟ من قام بتطوير الخوارزمية؟ هل تم تقييم الآثار السلبية؟ تحققوا من الكفاءة المهنية للمورد".
نصح دنكان قسم الموارد البشرية بالمشاركة في المناقشة مع الموردين و"طرح الأسئلة الصعبة بشأن الشفافية والمصداقية. فإذا ما ترددوا في ذلك، فهذا يثير شكوكي".
وأضافت قائلةً: "للأسف، هناك بعض الموردين الذين يدّعون أن أدواتهم حاصلة على شهادة من لجنة تكافؤ فرص العمل (EEOC) أو مكتب برامج الامتثال للعقود الفيدرالية (OFCCP)، لكن هذه الشهادة غير موجودة. ولهذا السبب، من المهم للغاية دراسة الشراكة مع الموردين المحتملين بعناية. وستقع على عاتق صاحب العمل مسؤولية التعامل مع أي شكوى تتعلق بالتمييز".
"هذا مجال يتطلب خبرة فنية عالية"، قالت. "يجب أن تتوقع العثور على خبراء محايدين من أطراف ثالثة لمساعدتك. فالمخاطر كبيرة جدًا بحيث لا يمكن الاستغناء عن الخبرة الفنية لتحديد ما إذا كانت الأداة المستخدمة تنطوي على مخاطر أم لا."
هل كان هذا المورد مفيدًا؟