مع استخدام مديري الموارد البشرية للذكاء الاصطناعي (AI) في اتخاذ قرارات التوظيف وتقييم أداء الموظفين والبت في الترقيات وحالات الفصل من العمل، ينبغي على المسؤولين التنفيذيين في مجال الموارد البشرية أن يدركوا أن العديد من شركات المحاماة تستعد لما تعتقد أنه أمر لا مفر منه: الدعاوى القضائية المتعلقة بالذكاء الاصطناعي.
في شهر مارس من هذا العام، أطلقت شركة المحاماة «بول هاستينغز» مجموعة متخصصة في مجال الذكاء الاصطناعي لمساعدة العملاء على تطبيق الخدمات والمنتجات التي تعتمد على الذكاء الاصطناعي. وستساعد الشركة العملاء في الدفاع عن أنفسهم ضد الدعاوى الجماعية، كما ستقدم المشورة القانونية في مجالات مثل الامتثال للقوانين واللوائح، وقضايا خصوصية البيانات، وحوكمة الذكاء الاصطناعي والأخلاقيات.
قال برادفورد نيومان، رئيس قسم تنقل الموظفين والأسرار التجارية في شركة "بول هاستينغز" وعضو مجموعة ممارسة الذكاء الاصطناعي في الشركة: "لقد لاحظنا حاجة في هذا المجال إلى تشكيل مجموعة من الخبراء لتقديم المشورة للعملاء بشأن أفضل الممارسات والشفافية والإنصاف والرقابة في استخدام ونشر الذكاء الاصطناعي، وذلك للمساعدة في وضع أفضل الممارسات المؤسسية وتقليل مخاطر ما نعتقد أنه سيكون دعاوى قضائية، والتي أعتقد شخصياً أنها ستبدأ وتركز على مكان العمل".
قال نيومان إن العديد من الشركات تستخدم بالفعل الذكاء الاصطناعي في عملية اختيار المتقدمين للوظائف، لكنه يعتقد أن استخدام أدوات الذكاء الاصطناعي لتقييم أداء الموظفين سيصبح واسع الانتشار.
قال نيومان: "ستتولى أدوات الذكاء الاصطناعي توجيه القرارات المتعلقة بمن يجب ترقيته ومن يجب فصله". "عندما تتولى الخوارزميات اتخاذ قرارات تؤثر على البشر في واحدة من أهم جوانب حياتهم، ألا وهي عملهم، فستظهر مشكلات تتعلق بالإنصاف والشفافية، فضلاً عن التحديات القانونية، وأعتقد أننا سنشهد ظهور هذه التحديات القانونية قريبًا جدًّا".
[مجموعة أدواتSHRM : الفرز عن طريق اختبارات ما قبل التوظيف]
أهمية المشورة القانونية
في شهر مايو، أطلقت شركة المحاماة العالمية DLA Piper قسمًا متخصصًا في الذكاء الاصطناعي يقدم المشورة القانونية ويساعد الشركات على فهم المخاطر القانونية المرتبطة بتبني أنظمة الذكاء الاصطناعي.
وفقًا لداني توبي، الشريك في شركة DLA Piper، تزايدت استفسارات الشركات حول قدرات شركته في مجال الذكاء الاصطناعي، وأصبح من الواضح أن إنشاء قسم متخصص في الذكاء الاصطناعي لتلبية احتياجاتها هو أمر منطقي.
قال توبي: "أدركت الشركات أن لديها كل هذه المصادر للبيانات، وأرادت معرفة كيف يمكنها استخلاص القيمة من تلك البيانات بطرق تمنحها ميزة تنافسية". "لكنها لم تكن تعرف من أين تبدأ، سواء من الناحية التقنية أو القانونية".
وأضاف توبي أن شركة DLA Piper تساعد الشركات على إنشاء مجالس مركزية معنية بالبيانات ووضع سياسات لأفضل الممارسات من شأنها المساعدة في تذليل العقبات التقنية، مثل ضمان عدم قيام الشركات بتنقية البيانات نفسها مرتين. كما تساعد الشركة في تذليل العقبات القانونية، مثل مواءمة سياسات حقوق البيانات على مستوى الشركة بأكملها.
وقال إن فريق الذكاء الاصطناعي في شركة DLA Piper يضم محامين يعملون على ضمان امتثال أنظمة الذكاء الاصطناعي لقوانين مكافحة التمييز وغيرها من القوانين، مع النظر في كل من النية والتأثير.
قال توبي: "عندما يتعلق الأمر بإعداد هذه الأنظمة، فإنك ترغب في العمل مع فريق يولي اهتمامًا كبيرًا لتصميم أنظمة تتوافق مع اللوائح الحالية، ويكون في الوقت نفسه على اطلاع بأحدث التطورات في مجالي القانون والتكنولوجيا".
نظرًا لأن العديد من العمليات التجارية للشركات قد تواجه تحديات قانونية متعلقة بالذكاء الاصطناعي، فقد وجد الفريق القانوني في DLA Piper العديد من الفرص لبدء حوار مع عدد من العملاء حول تأثير الذكاء الاصطناعي.
وقال توبي إن تقديم المشورة القانونية يشمل إبرام العقود والترخيص لخدمات وتقنيات الذكاء الاصطناعي، وفهم كيفية تفاعل تقنيات الذكاء الاصطناعي مع اللوائح التنظيمية. وتعد حماية الذكاء الاصطناعي من خلال براءات الاختراع والملكية الفكرية مجالًا آخر يحظى باهتمام كبير. كما يوجد عملاء متورطون حاليًا في دعاوى قضائية.
قال توبي: "نشهد الآن حالات يتورط فيها العملاء في نزاعات حول المسؤوليات بين مزودي خدمات الذكاء الاصطناعي والشركات، أو حتى بين الشركات والمستهلكين، فيما يتعلق بالذكاء الاصطناعي".
وهناك شركات محاماة أخرى، مثل «ليتلر ميندلسون» و«فيشر فيليبس» و«بروسكاور روز»، تزيد من تركيزها على الذكاء الاصطناعي، ولديها شركاء يقدمون المشورة القانونية والخبرة في مجال الذكاء الاصطناعي والمخاطر المرتبطة به.
جذب انتباه المشرعين
هناك اهتمام متزايد بالتشريعات التي ستؤثر على كيفية استخدام الشركات لأدوات الذكاء الاصطناعي. ويُعد «قانون المقابلات عبر الفيديو باستخدام الذكاء الاصطناعي»، الذي سيدخل حيز التنفيذ في ولاية إلينوي في 1 يناير 2020، مثالاً على التغيرات القانونية التي سيحدثها الذكاء الاصطناعي. ويُعد قانون إلينوي الأول من نوعه في الولايات المتحدة، وقد صُمم لتنظيم الاستخدام المتزايد للذكاء الاصطناعي في عملية التوظيف.
بموجب القانون، يتعين على أرباب العمل إخطار المتقدمين بأن الخوارزميات ستحلل مقاطع الفيديو الخاصة بمقابلاتهم، كما يتعين عليهم شرح كيفية عمل برنامج الذكاء الاصطناعي الخاص بهم والخصائص التي يستخدمها هذا البرنامج لتقييم مدى ملاءمة المتقدمين للوظيفة. كما يجب على المتقدمين الموافقة على أن يتم تقييمهم باستخدام هذه التكنولوجيا.
وهناك مشروع قانون آخر اقترحه مؤخرًا السيناتوران كوري بوكر (ديمقراطي عن ولاية نيوجيرسي) ورون وايدن (ديمقراطي عن ولاية أوريغون)، وهو «قانون المساءلة الخوارزمية لعام 2019»، الذي يدعو لجنة التجارة الفيدرالية إلى وضع قواعد لتقييم الأنظمة الآلية «شديدة الحساسية».
إذا تم إقرار القانون، فسيتعين على الشركات تقييم ما إذا كانت خوارزمياتها والأنظمة التي تدعمها تنطوي على تحيز أو تمييز، وما إذا كانت المعلومات التي تحتوي عليها تشكل خطرًا على خصوصية المستهلكين أو أمنهم.
تشكل احتمالية تكريس التحيز مصدر قلق كبير عند استخدام الذكاء الاصطناعي في عملية التوظيف. وقد أبرزت محاولة شركة أمازون أتمتة منصة التوظيف الخاصة بها أوجه القصور في هذه التكنولوجيا. فقد كانت معظم السير الذاتية التي استُخدمت في بناء الخوارزمية تخص رجالاً، وتم برمجة النظام على تفضيل المرشحين الذكور.
قال إليوت دينكين، الرئيس التنفيذي لشركة «كودن أسوشيتس» (Cowden Associates)، وهي شركة استشارات في مجال الموارد البشرية مقرها بيتسبرغ، إن تطوير خوارزميات التعلم الآلي باستخدام معلومات تنطوي على تحيز متأصل، وتنفيذ نظام صممه أشخاص لديهم تحيزاتهم الخاصة، قد يؤدي إلى رفع دعوى قضائية تتضمن أدلة على التمييز يصعب على أرباب العمل دحضها.
قال دينكين: "يتعين على المسؤولين التنفيذيين في مجال الموارد البشرية النظر إلى الذكاء الاصطناعي بحذر، لأنهم سيضطرون إلى تبرير استخدامهم له والدفاع عن النتائج التي يحققونها، لا سيما في عملية التوظيف".
فهم مخاطر الذكاء الاصطناعي
طور باحثون في جامعة لندن خوارزمية آلية قادرة على تعلم خط يد الشخص وتقليده بدقة مذهلة. وقد يكون هذا مفيدًا للأشخاص المصابين أو ذوي الإعاقة الذين يحتاجون إلى المساعدة في كتابة رسالة، ولكنه قد يُستخدم أيضًا في أغراض احتيالية.
يعتقد توبي أن مديري الموارد البشرية سيحتاجون إلى فهم ليس فقط أنهم يتبنون تكنولوجيا الذكاء الاصطناعي، بل وأي نوع من الذكاء الاصطناعي يتبنونه، بالإضافة إلى مخاطره وفوائده.
وقال توبي في ذلك السياق: "سيتعين عليهم أن يكونوا مستعدين لشرح للآخرين كيف يتم اتخاذ القرارات باستخدام تلك التقنيات".
نيكول لويس صحفية مستقلة مقيمة في ميامي. وهي تغطي أخبار الأعمال والتكنولوجيا والسياسة العامة.
هل كان هذا المورد مفيدًا؟