ما وراء "سراب المهارات": 4 طرق يمكن لقادة الموارد البشرية من خلالها معالجة سوء استخدام الذكاء الاصطناعي
مع تزايد أهمية الذكاء الاصطناعي في عمليات التوظيف وإدارة مكان العمل، يواجه قادة الموارد البشرية تحديًا متزايدًا: كيفية ضمان أن يعزز الذكاء الاصطناعي نزاهة المنظمة بدلاً من تقويضها.
في حين من المتوقع أن تستخدم 70٪ من الشركات الذكاء الاصطناعي في التوظيف بحلول عام 2025، فإن ما يقدر بنحو 60٪ من المؤسسات تفتقر إلى سياسات واضحة لاستخدام الذكاء الاصطناعي، مما يجعل الشركات عرضة لمخاطر قانونية وأخلاقية وتشغيلية محتملة. علاوة على ذلك، فإن أكثر من ثلث (36٪) المؤسسات غير واثقة من أن استخدامها للذكاء الاصطناعي يتوافق مع اللوائح الحالية.
إن ظهور "الوهم المهاري" المدفوع بالذكاء الاصطناعي - حيث يقوم المرشحون بتحسين مؤهلاتهم بشكل مصطنع - إلى جانب تزايد إساءة استخدام الذكاء الاصطناعي من قبل المرشحين والموظفين على حد سواء، يستدعي اتخاذ إجراءات فورية واستراتيجية من قبل قادة الموارد البشرية.
فيما يلي كيفية ظهور إساءة استخدام الذكاء الاصطناعي طوال دورة حياة الموظف، بدءًا من فرز المرشحين وحتى التدريب أثناء العمل.
إساءة استخدام الذكاء الاصطناعي من قبل المرشحين
استخدام الذكاء الاصطناعي من قبل المرشحين للوظائف يخل بالمعايير التقليدية للمؤهلات والمهارات. يستخدم المرشحون الآن الذكاء الاصطناعي لتضخيم سيرتهم الذاتية، والإجابة على أسئلة المقابلات، والحصول على الشهادات، والتلاعب بالتقييمات الفنية. يمكن أن يؤدي هذا السلوك إلى انتكاسات تشغيلية عندما يفشل الموظفون غير المؤهلين في تلبية متطلبات الوظيفة، مما يكلف الشركات الوقت والموارد.
على الرغم من ندرة الدراسات المباشرة حول هذه المسألة، تشير الأدلة القصصية إلى أن المتخصصين في الموارد البشرية يواجهون في كثير من الأحيان متقدمين للوظائف تبدو مهاراتهم مبالغًا فيها بواسطة أدوات الذكاء الاصطناعي. هذه الظاهرة أكثر وضوحًا بين المرشحين الأصغر سنًا، حيث أفاد أرباب العمل بتلقيهم مئات من خطابات التغطية المتطابقة من مختلف أعضاء الجيل Z من المرشحين. بالإضافة إلى ذلك، يقول 61٪ من الجيل Z إنهم لا يتخيلون القيام بعمل دون استخدام الذكاء الاصطناعي التوليدي.
إساءة استخدام الذكاء الاصطناعي في التوظيف
في حين أن إساءة استخدام الذكاء الاصطناعي يمكن أن تبدأ بتضخيم مؤهلات المرشحين، فإنها تمتد إلى عمليات التوظيف. إن الاستخدام الواسع النطاق للذكاء الاصطناعي في التوظيف محفوف بالتحديات المتعلقة بالشفافية والإنصاف. ما يقرب من نصف الباحثين عن عمل في الولايات المتحدة (49٪) يرون أن أدوات التوظيف التي تعتمد على الذكاء الاصطناعي أكثر تحيزًا من موظفي التوظيف البشريين.
هذا التبني السريع للذكاء الاصطناعي في التوظيف ينطوي على مخاطر قانونية وأخلاقية كبيرة. في دعوى جماعية رفعت مؤخراً ضد شركة Workday, Inc.، ادعى المدعون أن أدوات التوظيف التي تعمل بالذكاء الاصطناعي الخاصة بالشركة تميز ضد فئات سكانية معينة، بما في ذلك المتقدمون من ذوي البشرة السوداء وكبار السن. وتسلط المشاكل السابقة في شركات مثل Amazon و HireVue مزيداً من الضوء على هذه المخاطر.
إساءة استخدام الذكاء الاصطناعي في العمل
بمجرد تعيينهم، غالبًا ما يتعامل الموظفون مع مكان العمل بتوجيهات محدودة، حيث تفتقر 60٪ من المؤسسات إلى سياسات واضحة لاستخدام الذكاء الاصطناعي. قد يستخدم الموظفون الذكاء الاصطناعي لإنشاء تقارير أو عروض تقديمية تبدو مستقلة دون فهم المحتوى أو التحقق منه بشكل كامل. يمكن أيضًا إساءة استخدام أدوات الذكاء الاصطناعي لتجاوز البروتوكولات القياسية لتقييم الأداء أو الترقيات، مما يزيد من مخاطر عدم الدقة وانتهاكات الأخلاق وسوء اتخاذ القرارات.
بالإضافة إلى ذلك، قد يؤدي سوء استخدام الذكاء الاصطناعي في العمل إلى مخاطر تسرب البيانات. كشفت أبحاث أجرتها CybSafe أن 93% من العاملين في الولايات المتحدةقد يشاركون معلومات سرية دون علمهم عبر أدوات الذكاء الاصطناعي، و38% يعترفون بمشاركة بيانات لن يكشفوها بسهولة لصديق في حانة.
تسلط هذه القضايا الضوء على الحاجة الملحة لقيادات الموارد البشرية إلى إدارة حوكمة الذكاء الاصطناعي بشكل استباقي. ومع ذلك، وفقًا لدراسة أجرتها DLA Piper، يذكر99% من صانعي القرار في مجال الذكاء الاصطناعي أن إنشاء حوكمة قوية للذكاء الاصطناعي يمثل أحد أكبر التحديات التي يواجهونها، ولا يزال 39% منهم غير متأكدين من المشهد المتطور لتنظيم الذكاء الاصطناعي.
4 طرق لمسؤولي الموارد البشرية للتعامل مع إساءة استخدام الذكاء الاصطناعي
1. تعزيز التعاون بين الذكاء الاصطناعي والذكاء البشري
تعزيز ثقافة تكمّل فيها الذكاء الاصطناعي الذكاء البشري (HI) في عملية صنع القرار، بدلاً من استبداله. يجب على قادة الموارد البشرية البدء بتنظيم ورش عمل توضح التطبيقات العملية للذكاء الاصطناعي في أتمتة المهام المتكررة، مثل إدخال البيانات أو الجدولة، مع التأكيد على قيمة الإشراف البشري في عملية صنع القرار. تسلط مبادرةSHRM للذكاء الاصطناعي + الذكاء البشري الضوء على كيفية ضمان استخدام أدوات الذكاء الاصطناعي بشكل أكثر فعالية وأخلاقية وشفافية من خلال دمج الذكاء البشري مع الذكاء الاصطناعي.
2. تطوير أطر عمل أخلاقية للذكاء الاصطناعي
يمكن لقادة الموارد البشرية البدء بإنشاء لجنة أخلاقيات الذكاء الاصطناعي داخل مؤسستهم، تكون مهمتها وضع مبادئ توجيهية واضحة لاستخدام الذكاء الاصطناعي في التوظيف وتقييم الأداء وعمليات صنع القرار. وتتمثل الخطوة الأولى الأساسية في إجراء مراجعة شاملة لأدوات الذكاء الاصطناعي الحالية لتقييمها من حيث التحيز والتأكد من امتثالها للوائح مكافحة التمييز. وسيساعد إجراء مراجعات منتظمة لأخلاقيات الذكاء الاصطناعي على ضمان استخدام الأدوات بطريقة أخلاقية ومسؤولة.
3. تنفيذ أساليب تحقق معززة
لمكافحة المؤهلات المبالغ فيها بواسطة الذكاء الاصطناعي، يجب على قادة الموارد البشرية تنفيذ تقييمات قائمة على السيناريوهات خلال عملية التوظيف. يمكن أن يشمل ذلك محاكاة الوظائف أو التحديات "الواقعية" التي تعكس المهام التي سيواجهها المرشحون في وظائفهم. من خلال اعتماد مثل هذه الأساليب، يمكن لقادة الموارد البشرية ضمان التحقق من المهارات من خلال التطبيقات العملية بدلاً من الشهادات الثابتة، مما يقلل من مخاطر المؤهلات المبالغ فيها بواسطة الذكاء الاصطناعي.
4. إطلاق برامج التثقيف والتدريب في مجال الذكاء الاصطناعي
لضمان فهم الموظفين لإمكانات الذكاء الاصطناعي وقيوده، يجب على قادة الموارد البشرية تطوير برنامج شامل لتعليم الذكاء الاصطناعي. يمكن أن يشمل ذلك دورات عبر الإنترنت وورش عمل عملية ودراسات حالات واقعية، مع التركيز على اتخاذ القرارات الأخلاقية وكيفية اندماج الذكاء الاصطناعي في سير العمل الحالي. ومن الخطوات العملية المهمة دمج هذا التدريب في عملية تأهيل جميع الموظفين الجدد لبناء أساس قوي منذ اليوم الأول.
تكثيف الجهود لمنع إساءة استخدام الذكاء الاصطناعي
يجب على قادة الموارد البشرية أن يتحركوا الآن لوضع سياسات واضحة، وضمان الاستخدام الأخلاقي للذكاء الاصطناعي، وتثقيف فرقهم — وإلا فسيواجهون عواقب وخيمة ناجمة عن سوء الاستخدام وسوء الإدارة.
يجب أن يتجاوزوا مجرد منع إساءة الاستخدام إلى تشكيل مستقبل الذكاء الاصطناعي في مؤسساتهم. وهذا يعني دمج الذكاء الاصطناعي في عملية التخطيط الاستراتيجي للقوى العاملة، ومواءمته مع الأهداف التنظيمية الأوسع نطاقًا، وضمان بقاء الحكم البشري في صميم كل قرار.
هل كان هذا المورد مفيدًا؟