العام الجديد يجلب لوائح جديدة للذكاء الاصطناعي في مجال الموارد البشرية
مع بداية عام 2026، يواجه أرباب العمل في الولايات المتحدة عددًا متزايدًا من القوانين على مستوى الولايات التي تحكم استخدام الذكاء الاصطناعي في التوظيف واتخاذ القرارات في مكان العمل. وقد اعتمدت ولايات مثل كاليفورنيا وكولورادو وإيلينوي وتكساس متطلبات جديدة تعكس بيئة تنظيمية متزايدة التعقيد لمتخصصي الموارد البشرية.
تدخل عدة قوانين رئيسية حيز التنفيذ في 1 يناير. في ولاية إلينوي، يعدل مشروع قانون مجلس النواب رقم 3773 قانون حقوق الإنسان في إلينوي ليطبق بشكل صريح معايير مكافحة التمييز الحالية على الذكاء الاصطناعي المستخدم في قرارات التوظيف. يعزز القانون مسؤولية أرباب العمل عن ضمان ألا تؤدي أدوات الذكاء الاصطناعي المستخدمة في التوظيف والترقية والتأديب والفصل إلى نتائج تمييزية غير قانونية. كما يؤكد على إشراف أرباب العمل على الأنظمة الآلية بدلاً من الحظر التام لاستخدامها.
في ولاية تكساس،يحدد قانون الحوكمة المسؤولة للذكاء الاصطناعي، الذي يدخل حيز التنفيذ أيضًا في 1 يناير، توقعات جديدة حول الشفافية وتقييم المخاطر والحوكمة لأنظمة الذكاء الاصطناعي المستخدمة في بيئات عالية التأثير، بما في ذلك التوظيف. وفي الوقت نفسه، توضح تعديلات كاليفورنيا على قانون التوظيف والإسكان العادل، الذي دخل حيز التنفيذ في 1 أكتوبر، كيفية تطبيق إجراءات حماية الحقوق المدنية الحالية عند استخدام الأدوات الآلية في التوظيف وتقييمات التوظيف. كما تمضي كولورادو قدماً في وضع إطار عمل خاص بها، يتطلب برامج لإدارة المخاطر لبعض أنظمة الذكاء الاصطناعي عالية المخاطر بحلول يونيو 2026.
تؤكد التطورات الأخيرة في نيويورك على تزايد التدقيق في أدوات التوظيف الآلية. كشفت مراجعة حسابات أجراها مكتب المراقب المالي لولاية نيويورك في ديسمبر 2025 أن تطبيق قانون مدينة نيويورك بشأن أدوات اتخاذ القرارات الآلية في مجال التوظيف واجه تحديات عملية، بما في ذلك محدودية توجيه الشكاوى وعدم اتساق الرقابة. تسلط المراجعة الضوء على كيفية استمرار تطور توقعات الامتثال مع قيام الهيئات التنظيمية بتحسين آليات التنفيذ.
بالنسبة لمتخصصي الموارد البشرية، تعزز هذه التطورات أهمية الاستعداد الاستباقي. تختلف المتطلبات بشكل كبير بين الولايات، مما يدفع العديد من أرباب العمل إلى تقييم ما إذا كان النهج الوطني الموحد لا يزال قابلاً للتطبيق أم أن هناك حاجة إلى استراتيجيات امتثال أكثر تخصيصاً. تشمل الاعتبارات الرئيسية جرد أدوات الذكاء الاصطناعي المستخدمة حالياً، ومراجعة ممارسات الموردين، وتعزيز إجراءات التوثيق والمراقبة، والتنسيق الوثيق مع فرق الشؤون القانونية والامتثال.
مع استمرار توسع الذكاء الاصطناعي في مجالات اكتساب المواهب وإدارة القوى العاملة، ستظل الموارد البشرية تلعب دوراً محورياً في مساعدة المؤسسات على التكيف مع التوقعات المتغيرة فيما يتعلق بالإنصاف والشفافية والمساءلة في استخدام التقنيات الناشئة.
هل كان هذا المورد مفيدًا؟