كيف يمكن للموارد البشرية بناء الثقة في الذكاء الاصطناعي في العمل
تشمل الخطوات معالجة التحيز وتطوير محو الأمية وضمان العدالة
سيساعد التواصل والتثقيف والشفافية في بناء الثقة في استخدام الذكاء الاصطناعي في العمل. يمكن لقسم الموارد البشرية المساعدة في شرح هذه التكنولوجيا وتوفير التدريب على كيفية استخدامها بفعالية ووضع مبادئ توجيهية أخلاقية لتنفيذها.
قالت شارلين لي، مؤسِّسة ومديرة تنفيذية لمجموعة Quantum Networks Group، في مشروع SHRMThe AI+HI Project 2025 في سان فرانسيسكو: "هناك العديد من المخاطر التي تشكلها الذكاء الاصطناعي على الموارد البشرية. عليك أن تفكر باستمرار، 'هل نحن نفعل الشيء الصحيح؟' عليك أن تطرح أسئلة حول الأخلاق والقيم. مجرد أنك تستطيع فعل شيء ما لا يعني أنك يجب أن تفعله."
قالت نيكول برادفورد، المديرة التنفيذية المقيمة لـ AI + HI في SHRM إن أحد أكبر المخاوف بشأن الذكاء الاصطناعي هو مستوى التحيز الذي يمكن أن يتغلغل في بيانات التدريب. "ولكن في الوقت نفسه، فإن البشر لديهم أيضًا مستوى عالٍ من التحيز"، على حد قولها.
أدار برادفورد الحدث الذي عقد في 9-10 أبريل، بما في ذلك جلسة لي.
قال لي: "يعتمد الذكاء الاصطناعي على البيانات، وأي نوع من التحيز لدينا في البيانات سيتم تضخيمه". بالإضافة إلى ذلك، "كل جزء من البيانات به تحيز، لأنه تم إنشاؤه بواسطة البشر. لذا، فإن الحل ليس البيانات غير المتحيزة، بل فهم التحيز الموجود فيها. ضع تعريفًا داخل مؤسستك لماهية العدالة، ثم اختبر النتائج لترى ما إذا كانت تتوافق مع تعريفك".
نصحت لي بإجراء عمليات تدقيق واختبار مستمرة. وقالت: "من الضروري وجود عنصر بشري في هذه العملية".
"تريد أن تضمن ليس فقط تنوع الفرق والأشخاص، ولكن أيضًا تنوع البيانات والأدوات — أن تكون قادرًا على تبديل النماذج ذهابًا وإيابًا لاختبارها، باستخدام مجموعات بيانات مختلفة لتقليل التحيز."
وأثارت لي مخاوف إضافية بشأن استخدام الذكاء الاصطناعي في العمل. قالت: "يمكن أن يكون الذكاء الاصطناعي بمثابة صندوق أسود، ومع ذلك نستخدمه لاتخاذ قرارات مهمة. إلى أي مدى نشعر بالراحة عند تسليم صلاحية اتخاذ القرار؟ قد يبدأ الأمر أيضًا في إثارة الشعور بفقدان الإنسانية. عندما تدرك أن الأداة يمكنها القيام بجزء كبير من عملك، ماذا يعني ذلك بالنسبة لي كإنسان؟"
وأشار لي أيضًا إلى أن هذه أنواع جديدة من المحادثات: "لم نكن بحاجة إلى إجراء مثل هذه المناقشات من قبل. من المهم التحدث عما تؤمن به كمنظمة".
بناء الثقة
قالت لي إنه للاستفادة من إمكانات الذكاء الاصطناعي، يتعين على أرباب العمل أولاً بناء الثقة في استخدامه. "عندما ننشر الذكاء الاصطناعي في مؤسساتنا، يجب أن نكون منهجيين وواعين بشأن كيفية بناء الثقة"، قالت. "تُبنى الثقة كل يوم، في كل تفاعل نقوم به، من قبل الأشخاص الذين يستخدمون هذه الأدوات."
يبدأ الثقة بتحقيق المعرفة، والتي تشمل "الاستخدام الفعلي للذكاء الاصطناعي"، كما قال لي. "التدريب العملي مهم. قم بإجراء مناقشات. ابحث عن الموارد. بمجرد كتابة الإرشادات والسياسات، قم بمراجعتها بشكل مستمر."
عندما يتعلق الأمر بإنشاء إطار عمل للحوكمة، يجب أن تسعى المؤسسات إلى اتباع نهج "غولديلوكس" الذي لا يكون مفرطًا ولا ناقصًا. وحذر لي قائلاً: "نريد أن نحافظ على الأمان ونبني الثقة، ولكن لا نريد أن نوقف كل شيء في مساره". "تتعثر معظم المؤسسات في سعيها لتحقيق مخاطر صفرية".
ووصفت لي إطار عمل تسميه "هرم الثقة"، استناداً إلى "هرم الاحتياجات" الذي وضعه عالم النفس أبراهام ماسلو، والذي يقترح أن البشر يحتاجون إلى تلبية احتياجات أساسية معينة قبل أن يتمكنوا من السعي وراء احتياجاتهم الأكثر تعقيداً.
تقوم هرم لي على أساس قوي من السلامة والأمن والخصوصية. وتقع العدالة على قمة هذا الأساس. "إذا لم تكن العدالة موجودة، فلن تتمكن من فهم الجودة أو الدقة أو البناء نحو المساءلة والشفافية"، والتي تشكل قمة الهرم، كما أوضحت.
وأكد لي أن السلامة والأمن والخصوصية أمور غير قابلة للتفاوض فيما يتعلق بالاستخدام المسؤول للذكاء الاصطناعي، وتشمل تطوير أنظمة آمنة من خلال ضوابط الوصول، وممارسة تشفير البيانات، وضمان الاستخدام الآمن من خلال التدريب، وحماية خصوصية المستخدم.
في المستوى التالي، تريد تقليل التحيز إلى الحد الأدنى وزيادة العدالة إلى الحد الأقصى. قال لي: "تنوع مجموعات البيانات هو أفضل ما يدعمك في هذه المهمة".
وقالت إن الخطوة التالية هي التأكد من تحديد معايير الجودة والدقة — وما تتوقعه من فرق العمل — مما يساعد على بناء الثقة.
دليل إرشاديSHRM : كتابة مطالبات الذكاء الاصطناعي للمقابلات
المساءلة هي الخطوة التالية. قال لي: "المساءلة تتعلق بالمسؤولية. وهي تنطوي على تحديد الأدوار، والتأكد من وجود عملية صنع القرار، وتوضيح كيف ستستخدم مؤسستك الذكاء الاصطناعي وكيف لن تستخدمه. جزء مهم من هذا المستوى هو خلق ثقافة المساءلة، مما يعني أن مؤسستك لديها نظام للإبلاغ عن المشاكل والإبلاغ عنها - ولا توجد عواقب للتعبير عن الرأي".
أخيرًا، يمكنك الوصول إلى أعلى مستوى من الشفافية. قال لي: "تتضمن الشفافية الالتزام بالمراقبة المستمرة والممارسات الأخلاقية والتواصل الواضح حول قدرات الذكاء الاصطناعي وحدوده. وتشمل الكشف عن كيفية وموعد استخدام الذكاء الاصطناعي، خاصةً في القرارات التي تؤثر على الناس".
ووافقت برادفورد على ذلك. وقالت: "في النهاية، يريد الموهوبون أن يعرفوا أنهم سيُعاملون بإنصاف". "سيكون على قسم الموارد البشرية واجب الشفافية، خاصة إذا تم استخدام الذكاء الاصطناعي لحساب المكافآت أو تقييم الأداء".
هل كان هذا المورد مفيدًا؟