مع إعادة تشكيل الذكاء الاصطناعي التوليدي (GenAI) لأماكن العمل، يجد قسم الموارد البشرية نفسه في قلب هذا التحول، حيث يتطور دوره ليتجاوز دوره التقليدي ليصبح مهندساً للثقافة التنظيمية والهيكلية واستراتيجية رأس المال البشري في عالم يعتمد على الذكاء الاصطناعي. يجلب هذا التحول مسؤولية كبيرة: يجب على المتخصصين في الموارد البشرية مواجهة التحدي المتمثل في تطبيق الذكاء الاصطناعي الأخلاقي والحوكمة ووضع أنفسهم في موقع حاسم للتأثير على كيفية تكامل الذكاء الاصطناعي الجيني مع تجربة الموظف والقيم التنظيمية.
لماذا يجب أن تأخذ الموارد البشرية زمام المبادرة في أخلاقيات الذكاء الاصطناعي وحوكمته؟ على الرغم من أن الموارد البشرية قد لا تقوم بتطوير أو ترميز أنظمة الذكاء الاصطناعي، إلا أنه يجب أن نفكر في هذا الفريق على أنه الجهاز الدوري للمؤسسة - حيث تمس وظائفه كل جزء من الشركة، بدءاً من التوظيف والتدريب إلى خلق بيئات ثقافية وإدارة الأداء وتخطيط القوى العاملة. على الرغم من أن الموارد البشرية قد لا تقوم بتطوير أو ترميز أنظمة الذكاء الاصطناعي، إلا أنها تساعد في إنشاء البيئات الثقافية ووضع الحوكمة التي تشكل أنظمة الذكاء الاصطناعي المؤسسية داخل المؤسسة.
[ابقَ على اطلاع على أحدث الرؤى حول الذكاء الاصطناعي والتكنولوجيا في مكان العمل من خلال استكشاف الحلقات السابقة من مشروع الذكاء الاصطناعي+التكنولوجيا في مكان العمل. اشترك واحصل على حلقات جديدة ترسل مباشرة إلى صندوق الوارد الخاص بك كل أسبوع].
التأثير على الممارسات الأخلاقية للذكاء الاصطناعي
في محادثة مع رائد الذكاء الاصطناعي دي كاي وو، تعرفت على طريقة جديدة للتفكير في الذكاء الاصطناعي - النظر إليه كطفل معجزة يحتاج إلى التوجيه. وو، الذي اخترع وبنى أول مترجم لغوي عالمي على الإنترنت على نطاق عالمي (والذي أدى إلى إنشاء ترجمة جوجل وياهو للترجمة ومايكروسوفت بينج للترجمة)، تم تكريمه كزميل مؤسس لجمعية اللغويات الحاسوبية لمساهماته الرائدة في مجال الذكاء الاصطناعي ومعالجة اللغات الطبيعية والتعلم الآلي. كان أيضًا أحد الأعضاء الثمانية الأوائل في مجلس أخلاقيات الذكاء الاصطناعي في جوجل، ويعمل أستاذًا لعلوم الحاسوب والهندسة في جامعة هونج كونج للعلوم والتكنولوجيا(HKUST)، وهو باحث متميز في المعهد الدولي لعلوم الحاسوب في بيركلي. في كتابه القادم "تربية الذكاء الاصطناعي: دليل أساسي لتربية مستقبلنا (مطبعة معهد ماساتشوستس للتكنولوجيا، 2025)، يستكشف وو التعقيدات الأخلاقية والآثار المجتمعية للذكاء الاصطناعي، ويقدم منظورًا جديدًا حول كيفية التعامل مع تطوير هذه الأنظمة ودمجها.
وبالاعتماد على خبرته، وصف وو أنظمة الذكاء الاصطناعي الجيني الحالية، مثل ChatGPT وGemini وGemini وClaude وغيرها من النماذج اللغوية الكبيرة، بأنها "معجزات صغيرة بدون وظائف تنفيذية"، وهي تشبه الأطفال الذين لديهم قدرات استثنائية ولكنهم يفتقرون إلى الوعي الذاتي أو الحكم الأخلاقي. تخيل طفلاً يتمتع بذاكرة فوتوغرافية، وقدرة على إجراء العمليات الحسابية بسرعة البرق، وموهبة خارقة في التعرف على الأنماط. والآن تخيلوا نفس الطفل الذي يفتقر إلى حكم البالغين والوعي الذاتي ونظام معتقدات قوي. هذه هي الطريقة التي ينظر بها وو إلى أنواع الذكاء الاصطناعي الحالية.
في حين تحدث وو عن التأثير المجتمعي الأوسع نطاقاً لأنظمة الذكاء الاصطناعي واسعة النطاق، فإن قادة الموارد البشرية مسؤولون عن توجيه تطبيق الذكاء الاصطناعي في عمليات تنظيمية محددة للموارد البشرية مثل التوظيف والتدريب وإدارة الأداء. قد لا تتحكم إدارات الموارد البشرية في أنظمة الذكاء الاصطناعي بشكل مباشر، ولكنها تشكل بيئات العمل التي تعمل فيها أنظمة الذكاء الاصطناعي.
تساعدنا هذه الاستعارة على فهم المسؤولية المستمرة التي تقع على عاتق الموارد البشرية ليس فقط أثناء تطبيق الذكاء الاصطناعي ولكن طوال دورة حياته. إن الأبوة والأمومة أكثر من مجرد تشبيه ذكي - فهي تشير إلى تحول عميق في كيفية تعاملنا مع التطوير الأخلاقي للذكاء الاصطناعي الجيني ونشره داخل المؤسسات.
الآثار المترتبة على الذكاء الاصطناعي الأبوي
إن النظر إلى أنفسنا باعتبارنا "آباء" لأنظمة الذكاء الاصطناعي يشجعنا على تحمل مسؤولية نموها وتطورها. تلعب الموارد البشرية، على وجه الخصوص، دورًا رئيسيًا في تشكيل القيم والثقافة الأخلاقية التي يعكسها الذكاء الاصطناعي من خلال توجيه السياسات المتعلقة بأخلاقيات البيانات، وضمان تنوع مجموعات التدريب، وتعزيز أطر المساءلة. وعلى الرغم من أن أخصائيي الموارد البشرية قد لا يكونون مطورين أو مهندسين، إلا أنهم يتصرفون كأعضاء في هيئة التدريس في مجال الذكاء الاصطناعي، حيث يؤثرون على "المنهج" ويوجهون كيفية استخدام أنظمة الذكاء الاصطناعي وتنظيمها ومواءمتها مع المبادئ الأخلاقية داخل مؤسساتهم. يساعدنا هذا المنظور على تجنب الشعور بالعجز أو الوقوع في فخ محاولة السيطرة على الذكاء الاصطناعي بالكامل.
أنظمة الذكاء الاصطناعي: التعلم منا
يعرف كل أب وأم أن الأطفال يتعلمون مما نفعل أكثر مما نقول. وبالمثل، تتعلم أنظمة GenAI من البيانات والتفاعلات التي نقدمها. وهذا يعني أننا يجب أن ننتبه إلى الأمثلة التي نقدمها. وأكد وو على أن الذكاء الاصطناعي لن يتبع ببساطة التعليمات الشفهية - بل سيصمم سلوكه على أساس ما نظهره نحن. وكما أشار، "أنت تعرف تلك المقولة القديمة من الآباء والأمهات: "افعل كما أقول، وليس كما أفعل". متى تنجح هذه المقولة؟ لن يفعلوا أبدًا ما نريدهم أن يفعلوه."
يهدف قانون الاتحاد الأوروبي للذكاء الاصطناعي إلى تنظيم أنظمة الذكاء الاصطناعي بناءً على المخاطر المحتملة. وفي حين أن القانون مصمم لحماية المواطنين، جادل وو بأن مثل هذه القيود يمكن أن تحد من التطور الأخلاقي للذكاء الاصطناعي، مثلما يمكن أن تعيق الأبوة المفرطة في الحماية نمو الطفل. واقترح أن هذه القيود يمكن أن تمنع الذكاء الاصطناعي من النضج بطرق حاسمة، مثل تحمل المسؤولية عن أفعاله، والتفكير في تأثيره، واكتساب فهم أعمق لعلم النفس البشري الضروري للسلوك الأخلاقي.
سلط وو الضوء على حقيقة رئيسية: يعتمد الذكاء الاصطناعي الجيني اليوم على الإنترنت، مما يعني أنه استوعب تحيزاتنا وفهمنا البدائي للبشر. ومثله مثل الطفل الذي يعرف نقاط ضعف والديه، فقد التقط الذكاء الاصطناعي ميولنا الجيدة والسيئة على حد سواء.
وحذّر وو قائلاً: "إذا تعاملنا مع الذكاء الاصطناعي بخوف أو حاولنا تقييده في كل منعطف، فإننا نخاطر بخلق "كائنات رقمية" - كائنات تفتقر إلى التعاطف وفهم القيم الإنسانية." وبدلاً من ذلك، دعا وو إلى اتباع نهج أكثر دقة، مما يسمح للذكاء الاصطناعي بتطوير فهم أعمق لعلم النفس والسلوك البشري.
رؤى كريستوفر فرنانديز: الموارد البشرية كقادة دمج الذكاء الاصطناعي
تتوافق استعارة الأبوة والأمومة للذكاء الاصطناعي بشكل جيد مع مسؤوليات الموارد البشرية المتطورة. فكما يشكل الوالدان بيئة الطفل وقيمه، تشكل الموارد البشرية الثقافة التنظيمية التي تعمل فيها أنظمة الذكاء الاصطناعي. يتجلى هذا الارتباط بشكل خاص في الرؤى التي شاركها كريستوفر فرنانديز في حلقة "التحول في الذكاء الاصطناعي - نهج يركز على الإنسان" من مشروع الذكاء الاصطناعي + الذكاء الاصطناعي. بصفته نائب رئيس الموارد البشرية في شركة مايكروسوفت، يتولى فرنانديز مسؤولية قيادة جهود دمج الذكاء الاصطناعي في الموارد البشرية.
ينظر فرنانديز إلى الموارد البشرية على أنها محور إدارة التفاعل بين الإنسان والذكاء الاصطناعي، ويسلط الضوء على قدرة أخصائيي الموارد البشرية الفريدة على تشكيل كيفية تفاعل الناس مع الذكاء الاصطناعي بسبب فهمهم العميق للعلوم السلوكية. وأكد على أن "قدرة الموارد البشرية على صقل كيفية تفاعل الأشخاص مع تلك التكنولوجيا، بسبب فهمهم المتجذر للعلوم السلوكية، ستكون محورية في دور أخصائي الموارد البشرية في المستقبل." ويضع هذا المنظور قادة الموارد البشرية في طليعة عملية دمج الذكاء الاصطناعي، مستفيدين من معرفتهم العميقة بالسلوك البشري لضمان سلاسة تبنيها.
يتصور فرنانديز أيضاً دوراً أوسع نطاقاً للموارد البشرية، قائلاً: "أرى أن الموارد البشرية تلعب دوراً محورياً في تقييم التجربة السلوكية البشرية وقياسها بطرق تشجع على التفاعل مع التكنولوجيا في سيناريوهات مختلفة، سواء في العمل أو خارج العمل". وتضع هذه الفكرة الموسعة الموارد البشرية في موقع المترجمين الرئيسيين لديناميكية التفاعل بين الإنسان والذكاء الاصطناعي، داخل مكان العمل وخارجه.
إطار عمل لقادة الموارد البشرية في عصر الذكاء الاصطناعي
في الوقت الذي يعيد فيه الذكاء الاصطناعي تشكيل مكان العمل، تتاح لقادة الموارد البشرية فرصة تشكيل التعاون بين الإنسان والذكاء الاصطناعي. واستناداً إلى هذه الرؤى، إليك إطار عمل يمكنهم اتباعه:
- التحول إلى بوصلة أخلاقيات الذكاء الاصطناعي: يجب على قادة الموارد البشرية أن يتطوروا ليصبحوا خبراء في أخلاقيات الذكاء الاصطناعي، وأن يصوغوا السياسات التي تحكم الاستخدام الأخلاقي للذكاء الاصطناعي. في حين أنه قد لا يقوم بترميز أنظمة الذكاء الاصطناعي، يمكن للموارد البشرية ضمان أن تعكس بيانات التدريب وجهات نظر متنوعة وشاملة. ويبدأ ذلك بزيادة إلمام خبراء الموارد البشرية بالذكاء الاصطناعي من خلال التعليم وتجربة أدوات الذكاء الاصطناعي والتعاون مع فرق تكنولوجيا المعلومات.
- تسهيل الحوار حول الذكاء الاصطناعي: يجب أن تقود الموارد البشرية مناقشات مفتوحة حول تأثير الذكاء الاصطناعي على القوى العاملة. يمكن لورش العمل والبرامج التدريبية أن تزيل الغموض عن الذكاء الاصطناعي للموظفين، مما يقلل من الخوف ويزيد من المشاركة.
- هندسة التآزر بين الإنسان والذكاء الاصطناعي: يجب على الموارد البشرية تصميم استراتيجيات لدمج الذكاء الاصطناعي تعزز القدرات البشرية. يمكن أن تكون المشاريع التجريبية على نطاق صغير، مثل التوظيف بمساعدة الذكاء الاصطناعي أو عمليات تدقيق التنوع، بمثابة أرضية اختبار لتعاون أوسع بين الإنسان والذكاء الاصطناعي.
- الاستفادة من العلوم السلوكية: يمكن لخبرة الموارد البشرية في السلوك البشري توجيه تطبيق الذكاء الاصطناعي بفعالية. من خلال تضمين العلوم السلوكية في أدوات الموارد البشرية التي تعتمد على الذكاء الاصطناعي، يمكن للموارد البشرية قياس مشاركة الموظفين وإنتاجيتهم إلى جانب تفاعلات الذكاء الاصطناعي.
- القياس الكمي للتجربة البشرية: يجب على الموارد البشرية تطوير مقاييس جديدة لتقييم تأثير الذكاء الاصطناعي على الإنتاجية. وبالتعاون مع فرق علوم البيانات، يمكن للموارد البشرية المشاركة في إنشاء لوحات معلومات تتتبع الأداء والمشاركة واستخدام هذه البيانات لضبط أنظمة الذكاء الاصطناعي.
- تعزيز الشفافية والمساءلة: يجب أن تكون الموارد البشرية رائدة من خلال تضمين التدريب الأخلاقي في جميع مراحل دورة حياة الذكاء الاصطناعي وضمان الشفافية في عملية صنع القرار في مجال الذكاء الاصطناعي للحفاظ على الثقة.
- تنسيق التعاون متعدد الوظائف: يمكن للموارد البشرية أن تقود التعاون بين تكنولوجيا المعلومات وعلوم البيانات والأقسام الأخرى لدمج الاعتبارات الأخلاقية في نشر الذكاء الاصطناعي، مما يضمن التوافق مع قيم الشركة واحتياجات الموظفين.