إن مشهد الذكاء الاصطناعي سريع التطور لا يعيد تشكيل طريقة عملنا فحسب، بل أيضًا كيفية إدارة هوياتنا وحمايتها في مكان العمل. خلال محادثتي الأخيرة مع داريل بلامر من شركة Gartner، ناقش توقعاً مذهلاً: ستكون بنود الترخيص والاستخدام العادل لتمثيلات الذكاء الاصطناعي لشخصيات الموظفين جزءًا من 70% من عقود الموظفين الجديدة خلال السنوات الثلاث القادمة.
إن الشخصيات الشخصية هي أكثر من مجرد شبيهات رقمية - فهي تمثل الأنماط المعرفية الفريدة للموظف وعمليات اتخاذ القرار، مما يمكّن المؤسسات من الاحتفاظ بنسخة رقمية من القوى العاملة لديها لفترة طويلة بعد مغادرة الموظفين. ولاستكشاف الآثار القانونية والأخلاقية المترتبة على هذه الظاهرة، تابعتُ مع كيلي دوبس بانتينغ، وهي محامية عمل وتوظيف في شركة Greenberg Traurig LLP، التي قدمت رؤى حول كيفية تعامل المؤسسات مع الشخصيات الرقمية والتحديات التي ستواجهها على طول الطريق.
شخصية ضد الصورة الرمزية
الفرق بين الشخصية والصورة الرمزية دقيق ولكنه عميق. فالشخصية تجسد الطبقات العميقة للفرد - عملياته الإدراكية وأنماط اتخاذ القرار وأساليب حل المشكلات الفريدة. فكر في الشخصية على أنها "كيف" و"لماذا" وراء تصرفات شخص ما. على سبيل المثال، يمكن لشخصية الذكاء الاصطناعي أن تحاكي الأسلوب الاستراتيجي والأولويات القيادية لأحد المسؤولين التنفيذيين، مما يسمح للشخصية باتخاذ قرارات تتماشى مع نهج المسؤول التنفيذي.
وعلى النقيض من ذلك، فإن الصورة الرمزية هي تمثيل على المستوى السطحي، تعكس السمات الخارجية مثل المظهر الخارجي أو الصوت أو نبرة الصوت. تحاكي الصور الرمزية المظهر الخارجي - ما يقوله شخص ما أو كيف يبدو - دون محاكاة الجوهر المعرفي لكيفية تفكيره أو اتخاذ قراراته.
الآثار المترتبة على هذا التمييز هائلة. تجلب الشخصيات إمكانات غير عادية لاستمرارية المعرفة في المؤسسة. كما أنها تمثل أيضاً تحديات أخلاقية وقانونية أكبر بكثير لأنها تكرر الهوية الفكرية والعاطفية للفرد، وليس فقط خصائصه الجسدية أو اللفظية.
في جميع الصناعات، ستلعب فرق الموارد البشرية دوراً حيوياً في شرح السياسات المتعلقة بالشخصية للموظفين ومعالجة مخاوفهم.
استنساخ شخصية الذكاء الاصطناعي هو إنجاز بحثي كبير
لم تعد تقنية استنساخ الشخصيات البشرية مجرد تخمينات - فهي موجودة اليوم. فقد حققت الأبحاث الأخيرة التي أجرتها جامعة ستانفورد وجوجل ديب مايند دقة بنسبة 85% في تكرار أنماط اتخاذ القرار البشري، وذلك ببساطة من خلال مقابلات حوارية مدتها ساعتين. يتحدى هذا الإنجاز الافتراضات حول مقدار البيانات اللازمة لنمذجة السلوك البشري ويوضح جدوى إنشاء أنظمة ذكاء اصطناعي تعكس الأنماط المعرفية المعقدة، وليس فقط أداء المهام.
هذا التقدم يضع الأساس لتوقعات جارتنر. إن القدرة على تكرار الشخصيات تجعل بنود الاستخدام العادل الدائم في عقود العمل ليست فقط معقولة بل مرجحة. لم يعد الأمر يتعلق بـ "إذا"، بل كيف ستنفذ المؤسسات مثل هذه الممارسات.
وهذا يحدث بالفعل. في محادثتي مع بونتنغ، شاركت مثالاً لعميل يقوم بإنشاء صور رمزية تنفيذية من خلال تجميع التسجيلات والعروض التقديمية ومدخلات اتخاذ القرار. وتسمح هذه الصور الرمزية التي تعتمد على الذكاء الاصطناعي للشركات بإعادة استخدام الرؤى التنفيذية لاتخاذ القرارات بشكل مستمر، مما يثير أسئلة قانونية وأخلاقية فورية حول الملكية والموافقة والتعويض. لا يزال هذا المثال يمثل صورة رمزية - ولكن ما مدى بُعد الشخصية؟
ومضى بونتنغ موضحًا أنه في حين أن كتيبات الموظفين غالبًا ما تتضمن إقرارات واسعة النطاق بالسياسات، إلا أنها عادةً لا تكون عقودًا ملزمة قانونًا للتنازلات الهامة عن الحقوق. بالنسبة للاتفاقيات التي تنطوي على شخصيات مولدة للذكاء الاصطناعي، من المرجح أن تحتاج المؤسسات إلى عقود أو شروط استخدام منفصلة ومحددة بوضوح توفر إشعاراً صريحاً وتتطلب إقراراً طوعياً من الموظفين. وأشارت إلى أن هذه الأحكام يمكن أن تعكس أسلوب اتفاقيات البرمجيات، حيث تعد تحديثات الشروط والأحكام ممارسة شائعة، لكنها ستحتاج إلى تلبية معايير أعلى من الوضوح والموافقة من أجل الإنفاذ القانوني. ويعكس هذا النهج اتجاهاً متزايداً لتضمين الاتفاقيات المعقدة في عمليات التأهيل، على الرغم من أن المحاكم تدقق بشكل متزايد في هذه الممارسات.
المنظور القانوني: العقود والإشعار والحقوق
ولتأصيل هذه الرؤية المستقبلية في الواقع القانوني الحالي، أوضح بونتنغ أنه على الرغم من أن التكنولوجيا قد تكون جديدة، إلا أن المبادئ القانونية الكامنة وراءها متجذرة في الممارسات القديمة.
وقال بانتينغ: "إن مفهوم بنود العمل مقابل التوظيف مضمن بالفعل في معظم العقود التنفيذية". "ومع ذلك، من المرجح أن نشهد توسعًا في هذه العقود لتشمل صراحةً الشخصيات التي يتم إنشاؤها بواسطة الذكاء الاصطناعي."
من المرجح أن يتأثر هذا التحول بالمشهد المتطور لقوانين الخصوصية البيومترية وقوانين خصوصية البيانات في الولايات، وربما حتى قوانين الاسم والصورة والشبه (NIL)، والتي تنظم مجتمعةً كيفية جمع الشركات لبيانات الموظفين الحساسة وتخزينها واستخدامها.
لا يزال قانون خصوصية المعلومات البيومترية (BIPA) في ولاية إلينوي هو قانون الخصوصية البيومترية الأكثر شمولاً، حيث يتطلب موافقة صريحة على جمع البيانات البيومترية، مثل مسح الوجه أو بصمات الصوت. وقد سنّت ولايات أخرى قوانين مماثلة، مثل قانون التقاط أو استخدام المُعرّفات البيومترية (CUBI) في ولاية تكساس، والذي يحدد القيود ومتطلبات الموافقة على البيانات البيومترية، وقانون خصوصية البيانات البيومترية في ولاية واشنطن، والذي يحظر استخدام المُعرّفات البيومترية لأغراض تجارية. بالإضافة إلى ذلك، تطبق مدينة نيويورك قانون معلومات المُعرّفات البيومترية الخاص بها، والذي يركز على البيانات البيومترية المستخدمة داخل حدود المدينة.
بالإضافة إلى الخصوصية البيومترية، يمكن أن يؤثر عدد متزايد من قوانين خصوصية البيانات على مستوى الولاية على كيفية إدارة المؤسسات لشخصيات الموظفين. يتضمن الآن قانون خصوصية المستهلك في كاليفورنيا (CCPA)، الذي تم تعديله بموجب قانون حقوق الخصوصية في كاليفورنيا (CPRA) في عام 2020، أحكامًا صريحة تنظم كيفية جمع أصحاب العمل لبيانات الموظفين واستخدامها. كما سنّت كل من كولورادو وكونيتيكت وديلاوير وإنديانا ومونتانا ومونتانا وأوريغون وتينيسي وفرجينيا قوانين خصوصية البيانات أيضًا. على الرغم من أن العديد من هذه القوانين تنطبق في المقام الأول على بيانات المستهلكين بدلاً من ممارسات التوظيف، إلا أن استخدام الشخصيات في مكان العمل قد يدفع الولايات إلى توسيع نطاق هذه اللوائح لتشمل أصحاب العمل.
يمكن لقوانين NIL، المصممة في الأصل للسماح للرياضيين الجامعيين بالاستفادة من علاماتهم التجارية الشخصية، أن توفر أيضًا مسارًا لتنظيم شخصيات الموظفين. اقترح بونتنغ إمكانية توسيع نطاق هذه القوانين لتشمل حماية الموظفين، ومنحهم حقوقًا على شخصياتهم الرقمية وضمان التعويض العادل عندما تستثمر المؤسسات عملهم الفكري والعاطفي من خلال أنظمة الذكاء الاصطناعي. ومن شأن مثل هذه التوسعات أن تتماشى مع الدفع الأوسع نطاقاً لتحديد حقوق الهوية المعرفية والرقمية في مكان العمل.
مع اعتماد المؤسسات للتقنيات التي تنطوي على بيانات الموظفين المحمية أو المعرفات البيومترية للموظفين، يجب أن تعمل فرق الموارد البشرية بشكل وثيق مع الإدارات القانونية لضمان الامتثال لهذه القوانين. ستكون المشاركة الاستباقية مع اللوائح الناشئة أمراً بالغ الأهمية لتجنب المزالق القانونية وتعزيز ثقة الموظفين. توفر هذه الأطر القانونية، رغم أنها لا تزال تتطور، خريطة طريق لتنظيم تعقيدات إدارة شخصيات الموظفين في مكان العمل.
وحدد بونتينغ نهجاً مرحلياً قد تتبعه الشركات لمعالجة هذا التحول:
1. العقود التنفيذية الموسعة
على المستوى التنفيذي، من المرجح أن تتضمن العقود على الأرجح بنوداً مفصلة تحدد الحقوق المتعلقة بالشخصيات التي تم إنشاؤها بالذكاء الاصطناعي ومصفوفات اتخاذ القرار.
قد تحدد هذه البنود الملكية وحقوق الاستخدام والتعويضات المحتملة للاستخدام المستمر بعد انتهاء العمل.
2. شروط الاستخدام (TOU) للموظفين
يساهم الموظفون في تدريب النماذج اللغوية الكبيرة للمؤسسة (LLM) من خلال مطالباتهم. واستناداً إلى أبحاث جوجل وستانفورد، فإن فكرة أن هذه المطالبات يمكن أن تلتقط في نهاية المطاف شخصية ليست بعيدة المنال. وعلاوة على ذلك، وبالنظر إلى الصعوبة المتأصلة في إزالة البيانات من نموذج اللغة الكبير بمجرد دمجها، فإن تجنب التقاط بيانات الشخصية يصبح صعباً من الناحية اللوجستية، إن لم يكن مستحيلاً.
يبدو من المرجح أنه بالنسبة للموظفين على نطاق أوسع، قد تقدم المؤسسات اتفاقيات TOU القائمة على البرمجيات أثناء التأهيل. هذه الاتفاقيات، على غرار تلك المستخدمة لترخيص البرمجيات، ستمنح أصحاب العمل حقوقاً في بيانات الموظفين التي تدرب أنظمة الذكاء الاصطناعي، وربما تلتقط ضمنياً الأنماط المعرفية والسلوكية على مستوى الشخصية.
3. الإخطار والموافقة كضرورتين قانونيتين
ستكون الشفافية ضرورية لتجنب النزاعات القانونية. يجب إبلاغ الموظفين بوضوح حول كيفية استخدام بياناتهم وشخصياتهم. وهذا يتماشى مع قوانين مثل قانون حماية البيانات الحيوية في إلينوي، الذي يتطلب موافقة صريحة على جمع البيانات البيومترية.
وأكد بانتينج أن "الإشعار هو المفتاح". "تبحث المحاكم عن الإقرار الواضح والموافقة الطوعية. ستحتاج الشركات إلى توفير تحديثات منتظمة وفرص للموظفين لفهم هذه الاتفاقيات."
يمكن أن تتعاون فرق الموارد البشرية مع الإدارات القانونية لضمان الوضوح وقبول الموظفين أثناء عملية التأهيل، مما يساعد على مواءمة السياسات التنظيمية مع توقعات الموظفين وتعزيز الثقة.
4. تثقيف الموظفين والتفاوض معهم
مع تطور هذه التكنولوجيا، يجب على الشركات تثقيف الموظفين حول الآثار المترتبة على هذه العقود وتوفير مسارات للتفاوض، خاصةً بالنسبة لأولئك الذين يشغلون مناصب عليا أو لديهم مهارات فريدة.
الأمر المهم هو أن هذه العقود لن تنطبق فقط على المديرين التنفيذيين. ويتوقع بونتنغ أنه بمرور الوقت، سيشهد المديرون من المستوى المتوسط وحتى الموظفون المبتدئون أحكاماً مماثلة في اتفاقيات التوظيف الخاصة بهم. ومن المرجح أن تقوم الشركات بتطبيع هذه الممارسات، مثلما فعلت مع بنود الملكية الفكرية.
لقد ناقشنا كيف يمكن أن يتكشف هذا الطرح، بدءاً من كبار المسؤولين التنفيذيين ثم يتدرج تدريجياً في جميع أنحاء المؤسسة. يمكن أن تتضمن العقود التنفيذية بنوداً موسعة للعمل مقابل التوظيف تغطي صراحةً التدريب على الذكاء الاصطناعي واستخدام الشخصيات. بالنسبة للموظفين، قد تقوم المؤسسات بتضمين هذه البنود في اتفاقيات التأهيل أو كتيبات الموظفين، على الأرجح تحت رادار التدقيق الأوسع نطاقاً.
كما أشار بانتينج إلى مخاطر عدم توفير الشفافية أو التعويض العادل.
وأشارت إلى أن "الناس يوقعون العقود دون فهم كامل لما يوافقون عليه".
وهذا يخلق وضعًا محفوفًا بالمخاطر حيث يتخلى الموظفون عن حقوقهم الرقمية دون علمهم.
في نهاية المطاف، يستمر المشهد القانوني في التغير، ولكنه متخلف عن التكنولوجيا. قد توفر قوانين مثل قانون BIPA أو قوانين NIL أطرًا مبكرة لتنظيم البيانات المعرفية والشخصية. ومع ذلك، كما حذّر بونتينغ، "سيتطلب الأمر دعاوى قضائية وإجراءات تشريعية لتحديد هذه الحدود. فالشركات التي تتصرف بشكل استباقي بشفافية وإنصاف ستكون في وضع أفضل لتجتاز هذه التضاريس المجهولة."
المخاطر والفوائد ومناصرة الموظفين
الفوائد المحتملة للشخصيات الرقمية - الكفاءة واستمرارية المعرفة والإنتاجية - واضحة. فبالنسبة للمؤسسات، يوفر التقاط خبرات الموظفين وتكرارها مزايا تشغيلية، خاصة في الحفاظ على المعرفة المؤسسية. ومع ذلك، فإن هذه التطورات تشكل مخاطر كبيرة على الموظفين، بما في ذلك انتهاكات الخصوصية وسوء الاستخدام الأخلاقي وفقدان الثقة. وكما أشار بونتنغ، فإن النزاعات حول الملكية الرقمية تسلط الضوء على التحديات القانونية والأخلاقية التي يمكن أن تنشأ مع حقوق الشخصية.
بالنسبة للموظفين، فإن قدرة أنظمة الذكاء الاصطناعي المؤسسية على التقاط أنماط اتخاذ القرار والسمات الشخصية من خلال المطالبات تثير مخاوف بشأن الملكية والتعويضات. فبمجرد دمج البيانات في الذكاء الاصطناعي المؤسسي، يصبح من المستحيل تقريباً فصلها، مما يترك للموظفين سيطرة ضئيلة على كيفية استخدام مساهماتهم الفكرية والعاطفية. وبدون قوة تفاوضية جماعية، يواجه معظم العاملين ذوي الياقات البيضاء معركة شاقة في تأكيد حقوقهم.
كما تحذر نيتا فرحاني، مؤلفة كتاب "المعركة من أجل دماغك"، من أن ظهور التقنيات القادرة على محاكاة الأنماط المعرفية يشكل مخاطر عميقة على الحرية المعرفية - الحق الأساسي في التفكير بحرية وحماية التجارب العقلية للفرد من التطفل. ويؤكد فرحاني على أنه مع تقدم أنظمة الذكاء الاصطناعي، يجب علينا وضع حدود أخلاقية لمنع إساءة استخدام هذه الأدوات. ويقع على عاتق قادة الموارد البشرية دور حاسم في ضمان حماية مساهمات الموظفين ليس فقط من انتهاك الخصوصية ولكن أيضاً من التلاعب أو الاستغلال غير المبرر. سيؤدي القيام بذلك إلى تعزيز الثقة والشفافية داخل المؤسسات.
غالبًا ما يكون قادة الموارد البشرية بمثابة خط الاتصال الأول بالنسبة لمخاوف الموظفين بشأن البنود المتعلقة بالشخصية، مما يجعل من الضروري أن يكونوا مستعدين للإجابة عن الأسئلة وتقديم التوضيحات.
يجب على الموظفين الانتباه بعناية إلى أقسام الحقوق الرقمية في عقودهم، خاصةً مع تطور قوانين الولاية التي تحكم البيانات البيومترية وحماية الخصوصية الأوسع نطاقاً. يجب على قادة الموارد البشرية مواكبة هذه التطورات والدعوة إلى وضع سياسات تتماشى مع كل من المعايير الأخلاقية واللوائح الناشئة.
سد الثغرات القانونية بالعمل التنظيمي
بالنسبة للمؤسسات، تمثل حالة عدم اليقين القانوني الحالية خطرًا وفرصة في آنٍ واحد: أن تثبت نفسها كقادة استباقيين في إدارة الشخصيات الرقمية بمسؤولية.
قد تتخذ المؤسسات خطوات لا تخفف من المخاطر فحسب، بل تعزز أيضاً الثقة والولاء بين الموظفين. ومن شأن هذه الإجراءات أن تتجاوز المتطلبات القانونية لمعالجة التحديات الأخلاقية والتشغيلية التي تفرضها الشخصيات الرقمية:
1. سياسات شخصية شفافة
وضع سياسات واضحة تشرح استخدام الشخصيات الرقمية والإبلاغ عنها. ويشمل ذلك تفصيل البيانات التي سيتم استخدامها، وكيفية إنشاء الشخصيات، والأغراض المحددة لاستخدامها. بالإضافة إلى ذلك، قم بتوفير تحديثات منتظمة للموظفين حول التغييرات في سياسات الشخصيات، مع ضمان وجود قناة مفتوحة لإبداء الملاحظات للأسئلة والمخاوف.
2. برامج التقيد الطوعي للشخصية
بدلًا من التقصير في استخدام الشخصيات، اسمح للموظفين باختيار البرامج التي تتضمن إنشاء الشخصيات. تقديم حوافز واضحة، مثل التعويض الإضافي أو التحكم في كيفية استخدام شخصياتهم.
3. نماذج التعويضات العادلة
وضع اتفاقيات مشاركة الإيرادات للموظفين الذين يتم استخدام شخصياتهم خارج نطاق عملهم. تطوير منهجيات شفافة لتقييم المساهمات المعرفية ومساهمات صنع القرار في أنظمة الذكاء الاصطناعي.
4. إرشادات الاستخدام الأخلاقي للشخصية
ضع حدوداً لكيفية استخدام الشخصيات. على سبيل المثال، قصر استخدام الشخصيات على المهام المتوافقة مع دور الموظف الأصلي. وحظر استخدام الشخصيات في السيناريوهات التي يمكن أن تشوه أو تضر بسمعة الفرد أو قيمه.
5. قابلية نقل شخصية الموظف
استكشاف آليات للموظفين للاحتفاظ بالملكية الجزئية لشخصياتهم أو نقلها بين أصحاب العمل. وهذا من شأنه أن يتماشى مع المناقشات الناشئة حول حقوق الهوية الرقمية.
6. لجان الرقابة الشخصية الداخلية
إنشاء فرق متعددة الوظائف لمراجعة الممارسات المتعلقة بالشخصية بانتظام. يجب أن تضم هذه الفرق ممثلين من الموارد البشرية والقانونية والتقنية ومجموعات الدفاع عن الموظفين لضمان الرقابة المتوازنة.
يجب على المؤسسات أيضًا أن تدرك المشهد الديناميكي والمجزأ لقوانين الخصوصية الحكومية. مع توسع لوائح الخصوصية البيومترية والخصوصية للبيانات، سيحتاج أصحاب العمل إلى توقع المتطلبات الجديدة التي قد تغطي بشكل متزايد تقنيات مكان العمل والتكيف معها. سيساعد بناء سياسات شفافة وقابلة للتكيف قادة الموارد البشرية على تعزيز الثقة والحفاظ على الامتثال.
دعوة للتعاون
مع إعادة تشكيل الذكاء الاصطناعي لمكان العمل، يستمر الخط الفاصل بين الهوية البشرية والرقمية في التلاشي. تؤكد تنبؤات بلامر ورؤى بونتنغ على أن هذا التحول أمر لا مفر منه، على الرغم من أنه سيحدث بشكل غير متساوٍ عبر الصناعات والمؤسسات. سيجد الموظفون وأرباب العمل على حد سواء أنفسهم قريباً يتفاوضون على حدود حقوق الشخصية الرقمية وملكيتها واستخدامها. قد يحدد المتبنون الأوائل السوابق، لكن الفهم والاعتماد على نطاق واسع سيستغرق وقتاً طويلاً - ومن المحتمل أن ينطوي على تحديات قانونية كبيرة.
يلعب قادة الموارد البشرية دورًا حيويًا كأبطال للثقة والتطبيق الأخلاقي داخل مؤسساتهم، حيث يضمنون الاستماع إلى مخاوف الموظفين، وحماية حقوقهم، وتطبيق السياسات بشفافية وإنصاف.
من الواضح أن الحوار ما زال في بدايته، وأن الطريق أمامنا سيكون وعرًا. سيلعب التقاضي دورًا محوريًا في تحديد القواعد، بينما تتصارع المؤسسات والموظفون وصانعو السياسات مع الأسئلة المعقدة حول الأخلاقيات والاستقلالية والإنصاف. سيكون التعاون بين هذه المجموعات ضرورياً لضمان أن تخدم الشخصيات الرقمية في نهاية المطاف كلاً من النجاح المؤسسي والحقوق الفردية، بدلاً من أن تصبح مصدراً للنزاع وانعدام الثقة.