أعلنت وزارة التجارة الأمريكية في 11 أبريل عن طلب للحصول على تعليقات الجمهور بهدف تحديد الكيفية التي يمكن بها للجهات التنظيمية المساعدة في جعل أنظمة الذكاء الاصطناعي جديرة بالثقة. ويجب تقديم التعليقات إلى الإدارة الوطنية للاتصالات والمعلومات (NTIA) التابعة لوزارة التجارة بحلول 10 يونيو.
لقد جمعنا مقالات حول الأخبار من SHRM ومن مصادر أخرى.
حواجز أمان مناسبة
أوضح الرئيس جو بايدن أنه فيما يتعلق بالذكاء الاصطناعي، يجب أن يكون هناك ابتكار مسؤول وضمانات مناسبة لحماية حقوق الأفراد وسلامتهم. وأشارت الوكالة الوطنية للاتصالات والمعلومات (NTIA) إلى أنه قد تكون هناك حاجة إلى نُهج مختلفة في قطاعات صناعية متنوعة، مثل قطاعي التوظيف والرعاية الصحية.
(بيان صحفي صادر عن الوكالة الوطنية للاتصالات والمعلومات)
هدف الذكاء الاصطناعي الموثوق
وأشار طلب التعليقات إلى أن نظام الذكاء الاصطناعي يجب أن يكون قانونياً وأخلاقياً وآمناً وموثوقاً به من جميع النواحي — وبعبارة أخرى، أن يوفر «ضمانات الذكاء الاصطناعي». وأوضحت الوكالة الوطنية للاتصالات والمعلومات (NTIA) أن الذكاء الاصطناعي الموثوق به يشمل سمات مثل «السلامة والفعالية والإنصاف والخصوصية والإخطار والتفسير وتوافر البدائل البشرية». كما يجب توفير حماية ضد التمييز الخوارزمي.
وجاء في طلب التعليق: "تُستخدم أنظمة الذكاء الاصطناعي في مجالات الموارد البشرية والتوظيف، والمالية، والرعاية الصحية، والتعليم، والإسكان، والنقل، وإنفاذ القانون والأمن، والعديد من المجالات الأخرى التي تؤثر بشكل كبير على حياة الناس". وأضاف الطلب: "تعمل الهيئات العامة والخاصة على وضع مقاييس أو معايير مرجعية للذكاء الاصطناعي الموثوق به حيثما دعت الحاجة".
ومن بين الأسئلة المطروحة على المعلقين:
- ما هي الموضوعات التي ينبغي أن تغطيها آليات المساءلة المتعلقة بالذكاء الاصطناعي؟ وكيف ينبغي تحديد نطاقها؟
- هل ينبغي دمج عمليات تدقيق أو تقييم الذكاء الاصطناعي في آليات المساءلة الأخرى التي تركز على أهداف مثل حقوق الإنسان؛ وحماية الخصوصية؛ والأمن؛ والتنوع والإنصاف والشمول وإتاحة الوصول؟ وهل توجد معايير مرجعية لهذه الآليات الأخرى للمساءلة ينبغي أن تُسترشد بها تدابير المساءلة المتعلقة بالذكاء الاصطناعي؟
- هل يمكن لممارسات المساءلة في مجال الذكاء الاصطناعي أن تُحدث تأثيرًا ملموسًا في غياب المعايير القانونية وعتبات المخاطر القابلة للتنفيذ؟ وما هو دور المحاكم والهيئات التشريعية والهيئات المعنية بوضع القواعد؟
- هل تكمن قيمة الشهادات والتدقيقات والتقييمات في تعزيز ثقة الأطراف المعنية الخارجية أم في تغيير العمليات الداخلية؟ وكيف يمكن أن تؤثر الإجابة على صياغة السياسات؟
- كيف ينبغي لعملية المساءلة أن تتعامل مع جودة البيانات والفجوات في البيانات بمختلف أنواعها؟ على سبيل المثال، في سياق أدوات اتخاذ القرارات المتعلقة بالتوظيف الآلية، قد لا تتوفر بيانات تاريخية لتقييم أداء أداة مخصصة تم نشرها حديثًا.
- هل يُعد عدم وجود قانون اتحادي يركز على أنظمة الذكاء الاصطناعي عائقاً أمام المساءلة الفعالة في مجال الذكاء الاصطناعي؟
- ما هو الدور الذي ينبغي أن تضطلع به سياسات الحكومة، إن وجد، في منظومة المساءلة المتعلقة بالذكاء الاصطناعي؟
(طلب التعليق الصادر عن الوكالة الوطنية للاتصالات والمعلومات)
التنظيم الذاتي
بالإضافة إلى اللوائح التنظيمية، يركز إعلان الوكالة الوطنية للاتصالات والمعلومات (NTIA) على تدابير التنظيم الذاتي التي قد يتم تبنيها، والتي من المرجح أن تقودها الشركات التي تعمل على تطوير تكنولوجيا الذكاء الاصطناعي. ويشكل ذلك تباينًا مع الاتحاد الأوروبي، حيث يتفاوض المشرعون هذا الشهر على إقرار قيود صارمة على أدوات الذكاء الاصطناعي بناءً على درجة المخاطر التي تشكلها.
(AP)
مخاطر وفوائد الذكاء الاصطناعي
افتتحت النائبة نانسي ميس، الجمهورية عن ولاية كارولينا الجنوبية، ورئيسة اللجنة الفرعية المعنية بالتكنولوجيا التابعة للجنة الرقابة في مجلس النواب، الشهر الماضي جلسة استماع حول الذكاء الاصطناعي ببيان مدته ثلاث دقائق تناولت فيه مخاطر وفوائد الذكاء الاصطناعي. ثم أضافت: «كل ما قلته للتو في بياني الافتتاحي، كما خمنتم، كتبته ChatGPT».
أبهر ChatGPT بعض المستخدمين بردوده السريعة على الأسئلة، لكنه أثار استياء آخرين بسبب عدم دقة معلوماته. وقد لفت جوناثان تورلي، أستاذ القانون بجامعة جورج واشنطن، الانتباه مؤخرًا إلى بعض مخاطر الذكاء الاصطناعي بعد أن اتهمه ChatGPT زورًا بالتحرش الجنسي، مستشهدًا بمقال ملفق حول هذا الادعاء.
وفي بيان له، قال نيكو فيليكس، المتحدث باسم OpenAI: "عندما يقوم المستخدمون بالتسجيل في ChatGPT، نسعى جاهدين إلى توخي أقصى درجات الشفافية بشأن احتمال عدم تقديمه إجابات دقيقة في جميع الأحوال. ويشكل تحسين دقة المعلومات الواقعية أحد أولوياتنا الرئيسية، ونحن نحرز تقدماً في هذا الصدد."
(صحيفة وول ستريت جورنالوفوكس نيوز و واشنطن بوست)
قضايا المساواة في فرص العمل
قالت جودي كونتي، مديرة الشؤون الحكومية في «المشروع الوطني لقانون العمل» بواشنطن العاصمة، خلال فعالية نظمتها «لجنة تكافؤ فرص العمل» (EEOC) العام الماضي، إن أدوات الأتمتة أصبحت شائعة بشكل متزايد، لكنها غالبًا ما تُبرمج وتُدرَّب استنادًا إلى ممارسات التوظيف السابقة التي قد تؤدي إلى تكرار أنماط التحيز غير القانوني.
قالت إيميلي م. ديكنز، رئيسة ديوان الرئيس ورئيسة الشؤون العامة وأمينة سر جمعية إدارة الموارد البشرية (SHRM) في الإسكندرية بولاية فيرجينيا، إن ما يقرب من 80 في المائة من المؤسسات التي شملها الاستطلاع تستخدم الذكاء الاصطناعي أو تخطط لاستخدامه في مجال الموارد البشرية خلال السنوات الخمس المقبلة. وأضافت أن الاستفادة من الأجهزة القائمة على الذكاء الاصطناعي في مجال الموارد البشرية ليست أمراً سيئاً بالكامل. على سبيل المثال، غيرت الأنظمة الخوارزمية طريقة عمل الشركات من خلال تقليل الوقت الذي يستغرقه شغل الوظائف الشاغرة. وتشير ما يقرب من 3 من كل 5 مؤسسات إلى أن جودة الموظفين الجدد أعلى بفضل استخدام الذكاء الاصطناعي.
(SHRM )
إجراءات وزارة التجارة تلقى إشادة من البعض وانتقادات من آخرين
وكتب السناتور مايكل بينيت، الديمقراطي عن ولاية كولورادو، في تغريدة على تويتر: "يتزايد استخدام الذكاء الاصطناعي دون وجود أي ضمانات ضرورية لحماية أطفالنا، أو منع انتشار المعلومات الكاذبة، أو الحفاظ على الخصوصية". وأضاف: "لا يمكن أن يأتي تطوير عمليات تدقيق وتقييم الذكاء الاصطناعي في وقت أقرب من ذلك".
لكن بعض مستثمري رأس المال المخاطر في وادي السيليكون يعارضون فرض المزيد من القيود الحكومية. وكتب ديفيد أوليفيتش، الشريك العام في شركة رأس المال المخاطر «أندريسن هورويتز» بمدينة نيويورك، في تغريدة على تويتر: «هذه تصريحات مقلقة للغاية صادرة من واشنطن». «الابتكار في مجال الذكاء الاصطناعي هو ضرورة أمريكية ملحة — فخصومنا لا يتباطأون. وسيكون من الحكمة أن يفسح المسؤولون الطريق، لا أن يضعوا العقبات».
هل كان هذا المورد مفيدًا؟