ما هي أخلاقيات الذكاء الاصطناعي؟
تشير أخلاقيات الذكاء الاصطناعي إلى المبادئ التي تحكم سلوك الذكاء الاصطناعي من ناحية القيم الإنسانية. تساعد أخلاقيات الذكاء الاصطناعي على ضمان تطوير الذكاء الاصطناعي واستخدامه بطرق مفيدة للمجتمع. وهي تشمل مجموعة كبيرة من الاعتبارات، بما في ذلك الإنصاف والشفافية والمسؤولية والخصوصية والأمان والآثار الاجتماعية المحتملة.
default
{}
default
{}
primary
default
{}
secondary
مقدمة عن أخلاقيات الذكاء الاصطناعي
تعد أخلاقيات الذكاء الاصطناعي قوة دافعة للخير تساعد على التخفيف من الانحيازات غير العادلة وإزالة الحواجز التي تحول دون إمكانية الوصول وتعزيز الإبداع، من بين فوائد أخرى كثيرة. وبما أن المؤسسات تعتمد بشكل متزايد على الذكاء الاصطناعي في القرارات التي تؤثر على حياة البشر، فمن الضروري أن تنظر في الآثار الأخلاقية المعقدة؛ لأن سوء استخدام الذكاء الاصطناعي يمكن أن يسبب ضررًا للأفراد والمجتمع—وللأرباح الصافية للشركات وسمعتها.
في هذا المقال، سنستكشف ما يلي:
- المبادئ والمصطلحات والتعريفات الشائعة لأخلاقيات الذكاء الاصطناعي
- وضع مبادئ الذكاء الاصطناعي الأخلاقية للمؤسسة
- المسؤول عن أخلاقيات الذكاء الاصطناعي
- تنفيذ عمليات التدريب والحوكمة والعمليات التقنية لأخلاقيات الذكاء الاصطناعي
- حالات استخدام الذكاء الاصطناعي الأخلاقية وتطبيقاتها
- بعض الجهات الرائدة في مجال أخلاقيات الذكاء الاصطناعي
أمثلة على مبادئ الذكاء الاصطناعي الأخلاقية
إن رفاهية الأشخاص هي محور أي مناقشة حول أخلاقيات الذكاء الاصطناعي. في حين يمكن تصميم أنظمة الذكاء الاصطناعي بحيث تعطي الأولوية للأخلاق والقيم، فإن البشر مسؤولون في نهاية المطاف عن ضمان التصميم والاستخدام الأخلاقي—والتدخل عند الضرورة.
لا توجد مجموعة واحدة من مبادئ الذكاء الاصطناعي الأخلاقية متفق عليها عالميًا. تقوم العديد من المؤسسات والوكالات الحكومية بالتشاور مع الخبراء في مجال الأخلاقيات والقانون والذكاء الاصطناعي لوضع مبادئهم التوجيهية. وتتناول هذه المبادئ عادةً ما يلي:
- رفاه الإنسان وكرامته: ينبغي لأنظمة الذكاء الاصطناعي أن تعطي الأولوية دائمًا لرفاه الأفراد وسلامتهم وكرامتهم وتضمن لهم تحقيق ذلك، ولا تحل محل البشر ولا تخل برفاهيتهم
- الرقابة البشرية: يحتاج الذكاء الاصطناعي إلى مراقبة بشرية في كل مرحلة من مراحل التطوير والاستخدام—مما يسمى أحيانًا "التدخل البشري"—لضمان أن المسؤولية الأخلاقية النهائية تقع على عاتق الإنسان
- معالجة الانحياز والتمييز: يجب أن تعطي عمليات التصميم الأولوية للإنصاف والمساواة والتمثيل العادل للتخفيف من حدة الانحياز والتمييز
- الشفافية وإمكانية التوضيح: يجب أن تكون كيفية اتخاذ نماذج الذكاء الاصطناعي قرارات معينة والتوصل إلى نتائج محددة شفافة وقابلة للتوضيح بلغة واضحة
- الحفاظ على خصوصية البيانات وحمايتها: يجب أن تستوفي أنظمة الذكاء الاصطناعي أشد معايير خصوصية البيانات وحمايتها صرامة، باستخدام أساليب قوية للأمن السيبراني لتجنب حدوث خروقات في البيانات ووصول غير مصرح به
- تعزيز الشمولية والتنوع: ينبغي لتقنيات الذكاء الاصطناعي أن تعكس وتحترم المجموعة الكبيرة من الهويات والخبرات البشرية
- المجتمع والاقتصادات: ينبغي أن يساعد الذكاء الاصطناعي في دفع عجلة التقدم المجتمعي والازدهار الاقتصادي لجميع الناس، دون تعزيز عدم المساواة أو الممارسات غير العادلة
- تعزيز المهارات الرقمية والمعرفة التقنية: ينبغي أن تهدف تقنيات الذكاء الاصطناعي إلى أن تكون متاحة وقابلة للفهم للجميع، بغض النظر عن المهارات الرقمية للشخص
- صحة الأعمال: يجب أن تعمل تقنيات الذكاء الاصطناعي في مجال الأعمال على تسريع العمليات وتحقيق أقصى قدر من الكفاءة وتعزيز النمو
مصطلحات أخلاقيات الذكاء الاصطناعي وتعريفاتها
ونظرًا لوجود علاقة بين الأخلاقيات والتكنولوجيا المتقدمة، غالبًا ما تستخدم المحادثات حول الذكاء الاصطناعي الأخلاقي مفردات من كلا المجالين. إن فهم هذه المفردات مهم للتمكن من مناقشة أخلاقيات الذكاء الاصطناعي:
-
الذكاء الاصطناعي: قدرة الآلة على أداء الوظائف المعرفية التي نربطها بالعقول البشرية، مثل الإدراك والتفكير المنطقي والتعلم وحل المشكلات. هناك نوعان رئيسيان من أنظمة الذكاء الاصطناعي، وبعض الأنظمة هي مزيج من كليهما:
- يعمل الذكاء الاصطناعي المستند إلى القواعد، والذي يُسمى أيضًا الذكاء الاصطناعي الخبير، وفقًا لمجموعة من القواعد المحددة بالكامل التي أنشأها الخبراء البشريون—على سبيل المثال، تستخدم العديد من الأنظمة الأساسية للتجارة الإلكترونية الذكاء الاصطناعي المستند إلى القواعد لتوفير توصيات المنتجات
- يحل الذكاء الاصطناعي المستند إلى التعلم المشكلات ويقوم بتهيئة وظائفه بمفرده، بناءً على تكوينه الأولي المصمم بواسطة الإنسان ومجموعة بيانات التدريب—أدوات الذكاء الاصطناعي التوليدي هي أمثلة على الذكاء الاصطناعي المستند إلى التعلم
أخلاقيات الذكاء الاصطناعي: هي مجموعة من القيم والمبادئ والتقنيات التي تستند إلى معايير مقبولة على نطاق واسع للصواب والخطأ لتوجيه السلوك الأخلاقي في تطوير تقنيات الذكاء الاصطناعي ونشرها واستخدامها وبيعها.
نموذج الذكاء الاصطناعي: إطار عمل رياضي أنشأه الأشخاص وتم تدريبه على البيانات التي تمكن أنظمة الذكاء الاصطناعي من تنفيذ مهام معينة من خلال تحديد الأنماط واتخاذ القرارات والتنبؤ بالنتائج. وتشمل الاستخدامات الشائعة التعرف على الصور وترجمة اللغات، من بين العديد من الاستخدامات الأخرى.
نظام الذكاء الاصطناعي: بنية معقدة من الخوارزميات والنماذج المصممة لمحاكاة الاستدلال البشري وأداء المهام بشكل مستقل.
الوكالة: قدرة الأفراد على التصرف باستقلالية واتخاذ خيارات حرة.
الانحياز: الميل أو التحيز تجاه أو ضد شخص أو مجموعة، خاصةً بطريقة تعتبر غير عادلة. الانحياز في بيانات التدريب—على سبيل المثال، يمكن أن يتسبب التمثيل غير الكافي أو المبالغ فيه في البيانات المتعلقة بمجموعة معينة—في عمل الذكاء الاصطناعي بطرق متحيزة.
قابلية التوضيح: القدرة على الإجابة على السؤال، "ماذا فعلت الآلة للوصول إلى النتيجة التي أخرجتها؟" تشير قابلية التوضيح إلى السياق التكنولوجي لنظام الذكاء الاصطناعي، مثل آلياته والقواعد والخوارزميات وبيانات التدريب الخاصة به.
الإنصاف: معاملة أو سلوك محايد وعادل دون محاباة ظالمة أو تمييز.
التدخل البشري: قدرة البشر على التدخل في كل دورة قرار لنظام الذكاء الاصطناعي.
قابلية التفسير: قدرة الأشخاص على فهم السياق الواقعي وتأثير مخرجات نظام الذكاء الاصطناعي، مثل عند استخدام الذكاء الاصطناعي للمساعدة في اتخاذ قرار بشأن اعتماد طلب قرض أو رفضه.
النموذج اللغوي الكبير (LLM): نوع من تدريب الآلة غالبًا ما يُستخدم في التعرف على النص ومهام التوليد.
تدريب الآلة: جزء فرعي من الذكاء الاصطناعي يوفر للأنظمة القدرة على التعلم التلقائي والتحسن من التجربة والتكيف مع البيانات الجديدة دون برمجتها صراحةً للقيام بذلك.
المعيار: سياق رئيسي للأخلاقيات العملية يتعلق بما يجب على الأشخاص والمؤسسات "القيام به" في مواقف معينة.
الشفافية: تتعلق بقابلية التوضيح، والشفافية هي القدرة على تبرير كيفية تطوير نظام الذكاء الاصطناعي وتطبيقه واستخدامه وسبب ذلك، وجعل تلك المعلومات مرئية ومفهومة للأفراد.
كيفية تطبيق مبادئ أخلاقيات الذكاء الاصطناعي
بالنسبة للمؤسسات، هناك ما هو أكثر من مجرد اعتماد المبادئ الأخلاقية لاستخدام الذكاء الاصطناعي بشكل أخلاقي؛ فيجب دمج هذه المبادئ في جميع العمليات التقنية والتشغيلية للذكاء الاصطناعي. في حين أن دمج الأخلاقيات قد يبدو مرهقًا بالنسبة للمؤسسات التي تعتمد الذكاء الاصطناعي بسرعة، فإن حالات الضرر في الواقع التي تسببها المشكلات في تصاميم نماذج الذكاء الاصطناعي واستخدامه تظهر أن إهمال الأخلاقيات السليمة يمكن أن يكون محفوفًا بالمخاطر ومكلفًا.
من المسؤول عن أخلاقيات الذكاء الاصطناعي؟
الإجابة المختصرة: كل من يشارك في الذكاء الاصطناعي، بما في ذلك الشركات والحكومات والمستهلكين والمواطنين.
الأدوار المختلفة لمختلف الأشخاص في مجال أخلاقيات الذكاء الاصطناعي
- يلعب المطوِّرون والباحثون دورًا أساسيًا في إنشاء أنظمة الذكاء الاصطناعي التي تعطي الأولوية للقدرة البشرية على اتخاذ القرار والرقابة البشرية، وتعالج الانحياز والتمييز، وتكون شفافة ومفهومة.
- يضع واضعو السياسات والمنظِّمون القوانين واللوائح لإدارة الاستخدام الأخلاقي للذكاء الاصطناعي وحماية حقوق الأفراد.
- يحرص قادة الأعمال والصناعة على أن تتبنى مؤسساتهم مبادئ الذكاء الاصطناعي الأخلاقية بحيث تستخدم الذكاء الاصطناعي بطرق تسهم بشكل إيجابي في المجتمع.
- وتدعو مؤسسات المجتمع المدني إلى الاستخدام الأخلاقي للذكاء الاصطناعي، وتلعب دورًا في الرقابة، وتقدم الدعم للمجتمعات المتضررة.
- تساهم المؤسسات الأكاديمية من خلال التعليم والبحث وتطوير الإرشادات الأخلاقية.
- للمستخدمين النهائيين والمستخدمين المتأثرين —، مثل المستهلكين والمواطنين — مصلحة مباشرة في التأكد من أن أنظمة الذكاء الاصطناعي قابلة للتفسير والفهم، وعادلة، وشفافة، وتعود بالنفع على المجتمع.
دور قادة الأعمال في مجال أخلاقيات الذكاء الاصطناعي
تقوم العديد من الشركات بإنشاء لجان يقودها كبار قادتها لتشكيل سياسات إدارة الذكاء الاصطناعي الخاصة بهم. على سبيل المثال، في شركة SAP، قمنا بتشكيل لجنة استشارية ولجنة توجيهية لأخلاقيات الذكاء الاصطناعي، تتكون من خبراء في الأخلاقيات والتكنولوجيا، لدمج مبادئ الذكاء الاصطناعي الأخلاقية لدينا في جميع منتجاتنا وعملياتنا. وترتب هذه المبادئ الأولوية على النحو التالي:
- التناسب وعدم الإضرار
- السلامة والأمن
- الإنصاف وعدم التمييز
- الاستدامة
- الحق في الخصوصية وحماية البيانات
- الإشراف البشري واتخاذ القرار
- الشفافية وإمكانية الفهم
- المسؤولية والمساءلة
- الوعي والمعرفة التقنية
- أصحاب المصلحة المتعددون والحوكمة التكيفية والتعاون
تشكيل لجنة توجيهية لأخلاقيات الذكاء الاصطناعي
إن إنشاء لجنة توجيهية أمر ضروري لإدارة أسلوب المؤسسة المتعلق بأخلاقيات الذكاء الاصطناعي، ويعزز المساءلة والإشراف على أعلى مستوى. وتضمن هذه اللجنة دمج الاعتبارات الأخلاقية في تطوير الذكاء الاصطناعي ونشره.
أفضل الممارسات لتشكيل لجنة توجيهية لأخلاقيات الذكاء الاصطناعي
- التكوين والخبرة: يمكنك تضمين مزيج متنوع من أصحاب المصلحة ذوي الخبرة في مجال الذكاء الاصطناعي والقانون والأخلاقيات. ويمكن للمستشارين الخارجيين تقديم وجهات نظر غير متحيزة.
- تحديد الغرض والنطاق: يمكنك تحديد مهمة اللجنة وأهدافها بوضوح، مع التركيز على تصميم الذكاء الاصطناعي الأخلاقي وتنفيذه وتشغيله. ويجب أن يتماشى هذا مع قيم الشركة، والإنصاف، والشفافية، والخصوصية.
- تحديد الأدوار والمسؤوليات: يمكنك تحديد أدوار محددة للأعضاء، مثل وضع سياسات أخلاقيات الذكاء الاصطناعي، وتقديم المشورة بشأن المخاوف المتعلقة بالأخلاقيات في مشروعات الذكاء الاصطناعي، وضمان الامتثال للوائح التنظيمية.
- تحديد الأهداف: يمكنك تحديد أهداف واضحة وقابلة للقياس، مثل إجراء تدقيق سنوي للأخلاقيات في مشروعات الذكاء الاصطناعي وتقديم تدريب ربع سنوي بشأن استخدام الذكاء الاصطناعي بشكل أخلاقي.
- تحديد الإجراءات: يمكنك تحديد الإجراءات التشغيلية، بما في ذلك جداول الاجتماعات، ومعايير التوثيق، وبروتوكولات الاتصال للحفاظ على الشفافية.
- التعليم المستمر والتكيف: يمكنك مواكبة التطورات الجديدة في تكنولوجيا الذكاء الاصطناعي والمعايير الأخلاقية واللوائح من خلال الحصول على التدريب المنتظم وحضور المؤتمرات.
إنشاء سياسة لأخلاقيات الذكاء الاصطناعي
يُعد وضع سياسة لأخلاقيات الذكاء الاصطناعي أمرًا ضروريًا لتوجيه مبادرات الذكاء الاصطناعي داخل المؤسسة. وتلعب اللجنة التوجيهية دورًا بالغ الأهمية في هذه العملية، حيث تستخدم خبراتها المتنوعة لضمان توافق السياسة مع القوانين والمعايير والمبادئ الأخلاقية الأوسع نطاقًا.
أسلوب نموذجي لإنشاء سياسة أخلاقيات الذكاء الاصطناعي
-
صياغة السياسة الأولية: ابدأ بصياغة سياسة تعكس القيم الأساسية للمؤسسة والمتطلبات القانونية وأفضل الممارسات. وستكون هذه المسودة الأولية أساسًا لإجراء مزيد من التحسين.
-
التشاور والمدخلات: يمكنك المشاركة مع أصحاب المصلحة الداخليين والخارجيين، بما في ذلك مطوِّري الذكاء الاصطناعي وقادة الأعمال وعلماء الأخلاق، لجعل السياسة شاملة وممثلة لوجهات نظر متعددة.
-
دمج الرؤى متعددة التخصصات: يمكنك استخدام الخلفيات المتنوعة لأعضاء اللجنة لدمج رؤى من التكنولوجيا والأخلاقيات والقانون والأعمال من أجل معالجة الجوانب المعقدة لأخلاقيات الذكاء الاصطناعي.
-
تحديد حالات الاستخدام عالية المخاطر والتي تتجاوز المعايير: لضمان الوضوح، ينبغي أن تحدد اللجنة تطبيقات الذكاء الاصطناعي التي تشكل مخاطر كبيرة أو تعتبر غير أخلاقية، وبالتالي، يتم حظرها. وتصنف اللجنة التوجيهية في شركة SAP، على سبيل المثال، هذه على أنها:
- عالية المخاطر: تشمل هذه الفئة التطبيقات التي يمكن أن تكون ضارة بأي شكل من الأشكال، وتشمل التطبيقات المتعلقة بإنفاذ القانون، والهجرة، والعمليات الديمقراطية—وكذلك تلك المتعلقة بالبيانات الشخصية، واتخاذ القرارات المؤتمت، أو التي تؤثر على الرفاه الاجتماعي. ويجب أن تخضع لتقييم شامل من قِبل اللجنة قبل التطوير أو النشر أو البيع.
- نقطة لا يُسمح بتجاوزها: تُحظر التطبيقات التي تمكِّن مراقبة البشر، أو التمييز ضدهم، أو إزالة إخفاء الهوية عن البيانات مما يؤدي إلى التعرف على الأفراد أو المجموعات، أو تلك التي تضلل الرأي العام أو تقوّض النقاشات الديمقراطية. وترى شركة SAP أن هذه الاستخدامات غير أخلاقية إلى حد كبير وتحظر تطويرها ونشرها وبيعها.
-
التقييم والمراجعات: يمكنك تقييم السياسة ومراجعتها باستمرار على أساس الملاحظات، مما يضمن بقائها ذات صلة وعملية بالنسبة للواقع.
-
الإنهاء والاعتماد: يمكنك تقديم السياسة المنجزة من أجل الاعتماد النهائي من قِبل أصحاب القرار، مثل مجلس الإدارة، مدعومة بتوصية قوية من اللجنة.
-
التطبيق والإشراف المستمر: على اللجنة مراقبة تطبيق السياسة وتحديثها بشكل دوري لتعكس التطورات التكنولوجية والأخلاقية الجديدة.
إنشاء عملية لتقييم الامتثال
من الضروري تطوير عمليات تقييم للامتثال فعالة لضمان التزام عمليات نشر الذكاء الاصطناعي بسياسات أخلاقيات الذكاء الاصطناعي في المؤسسة ولوائحها. وتساعد هذه العمليات في بناء الثقة مع المستخدمين والمنظِّمين، وتعمل على الحد من المخاطر ودعم الممارسات الأخلاقية في جميع مشروعات الذكاء الاصطناعي.
عمليات تقييم الامتثال النموذجية
- وضع إطار عمل تقييم موحد: يمكنك صياغة إطار عمل شامل يحدد إجراءات تقييم مشروعات الذكاء الاصطناعي على أساس الإرشادات الأخلاقية والمعايير القانونية والمتطلبات التشغيلية.
- تصنيف المخاطر: يمكنك تصنيف مشروعات الذكاء الاصطناعي حسب مخاطرها الأخلاقية والتنظيمية. وتتطلب المشروعات عالية المخاطر، مثل تلك التي تتعامل مع البيانات الشخصية الحساسة أو التي لها تأثيرات كبيرة على اتخاذ القرارات، درجة عالية من التدقيق.
- عمليات التدقيق والتقييمات المنتظمة: يمكنك إجراء عمليات تدقيق منتظمة للتحقق من الامتثال المستمر، بما في ذلك عمليات الفحص المؤتمتة والمراجعات اليدوية من قِبل الفِرَق متعددة التخصصات.
- مشاركة أصحاب المصلحة: يمكنك إشراك مجموعة متنوعة من أصحاب المصلحة في عملية المراجعة، بما في ذلك علماء الأخلاقيات والخبراء القانونيين وعلماء البيانات والمستخدمين النهائيين لتحديد المخاطر المحتملة والمعضلات الأخلاقية.
- التوثيق والشفافية: يمكنك الاحتفاظ بسجلات تفصيلية لجميع أنشطة الالتزام، مع ضمان إمكانية الوصول إليها وجعلها واضحة لكل من عمليات التدقيق الداخلية والخارجية
- آليات التصعيد والملاحظات: يمكنك تنفيذ إجراءات واضحة للإبلاغ ومعالجة الشواغل الأخلاقية وقضايا الالتزام
التطبيق التقني لممارسات أخلاقيات الذكاء الاصطناعي
يتضمن دمج الاعتبارات الأخلاقية في تطوير الذكاء الاصطناعي تكييف ممارسات التكنولوجيا الحالية لضمان إنشاء الأنظمة ونشرها بشكل مسؤول. وبالإضافة إلى إرساء مبادئ الذكاء الاصطناعي الأخلاقية، تقوم المؤسسات في بعض الأحيان أيضًا بوضع مبادئ الذكاء الاصطناعي المسؤول، والتي يمكن أن تركز بشكل أكبر على حالات الاستخدام التقنية وصناعتهم الخاصة.
المتطلبات التقنية الأساسية لأنظمة الذكاء الاصطناعي الأخلاقية
كشف الانحياز والتخفيف من حدته: يمكنك استخدام مجموعات البيانات المتنوعة والأساليب الإحصائية للكشف عن الانحيازات في نماذج الذكاء الاصطناعي وتصحيحها. ويمكنك إجراء عمليات تدقيق منتظمة لمراقبة الانحياز.
الشفافية وإمكانية الفهم: يمكنك تطوير الأنظمة التي يمكن للمستخدمين فهمها والتحقق منها بسهولة مع استخدام أساليب، مثل مجاميع نقاط الأهمية للميزات، وأشجار القرارات، والتفسيرات غير المعتمدة على النموذج لتحسين الشفافية.
خصوصية البيانات وأمانها: تأكد من إدارة البيانات في أنظمة الذكاء الاصطناعي بشكل آمن ومن توافقها مع قوانين الخصوصية. يجب أن تستخدم الأنظمة التشفير وإخفاء الهوية وتعمل على تأمين البروتوكولات لحماية سلامة البيانات.
تصميم قوي وموثوق به: يجب أن تكون أنظمة الذكاء الاصطناعي قوية وموثوق بها في ظل ظروف مختلفة، وتتضمن اختبار واسع النطاق والتحقق من الصحة للتعامل مع السيناريوهات غير المتوقعة بفعالية.
المراقبة المستمرة والتحديث: يمكنك الحفاظ على المراقبة المستمرة لتقييم أداء الذكاء الاصطناعي والالتزام الأخلاقي، وتحديث الأنظمة حسب الحاجة بناءً على البيانات الجديدة أو التغييرات في الظروف.
مشاركة أصحاب المصلحة وملاحظاتهم: يمكنك إشراك أصحاب المصلحة، مثل المستخدمين النهائيين وعلماء الأخلاقيات وخبراء المجال، في عمليات التصميم والتطوير لجمع الملاحظات وضمان توافق النظام مع المتطلبات الأخلاقية والتشغيلية.
تدريب المؤسسة على أخلاقيات الذكاء الاصطناعي
يعد التدريب الشامل أمرًا بالغ الأهمية لضمان فهم الموظفين لأخلاقيات الذكاء الاصطناعي وإمكانية عملهم بمسؤولية مع تقنيات الذكاء الاصطناعي. كما يعمل التدريب على تعزيز نزاهة أدوات الذكاء الاصطناعي وحلوله في المؤسسات وفعاليتها.
المكونات الأساسية لمنهج تدريبي فعال للذكاء الاصطناعي
- التطوير الشامل للمناهج: يمكنك استخدام منهجًا تدريبيًا يتناول أساسيات الذكاء الاصطناعي والاعتبارات الأخلاقية ومشكلات الالتزام والتطبيقات العملية مصمم خصيصًا لأدوار تنظيمية مختلفة بدءًا من الموظفين التقنيين وحتى الإدارة التنفيذية.
- وحدات التدريب الخاصة بالدور: يمكنك توفير وحدات تدريبية مخصصة للمتطلبات والمسؤوليات الفريدة لمختلف الأقسام. على سبيل المثال، قد يركز المطوِّرون على ممارسات البرمجة الأخلاقية، في حين تتعرف فِرَق المبيعات والتسويق على تأثيرات الذكاء الاصطناعي على تفاعلات العملاء.
- التعلم المستمر والتحديثات: يتطور الذكاء الاصطناعي بسرعة، لذا من المهم الحفاظ على تحديث برامج التدريب بأحدث التطورات وأفضل الممارسات.
- تجارب التعلم التفاعلية والعملية: يمكنك استخدام دراسات حالات الاستخدام وعمليات المحاكاة وورش العمل لتوضيح التطبيقات الواقعية والتحديات الأخلاقية من أجل دعم المعرفة النظرية بالخبرة العملية.
- التقييم وتقديم الشهادات: يمكنك إجراء تقييمات لقياس فهم الموظفين وكفائتهم في مجال أخلاقيات الذكاء الاصطناعي والعمل على تقديم شهادات للاعتراف بجهودهم وتحفيزهم على التحسن المستمر.
- آليات الملاحظات: يمكنك إعداد قنوات الملاحظات للموظفين للمساهمة في الصقل المستمر للبرامج التدريبية، بما يضمن تلبية المتطلبات المتطورة للمؤسسة.
حالات استخدام أخلاقيات الذكاء الاصطناعي لأدوار مختلفة في المؤسسة
يجب على كل شخص في المؤسسة التي تعمل مع التطبيقات المدعومة بالذكاء الاصطناعي، أو محركات إجابات الذكاء الاصطناعي، أن يتوخى الحذر من مخاطر انحياز الذكاء الاصطناعي ويعمل بمسؤولية. وفيما يلي أمثلة على حالات تطبيق أخلاقيات الذكاء الاصطناعي لأدوار أو أقسام مختلفة في الشركات:
- علماء البيانات أو مهندسو تدريب الآلة: في هذه الأدوار، يوصى بدمج أساليب الكشف عن الانحياز والتخفيف من حدته وضمان إمكانية فهم النموذج وتحسينه. وهذا ينطوي على تقنيات، مثل مقاييس الإنصاف والتحليل الافتراضي.
- مديرو المنتجات أو محللو الأعمال: يمكن أن تتنوع المسؤوليات المتعلقة بأخلاقيات الذكاء الاصطناعي بدءًا من تقييمات المخاطر الأخلاقية، وتحديد أولويات التصميم المتمركز حول المستخدم، ووصولاً إلى وضع استراتيجيات تواصل واضحة لشرح أنظمة الذكاء الاصطناعي للمستخدمين وأصحاب المصلحة. ويشمل ذلك أخذ التأثيرات المحتملة على المجتمع بعين الاعتبار، وفهم متطلبات المستخدمين، وبناء الثقة من خلال الشفافية.
- قسم الشؤون القانونية والالتزام: حالات الاستخدام بالغة الأهمية هي الالتزام باللوائح ذات الصلة (على سبيل المثال، قوانين خصوصية البيانات)، وإدارة المخاطر القانونية ومخاطر السمعة المرتبطة بالذكاء الاصطناعي، ووضع استراتيجيات للحد من المسؤوليات الناشئة عن الانحياز الخوارزمي أو العواقب غير المقصودة
- أخصائيو الموارد البشرية: يجب أن يعمل قسم الموارد البشرية مع استخدام أدوات التعيين المدعومة بالذكاء الاصطناعي التي تخلو من الانحياز وتمتثل لقوانين مكافحة التمييز. تتضمن المهام إجراء التدقيق للخوارزميات، وتطبيق الأنظمة التي تتيح التدخل البشري، وتوفير التدريب على ممارسات التعيين المعتمد على الذكاء الاصطناعي الأخلاقية.
الجهات المختصة بأخلاقيات الذكاء الاصطناعي
إن أخلاقيات الذكاء الاصطناعي مسألة معقدة، حيث تتشكل من خلال اللوائح المتغيرة والمعايير القانونية والممارسات الصناعية والتطورات التكنولوجية. ويجب على المؤسسات أن تبقى على اطلاع دائم بالتغييرات في السياسات التي قد تؤثر عليها—وينبغي أن تعمل مع أصحاب المصلحة ذوي الصلة لتحديد السياسات التي تنطبق عليها. والقائمة أدناه ليست شاملة، ولكنها تعطي فكرة عن نطاق موارد السياسة التي ينبغي أن تسعى إليها المؤسسات استنادًا إلى صناعتها ومنطقتها.
أمثلة على الجهات المختصة بأخلاقيات الذكاء الاصطناعي والموارد
تقرير ACET حول استخدام الذكاء الاصطناعي في صنع السياسات الاقتصادية: تقيّم هذه الدراسة البحثية التي أجراها المركز الأفريقي للتحول الاقتصادي الاعتبارات الاقتصادية والأخلاقية للذكاء الاصطناعي بهدف توفير المعلومات اللازمة لوضع السياسات الاقتصادية والمالية والصناعية الشاملة والمستدامة في جميع أنحاء أفريقيا.
AlgorithmWatch: منظمة في مجال حقوق الإنسان تدعم وتطور أدوات لإنشاء الأنظمة الخوارزمية التي تعزز الديمقراطية، وحكم القانون، والحرية، والاستقلال الذاتي، والعدالة، والمساواة، بالإضافة إلى استخدامها.
دليل آسيان حول حوكمة الذكاء الاصطناعي وأخلاقياته: دليل عملي للدول الأعضاء في رابطة دول جنوب شرق آسيا لتصميم تقنيات الذكاء الاصطناعي بشكل أخلاقي ومثمر وتطويرها ونشرها.
مراقبة الذكاء الاصطناعي من قِبل المفوضية الأوروبية: يقدم مركز البحوث المشترك التابع للمفوضية الأوروبية إرشادات لإنشاء أنظمة ذكاء اصطناعي جديرة بالثقة، بما في ذلك التقارير ولوحات المعلومات الخاصة بكل دولة للمساعدة في مراقبة تطوير الذكاء الاصطناعي واعتماده وتأثيره على أوروبا
تقرير NTIA عن مسؤولية الذكاء الاصطناعي: يقترح هذا التقرير الوطني لإدارة الاتصالات والمعلومات تدابير طوعية وتنظيمية وغيرها من التدابير للمساعدة في ضمان توفر أنظمة ذكاء اصطناعي قانونية وجديرة بالثقة في الولايات المتحدة.
مبادئ الذكاء الاصطناعي لمنظمة التعاون الاقتصادي والتنمية: يعمل هذا المنتدى الذي يضم دولاً ومجموعات من أصحاب المصلحة على تشكيل ذكاء اصطناعي جدير بالثقة. وفي عام 2019، ساهم في صياغة مبادئ منظمة التعاون الاقتصادي والتنمية المتعلقة بالذكاء الاصطناعي، وهي أول معيار حكومي دولي بشأن الذكاء الاصطناعي. وكانت هذه المبادئ بمثابة الأساس لمبادئ الذكاء الاصطناعي لمجموعة العشرين (G20).
توصية اليونسكو بشأن أخلاقيات الذكاء الاصطناعي: تم اعتماد إطار عمل توصيات وكالة الأمم المتحدة هذه من قِبل 193 دولة عضوًا بعد عملية تشاور عالمية لمدة عامين مع الخبراء وأصحاب المصلحة.
الخاتمة
وفي الختام، يتطلب تطوير الذكاء الاصطناعي الأخلاقي ونشره اتباع نهج متعدد الجوانب. كمؤسسة، هل يوصى بوضع مبادئ أخلاقية واضحة، ودمجها في عمليات تطوير الذكاء الاصطناعي، وضمان الالتزام المستمر من خلال برامج حوكمة وتدريب قوية. ومن خلال إعطاء الأولوية للقيم التي تركز على الإنسان، مثل الإنصاف والشفافية والمساءلة، يمكن للشركات الاستفادة من قوة الذكاء الاصطناعي بشكل مسؤول، وتعزيز الابتكار مع الحد من المخاطر المحتملة وضمان أن هذه التقنيات تعود بالنفع على المجتمع ككل.
منتج SAP
المزيد من حالات تطبيق أخلاقيات الذكاء الاصطناعي والإرشادات حولها
يمكنك الحصول على إرشادات تفصيلية لتطبيق ممارسات الذكاء الاصطناعي الأخلاقية في كتيب أخلاقيات SAP AI.