flex-height
text-black

مهندسون وعلماء يعملون على نموذج أولي لهياكل خارجية بيونية

ما هي أخلاقيات الذكاء الاصطناعي؟

تشير أخلاقيات الذكاء الاصطناعي إلى المبادئ التي تحكم سلوك الذكاء الاصطناعي من ناحية القيم الإنسانية. تساعد أخلاقيات الذكاء الاصطناعي على ضمان تطوير الذكاء الاصطناعي واستخدامه بطرق مفيدة للمجتمع. وهي تشمل مجموعة كبيرة من الاعتبارات، بما في ذلك الإنصاف والشفافية والمسؤولية والخصوصية والأمان والآثار الاجتماعية المحتملة.

default

{}

default

{}

primary

default

{}

secondary

مقدمة عن أخلاقيات الذكاء الاصطناعي

تخيل نظام الذكاء الاصطناعي الذي يتنبأ باحتمالية السلوك الإجرامي المستقبلي ويستخدمه القضاة لتحديد مدة الأحكام. ماذا يحدث إذا كان هذا النظام يستهدف مجموعات ديموغرافية معينة بشكل غير متناسب؟

تعد أخلاقيات الذكاء الاصطناعي قوة دافعة للخير تساعد على التخفيف من الانحيازات غير العادلة وإزالة الحواجز التي تحول دون إمكانية الوصول وتعزيز الإبداع، من بين فوائد أخرى كثيرة. وبما أن المؤسسات تعتمد بشكل متزايد على الذكاء الاصطناعي في القرارات التي تؤثر على حياة البشر، فمن الضروري أن تنظر في الآثار الأخلاقية المعقدة؛ لأن سوء استخدام الذكاء الاصطناعي يمكن أن يسبب ضررًا للأفراد والمجتمع—وللأرباح الصافية للشركات وسمعتها.

في هذا المقال، سنستكشف ما يلي:

أمثلة على مبادئ الذكاء الاصطناعي الأخلاقية

إن رفاهية الأشخاص هي محور أي مناقشة حول أخلاقيات الذكاء الاصطناعي. في حين يمكن تصميم أنظمة الذكاء الاصطناعي بحيث تعطي الأولوية للأخلاق والقيم، فإن البشر مسؤولون في نهاية المطاف عن ضمان التصميم والاستخدام الأخلاقي—والتدخل عند الضرورة.

لا توجد مجموعة واحدة من مبادئ الذكاء الاصطناعي الأخلاقية متفق عليها عالميًا. تقوم العديد من المؤسسات والوكالات الحكومية بالتشاور مع الخبراء في مجال الأخلاقيات والقانون والذكاء الاصطناعي لوضع مبادئهم التوجيهية. وتتناول هذه المبادئ عادةً ما يلي:

مصطلحات أخلاقيات الذكاء الاصطناعي وتعريفاتها

ونظرًا لوجود علاقة بين الأخلاقيات والتكنولوجيا المتقدمة، غالبًا ما تستخدم المحادثات حول الذكاء الاصطناعي الأخلاقي مفردات من كلا المجالين. إن فهم هذه المفردات مهم للتمكن من مناقشة أخلاقيات الذكاء الاصطناعي:

أخلاقيات الذكاء الاصطناعي: هي مجموعة من القيم والمبادئ والتقنيات التي تستند إلى معايير مقبولة على نطاق واسع للصواب والخطأ لتوجيه السلوك الأخلاقي في تطوير تقنيات الذكاء الاصطناعي ونشرها واستخدامها وبيعها.

نموذج الذكاء الاصطناعي: إطار عمل رياضي أنشأه الأشخاص وتم تدريبه على البيانات التي تمكن أنظمة الذكاء الاصطناعي من تنفيذ مهام معينة من خلال تحديد الأنماط واتخاذ القرارات والتنبؤ بالنتائج. وتشمل الاستخدامات الشائعة التعرف على الصور وترجمة اللغات، من بين العديد من الاستخدامات الأخرى.

نظام الذكاء الاصطناعي: بنية معقدة من الخوارزميات والنماذج المصممة لمحاكاة الاستدلال البشري وأداء المهام بشكل مستقل.

الوكالة: قدرة الأفراد على التصرف باستقلالية واتخاذ خيارات حرة.

الانحياز: الميل أو التحيز تجاه أو ضد شخص أو مجموعة، خاصةً بطريقة تعتبر غير عادلة. الانحياز في بيانات التدريب—على سبيل المثال، يمكن أن يتسبب التمثيل غير الكافي أو المبالغ فيه في البيانات المتعلقة بمجموعة معينة—في عمل الذكاء الاصطناعي بطرق متحيزة.

قابلية التوضيح: القدرة على الإجابة على السؤال، "ماذا فعلت الآلة للوصول إلى النتيجة التي أخرجتها؟" تشير قابلية التوضيح إلى السياق التكنولوجي لنظام الذكاء الاصطناعي، مثل آلياته والقواعد والخوارزميات وبيانات التدريب الخاصة به.

الإنصاف: معاملة أو سلوك محايد وعادل دون محاباة ظالمة أو تمييز.

التدخل البشري: قدرة البشر على التدخل في كل دورة قرار لنظام الذكاء الاصطناعي.

قابلية التفسير: قدرة الأشخاص على فهم السياق الواقعي وتأثير مخرجات نظام الذكاء الاصطناعي، مثل عند استخدام الذكاء الاصطناعي للمساعدة في اتخاذ قرار بشأن اعتماد طلب قرض أو رفضه.

النموذج اللغوي الكبير (LLM): نوع من تدريب الآلة غالبًا ما يُستخدم في التعرف على النص ومهام التوليد.

تدريب الآلة: جزء فرعي من الذكاء الاصطناعي يوفر للأنظمة القدرة على التعلم التلقائي والتحسن من التجربة والتكيف مع البيانات الجديدة دون برمجتها صراحةً للقيام بذلك.

المعيار: سياق رئيسي للأخلاقيات العملية يتعلق بما يجب على الأشخاص والمؤسسات "القيام به" في مواقف معينة.

الشفافية: تتعلق بقابلية التوضيح، والشفافية هي القدرة على تبرير كيفية تطوير نظام الذكاء الاصطناعي وتطبيقه واستخدامه وسبب ذلك، وجعل تلك المعلومات مرئية ومفهومة للأفراد.

كيفية تطبيق مبادئ أخلاقيات الذكاء الاصطناعي

بالنسبة للمؤسسات، هناك ما هو أكثر من مجرد اعتماد المبادئ الأخلاقية لاستخدام الذكاء الاصطناعي بشكل أخلاقي؛ فيجب دمج هذه المبادئ في جميع العمليات التقنية والتشغيلية للذكاء الاصطناعي. في حين أن دمج الأخلاقيات قد يبدو مرهقًا بالنسبة للمؤسسات التي تعتمد الذكاء الاصطناعي بسرعة، فإن حالات الضرر في الواقع التي تسببها المشكلات في تصاميم نماذج الذكاء الاصطناعي واستخدامه تظهر أن إهمال الأخلاقيات السليمة يمكن أن يكون محفوفًا بالمخاطر ومكلفًا.

من المسؤول عن أخلاقيات الذكاء الاصطناعي؟

الإجابة المختصرة: كل من يشارك في الذكاء الاصطناعي، بما في ذلك الشركات والحكومات والمستهلكين والمواطنين.

الأدوار المختلفة لمختلف الأشخاص في مجال أخلاقيات الذكاء الاصطناعي

ما يحتاج إليه أصحاب المصلحة البشريون لفهم مخطط المعلومات

دور قادة الأعمال في مجال أخلاقيات الذكاء الاصطناعي

تقوم العديد من الشركات بإنشاء لجان يقودها كبار قادتها لتشكيل سياسات إدارة الذكاء الاصطناعي الخاصة بهم. على سبيل المثال، في شركة SAP، قمنا بتشكيل لجنة استشارية ولجنة توجيهية لأخلاقيات الذكاء الاصطناعي، تتكون من خبراء في الأخلاقيات والتكنولوجيا، لدمج مبادئ الذكاء الاصطناعي الأخلاقية لدينا في جميع منتجاتنا وعملياتنا. وترتب هذه المبادئ الأولوية على النحو التالي:

تشكيل لجنة توجيهية لأخلاقيات الذكاء الاصطناعي

إن إنشاء لجنة توجيهية أمر ضروري لإدارة أسلوب المؤسسة المتعلق بأخلاقيات الذكاء الاصطناعي، ويعزز المساءلة والإشراف على أعلى مستوى. وتضمن هذه اللجنة دمج الاعتبارات الأخلاقية في تطوير الذكاء الاصطناعي ونشره.

أفضل الممارسات لتشكيل لجنة توجيهية لأخلاقيات الذكاء الاصطناعي

إنشاء سياسة لأخلاقيات الذكاء الاصطناعي

يُعد وضع سياسة لأخلاقيات الذكاء الاصطناعي أمرًا ضروريًا لتوجيه مبادرات الذكاء الاصطناعي داخل المؤسسة. وتلعب اللجنة التوجيهية دورًا بالغ الأهمية في هذه العملية، حيث تستخدم خبراتها المتنوعة لضمان توافق السياسة مع القوانين والمعايير والمبادئ الأخلاقية الأوسع نطاقًا.

أسلوب نموذجي لإنشاء سياسة أخلاقيات الذكاء الاصطناعي

مخطط انسيابي لعملية التقييم وتصنيف المخاطر

إنشاء عملية لتقييم الامتثال

من الضروري تطوير عمليات تقييم للامتثال فعالة لضمان التزام عمليات نشر الذكاء الاصطناعي بسياسات أخلاقيات الذكاء الاصطناعي في المؤسسة ولوائحها. وتساعد هذه العمليات في بناء الثقة مع المستخدمين والمنظِّمين، وتعمل على الحد من المخاطر ودعم الممارسات الأخلاقية في جميع مشروعات الذكاء الاصطناعي.

عمليات تقييم الامتثال النموذجية

التطبيق التقني لممارسات أخلاقيات الذكاء الاصطناعي

يتضمن دمج الاعتبارات الأخلاقية في تطوير الذكاء الاصطناعي تكييف ممارسات التكنولوجيا الحالية لضمان إنشاء الأنظمة ونشرها بشكل مسؤول. وبالإضافة إلى إرساء مبادئ الذكاء الاصطناعي الأخلاقية، تقوم المؤسسات في بعض الأحيان أيضًا بوضع مبادئ الذكاء الاصطناعي المسؤول، والتي يمكن أن تركز بشكل أكبر على حالات الاستخدام التقنية وصناعتهم الخاصة.

المتطلبات التقنية الأساسية لأنظمة الذكاء الاصطناعي الأخلاقية

كشف الانحياز والتخفيف من حدته: يمكنك استخدام مجموعات البيانات المتنوعة والأساليب الإحصائية للكشف عن الانحيازات في نماذج الذكاء الاصطناعي وتصحيحها. ويمكنك إجراء عمليات تدقيق منتظمة لمراقبة الانحياز.

الشفافية وإمكانية الفهم: يمكنك تطوير الأنظمة التي يمكن للمستخدمين فهمها والتحقق منها بسهولة مع استخدام أساليب، مثل مجاميع نقاط الأهمية للميزات، وأشجار القرارات، والتفسيرات غير المعتمدة على النموذج لتحسين الشفافية.

خصوصية البيانات وأمانها: تأكد من إدارة البيانات في أنظمة الذكاء الاصطناعي بشكل آمن ومن توافقها مع قوانين الخصوصية. يجب أن تستخدم الأنظمة التشفير وإخفاء الهوية وتعمل على تأمين البروتوكولات لحماية سلامة البيانات.

تصميم قوي وموثوق به: يجب أن تكون أنظمة الذكاء الاصطناعي قوية وموثوق بها في ظل ظروف مختلفة، وتتضمن اختبار واسع النطاق والتحقق من الصحة للتعامل مع السيناريوهات غير المتوقعة بفعالية.

المراقبة المستمرة والتحديث: يمكنك الحفاظ على المراقبة المستمرة لتقييم أداء الذكاء الاصطناعي والالتزام الأخلاقي، وتحديث الأنظمة حسب الحاجة بناءً على البيانات الجديدة أو التغييرات في الظروف.

مشاركة أصحاب المصلحة وملاحظاتهم: يمكنك إشراك أصحاب المصلحة، مثل المستخدمين النهائيين وعلماء الأخلاقيات وخبراء المجال، في عمليات التصميم والتطوير لجمع الملاحظات وضمان توافق النظام مع المتطلبات الأخلاقية والتشغيلية.

تدريب المؤسسة على أخلاقيات الذكاء الاصطناعي

يعد التدريب الشامل أمرًا بالغ الأهمية لضمان فهم الموظفين لأخلاقيات الذكاء الاصطناعي وإمكانية عملهم بمسؤولية مع تقنيات الذكاء الاصطناعي. كما يعمل التدريب على تعزيز نزاهة أدوات الذكاء الاصطناعي وحلوله في المؤسسات وفعاليتها.

المكونات الأساسية لمنهج تدريبي فعال للذكاء الاصطناعي

حالات استخدام أخلاقيات الذكاء الاصطناعي لأدوار مختلفة في المؤسسة

يجب على كل شخص في المؤسسة التي تعمل مع التطبيقات المدعومة بالذكاء الاصطناعي، أو محركات إجابات الذكاء الاصطناعي، أن يتوخى الحذر من مخاطر انحياز الذكاء الاصطناعي ويعمل بمسؤولية. وفيما يلي أمثلة على حالات تطبيق أخلاقيات الذكاء الاصطناعي لأدوار أو أقسام مختلفة في الشركات:

الجهات المختصة بأخلاقيات الذكاء الاصطناعي

إن أخلاقيات الذكاء الاصطناعي مسألة معقدة، حيث تتشكل من خلال اللوائح المتغيرة والمعايير القانونية والممارسات الصناعية والتطورات التكنولوجية. ويجب على المؤسسات أن تبقى على اطلاع دائم بالتغييرات في السياسات التي قد تؤثر عليها—وينبغي أن تعمل مع أصحاب المصلحة ذوي الصلة لتحديد السياسات التي تنطبق عليها. والقائمة أدناه ليست شاملة، ولكنها تعطي فكرة عن نطاق موارد السياسة التي ينبغي أن تسعى إليها المؤسسات استنادًا إلى صناعتها ومنطقتها.

أمثلة على الجهات المختصة بأخلاقيات الذكاء الاصطناعي والموارد

تقرير ACET حول استخدام الذكاء الاصطناعي في صنع السياسات الاقتصادية: تقيّم هذه الدراسة البحثية التي أجراها المركز الأفريقي للتحول الاقتصادي الاعتبارات الاقتصادية والأخلاقية للذكاء الاصطناعي بهدف توفير المعلومات اللازمة لوضع السياسات الاقتصادية والمالية والصناعية الشاملة والمستدامة في جميع أنحاء أفريقيا.

AlgorithmWatch: منظمة في مجال حقوق الإنسان تدعم وتطور أدوات لإنشاء الأنظمة الخوارزمية التي تعزز الديمقراطية، وحكم القانون، والحرية، والاستقلال الذاتي، والعدالة، والمساواة، بالإضافة إلى استخدامها.

دليل آسيان حول حوكمة الذكاء الاصطناعي وأخلاقياته: دليل عملي للدول الأعضاء في رابطة دول جنوب شرق آسيا لتصميم تقنيات الذكاء الاصطناعي بشكل أخلاقي ومثمر وتطويرها ونشرها.

مراقبة الذكاء الاصطناعي من قِبل المفوضية الأوروبية: يقدم مركز البحوث المشترك التابع للمفوضية الأوروبية إرشادات لإنشاء أنظمة ذكاء اصطناعي جديرة بالثقة، بما في ذلك التقارير ولوحات المعلومات الخاصة بكل دولة للمساعدة في مراقبة تطوير الذكاء الاصطناعي واعتماده وتأثيره على أوروبا

تقرير NTIA عن مسؤولية الذكاء الاصطناعي: يقترح هذا التقرير الوطني لإدارة الاتصالات والمعلومات تدابير طوعية وتنظيمية وغيرها من التدابير للمساعدة في ضمان توفر أنظمة ذكاء اصطناعي قانونية وجديرة بالثقة في الولايات المتحدة.

مبادئ الذكاء الاصطناعي لمنظمة التعاون الاقتصادي والتنمية: يعمل هذا المنتدى الذي يضم دولاً ومجموعات من أصحاب المصلحة على تشكيل ذكاء اصطناعي جدير بالثقة. وفي عام 2019، ساهم في صياغة مبادئ منظمة التعاون الاقتصادي والتنمية المتعلقة بالذكاء الاصطناعي، وهي أول معيار حكومي دولي بشأن الذكاء الاصطناعي. وكانت هذه المبادئ بمثابة الأساس لمبادئ الذكاء الاصطناعي لمجموعة العشرين (G20).

توصية اليونسكو بشأن أخلاقيات الذكاء الاصطناعي: تم اعتماد إطار عمل توصيات وكالة الأمم المتحدة هذه من قِبل 193 دولة عضوًا بعد عملية تشاور عالمية لمدة عامين مع الخبراء وأصحاب المصلحة.

الخاتمة

وفي الختام، يتطلب تطوير الذكاء الاصطناعي الأخلاقي ونشره اتباع نهج متعدد الجوانب. كمؤسسة، هل يوصى بوضع مبادئ أخلاقية واضحة، ودمجها في عمليات تطوير الذكاء الاصطناعي، وضمان الالتزام المستمر من خلال برامج حوكمة وتدريب قوية. ومن خلال إعطاء الأولوية للقيم التي تركز على الإنسان، مثل الإنصاف والشفافية والمساءلة، يمكن للشركات الاستفادة من قوة الذكاء الاصطناعي بشكل مسؤول، وتعزيز الابتكار مع الحد من المخاطر المحتملة وضمان أن هذه التقنيات تعود بالنفع على المجتمع ككل.

اقرأ المزيد