flex-height
text-black

منظر جوي لأربعة أشخاص وأجهزة كمبيوتر محمولة متعددة ودفاتر وملاحظات ملصقة ونبات محفوظ في وعاء على الطاولة.

ما هو تحيز الذكاء الاصطناعي؟

يشير انحياز الذكاء الاصطناعي إلى التمييز المنهجي المدمج داخل أنظمة الذكاء الاصطناعي الذي يمكن أن يعزز الانحيازات الموجودة ويزيد من حدة التمييز والأحكام المسبقة والصور النمطية.

default

{}

default

{}

primary

default

{}

secondary

توضيح الانحياز في الذكاء الاصطناعي

الانحياز في نماذج الذكاء الاصطناعي عادة ما ينشأ من مصدرين: تصميم النماذج نفسها وبيانات التدريب التي تستخدمها.

ويمكن أن تعكس النماذج في بعض الأحيان افتراضات المطوِّرين الذين قاموا ببرمجتها، مما يجعلها تفضل نتائج معينة.

بالإضافة إلى ذلك، يمكن أن يتطور انحياز الذكاء الاصطناعي بسبب البيانات المستخدمة لتدريب الذكاء الاصطناعي. تعمل نماذج الذكاء الاصطناعي من خلال تحليل مجموعات كبيرة من بيانات التدريب في عملية تعرف باسم تدريب الآلة. تحدد هذه النماذج الأنماط والارتباطات داخل هذه البيانات لتوفير التنبؤات واتخاذ القرارات.

عندما تكتشف خوارزميات الذكاء الاصطناعي أنماط الانحيازات الماضية أو الفوارق النظامية المضمنة في البيانات التي يتم التدريب عليها، يمكن أن تعكس استنتاجاتها أيضًا تلك الانحيازات والتفاوتات. ولأن أدوات تدريب الآلة تعالج البيانات على نطاق واسع، يمكن أن تؤدي حتى الانحيازات الصغيرة في بيانات التدريب الأصلية إلى نتائج تمييزية على نطاق واسع.

في هذا المقال، سنتعمق في مصدر تحيز الذكاء الاصطناعي، وكيف يظهر تحيز الذكاء الاصطناعي في العالم الحقيقي، ولماذا تعد معالجة تحيز الذكاء الاصطناعي أمرًا بالغ الأهمية.

أهمية معالجة انحياز الذكاء الاصطناعي

الانحياز متأصل في جميع البشر. إنه نتيجة جانبية للرؤية المحدودة للعالم وللنزعة إلى تعميم المعلومات بهدف تبسيط عملية التعلم. إلا أن القضايا الأخلاقية تنشأ عندما تسبب الانحيازات ضررًا للآخرين.

يمكن لأدوات الذكاء الاصطناعي التي تتأثر بتحيزات الإنسان أن تضخم هذا الضرر على مستوى منهجي، خاصة وأنها يتم دمجها في المؤسسات والأنظمة التي تشكل حياتنا الحديثة.

خذ بعين الاعتبار أمثلة، مثل روبوتات الدردشة في التجارة الإلكترونية، والتشخيص في الرعاية الصحية، والتوظيف في الموارد البشرية، والمراقبة في عمل الشرطة. هذه الأدوات كلها تبشر بتعزيز الكفاءة وتوفير حلول مبتكرة، لكنها تحمل أيضًا مخاطر كبيرة، إن لم تدار بعناية. ويمكن للتحيز في هذه الأنواع من أدوات الذكاء الاصطناعي أن يفاقم أوجه عدم المساواة القائمة ويخلق أشكالاً جديدة من التمييز.

تخيل مجلس الإفراج المشروط يستشير نظام الذكاء الاصطناعي لتحديد احتمال أن يعاود السجين ارتكاب الجريمة. سيكون من غير الأخلاقي للخوارزمية أن تربط بين عرق أو جنس السجين في تحديد هذا الاحتمال.

كما يمكن أن تؤدي الانحيازات في حلول الذكاء الاصطناعي التوليدي إلى نتائج تمييزية. على سبيل المثال، إذا تم استخدام نموذج الذكاء الاصطناعي لإنشاء أوصاف وظيفية، فيجب تصميمه لتجنب دمج لغة متحيزة أو استبعاد بيانات ديموغرافية معينة عن غير قصد. وقد يؤدي عدم التصدي لهذه الانحيازات إلى ممارسات توظيف تمييزية وإلى إدامة أوجه عدم المساواة في القوى العاملة.

أمثلة مثل هذه توضح لماذا من الضروري للمؤسسات ممارسة استخدام الذكاء الاصطناعي المسؤول من خلال إيجاد طرق للتخفيف من حدة الانحياز قبل استخدامها للذكاء الاصطناعي في اتخاذ القرارات التي تؤثر على حياة الأشخاص فعليًا. يُعد ضمان الإنصاف والدقة والشفافية في أنظمة الذكاء الاصطناعي أمرًا ضروريًا لحماية الأفراد والحفاظ على ثقة الجمهور.

منتج شركة SAP

SAP Business AI

تحقيق نتائج واقعية باستخدام الذكاء الاصطناعي المضمَّن في عمليات الأعمال الأساسية لديك.

تعرَّف على المزيد

من أين يأتي انحياز الذكاء الاصطناعي؟

يمكن أن يأتي انحياز الذكاء الاصطناعي من عدة مصادر يمكن أن تؤثر على إنصاف أنظمة الذكاء الاصطناعي وموثوقيتها:

انحياز البيانات: يمكن أن تؤدي الانحيازات الموجودة في البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي إلى نتائج متحيزة. وإذا كانت بيانات التدريب تمثل في الغالب بيانات ديموغرافية معينة أو تحتوي على انحيازات ماضية، فسيعكس الذكاء الاصطناعي هذه الاختلالات في تنبؤاته وقراراته.

الانحياز الخوارزمي: يحدث هذا عندما يؤدي تصميم الخوارزميات ومعامِلاتها إلى الانحياز عن غير قصد. حتى وإن كانت البيانات خالية من الانحياز، فإن الطريقة التي تعالج بها الخوارزميات بعض الميزات وتعطيها أولوية على غيرها قد تؤدي إلى نتائج تمييزية.

الانحياز البشري في اتخاذ القرارات: يمكن أن يتسرب الانحياز البشري، المعروف أيضًا بالانحياز الإدراكي، إلى أنظمة الذكاء الاصطناعي من خلال القرارات الذاتية في تصنيف البيانات، وتطوير النماذج، والمراحل الأخرى من دورة حياة الذكاء الاصطناعي. تعكس هذه الانحيازات الأحكام المسبقة والانحيازات الإدراكية للأفراد والفِرَق المشاركة في تطوير تقنيات الذكاء الاصطناعي.

انحياز الذكاء الاصطناعي التوليدي: يمكن أن تُنتج نماذج الذكاء الاصطناعي التوليدي، مثل تلك المستخدمة لإنشاء نص أو صور أو مقاطع فيديو، محتوى متحيزًا أو غير مناسب بناءً على الانحيازات الموجودة في بيانات التدريب الخاصة بها. وقد تعزز هذه النماذج الصور النمطية أو تولد مخرجات تهمش مجموعات أو وجهات نظر معينة.

أمثلة على الانحياز في الذكاء الاصطناعي

يمكن أن تكون آثار انحياز الذكاء الاصطناعي واسعة الانتشار وعميقة، مما يؤثر على مختلف جوانب المجتمع وحياة الأفراد.

فيما يلي بعض الأمثلة على كيفية تأثير الانحياز في الذكاء الاصطناعي على سيناريوهات مختلفة:

التصنيف الائتماني والإقراض: قد تضر خوارزميات التصنيف الائتماني ببعض الفئات الاجتماعية أو العرقية. على سبيل المثال، قد تكون الأنظمة أكثر صرامة مع المتقدمين من الأحياء منخفضة الدخل، مما يؤدي إلى ارتفاع معدلات الرفض.

التعيين والتوظيف: يمكن لخوارزميات الفحص ومولدات الوصف الوظيفي أن تعزز الانحيازات في مكان العمل. على سبيل المثال، قد تفضل الأداة المصطلحات التقليدية المرتبطة بالذكور أو تحد من الفرص بسبب فجوات التوظيف، مما يؤثر على النساء ومقدمي الرعاية.

الرعاية الصحية: يمكن للذكاء الاصطناعي إدخال الانحيازات في التشخيص وتوصيات العلاج. فعلى سبيل المثال، قد تؤدي الأنظمة التي يتم تدريبها على بيانات من مجموعة عرقية واحدة إلى تشخيص خاطئ للمجموعات الأخرى.

التعليم: يمكن لخوارزميات التقييم والقبول أن تكون متحيزة. على سبيل المثال، قد يفضل الذكاء الاصطناعي الذي يتنبأ بنجاح الطلاب أولئك الذين ينتمون إلى مدارس ممولة تمويلاً جيدًا على أولئك من خلفيات تعليمية محدودة.

إنفاذ القانون: يمكن لخوارزميات حفظ الأمن التنبؤية أن تؤدي إلى ممارسات متحيزة. على سبيل المثال، قد تتنبأ الخوارزميات بمعدلات جريمة أعلى في الأحياء ذات الأقليات، مما يؤدي إلى الإفراط في ضبط الأمن.

التعرف على الوجه: غالباً ما تعاني أنظمة الذكاء الاصطناعي من الدقة الديموغرافية. على سبيل المثال، قد يكون لديها معدلات خطأ أعلى في التعرف على درجات البشرة الداكنة.

التعرف على الصوت: يمكن لأنظمة الذكاء الاصطناعي التفاعلية في المحادثة أن تظهر انحيازًا ضد لهجات أو لكنات معينة. على سبيل المثال، قد تواجه الأنظمة المساعدة المدعومة بالذكاء الاصطناعي صعوبة في فهم متحدثين غير أصليين أو لهجات إقليمية، مما يقلل من سهولة الاستخدام.

إنشاء الصورة: يمكن لأنظمة إنشاء الصور المستندة إلى الذكاء الاصطناعي أن تكتسب انحيازات موجودة في بيانات التدريب الخاصة بها. على سبيل المثال، قد لا يمثل منشئ الصور بشكل كافٍ بعض المجموعات العرقية أو الثقافية أو يسيء تمثيلها، مما يؤدي إلى تعزيز صور نمطية أو استبعاد بعض هذه المجموعات في الصور المنتَجة.

توصية المحتوى: يمكن للخوارزميات أن تخلق بيئات مغلقة فكريًا تكرر نفس وجهات النظر. فعلى سبيل المثال، قد يظهر النظام محتوى متحيزًا في السياسة، مما يعزز وجهات النظر القائمة.

التأمين: يمكن للخوارزميات تحديد الأقساط أو الأهلية بطريقة غير عادلة. فعلى سبيل المثال، قد تؤدي الأقساط القائمة على الرموز البريدية إلى ارتفاع تكاليف مجتمعات الأقليات.

الوسائط الاجتماعية وإدارة المحتوى: يمكن لخوارزميات الإدارة فرض السياسات بشكل غير متسق. على سبيل المثال، قد تكون منشورات الأقليات مؤشرة بشكل غير عادل على أنها مسيئة مقارنة بمجموعات الأغلبية.

ما هي تأثيرات انحياز الذكاء الاصطناعي؟

يمكن أن تكون آثار انحياز الذكاء الاصطناعي واسعة النطاق وكبيرة. إذا تركت دون معالجة، فإن انحياز الذكاء الاصطناعي يمكن أن يعمق التفاوتات الاجتماعية، ويعزز الصور النمطية، ويخالف القوانين.

التفاوتات المجتمعية: يمكن أن يؤدي انحياز الذكاء الاصطناعي إلى تفاقم التفاوتات المجتمعية القائمة من خلال التأثير بشكل غير متساوٍ على المجتمعات المهمشة، مما يؤدي إلى مزيد من التفاوت الاقتصادي والاجتماعي.

تعزيز الصور النمطية: يمكن أن تعزز أنظمة الذكاء الاصطناعي المتحيزة الصور النمطية الضارة، وتديم التصورات السلبية ومعاملة مجموعات معينة على أساس العرق أو نوع الجنس أو غيرها من الخصائص. على سبيل المثال، يمكن أن تربط نماذج معالجة اللغات الطبيعية (NLP) وظائف معينة بجنس واحد، مما يؤدي إلى استمرار الانحياز بين الجنسين.

المخاوف الأخلاقية والقانونية: يثير وجود انحياز في الذكاء الاصطناعي مخاوف أخلاقية وقانونية كبيرة، ويشكك في عدالة وإنصاف القرارات الآلية. يجب على المؤسسات التعامل مع هذه المشكلات بعناية للامتثال للمعايير القانونية والتمسك بالمسؤوليات الأخلاقية.

الآثار الاقتصادية: الخوارزميات المتحيزة يمكن أن تضر بشكل غير عادل مجموعات معينة، وتحد من فرص العمل وتديم عدم المساواة في مكان العمل. قد تقدم الأنظمة الأساسية لخدمة العملاء المعتمدة على الذكاء الاصطناعي، مثل روبوتات الدردشة، خدمة أقل جودة لبعض الفئات السكانية، مما يؤدي إلى عدم الرضا وفقدان الأعمال.

التأثيرات التجارية: يمكن أن يؤدي الانحياز في أنظمة الذكاء الاصطناعي إلى اتخاذ قرارات خاطئة وانخفاض الربحية. قد تعاني الشركات من أضرار بالسمعة، إذا أصبحت الانحيازات في أدوات الذكاء الاصطناعي الخاصة بها عامة، مما قد يؤدي إلى فقدان ثقة العملاء وحصة السوق.

تأثيرات الصحة والسلامة: في مجال الرعاية الصحية، يمكن أن تؤدي أدوات التشخيص المتحيزة إلى تشخيصات غير صحيحة أو خطط علاج دون المستوى الأمثل لمجموعات معينة، مما يؤدي إلى تفاقم الفوارق الصحية.

الرفاه النفسي والاجتماعي: يمكن أن يسبب التعرض المنتظم لقرارات الذكاء الاصطناعي المنحازة التوتر والقلق للأفراد المتضررين، وهذا يؤثر على صحتهم النفسية.

كيفية الحد من انحياز الذكاء الاصطناعي

تتطلب معالجة الانحياز في أنظمة الذكاء الاصطناعي بفعالية والتخفيف منه اتباع أسلوب شامل. وهنا العديد من الاستراتيجيات الرئيسية التي يمكن استخدامها لتحقيق نتائج عادلة ومنصفة:

تقنيات المعالجة المسبقة للبيانات: ويشمل ذلك تحويل البيانات وتنظيفها وموازنتها للحد من تأثير التمييز قبل أن تتدرب نماذج الذكاء الاصطناعي عليها.

الخوارزميات المدركة للعدالة: هذا الأسلوب يشمل تضمين القواعد والإرشادات لضمان أن النتائج التي تولدها نماذج الذكاء الاصطناعي تكون عادلة لجميع الأفراد أو المجموعات المعنية.

تقنيات المعالجة اللاحقة للبيانات: تعمل المعالجة اللاحقة للبيانات على تعديل نتائج نماذج الذكاء الاصطناعي للمساعدة في ضمان معاملة عادلة. وعلى النقيض من المعالجة المسبقة، تحدث هذه المعايرة بعد اتخاذ قرار. على سبيل المثال، قد يتضمن نموذج لغوي كبير يولد نصًا أداة فحص للكشف عن خطاب الكراهية وتصفيته.

التدقيق والشفافية: يتم دمج الرقابة البشرية في عمليات مراجعة القرارات المنشأة بواسطة الذكاء الاصطناعي من حيث الانحياز والإنصاف. كما يمكن للمطوِّرين توفير الشفافية حول كيفية وصول أنظمة الذكاء الاصطناعي إلى الاستنتاجات وتحديد مدى الأهمية التي ينبغي إعطاؤها لتلك النتائج. ثم يتم استخدام هذه النتائج لتحسين أدوات الذكاء الاصطناعي المعنية بشكل أكبر.

الجهود التعاونية للحد من انحياز الذكاء الاصطناعي

بالنسبة للشركات التي تستخدم حلول الذكاء الاصطناعي للمؤسسات، تتطلب معالجة انحياز الذكاء الاصطناعي أسلوبًا تعاونيًا يتضمن الأقسام الرئيسية. وتشمل الاستراتيجيات الأساسية ما يلي:

ويمكّن تنفيذ هذه الاستراتيجيات المؤسسات من العمل من أجل استخدام أنظمة ذكاء اصطناعي أكثر إنصافًا مع تعزيز ثقافة شاملة في مكان العمل.

الاتجاهات الناشئة في تطوير الذكاء الاصطناعي العادل

تهدف عدة اتجاهات ناشئة إلى جعل الذكاء الاصطناعي أكثر عدلاً وإنصافًا:

الذكاء الاصطناعي القابل للتوضيح (XAI): هناك طلب متزايد على الشفافية في عمليات اتخاذ القرارات المدعومة بالذكاء الاصطناعي. يهدف الذكاء الاصطناعي القابل للتوضيح إلى جعل أعمال أنظمة الذكاء الاصطناعي مفهومة للمستخدمين، ومساعدتهم على فهم كيفية اتخاذ القرارات وضمان تحمل المسؤولية.

التصميم الذي يرتكز على المستخدم: يركز تطوير الذكاء الاصطناعي بشكل متزايد على متطلبات المستخدمين ووجهات نظرهم، مما يضمن تصميم الأنظمة مع مراعاة الشمولية. ويشجع هذا الاتجاه على الاسترشاد بالملاحظات الواردة من مجموعات المستخدمين المختلفة في عملية التطوير.

المشاركة المجتمعية: بدأت الشركات في التعامل مع المجتمعات المتأثرة بأنظمة الذكاء الاصطناعي لجمع المدخلات والملاحظات، مما يساعد على ضمان أن تراعي عملية التطوير متطلبات أصحاب المصلحة المختلفين وشواغلهم.

استخدام البيانات المركبة: لمعالجة ندرة البيانات والانحياز فيها، تقوم المؤسسات بدراسة إمكانية استخدام البيانات المركبة لتعزيز مجموعات التدريب. ويتيح هذا الأسلوب إنشاء مجموعات بيانات متنوعة دون المساس بالخصوصية.

العدالة في مرحلة التصميم: يدمج هذا الأسلوب الاستباقي اعتبارات العدالة في دورة حياة تطوير الذكاء الاصطناعي من البداية، بدلاً من التفكير اللاحق. ويشمل تطوير خوارزميات عادلة وإجراء تقييمات للأثر خلال مرحلة التصميم.

ويمكن أن يؤدي العمل معًا من خلال هذه الأساليب إلى الحد بدرجة كبيرة من انحياز الذكاء الاصطناعي، وضمان أن تخدم تقنيات الذكاء الاصطناعي الصالح العام وأن تعود بالنفع على جميع شرائح المجتمع بشكل منصف.

منتج شركة SAP

الذكاء الاصطناعي المسؤول من شركة SAP

تعرَّف على كيفية تقديم شركة SAP للذكاء الاصطناعي استنادًا إلى أعلى المعايير الأخلاقية ومعايير الأمان والخصوصية.

تعرَّف على المزيد

قراءة المزيد