flex-height
text-black

Женщина смотрит на экраны нескольких компьютеров и отслеживает вовлеченность пользователей с помощью ИИ

Что такое ответственный ИИ?

Ответственный ИИ — это разработка, развертывание и использование систем искусственного интеллекта (ИИ) этичными, прозрачными и подотчетными. Он направлен на обеспечение соответствия технологий ИИ ценностям человека, соблюдение основных прав и обеспечение справедливости, безопасности и благополучия отдельных лиц и общества.

default

{}

default

{}

primary

default

{}

secondary

Определение ответственного ИИ

Ответственный ИИ — это практика использования ИИ таким образом, чтобы подчеркнуть контроль над людьми и социальное благополучие. Цель заключается в том, чтобы модели, наборы данных и приложения ИИ разрабатывались и развертывались этически и юридически, без причинения умышленного вреда или увековечения предубеждений. Это важно, поскольку неправильное использование ИИ или его неосторожное использование могут причинить вред пользователям, затронутым лицам, субъектам данных, обществу и компаниям.

Что такое ответственный ИИ или заслуживающий доверия ИИ или этичный ИИ?

Термины «ответственный ИИ», «надежный ИИ» и «этичный ИИ» тесно связаны, но существуют некоторые ключевые различия:

Мы всегда должны помнить, что, потому что ИИ не является человеком, он не способен иметь человеческие черты ответственности, надежности или этики. Поэтому важно отнести эти термины к людям, которые создают или используют эту технологию, а не к самой технологии.

Как ответственный ИИ работает

Чтобы ответственный ИИ работал, существуют человеческие и технологические аспекты:

Группа людей, работающих вместе в конференц-зале

Установление формализованных ответственных принципов ИИ — это хороший способ привести всех сотрудников организации в соответствие с общим видением ответственного ИИ. Но определение принципов — это только начало: для реализации принципов организации необходимо также внедрить эффективное управление ИИ, обучение и технические процессы.

Ответственные принципы ИИ различаются в разных организациях. Например, компании, оказывающие финансовые услуги, могут уделять больше внимания справедливости и недискриминации, в то время как компании социальных сетей могут уделять больше внимания прозрачности или конфиденциальности. Ниже приведен пример принципов, изложенных в рекомендациях Европейской комиссии по этике для создания надежных систем ИИ:

Пример ответственных принципов ИИ

Учреждение и надзор со стороны человека: ИИ должен способствовать принятию решений, соблюдению прав человека и созданию механизмов надзора за деятельностью человека.

Техническая надежность и безопасность. Системы ИИ должны быть безопасными, устойчивыми, безопасными, точными и надежными с помощью плана действий на случай непредвиденных обстоятельств для предотвращения непреднамеренного вреда.

Конфиденциальность и управление данными. Системы должны в полной мере соблюдать конфиденциальность и регулировать качество, конфиденциальность и законный доступ к данным.

Прозрачность: системы должны быть прослеживаемыми и прозрачными. Они должны быть четко обозначены как искусственный интеллект, и их возможности и ограничения должны быть эффективно сообщены.

Разнообразие, недискриминация и справедливость: ИИ должен избегать пропаганды предвзятости, поддерживать многообразие, обеспечивать равную доступность и вовлекать заинтересованные стороны в процесс развития.

Социальное и экологическое благополучие: системы ИИ должны приносить пользу всем людям, включая будущие поколения. Они должны быть устойчивыми и экологически чистыми, а их воздействие на общество должно быть тщательно рассмотрено.

Подотчетность: необходимо создать механизмы, обеспечивающие ответственность и подотчетность систем ИИ и их результатов. Следует обеспечить возможность аудита и доступность.

Ответственные практики разработки ИИ

Разработчики и исследователи, создающие или внедряющие системы ИИ, должны следовать лучшим техническим практикам ИИ и постоянно оценивать соответствие своих систем ответственным принципам ИИ в своих организациях. Ниже приведены некоторые распространенные практики:

Оценка данных обучения модели

Наличие разнообразных наборов данных помогает представить различные когорты, повышая надежность и инклюзивность системы ИИ. Понимание данных, используемых для обучения моделей, необходимо для выявления или смягчения таких проблем, как предвзятость ИИ.

Факторный анализ

Понимание того, как причинно-следственные отношения работают в моделях ИИ, может помочь в этичном принятии решений о том, как их развернуть или вообще следует даже развернуть. Этот анализ делает модели прогнозирования более надежными, выявляя взаимодействия между различными переменными.

Анализ противопоказаний

Это процесс повышения справедливости модели и принятия решений с помощью запросов «что-если» и «что-если» для выявления предубеждений и логических проблем ИИ. Он работает, спрашивая модель, как ее решения изменятся, если бы входные данные, такие как данные о лице или ситуации, были разными.

Справедливость в машинном обучении

Устранение предвзятости ИИ имеет решающее значение для обеспечения того, чтобы системы относились к различным группам или отдельным лицам на равной основе. Это делается путем выявления несбалансированного представления или несправедливой обработки в данных и алгоритмах обучения машинного обучения и обычно состоит из трех фаз:

Оценка ошибок модели

Оценка и исправление ошибок в прогнозах моделей имеет решающее значение для предотвращения рискованных или неловких результатов. К распространенным методам оценки ошибок относятся матрица неточностей, точность, отзыв, оценка F1 и ROC-кривая.

интерпретируемость модели

Для обеспечения доверия и прозрачности с пользователями и регулирующими органами разработчики должны уметь интерпретировать и объяснять, почему их модели принимают конкретные решения и демонстрируют определенное поведение. Некоторые часто используемые методы интерпретации:

бинокль

Справочник SAP по этичному использованию ИИ

Это углубленное изучение поможет вам применить глобальную политику SAP по этичному использованию ИИ к своей повседневной работе по достижению ответственного уровня ИИ.

Изучите руководство

Почему ответственный ИИ важен?

ИИ оказывает глубокое влияние на общество, влияя на то, как мы работаем и взаимодействуем. Ответственный ИИ может стать катализатором инноваций, поощряя новые, ориентированные на человека подходы к решению проблем и разработке продуктов. Однако безответственное использование ИИ сопряжено со значительными рисками, такими как обострение неравенства и создание вредного контента. Соблюдая ответственные принципы и практики ИИ, организации могут обеспечить разработку и использование своих систем ИИ таким образом, чтобы они были этичными, ответственными и выгодными для всех заинтересованных сторон — это ответственность.

Этические императивы для предприятий и правительств

Все организации и отдельные лица должны соблюдать высокие этические стандарты использования ИИ. Помимо соблюдения законодательных требований, компании и правительства также должны уделять приоритетное внимание конфиденциальности, прозрачности и справедливости данных в своих начинаниях по использованию ИИ.

Общественные ожидания от этического использования технологий

По мере более широкого использования ИИ потребность в подотчетности и прозрачности со стороны технологических компаний растет. Общество ожидает, что системы ИИ будут спроектированы для соблюдения прав человека, поддержки разнообразия и приоритизации общественного блага.

Инженер работает над роботом

Ответственные преимущества ИИ

По мере того как организации ускоряют внедрение ИИ, вполне естественно, что некоторые из них могут рассматривать ответственный ИИ как скачок скорости или как что-то, что нужно внедрить позднее. Однако установление руководящих принципов перед запуском крупных проектов на базе ИИ критически важно для предотвращения технологических ошибок, причинения вреда людям и ущерба репутации.

Конкурентное преимущество

Организации могут позиционировать себя как лидеры в области этичных инноваций и привлекать клиентов, которые отдают приоритет этическим ценностям при принятии решений о покупке. Помимо преимуществ искусственного интеллекта для эффективности и инноваций, ответственное использование позволяет компаниям внедрять ИИ с меньшим риском, чем конкуренты, которые этого не делают.

Экономия и эффективность

Упреждающее устранение предубеждений в искусственном интеллекте и обеспечение точности данных модели могут помочь избежать вреда для людей, дорогостоящих ошибок и повысить эффективность. Кроме того, прозрачные и объяснимые модели ИИ обычно являются более точными, чем те, которые не являются таковыми.

Усиление доверия к бренду

Открытый обмен информацией о проектировании, развертывании и управлении системами ИИ демонстрирует приверженность этическим ценностям и благополучию клиентов. Это может повысить восприятие бренда, лояльность клиентов и укрепить доверие к клиентам и партнерам.

Улучшение процесса принятия решений

Выявляя и устраняя предубеждения в данных и алгоритмах, организации могут быть более уверены, что аналитика и рекомендации на основе ИИ точны, справедливы и соответствуют этическим стандартам. Это преимущество применяется для различных бизнес-функций, включая разработку продуктов, обслуживание клиентов и стратегическое планирование.

Снижение рисков

Случаи предвзятости в отношении ИИ, утечки данных или неэтичного развертывания могут нанести ущерб репутации организации и привести к дорогостоящим судебным разбирательствам. Соблюдение ответственных принципов ИИ может помочь избежать этих рисков.

Ответственные задачи ИИ

Создание набора ответственных принципов ИИ является лишь первым шагом к формированию необходимого образа мышления и операционного подхода для ответственного создания и развертывания ИИ. Вот некоторые проблемы ответственного ИИ:

Предвзятость ИИ: выявление и смягчение последствий

Системы ИИ могут отражать или усиливать существующие предубеждения, присутствующие в данных обучения, что потенциально приводит к несправедливым результатам в таких приложениях, как прием на работу или утверждение кредитов. Чтобы смягчить эти предубеждения, организации должны убедиться, что их наборы данных разнообразны, проводить регулярные аудиты и применять алгоритмы снижения предвзятости.

Управление ИИ: обеспечение этичного соблюдения нормативных требований

Без надежной структуры управления ИИ организации могут столкнуться с проблемами конфиденциальности, безопасности и контроля. Формирование четких политик, обеспечение прозрачности и вовлеченность заинтересованных лиц имеют важное значение для обеспечения соответствия и подотчетности в системах ИИ.

Соблюдение нормативных требований и стандартизация

Быстрая эволюция ИИ превзошла многие нормативные рамки, создав разрыв, который может привести к этическим нарушениям. Адаптивная правовая база и международное сотрудничество необходимы для обеспечения создания систем ИИ в соответствии с обновленными нормативными требованиями и стандартами.

Масштабируемость этичных практик использования ИИ

Масштабирование этичных практик использования ИИ является сложной задачей, особенно для организаций, у которых нет ресурсов или опыта. Обучение специалистов по ИИ в области этики и использования технологий для автоматизации этических проверок может помочь эффективно масштабировать ответственные практики.

Вредоносное использование ИИ

Серьезную озабоченность вызывают распространение дезинформации, несанкционированное наблюдение и дискриминационное профилирование. Для устранения этих рисков требуются жесткие нормативные меры, строгие этические принципы и постоянный контроль со стороны человека.

Ответственные сценарии использования ИИ

Здравоохранение: повышение точности диагностики

Искусственный интеллект может помочь врачам более точно диагностировать заболевания с медицинских изображений. Обеспечивая честность и прозрачность модели, использование искусственного интеллекта может привести к более справедливым результатам в области здравоохранения в различных демографических аспектах.

Финансы: справедливые решения о кредитовании

Активно отслеживая и корректируя алгоритмы кредитной оценки для устранения предвзятости в отношении ИИ, банки и кредитные учреждения могут обеспечить более равноправный доступ к финансовым продуктам, снижая дискриминацию.

Розничная торговля: персонализированный клиентский опыт

Генеративный ИИ позволяет розничным продавцам создавать персонализированный контент и рекомендации по продуктам. Прозрачность использования этой технологии позволяет ритейлерам завоевывать доверие потребителей, повышая их лояльность и уровень продаж.

Автомобильная промышленность: безопасные транспортные средства

Благодаря тщательному тестированию и соблюдению этичных стандартов ИИ производители стремятся сократить число несчастных случаев и повысить безопасность дорожного движения.

Кадровые ресурсы: безбинарный рекрутинг

Применяя алгоритмы, которые регулярно проверяются на справедливость, отделы кадров могут принимать более беспристрастные решения о приеме на работу, содействуя многообразию и вовлеченности на рабочем месте.

Типы ответственного ИИ

Помимо этичного ИИ и заслуживающего доверия ИИ, существует несколько других типов ответственного ИИ:

Устойчивый ИИ фокусируется на разработке технологий ИИ экологически чистым способом. Это включает оптимизацию энергопотребления систем, использование более экологичной инфраструктуры и учет влияния развертывания ИИ на жизненный цикл для минимизации углеродного следа и воздействия на окружающую среду.

Искусственный интеллект, соответствующий законодательным нормам, стремится обеспечить соблюдение всех операций и технологий ИИ соответствующим законам и регламентам. Этот тип ответственного ИИ имеет решающее значение в отраслях с жестким регулированием, таких как финансы и здравоохранение, где соблюдение правовых стандартов так же важно, как и техническая эффективность.

Ориентированный на человека ИИ приоритизирует человеческие ценности и благосостояние, вовлекая заинтересованных сторон в процесс развития и фокусируясь на технологиях, которые дополняют людей, не заменяя их.

Вопросы и ответы

Что такое управление ИИ?
Управление ИИ — это структура, которая помогает изучать, разрабатывать, внедрять и отслеживать технологии ИИ, чтобы обеспечить их соблюдение этических норм, законов и нормативных требований.
Что такое предвзятость ИИ?
Под предвзятостью ИИ понимаются систематические и несправедливые расхождения, которые возникают в данных или алгоритмических процессах систем ИИ, часто приводящие к предвзятым результатам в отношении определенных групп или отдельных лиц.
Подробнее об актуальном ИИ
Углубляйте свое понимание ответственных концепций ИИ, включая прозрачность, человеческое агентство и предвзятость модели, с помощью справочника SAP по этичному использованию ИИ.
В чем разница между ответственным ИИ и объясняемым ИИ?
Объясняемый ИИ ориентирован на понимание того, как системы ИИ принимают решения, в то время как Responsible AI — это более широкая структура. Ответственный ИИ гарантирует, что системы ИИ будут справедливыми, прозрачными, подотчетными, надежными и сохраняющими конфиденциальность. Объясняемый ИИ является важным компонентом ответственного ИИ, поскольку он помогает обеспечить понятность и надежность систем ИИ.
бинокль

Справочник SAP по этичному использованию ИИ

Углубляйте свое понимание ответственных концепций ИИ, включая прозрачность, человеческое агентство и предвзятость модели.

Получить справочник