Что такое ответственный ИИ?
Ответственный ИИ — это разработка, развертывание и использование систем искусственного интеллекта (ИИ) этичными, прозрачными и подотчетными. Он направлен на обеспечение соответствия технологий ИИ ценностям человека, соблюдение основных прав и обеспечение справедливости, безопасности и благополучия отдельных лиц и общества.
default
{}
default
{}
primary
default
{}
secondary
Определение ответственного ИИ
Ответственный ИИ — это практика использования ИИ таким образом, чтобы подчеркнуть контроль над людьми и социальное благополучие. Цель заключается в том, чтобы модели, наборы данных и приложения ИИ разрабатывались и развертывались этически и юридически, без причинения умышленного вреда или увековечения предубеждений. Это важно, поскольку неправильное использование ИИ или его неосторожное использование могут причинить вред пользователям, затронутым лицам, субъектам данных, обществу и компаниям.
Что такое ответственный ИИ или заслуживающий доверия ИИ или этичный ИИ?
Термины «ответственный ИИ», «надежный ИИ» и «этичный ИИ» тесно связаны, но существуют некоторые ключевые различия:
- Ответственный ИИ включает в себя общие этические последствия, управление, надзор, правовые и долгосрочные последствия ИИ.
- Достоверный ИИ относится именно к дизайну систем ИИ, чтобы люди воспринимали их как надежные, справедливые, прозрачные, объяснимые и безопасные.
- Этичный ИИ фокусируется на моральных принципах разработки и использования ИИ, чтобы он не наносил вреда человечеству и человеческому достоинству.
Мы всегда должны помнить, что, потому что ИИ не является человеком, он не способен иметь человеческие черты ответственности, надежности или этики. Поэтому важно отнести эти термины к людям, которые создают или используют эту технологию, а не к самой технологии.
Как ответственный ИИ работает
Чтобы ответственный ИИ работал, существуют человеческие и технологические аспекты:
- Люди должны понимать преимущества и риски использования ИИ и придерживаться этичного подхода к его использованию. Лицам и людям в организациях и правительствах предстоит сыграть свою роль.
- Технологии ИИ должны разрабатываться, развертываться и управляться таким образом, чтобы приоритетное внимание уделялось правам человека и благополучию.
Установление формализованных ответственных принципов ИИ — это хороший способ привести всех сотрудников организации в соответствие с общим видением ответственного ИИ. Но определение принципов — это только начало: для реализации принципов организации необходимо также внедрить эффективное управление ИИ, обучение и технические процессы.
Ответственные принципы ИИ различаются в разных организациях. Например, компании, оказывающие финансовые услуги, могут уделять больше внимания справедливости и недискриминации, в то время как компании социальных сетей могут уделять больше внимания прозрачности или конфиденциальности. Ниже приведен пример принципов, изложенных в рекомендациях Европейской комиссии по этике для создания надежных систем ИИ:
Пример ответственных принципов ИИ
Учреждение и надзор со стороны человека: ИИ должен способствовать принятию решений, соблюдению прав человека и созданию механизмов надзора за деятельностью человека.
Техническая надежность и безопасность. Системы ИИ должны быть безопасными, устойчивыми, безопасными, точными и надежными с помощью плана действий на случай непредвиденных обстоятельств для предотвращения непреднамеренного вреда.
Конфиденциальность и управление данными. Системы должны в полной мере соблюдать конфиденциальность и регулировать качество, конфиденциальность и законный доступ к данным.
Прозрачность: системы должны быть прослеживаемыми и прозрачными. Они должны быть четко обозначены как искусственный интеллект, и их возможности и ограничения должны быть эффективно сообщены.
Разнообразие, недискриминация и справедливость: ИИ должен избегать пропаганды предвзятости, поддерживать многообразие, обеспечивать равную доступность и вовлекать заинтересованные стороны в процесс развития.
Социальное и экологическое благополучие: системы ИИ должны приносить пользу всем людям, включая будущие поколения. Они должны быть устойчивыми и экологически чистыми, а их воздействие на общество должно быть тщательно рассмотрено.
Подотчетность: необходимо создать механизмы, обеспечивающие ответственность и подотчетность систем ИИ и их результатов. Следует обеспечить возможность аудита и доступность.
Ответственные практики разработки ИИ
Разработчики и исследователи, создающие или внедряющие системы ИИ, должны следовать лучшим техническим практикам ИИ и постоянно оценивать соответствие своих систем ответственным принципам ИИ в своих организациях. Ниже приведены некоторые распространенные практики:
Оценка данных обучения модели
Наличие разнообразных наборов данных помогает представить различные когорты, повышая надежность и инклюзивность системы ИИ. Понимание данных, используемых для обучения моделей, необходимо для выявления или смягчения таких проблем, как предвзятость ИИ.
Факторный анализ
Понимание того, как причинно-следственные отношения работают в моделях ИИ, может помочь в этичном принятии решений о том, как их развернуть или вообще следует даже развернуть. Этот анализ делает модели прогнозирования более надежными, выявляя взаимодействия между различными переменными.
Анализ противопоказаний
Это процесс повышения справедливости модели и принятия решений с помощью запросов «что-если» и «что-если» для выявления предубеждений и логических проблем ИИ. Он работает, спрашивая модель, как ее решения изменятся, если бы входные данные, такие как данные о лице или ситуации, были разными.
Справедливость в машинном обучении
Устранение предвзятости ИИ имеет решающее значение для обеспечения того, чтобы системы относились к различным группам или отдельным лицам на равной основе. Это делается путем выявления несбалансированного представления или несправедливой обработки в данных и алгоритмах обучения машинного обучения и обычно состоит из трех фаз:
- Предварительная обработка данных для выявления и устранения предубеждений
- Применение ограничений справедливости при тестировании модели
- Корректировки после обработки для принятия решений по модели
Оценка ошибок модели
Оценка и исправление ошибок в прогнозах моделей имеет решающее значение для предотвращения рискованных или неловких результатов. К распространенным методам оценки ошибок относятся матрица неточностей, точность, отзыв, оценка F1 и ROC-кривая.
интерпретируемость модели
Для обеспечения доверия и прозрачности с пользователями и регулирующими органами разработчики должны уметь интерпретировать и объяснять, почему их модели принимают конкретные решения и демонстрируют определенное поведение. Некоторые часто используемые методы интерпретации:
- Важность признаков определяет и ранжирует наиболее влиятельные переменные или "функции", используемые моделью для прогнозирования
- Графики частичной зависимости — это графы, которые визуализируют связь между выбранной переменной и определенным результатом, при этом все остальные переменные являются постоянными.
Справочник SAP по этичному использованию ИИ
Это углубленное изучение поможет вам применить глобальную политику SAP по этичному использованию ИИ к своей повседневной работе по достижению ответственного уровня ИИ.
Почему ответственный ИИ важен?
ИИ оказывает глубокое влияние на общество, влияя на то, как мы работаем и взаимодействуем. Ответственный ИИ может стать катализатором инноваций, поощряя новые, ориентированные на человека подходы к решению проблем и разработке продуктов. Однако безответственное использование ИИ сопряжено со значительными рисками, такими как обострение неравенства и создание вредного контента. Соблюдая ответственные принципы и практики ИИ, организации могут обеспечить разработку и использование своих систем ИИ таким образом, чтобы они были этичными, ответственными и выгодными для всех заинтересованных сторон — это ответственность.
Этические императивы для предприятий и правительств
Все организации и отдельные лица должны соблюдать высокие этические стандарты использования ИИ. Помимо соблюдения законодательных требований, компании и правительства также должны уделять приоритетное внимание конфиденциальности, прозрачности и справедливости данных в своих начинаниях по использованию ИИ.
Общественные ожидания от этического использования технологий
По мере более широкого использования ИИ потребность в подотчетности и прозрачности со стороны технологических компаний растет. Общество ожидает, что системы ИИ будут спроектированы для соблюдения прав человека, поддержки разнообразия и приоритизации общественного блага.
Ответственные преимущества ИИ
По мере того как организации ускоряют внедрение ИИ, вполне естественно, что некоторые из них могут рассматривать ответственный ИИ как скачок скорости или как что-то, что нужно внедрить позднее. Однако установление руководящих принципов перед запуском крупных проектов на базе ИИ критически важно для предотвращения технологических ошибок, причинения вреда людям и ущерба репутации.
Конкурентное преимущество
Организации могут позиционировать себя как лидеры в области этичных инноваций и привлекать клиентов, которые отдают приоритет этическим ценностям при принятии решений о покупке. Помимо преимуществ искусственного интеллекта для эффективности и инноваций, ответственное использование позволяет компаниям внедрять ИИ с меньшим риском, чем конкуренты, которые этого не делают.
Экономия и эффективность
Упреждающее устранение предубеждений в искусственном интеллекте и обеспечение точности данных модели могут помочь избежать вреда для людей, дорогостоящих ошибок и повысить эффективность. Кроме того, прозрачные и объяснимые модели ИИ обычно являются более точными, чем те, которые не являются таковыми.
Усиление доверия к бренду
Открытый обмен информацией о проектировании, развертывании и управлении системами ИИ демонстрирует приверженность этическим ценностям и благополучию клиентов. Это может повысить восприятие бренда, лояльность клиентов и укрепить доверие к клиентам и партнерам.
Улучшение процесса принятия решений
Выявляя и устраняя предубеждения в данных и алгоритмах, организации могут быть более уверены, что аналитика и рекомендации на основе ИИ точны, справедливы и соответствуют этическим стандартам. Это преимущество применяется для различных бизнес-функций, включая разработку продуктов, обслуживание клиентов и стратегическое планирование.
Снижение рисков
Случаи предвзятости в отношении ИИ, утечки данных или неэтичного развертывания могут нанести ущерб репутации организации и привести к дорогостоящим судебным разбирательствам. Соблюдение ответственных принципов ИИ может помочь избежать этих рисков.
Ответственные задачи ИИ
Создание набора ответственных принципов ИИ является лишь первым шагом к формированию необходимого образа мышления и операционного подхода для ответственного создания и развертывания ИИ. Вот некоторые проблемы ответственного ИИ:
Предвзятость ИИ: выявление и смягчение последствий
Системы ИИ могут отражать или усиливать существующие предубеждения, присутствующие в данных обучения, что потенциально приводит к несправедливым результатам в таких приложениях, как прием на работу или утверждение кредитов. Чтобы смягчить эти предубеждения, организации должны убедиться, что их наборы данных разнообразны, проводить регулярные аудиты и применять алгоритмы снижения предвзятости.
Управление ИИ: обеспечение этичного соблюдения нормативных требований
Без надежной структуры управления ИИ организации могут столкнуться с проблемами конфиденциальности, безопасности и контроля. Формирование четких политик, обеспечение прозрачности и вовлеченность заинтересованных лиц имеют важное значение для обеспечения соответствия и подотчетности в системах ИИ.
Соблюдение нормативных требований и стандартизация
Быстрая эволюция ИИ превзошла многие нормативные рамки, создав разрыв, который может привести к этическим нарушениям. Адаптивная правовая база и международное сотрудничество необходимы для обеспечения создания систем ИИ в соответствии с обновленными нормативными требованиями и стандартами.
Масштабируемость этичных практик использования ИИ
Масштабирование этичных практик использования ИИ является сложной задачей, особенно для организаций, у которых нет ресурсов или опыта. Обучение специалистов по ИИ в области этики и использования технологий для автоматизации этических проверок может помочь эффективно масштабировать ответственные практики.
Вредоносное использование ИИ
Серьезную озабоченность вызывают распространение дезинформации, несанкционированное наблюдение и дискриминационное профилирование. Для устранения этих рисков требуются жесткие нормативные меры, строгие этические принципы и постоянный контроль со стороны человека.
Ответственные сценарии использования ИИ
Здравоохранение: повышение точности диагностики
Искусственный интеллект может помочь врачам более точно диагностировать заболевания с медицинских изображений. Обеспечивая честность и прозрачность модели, использование искусственного интеллекта может привести к более справедливым результатам в области здравоохранения в различных демографических аспектах.
Финансы: справедливые решения о кредитовании
Активно отслеживая и корректируя алгоритмы кредитной оценки для устранения предвзятости в отношении ИИ, банки и кредитные учреждения могут обеспечить более равноправный доступ к финансовым продуктам, снижая дискриминацию.
Розничная торговля: персонализированный клиентский опыт
Генеративный ИИ позволяет розничным продавцам создавать персонализированный контент и рекомендации по продуктам. Прозрачность использования этой технологии позволяет ритейлерам завоевывать доверие потребителей, повышая их лояльность и уровень продаж.
Автомобильная промышленность: безопасные транспортные средства
Благодаря тщательному тестированию и соблюдению этичных стандартов ИИ производители стремятся сократить число несчастных случаев и повысить безопасность дорожного движения.
Кадровые ресурсы: безбинарный рекрутинг
Применяя алгоритмы, которые регулярно проверяются на справедливость, отделы кадров могут принимать более беспристрастные решения о приеме на работу, содействуя многообразию и вовлеченности на рабочем месте.
Типы ответственного ИИ
Помимо этичного ИИ и заслуживающего доверия ИИ, существует несколько других типов ответственного ИИ:
Устойчивый ИИ фокусируется на разработке технологий ИИ экологически чистым способом. Это включает оптимизацию энергопотребления систем, использование более экологичной инфраструктуры и учет влияния развертывания ИИ на жизненный цикл для минимизации углеродного следа и воздействия на окружающую среду.
Искусственный интеллект, соответствующий законодательным нормам, стремится обеспечить соблюдение всех операций и технологий ИИ соответствующим законам и регламентам. Этот тип ответственного ИИ имеет решающее значение в отраслях с жестким регулированием, таких как финансы и здравоохранение, где соблюдение правовых стандартов так же важно, как и техническая эффективность.
Ориентированный на человека ИИ приоритизирует человеческие ценности и благосостояние, вовлекая заинтересованных сторон в процесс развития и фокусируясь на технологиях, которые дополняют людей, не заменяя их.
Вопросы и ответы
Справочник SAP по этичному использованию ИИ
Углубляйте свое понимание ответственных концепций ИИ, включая прозрачность, человеческое агентство и предвзятость модели.