Что такое этика ИИ?
Этика ИИ — это принципы, регулирующие поведение ИИ с точки зрения человеческих ценностей. Этика ИИ помогает обеспечить разработку и использование ИИ так, чтобы он приносил пользу обществу. Она охватывает широкий круг соображений, включая справедливость, транспарентность, подотчетность, неприкосновенность частной жизни, безопасность и потенциальные социальные последствия.
Введение в этику ИИ
Этика ИИ — это сила добра, которая помогает смягчить несправедливые предубеждения, устраняет барьеры на пути к доступности и расширяет творческий подход, в том числе многие другие преимущества. Поскольку организации все чаще полагаются на искусственный интеллект при принятии решений, влияющих на жизнь людей, крайне важно, чтобы они учитывали сложные этические последствия, поскольку неправильное использование ИИ может нанести вред отдельным лицам и обществу, а также итоговым результатам и репутации компаний.
В этой статье рассматриваются:
- Общие принципы, термины и определения этики ИИ
- Создание этичных принципов ИИ для организации
- Кто отвечает за этику ИИ
- Внедрение обучения по этике ИИ, управления и технических процессов
- Этичные сценарии использования и внедрения ИИ
- Некоторые ведущие органы власти по этике ИИ
Примеры этических принципов ИИ
Благосостояние людей является центральным элементом любого обсуждения этики ИИ. Хотя системы ИИ могут быть разработаны с учетом приоритетности морали и этики, люди в конечном итоге несут ответственность за обеспечение этичного проектирования и использования и вмешательство в случае необходимости.
Единого, согласованного свода этических принципов использования ИИ нет. Многие организации и государственные учреждения консультируются с экспертами в области этики, права и искусственного интеллекта, чтобы создать свои руководящие принципы. Эти принципы обычно касаются:
- Благосостояние и достоинство человека. Системы ИИ всегда должны определять приоритеты и обеспечивать благополучие, безопасность и достоинство людей, не заменяя людей и не ставя под угрозу благополучие человека
- Контроль со стороны человека. Искусственный интеллект нуждается в мониторинге человека на каждом этапе развития и использования, иногда называемом «человеком в цикле», чтобы гарантировать, что окончательная этическая ответственность лежит на человеке
- Борьба с предвзятостью и дискриминацией: процессы разработки должны уделять первоочередное внимание справедливости, равенству и представительству в целях смягчения предвзятости и дискриминации
- Прозрачность и объяснимость: как модели ИИ принимают конкретные решения и дают конкретные результаты, должны быть прозрачными и объяснимыми на понятном языке
- Обеспечение конфиденциальности и защиты данных. Системы ИИ должны соответствовать самым строгим стандартам конфиденциальности и защиты данных, применяя надежные методы кибербезопасности для предотвращения утечки данных и несанкционированного доступа
- Содействие инклюзивности и многообразию: технологии ИИ должны отражать и уважать широкий спектр человеческой идентичности и опыта
- Общество и экономика: ИИ должен способствовать социальному прогрессу и экономическому процветанию для всех людей без содействия неравенству и недобросовестным практикам
- Повышение квалификации и грамотности в области цифровых технологий: технологии ИИ должны быть доступными и понятными для всех, независимо от навыков человека в области цифровых технологий
- Здоровье бизнеса: бизнес-технологии ИИ должны ускорить процессы, повысить эффективность и стимулировать рост
Термины и определения этичного использования ИИ
Как пересечение этики и высоких технологий, разговоры о этичном ИИ часто используют словарный запас из обеих областей. Понимание этого словаря важно для того, чтобы иметь возможность обсуждать этику ИИ:
-
ИИ: Способность машины выполнять когнитивные функции, которые мы связываем с человеческим разумом, такими как восприятие, рассуждение, обучение и решение проблем. Существует два основных типа систем ИИ, и некоторые системы являются комбинацией обоих:
- ИИ на основе правил, также называемый экспертным ИИ, ведет себя в соответствии с набором полностью определенных правил, созданных человеческими экспертами. Например, многие платформы электронной коммерции используют искусственный интеллект на основе правил для предоставления рекомендаций по продуктам
- ИИ на основе обучения решает проблемы и адаптирует свои функции самостоятельно на основе начальной разработанной человеком конфигурации и набора данных обучения. Примерами ИИ на основе обучения являютсяинструменты генеративного ИИ.
Этика ИИ — набор ценностей, принципов и методов, применяющих общепризнанные стандарты правильного и неправильного поведения, чтобы руководствоваться моральным поведением при разработке, развертывании, использовании и продаже технологий ИИ.
Модель ИИ — математическая структура, созданная людьми и обученная на данных, которая позволяет системам ИИ выполнять определенные задачи путем выявления шаблонов, принятия решений и прогнозирования результатов. Среди распространённых применений — распознавание изображений и перевод на другие языки.
Система ИИ: сложная структура алгоритмов и моделей, предназначенная для имитации человеческого рассуждения и автономного выполнения задач.
Агентство: Способность отдельных лиц действовать независимо и делать свободный выбор.
Смещение: склонность или предубеждение к лицу или группе лиц или групп, особенно в форме, которая считается несправедливой. Отклонения в данных обучения, такие как недостаточное или избыточное представление данных, относящихся к определенной группе, могут привести к предвзятой работе ИИ.
Объясняемость: Способность ответить на вопрос: «Что сделала машина, чтобы достичь своего выхода?» Объясняемость относится к технологическому контексту системы ИИ, такому как механика, правила и алгоритмы, а также данные обучения.
Справедливость: Беспристрастное и справедливое обращение или поведение без несправедливого фаворитизма или дискриминации.
Человек в цикле: способность людей вмешиваться в каждый цикл принятия решений в системе ИИ.
Интерпретируемость: способность людей понимать реальный контекст и влияние результатов работы системы ИИ, например, когда искусственный интеллект используется для принятия решения об утверждении или отклонении заявки на получение кредита.
Большая языковая модель (LLM): тип машинного обучения, часто используемый в задачах распознавания и генерации текстов.
Машинное обучение — подмножество ИИ, которое предоставляет системам возможность автоматически обучаться, совершенствоваться на основе опыта и адаптироваться к новым данным без предварительного программирования.
Нормативный: Ключевой контекст практической этики, касающийся того, что люди и учреждения «должны» или «должны» делать в конкретных ситуациях.
Прозрачность. В связи с объяснимостью прозрачность позволяет обосновать, как и почему разрабатывается, внедряется и используется система ИИ, а также сделать эту информацию видимой и понятной для людей.
Как внедрить принципы этики ИИ
Для организаций использование ИИ более этично, чем просто соблюдение этических принципов; эти принципы должны быть интегрированы во все технические и операционные процессы ИИ. Хотя интеграция этики может показаться громоздкой для организаций, быстро внедряющих искусственный интеллект, реальные случаи вреда, причиненного проблемами при проектировании и использовании моделей ИИ, показывают, что пренебрежение надлежащей этикой может быть рискованным и дорогостоящим.
Кто отвечает за этику ИИ?
Короткий ответ: все, кто участвует в искусственном интеллекте, включая предприятия, правительства, потребителей и граждан.
Различные роли разных людей в этике ИИ
- Разработчики и исследователи играют решающую роль в создании систем ИИ, которые приоритизируют человеческое ведомство и надзор, устраняют предвзятость и дискриминацию и являются прозрачными и объяснимыми.
- Политики и регулирующие органы устанавливают законы и нормативные акты, регулирующие этическое использование ИИ и защиту прав отдельных лиц.
- Руководители компаний и отраслей гарантируют, что их организации внедряют этичные принципы ИИ, чтобы использовать ИИ таким образом, чтобы позитивно внести свой вклад в жизнь общества.
- Организации гражданского общества выступают за этическое использование ИИ, играют роль в надзоре и оказывают поддержку пострадавшим общинам.
- Учреждения вносят свой вклад через образование, исследования и разработку этических руководящих принципов.
- Конечные пользователи и затронутые пользователи, такие как потребители и граждане, заинтересованы в том, чтобы системы ИИ были объяснимыми, интерпретируемыми, справедливыми, прозрачными и выгодными для общества.
Роль бизнес-лидеров в этике ИИ
Многие компании создают комитеты под руководством старших руководителей, чтобы формировать политики управления ИИ. Например, в SAP мы сформировали консультативную группу и руководящий комитет по этике ИИ, состоящий из экспертов по этике и технологиям, для интеграции наших этичных принципов ИИ во все продукты и операции. Эти принципы определяют приоритетность:
- Соразмерность и отсутствие вреда
- Безопасность и безопасность
- Справедливость и недискриминация
- Устойчивое развитие
- Право на неприкосновенность частной жизни и защиту данных
- Контроль и решимость человека
- Прозрачность и объяснимость
- Ответственность и подотчетность
- Информированность и техническая грамотность
- Многостороннее и адаптивное управление и сотрудничество
Формирование руководящего комитета по этике ИИ
Создание управляющего комитета имеет жизненно важное значение для управления подходом организации к этике ИИ и обеспечивает подотчетность и надзор верхнего уровня. Этот комитет следит за тем, чтобы этические соображения учитывались при разработке и развертывании ИИ.
Лучшие практики формирования управляющего комитета по этике ИИ
- Состав и опыт: включите разнообразное сочетание заинтересованных лиц с опытом в области ИИ, права и этики. Внешние консультанты могут предлагать объективные перспективы.
- Определение цели и объема: Четко определите миссию и цели комитета, уделяя особое внимание проектированию, внедрению и функционированию этичного ИИ. Это должно соответствовать ценностям, справедливости, прозрачности и конфиденциальности компании.
- Определение ролей и обязанностей: назовите конкретные роли для участников, такие как разработка политик этики ИИ, консультирование по вопросам этики в проектах ИИ и обеспечение соблюдения нормативных требований.
- Постановка целей: определение четких измеримых целей, таких как проведение ежегодного аудита этики проектов ИИ и предложение ежеквартального обучения этичному ИИ.
- Создание процедур: определение оперативных процедур, включая соблюдение графиков, стандартов документации и протоколов связи, для обеспечения прозрачности.
- Непрерывное обучение и адаптация: регулярно проводите обучение и конференции, чтобы быть в курсе новых разработок в области технологий ИИ, этических стандартов и нормативных требований.
Создание политики этики ИИ
Разработка политики этичного использования ИИ крайне важна для руководства инициативами по ИИ в организации. Руководящий комитет имеет решающее значение в этом процессе, используя свой разнообразный опыт для обеспечения соответствия политики законам, стандартам и более широким этическим принципам.
Пример подхода к разработке политики этики ИИ
-
Разработка первоначальной политики. Начните с разработки политики, отражающей основные ценности, законодательные требования и передовые практики организации. Этот первоначальный проект послужит основой для дальнейшего уточнения.
-
Консультации и вклад. Взаимодействуйте с внутренними и внешними заинтересованными лицами, включая разработчиков ИИ, бизнес-лидеров и этиков, чтобы сделать политику всеобъемлющей и отражающей различные точки зрения.
-
Интеграция междисциплинарной аналитики. Используйте различную группу членов комитета, чтобы включать информацию о технологиях, этике, законодательстве и бизнесе для решения сложных аспектов этики ИИ.
-
Определение сценариев использования с высоким и точным уровнем риска: для обеспечения ясности комитет должен определить, какие приложения ИИ представляют значительный риск или считаются неэтичными и, следовательно, запрещенными. Управляющий комитет SAP, например, классифицирует их следующим образом:
- Высокий риск. К этой категории относятся приложения, которые могут быть вредны любым образом и включают приложения, связанные с правоохранительными, миграционными и демократическими процессами, а также приложения, включающие персональные данные, автоматизированное принятие решений или влияющие на социальное благополучие. Они должны пройти тщательную оценку комитетом перед разработкой, развертыванием или продажей.
- Красная линия: Запрещаются приложения, позволяющие человеку осуществлять наблюдение, дискриминацию, деанонимизацию данных, приводящих к идентификации отдельных лиц или групп, или манипулировать общественным мнением или подрывать демократические дебаты. SAP считает, что в этих целях применяется исключительно неэтичный подход и запрещается их разработка, развертывание и продажа.
-
Обзор и пересмотр: Непрерывный обзор и пересмотр политики на основе обратной связи, с тем чтобы она оставалась актуальной и практической для реального мира.
-
Финализация и утверждение: Подача завершенной политики на окончательное утверждение лицами, принимающими решения, такими как совет директоров, при поддержке твердой рекомендации комитета.
-
Осуществление и постоянный надзор: Комитету следует следить за осуществлением политики и периодически обновлять ее, с тем чтобы отразить новые технологические и этические изменения.
Установление процесса проверки соответствия
Разработка эффективных процессов проверки соответствия необходима для обеспечения соответствия развертываний ИИ политикам и предписаниям по этичному использованию ИИ в организации. Эти процессы укрепляют доверие пользователей и регулирующих органов и помогают снизить риски и соблюдать этические практики в проектах на основе ИИ.
Типичные процессы проверки соответствия
- Разработка стандартизированной структуры проверки: разработка комплексной структуры, определяющей процедуры оценки проектов ИИ по этическим директивам, правовым стандартам и операционным требованиям.
- Классификация рисков: классификация проектов ИИ по этическим и нормативным рискам. Проекты с высоким риском, такие как обработка конфиденциальных персональных данных или имеющие значительное влияние на принятие решений, требуют тщательного анализа.
- Регулярные аудиты и оценки. Регулярные аудиты для проверки текущего соответствия, включающие как автоматические проверки, так и ручные проверки междисциплинарными группами.
- Участие заинтересованных лиц. Привлекайте в процесс обзора разнообразную группу заинтересованных лиц, включая этиков, экспертов по правовым вопросам, специалистов по обработке данных и конечных пользователей, для выявления потенциальных рисков и этических дилемм.
- Документация и прозрачность: хранение подробных записей всех операций по обеспечению соответствия с обеспечением их доступности и ясности для внутреннего и внешнего аудита
- Механизмы обратной связи и эскалации: применение четких процедур отчетности и решения вопросов этики и соблюдения нормативных требований
Техническое внедрение практик этичного использования ИИ
Учет этических соображений при разработке ИИ подразумевает адаптацию текущих технологических практик для обеспечения ответственного построения и развертывания систем. Помимо установления этичных принципов использования ИИ, организации иногда также создают ответственные принципы ИИ, которые можно больше сфокусировать на конкретных отраслевых и технических сценариях использования.
Ключевые технические требования к этичным системам ИИ
Обнаружение и снижение отклонений. Используйте разнообразные наборы данных и статистические методы для выявления и исправления предрассудков в моделях ИИ. Регулярные аудиты для мониторинга предвзятости.
Прозрачность и объяснимость. Разрабатывайте системы, которые пользователи могут легко понять и проверить, применяя такие методы, как оценки важности функций, деревья принятия решений и не зависящие от модели пояснения для повышения прозрачности.
Конфиденциальность и безопасность данных. Обеспечьте безопасное управление данными в системах ИИ и соблюдение законов о конфиденциальности. Для обеспечения целостности данных системы должны использовать шифрование, анонимизацию и безопасные протоколы.
Надежный и надежный дизайн. Системы ИИ должны быть прочными и надежными в различных условиях, включая расширенное тестирование и проверку для эффективной обработки неожиданных сценариев.
Непрерывный мониторинг и обновление. Поддерживайте непрерывный мониторинг для оценки эффективности ИИ и этичного соблюдения нормативных требований, обновляйте системы по мере необходимости на основе новых данных или изменений в условиях.
Привлечение стейкхолдеров и обратная связь. Привлекайте заинтересованных лиц, таких как конечные пользователи, этики и доменные эксперты, в процессы проектирования и разработки для сбора обратной связи и обеспечения соответствия системы этическим и операционным требованиям.
Обучение организации этике ИИ
Комплексное обучение имеет решающее значение для того, чтобы сотрудники понимали этику ИИ и могли ответственно работать с технологиями ИИ. Обучение также служит для повышения добросовестности и эффективности инструментов и решений ИИ организаций.
Ключевые компоненты эффективного учебного плана по ИИ
- Комплексная разработка учебной программы. Используйте учебный план, учитывающий основы ИИ, этические соображения, проблемы соблюдения нормативных требований и практические применения, адаптированные к различным организационным ролям, от технического персонала до исполнительного руководства.
- Модули обучения для конкретных ролей: предоставляют модули обучения, адаптированные к уникальным потребностям и обязанностям различных отделов. Например, разработчики могут сосредоточиться на этичных методах написания кода, тогда как отделы продаж и маркетинга узнают о влиянии ИИ на взаимодействие с клиентами.
- Непрерывное обучение и обновления. ИИ быстро развивается, поэтому важно поддерживать программы обучения в курсе последних разработок и лучших практик.
- Интерактивный и практический опыт обучения: использование тематических исследований, моделирования и семинаров для иллюстрации реальных приложений и этических проблем для поддержки теоретических знаний с практическим опытом.
- Оценка и сертификация. Проводите оценки, чтобы оценить понимание и квалификацию сотрудников в этике ИИ и рассмотреть возможность предложения сертификации для признания и мотивации постоянного улучшения.
- Механизмы обратной связи. Создавайте каналы обратной связи для сотрудников, чтобы они вносили свой вклад в непрерывную доработку программ обучения, обеспечивая их соответствие меняющимся потребностям организации.
Сценарии использования этичного использования ИИ для разных ролей в организации
Каждый сотрудник организации, работающий с приложениями на базе ИИ или механизмами ответов ИИ, должен проявлять осторожность в отношении риска предвзятости и ответственной работы. Примеры сценариев использования этичного использования ИИ для различных ролей или отделов в корпоративных компаниях:
- Специалисты по обработке и анализу данных или инженеры по машинному обучению: в этих ролях рекомендуется включать методы для обнаружения и снижения погрешностей, обеспечения объяснимости модели и расширения модели. Сюда относятся такие методы, как показатели справедливости и контрфактический анализ.
- Менеджеры по продуктам или бизнес-аналитики. Обязанности, связанные с этикой ИИ, могут варьироваться от оценки этических рисков, расстановки приоритетов в дизайне, ориентированного на пользователя, и разработки четких коммуникационных стратегий для объяснения систем ИИ пользователям и заинтересованным лицам. Это предполагает учет потенциальных социальных последствий, потребностей пользователей и укрепление доверия на основе прозрачности.
- Отдел нормативно-правового соответствия. Критическими сценариями использования являются соблюдение применимых нормативных требований (например, законов о защите данных), управление юридическими и репутационными рисками, связанными с ИИ, и разработка стратегий для снижения ответственности, возникающей в результате алгоритмического уклона или непреднамеренных последствий
- Специалисты по кадрам. Отдел кадров должен работать с инструментами набора персонала на базе ИИ, которые не допускают предубеждений и соответствуют антидискриминационным законам. Задачи включают алгоритмы аудита, внедрение систем управления персоналом и обучение этичным методам набора персонала с использованием ИИ.
Ведомства по этике ИИ
Этика ИИ сложна и определяется меняющимися нормативными требованиями, правовыми стандартами, отраслевыми практиками и технологическими достижениями. Организации должны быть в курсе изменений политики, которые могут повлиять на них, и они должны сотрудничать с соответствующими заинтересованными сторонами, чтобы определить, какие политики применяются к ним. Приведенный ниже перечень не является исчерпывающим, но дает представление о том, какие политические ресурсы организации должны изыскивать исходя из своей отрасли и региона.
Примеры органов и ресурсов по этике ИИ
Artificial Intelligence for Economic Policymaking report: Это исследование, проведенное Африканским центром экономических преобразований, оценивает экономические и этические соображения ИИ с целью информирования инклюзивной и устойчивой экономической, финансовой и промышленной политики в Африке.
AlgorithmWatch: правозащитная организация, которая выступает за создание и использование алгоритмических систем, защищающих демократию, верховенство права, свободу, автономию, справедливость и равенство.
Руководство АСЕАН по управлению ИИ и этике: практическое руководство для государств-членов Ассоциации государств Юго-Восточной Азии по проектированию, разработке и внедрению технологий ИИ этично и продуктивно.
AI Watch Европейской комиссии: Совместный исследовательский центр Европейской комиссии предоставляет рекомендации по созданию надежных систем ИИ, включая специфичные для страны отчеты и информационные панели, которые помогают отслеживать разработку, освоение и влияние ИИ для Европы
Отчет NTIA AI Accountability Report: Настоящий отчет National Telecommunications and Information Administration предлагает добровольные, нормативные и другие меры по обеспечению правовых и надежных систем ИИ в США.
Принципы ИИ ОЭСР: этот форум стран и групп заинтересованных сторон работает над формированием надежного ИИ. В 2019 году он содействовал реализации Принципов ИИ ОЭСР, первого межправительственного стандарта по ИИ. Эти принципы также послужили основой для Принципов АИ G20.
Рекомендация ЮНЕСКО по этике искусственного интеллекта: Эта система рекомендаций учреждения Организации Объединенных Наций была принята 193 государствами-членами после двухлетнего глобального процесса консультаций с экспертами и заинтересованными сторонами.
Заключение
В заключение следует отметить, что разработка и развертывание этичного ИИ требуют многогранного подхода. Как организации, рекомендуется установить четкие этические принципы, интегрировать их в процессы разработки ИИ и обеспечить постоянное соблюдение нормативных требований с помощью надежных программ управления и обучения. Уделяя приоритетное внимание таким ценностям, как справедливость, прозрачность и подотчетность, компании могут ответственно использовать возможности ИИ, внедрять инновации, снижать потенциальные риски и обеспечивать, чтобы эти технологии приносили пользу обществу в целом.
Продукт SAP
Больше сценариев использования этичного использования ИИ и рекомендаций
Получите подробное руководство по внедрению этичных практик использования ИИ в Руководстве по этичному использованию ИИ SAP.