flex-height
text-black

Инженеры и ученые работают над прототипом бионики экзоскелета

Что такое этика ИИ?

Этика ИИ — это принципы, регулирующие поведение ИИ с точки зрения человеческих ценностей. Этика ИИ помогает обеспечить разработку и использование ИИ так, чтобы он приносил пользу обществу. Она охватывает широкий круг соображений, включая справедливость, транспарентность, подотчетность, неприкосновенность частной жизни, безопасность и потенциальные социальные последствия.

Введение в этику ИИ

Представьте себе систему ИИ, которая прогнозирует вероятность будущего преступного поведения и используется судьями для определения длительности вынесения приговора. Что произойдет, если эта система непропорционально ориентирована на определенные демографические группы?

Этика ИИ — это сила добра, которая помогает смягчить несправедливые предубеждения, устраняет барьеры на пути к доступности и расширяет творческий подход, в том числе многие другие преимущества. Поскольку организации все чаще полагаются на искусственный интеллект при принятии решений, влияющих на жизнь людей, крайне важно, чтобы они учитывали сложные этические последствия, поскольку неправильное использование ИИ может нанести вред отдельным лицам и обществу, а также итоговым результатам и репутации компаний.

В этой статье рассматриваются:

Примеры этических принципов ИИ

Благосостояние людей является центральным элементом любого обсуждения этики ИИ. Хотя системы ИИ могут быть разработаны с учетом приоритетности морали и этики, люди в конечном итоге несут ответственность за обеспечение этичного проектирования и использования и вмешательство в случае необходимости.

Единого, согласованного свода этических принципов использования ИИ нет. Многие организации и государственные учреждения консультируются с экспертами в области этики, права и искусственного интеллекта, чтобы создать свои руководящие принципы. Эти принципы обычно касаются:

Термины и определения этичного использования ИИ

Как пересечение этики и высоких технологий, разговоры о этичном ИИ часто используют словарный запас из обеих областей. Понимание этого словаря важно для того, чтобы иметь возможность обсуждать этику ИИ:

Этика ИИ — набор ценностей, принципов и методов, применяющих общепризнанные стандарты правильного и неправильного поведения, чтобы руководствоваться моральным поведением при разработке, развертывании, использовании и продаже технологий ИИ.

Модель ИИ — математическая структура, созданная людьми и обученная на данных, которая позволяет системам ИИ выполнять определенные задачи путем выявления шаблонов, принятия решений и прогнозирования результатов. Среди распространённых применений — распознавание изображений и перевод на другие языки.

Система ИИ: сложная структура алгоритмов и моделей, предназначенная для имитации человеческого рассуждения и автономного выполнения задач.

Агентство: Способность отдельных лиц действовать независимо и делать свободный выбор.

Смещение: склонность или предубеждение к лицу или группе лиц или групп, особенно в форме, которая считается несправедливой. Отклонения в данных обучения, такие как недостаточное или избыточное представление данных, относящихся к определенной группе, могут привести к предвзятой работе ИИ.

Объясняемость: Способность ответить на вопрос: «Что сделала машина, чтобы достичь своего выхода?» Объясняемость относится к технологическому контексту системы ИИ, такому как механика, правила и алгоритмы, а также данные обучения.

Справедливость: Беспристрастное и справедливое обращение или поведение без несправедливого фаворитизма или дискриминации.

Человек в цикле: способность людей вмешиваться в каждый цикл принятия решений в системе ИИ.

Интерпретируемость: способность людей понимать реальный контекст и влияние результатов работы системы ИИ, например, когда искусственный интеллект используется для принятия решения об утверждении или отклонении заявки на получение кредита.

Большая языковая модель (LLM): тип машинного обучения, часто используемый в задачах распознавания и генерации текстов.

Машинное обучение подмножество ИИ, которое предоставляет системам возможность автоматически обучаться, совершенствоваться на основе опыта и адаптироваться к новым данным без предварительного программирования.

Нормативный: Ключевой контекст практической этики, касающийся того, что люди и учреждения «должны» или «должны» делать в конкретных ситуациях.

Прозрачность. В связи с объяснимостью прозрачность позволяет обосновать, как и почему разрабатывается, внедряется и используется система ИИ, а также сделать эту информацию видимой и понятной для людей.

Как внедрить принципы этики ИИ

Для организаций использование ИИ более этично, чем просто соблюдение этических принципов; эти принципы должны быть интегрированы во все технические и операционные процессы ИИ. Хотя интеграция этики может показаться громоздкой для организаций, быстро внедряющих искусственный интеллект, реальные случаи вреда, причиненного проблемами при проектировании и использовании моделей ИИ, показывают, что пренебрежение надлежащей этикой может быть рискованным и дорогостоящим.

Кто отвечает за этику ИИ?

Короткий ответ: все, кто участвует в искусственном интеллекте, включая предприятия, правительства, потребителей и граждан.

Различные роли разных людей в этике ИИ

Что нужно стейкхолдерам для понимания инфографики

Роль бизнес-лидеров в этике ИИ

Многие компании создают комитеты под руководством старших руководителей, чтобы формировать политики управления ИИ. Например, в SAP мы сформировали консультативную группу и руководящий комитет по этике ИИ, состоящий из экспертов по этике и технологиям, для интеграции наших этичных принципов ИИ во все продукты и операции. Эти принципы определяют приоритетность:

Формирование руководящего комитета по этике ИИ

Создание управляющего комитета имеет жизненно важное значение для управления подходом организации к этике ИИ и обеспечивает подотчетность и надзор верхнего уровня. Этот комитет следит за тем, чтобы этические соображения учитывались при разработке и развертывании ИИ.

Лучшие практики формирования управляющего комитета по этике ИИ

Создание политики этики ИИ

Разработка политики этичного использования ИИ крайне важна для руководства инициативами по ИИ в организации. Руководящий комитет имеет решающее значение в этом процессе, используя свой разнообразный опыт для обеспечения соответствия политики законам, стандартам и более широким этическим принципам.

Пример подхода к разработке политики этики ИИ

Блок-схема классификации рисков и процесса оценки

Установление процесса проверки соответствия

Разработка эффективных процессов проверки соответствия необходима для обеспечения соответствия развертываний ИИ политикам и предписаниям по этичному использованию ИИ в организации. Эти процессы укрепляют доверие пользователей и регулирующих органов и помогают снизить риски и соблюдать этические практики в проектах на основе ИИ.

Типичные процессы проверки соответствия

Техническое внедрение практик этичного использования ИИ

Учет этических соображений при разработке ИИ подразумевает адаптацию текущих технологических практик для обеспечения ответственного построения и развертывания систем. Помимо установления этичных принципов использования ИИ, организации иногда также создают ответственные принципы ИИ, которые можно больше сфокусировать на конкретных отраслевых и технических сценариях использования.

Ключевые технические требования к этичным системам ИИ

Обнаружение и снижение отклонений. Используйте разнообразные наборы данных и статистические методы для выявления и исправления предрассудков в моделях ИИ. Регулярные аудиты для мониторинга предвзятости.

Прозрачность и объяснимость. Разрабатывайте системы, которые пользователи могут легко понять и проверить, применяя такие методы, как оценки важности функций, деревья принятия решений и не зависящие от модели пояснения для повышения прозрачности.

Конфиденциальность и безопасность данных. Обеспечьте безопасное управление данными в системах ИИ и соблюдение законов о конфиденциальности. Для обеспечения целостности данных системы должны использовать шифрование, анонимизацию и безопасные протоколы.

Надежный и надежный дизайн. Системы ИИ должны быть прочными и надежными в различных условиях, включая расширенное тестирование и проверку для эффективной обработки неожиданных сценариев.

Непрерывный мониторинг и обновление. Поддерживайте непрерывный мониторинг для оценки эффективности ИИ и этичного соблюдения нормативных требований, обновляйте системы по мере необходимости на основе новых данных или изменений в условиях.

Привлечение стейкхолдеров и обратная связь. Привлекайте заинтересованных лиц, таких как конечные пользователи, этики и доменные эксперты, в процессы проектирования и разработки для сбора обратной связи и обеспечения соответствия системы этическим и операционным требованиям.

Обучение организации этике ИИ

Комплексное обучение имеет решающее значение для того, чтобы сотрудники понимали этику ИИ и могли ответственно работать с технологиями ИИ. Обучение также служит для повышения добросовестности и эффективности инструментов и решений ИИ организаций.

Ключевые компоненты эффективного учебного плана по ИИ

Сценарии использования этичного использования ИИ для разных ролей в организации

Каждый сотрудник организации, работающий с приложениями на базе ИИ или механизмами ответов ИИ, должен проявлять осторожность в отношении риска предвзятости и ответственной работы. Примеры сценариев использования этичного использования ИИ для различных ролей или отделов в корпоративных компаниях:

Ведомства по этике ИИ

Этика ИИ сложна и определяется меняющимися нормативными требованиями, правовыми стандартами, отраслевыми практиками и технологическими достижениями. Организации должны быть в курсе изменений политики, которые могут повлиять на них, и они должны сотрудничать с соответствующими заинтересованными сторонами, чтобы определить, какие политики применяются к ним. Приведенный ниже перечень не является исчерпывающим, но дает представление о том, какие политические ресурсы организации должны изыскивать исходя из своей отрасли и региона.

Примеры органов и ресурсов по этике ИИ

Artificial Intelligence for Economic Policymaking report: Это исследование, проведенное Африканским центром экономических преобразований, оценивает экономические и этические соображения ИИ с целью информирования инклюзивной и устойчивой экономической, финансовой и промышленной политики в Африке.

AlgorithmWatch: правозащитная организация, которая выступает за создание и использование алгоритмических систем, защищающих демократию, верховенство права, свободу, автономию, справедливость и равенство.

Руководство АСЕАН по управлению ИИ и этике: практическое руководство для государств-членов Ассоциации государств Юго-Восточной Азии по проектированию, разработке и внедрению технологий ИИ этично и продуктивно.

AI Watch Европейской комиссии: Совместный исследовательский центр Европейской комиссии предоставляет рекомендации по созданию надежных систем ИИ, включая специфичные для страны отчеты и информационные панели, которые помогают отслеживать разработку, освоение и влияние ИИ для Европы

Отчет NTIA AI Accountability Report: Настоящий отчет National Telecommunications and Information Administration предлагает добровольные, нормативные и другие меры по обеспечению правовых и надежных систем ИИ в США.

Принципы ИИ ОЭСР: этот форум стран и групп заинтересованных сторон работает над формированием надежного ИИ. В 2019 году он содействовал реализации Принципов ИИ ОЭСР, первого межправительственного стандарта по ИИ. Эти принципы также послужили основой для Принципов АИ G20.

Рекомендация ЮНЕСКО по этике искусственного интеллекта: Эта система рекомендаций учреждения Организации Объединенных Наций была принята 193 государствами-членами после двухлетнего глобального процесса консультаций с экспертами и заинтересованными сторонами.

Заключение

В заключение следует отметить, что разработка и развертывание этичного ИИ требуют многогранного подхода. Как организации, рекомендуется установить четкие этические принципы, интегрировать их в процессы разработки ИИ и обеспечить постоянное соблюдение нормативных требований с помощью надежных программ управления и обучения. Уделяя приоритетное внимание таким ценностям, как справедливость, прозрачность и подотчетность, компании могут ответственно использовать возможности ИИ, внедрять инновации, снижать потенциальные риски и обеспечивать, чтобы эти технологии приносили пользу обществу в целом.

Подробнее