¿Qué es la ética de IA?
La ética de IA se refiere a los principios que rigen el comportamiento de la IA en términos de valores humanos. La ética de IA ayuda a garantizar que la IA se desarrolle y use de maneras que sean beneficiosas para la sociedad. Abarca una amplia gama de consideraciones, como equidad, transparencia, rendición de cuentas, privacidad, seguridad y posibles repercusiones sociales.
default
{}
default
{}
primary
default
{}
secondary
Introducción a la ética de IA
La ética de IA es una fuerza para el bien que ayuda a mitigar sesgos injustos, elimina barreras a la accesibilidad y aumenta la creatividad, entre muchos otros beneficios. A medida que las organizaciones confían cada vez más en la IA para tomar decisiones que impacten en las vidas humanas, es fundamental que consideren las complejas implicaciones éticas porque el uso indebido de la IA puede causar daño a las personas y a la sociedad —y a los resultados finales y la reputación de las empresas—.
En este artículo, exploraremos:
- Principios, términos y definiciones comunes de ética de IA
- Crear principios de IA ética para una organización
- Quién es responsable de la ética de IA
- Implementar capacitación en ética de IA, gobernanza y procesos técnicos
- Casos de uso e implementaciones de IA ética
- Algunas autoridades líderes en ética de IA
Ejemplos de principios de IA ética
El bienestar de las personas está en el centro de cualquier discusión sobre la ética de IA. Si bien los sistemas de IA se pueden diseñar para priorizar la moral y la ética, los humanos son, en última instancia, responsables de garantizar el diseño y el uso éticos —e intervenir cuando sea necesario—.
No hay un único conjunto universalmente acordado de principios éticos de IA. Muchas organizaciones y agencias gubernamentales consultan con expertos en ética, leyes e IA para crear sus principios rectores. Estos principios abordan comúnmente:
- Bienestar y dignidad humanos: los sistemas de IA siempre deben priorizar y garantizar el bienestar, seguridad y dignidad de las personas, sin reemplazar a los humanos ni comprometer el bienestar humano
- Supervisión humana: la IA necesita un monitoreo humano en cada etapa del desarrollo y uso —a veces llamado “human-in-the-loop”— para garantizar que la responsabilidad ética final recaiga en un ser humano
- Abordar el sesgo y la discriminación: los procesos de diseño deben priorizar la equidad, igualdad y representación para mitigar el sesgo y la discriminación
- Transparencia y explicabilidad: cómo los modelos de IA toman decisiones específicas y producen resultados específicos debe ser transparente y explicable en un lenguaje claro
- Protección y privacidad de datos: los sistemas de IA deben cumplir con los estándares más estrictos de privacidad y protección de datos, usando métodos sólidos de ciberseguridad para evitar filtraciones de datos y accesos no autorizados
- Promover inclusión y diversidad: las tecnologías de IA deben reflejar y respetar la amplia gama de identidades y experiencias humanas
- Sociedad y economías: la IA debería ayudar a impulsar el progreso social y la prosperidad económica para todas las personas, sin fomentar la desigualdad ni las prácticas injustas
- Mejorar las habilidades digitales y la alfabetización: las tecnologías de IA deben esforzarse por ser accesibles y comprensibles para todos, independientemente de las habilidades digitales de una persona
- La salud de los negocios: las tecnologías de negocio de IA deben acelerar los procesos, maximizar la eficiencia y promover el crecimiento
Términos y definiciones de ética de IA
Como una intersección de ética y alta tecnología, las conversaciones sobre la IA ética a menudo usan vocabulario de ambos campos. Comprender este vocabulario es importante para poder discutir la ética de IA:
-
IA: la capacidad de una máquina para realizar funciones cognitivas que asociamos con la mente humana, tales como percibir, razonar, aprender y resolver problemas. Existen dos tipos principales de sistemas de IA, y algunos sistemas son una combinación de ambos:
- La IA basada en reglas, también llamada IA experta, se comporta de acuerdo con un conjunto de reglas completamente definidas creadas por expertos humanos —como ejemplo, muchas plataformas de e-commerce usan IA basada en reglas para brindar recomendaciones de productos—
- La IA basada en aprendizaje resuelve problemas y adapta su funcionalidad por sí misma, en función de su conjunto de datos iniciales de configuración y capacitación diseñado por humanos —las herramientas de IA generativa son ejemplos de IA basada en aprendizaje—
Ética de IA: un conjunto de valores, principios y técnicas que emplean estándares de lo correcto e incorrecto ampliamente aceptados para guiar la conducta moral en el desarrollo, implementación, uso y venta de tecnologías de IA.
Modelo de IA: un marco matemático creado por personas y entrenado en datos que permite a los sistemas de IA realizar ciertas tareas identificando patrones, tomando decisiones y proyectando resultados. Los usos comunes incluyen el reconocimiento de imágenes y la traducción de idiomas, entre muchos otros.
Sistema de IA: una estructura compleja de algoritmos y modelos diseñados para imitar el razonamiento humano y realizar tareas de forma autónoma.
Agencia: la capacidad de las personas para actuar de forma independiente y tomar decisiones libres.
Sesgo: una inclinación o prejuicio a favor o en contra de una persona o grupo, especialmente de una manera considerada injusta. Los sesgos en los datos de entrenamiento —tales como la representación insuficiente o excesiva de datos pertenecientes a un grupo determinado— pueden hacer que la IA actúe de manera sesgada.
Explicabilidad: la capacidad de responder a la pregunta “¿Qué hizo la máquina para alcanzar su resultado?” Explicabilidad se refiere al contexto tecnológico del sistema de IA, por ejemplo su mecánica, reglas y algoritmos, y datos de entrenamiento.
Equidad: trato o conducta imparcial y justa sin favoritismo o discriminación injustos.
Human-in-the-loop: la capacidad de los seres humanos para intervenir en cada ciclo de decisión de un sistema de IA.
Interpretabilidad: la capacidad de las personas de comprender el contexto de la vida real y el impacto de los resultados de un sistema de IA, como cuando la IA se usa para ayudar a tomar una decisión sobre la aprobación o el rechazo de una solicitud de préstamo.
Modelo de lenguaje grande (LLM): un tipo de machine learning que se usa a menudo en tareas de reconocimiento y generación de texto.
Machine learning: un subconjunto de IA que brinda a los sistemas la capacidad de aprender automáticamente, mejorar a partir de la experiencia y adaptarse a nuevos datos sin ser programado explícitamente para hacerlo.
Normativa: un contexto clave de ética práctica que se ocupa de lo que las personas e instituciones “deberían” hacer en situaciones particulares.
Transparencia: en relación con la explicabilidad, la transparencia es la capacidad de justificar cómo y por qué se desarrolla, implementa y usa un sistema de IA, y de hacer que esa información sea visible y comprensible para las personas.
Cómo implementar principios para la ética de IA
Para las empresas, usar la IA éticamente es más que simplemente adoptar principios éticos; estos principios deben integrarse en todos los procesos de IA técnicos y operativos. Si bien integrar la ética puede parecer engorroso para las empresas que adoptan rápidamente IA, los casos reales de daño causados por problemas en los diseños y el uso de modelos de IA muestran que descuidar la ética adecuada puede ser riesgoso y costoso.
¿Quién es responsable de la ética de IA?
La respuesta breve: todos los que participan en la IA, incluidas las empresas, gobiernos, consumidores y ciudadanos.
Los diferentes roles de las diferentes personas en la ética de IA
- Los desarrolladores e investigadores juegan un rol crucial en la creación de sistemas de IA que priorizan la agencia y supervisión humanas, abordan sesgo y discriminación, y son transparentes y explicables.
- Los responsables políticos y los reguladores establecen leyes y regulaciones que rigen el uso ético de la IA y protegen los derechos de las personas.
- Los líderes de negocio y de la industria se aseguran de que sus organizaciones adopten principios de IA ética para que usar la IA de maneras que contribuyan positivamente a la sociedad.
- Las organizaciones de la sociedad civil abogan por el uso ético de la IA, desempeñan un papel en la supervisión y brindan apoyo a las comunidades afectadas.
- Las instituciones académicas contribuyen a través de educación, investigación y desarrollo de directrices éticas.
- Los usuarios finales y los afectados, como consumidores y ciudadanos, tienen un interés en garantizar que los sistemas de IA sean explicables, interpretables, justos, transparentes y beneficiosos para la sociedad.
El rol de los líderes de negocio en la ética de IA
Muchas empresas establecen comités dirigidos por sus líderes sénior para dar forma a sus políticas de gobernanza de IA. Por ejemplo, en SAP formamos un panel asesor y un comité directivo de ética de IA, compuesto por expertos en ética y tecnología, para integrar nuestros principios de IA ética en todos nuestros productos y operaciones. Estos principios priorizan:
- Proporcionalidad e inocuidad
- Protección y seguridad
- Equidad e inclusión
- Sostenibilidad
- Derecho a la privacidad y protección de datos
- Supervisión y determinación humanas
- Transparencia y explicabilidad
- Responsabilidad y rendición de cuentas
- Conocimiento y alfabetización técnica
- Gobernanza y colaboración adaptativas y entre múltiples partes interesadas
Formar un comité directivo de ética de IA
Establecer un comité directivo es vital para gestionar el enfoque de una organización respecto a la ética de IA y brinda responsabilidad y supervisión de alto nivel. Este comité garantiza que las consideraciones éticas se integren en el desarrollo e implementación de IA.
Mejores prácticas para formar un comité directivo de ética de IA
- Composición y expertise: incluya una mezcla diversa de partes interesadas con expertise en IA, ley y ética. Los asesores externos pueden ofrecer perspectivas imparciales.
- Definir propósito y alcance: defina claramente la misión y los objetivos del comité, centrándose en diseño, implementación y operación de IA ética. Este debe alinearse con los valores de la empresa, la equidad, transparencia y privacidad.
- Definir roles y responsabilidades: describa roles específicos para los miembros, tales como desarrollar políticas de ética de IA, asesorar sobre preocupaciones de ética en proyectos de IA y garantizar el compliance de las regulaciones.
- Establecer objetivos: establezca objetivos claros y medibles, tales como realizar una auditoría ética anual de los proyectos de IA y ofrecer capacitación trimestral sobre IA ética.
- Crear procedimientos: establezca procedimientos operativos, incluidos cronogramas de cumplimiento, estándares y protocolos de comunicación para mantener la transparencia.
- Capacitación y adaptación continuas: manténgase al día de los nuevos desarrollos en tecnología de IA, estándares éticos y regulaciones a través de capacitación y conferencias periódicas.
Crear una política de ética de IA
El desarrollo de una política de ética de IA es esencial para guiar las iniciativas de IA dentro de una empresa. El comité directivo es crítico en este proceso, usando su diverso expertise para garantizar que la política se adhiera a las leyes, estándares y principios éticos más amplios.
Ejemplo de enfoque para crear una política de ética de IA
-
Elaboración de la política inicial: comience por redactar una política que refleje los valores centrales, requisitos legales y mejores prácticas de la empresa. Este proyecto inicial servirá de base para un mayor perfeccionamiento.
-
Consultas y aportes: interactúe con partes interesadas internas y externas, incluidos desarrolladores de IA, líderes de negocio y éticos, para hacer que la política sea integral y representativa de múltiples perspectivas.
-
Integración de información estratégica interdisciplinaria: use los variados antecedentes de los miembros del comité para incorporar información estratégica de tecnología, ética, ley y negocios para abordar los aspectos complejos de la ética de IA.
-
Definición de casos de uso de alto riesgo y de línea roja: para garantizar claridad, el comité debe esbozar qué aplicaciones de IA suponen riesgos significativos o se consideran poco éticas y, por lo tanto, prohibidas. El SAP Steering Committee, por ejemplo, los categoriza como:
- Alto riesgo: esta categoría incluye aplicaciones que pueden ser dañinas de cualquier manera, e incluye aquellas relacionadas con hacer cumplir la ley, migración y procesos democráticos, así como aquellas que implican datos personales, toma de decisiones automatizada o que afectan al bienestar social. Estas deben someterse a una evaluación exhaustiva por parte del comité antes desarrollar, desplegar, o venderse.
- Línea roja: se prohíben las aplicaciones que permiten la vigilancia humana, discriminación, desanonimización de los datos que conducen a la identificación individual o grupal, o las que manipulan la opinión pública o socavan los debates democráticos. SAP considera que estos usos son altamente poco éticos y prohíbe su desarrollo, implementación y venta.
-
Evaluación y revisiones: evalúe y revise continuamente la política en base al feedback, garantizando que siga siendo relevante y práctica para el mundo real.
-
Finalización y aprobación: envíe la política completada para la aprobación final por parte de los responsables de toma de decisiones, por ejemplo el directorio, respaldada por una fuerte recomendación del comité.
-
Implementación y supervisión continua: el comité debería supervisar la implementación de la política y actualizarla periódicamente para reflejar los nuevos avances tecnológicos y éticos.
Establecer un proceso de evaluación de compliance
Desarrollar procesos efectivos de evaluación de compliance es esencial para garantizar que las implementaciones de IA se adhieran a las políticas y regulaciones de ética de IA de la empresa. Estos procesos ayudan a generar confianza con los usuarios y reguladores y sirven para mitigar riesgos y mantener prácticas éticas en todos los proyectos de IA.
Procesos típicos de evaluación de compliance
- Desarrollar un marco de evaluación estandarizado: formule un marco integral que defina procedimientos para evaluar proyectos de IA frente a directrices éticas, estándares legales y requisitos operativos.
- Clasificación de riesgos: clasifique los proyectos de IA según sus riesgos éticos y regulatorios. Los proyectos de alto riesgo, tales como los que manejan datos personales confidenciales o que tienen un impacto significativo en la toma de decisiones, requieren un alto grado de escrutinio.
- Auditorías y evaluaciones periódicas: realice auditorías periódicas para verificar el compliance continuo, lo que implica verificaciones automatizadas y evaluaciones manuales por parte de equipos interdisciplinarios.
- Participación de las partes interesadas: involucre un grupo diverso de partes interesadas en el proceso de evaluación, incluyendo éticos, expertos legales, científicos de datos y usuarios finales, para detectar posibles riesgos y dilemas éticos.
- Documentación y transparencia: conserve registros detallados de todas las actividades de compliance, asegurándose de que sean accesibles y claras para las auditorías internas y externas
- Mecanismos de feedback y escala: implemente procedimientos claros para informar y abordar preocupaciones éticas y problemas de compliance
Implementación técnica de prácticas de ética de IA
Integrar consideraciones éticas en el desarrollo de IA implica adaptar las prácticas tecnológicas actuales para garantizar que los sistemas se creen e implementen de manera responsable. Además de establecer principios de IA ética, a veces las organizaciones también crean principios de IA responsables, que pueden centrarse más en su industria específica y casos de uso técnicos.
Requisitos técnicos clave para sistemas de IA éticos
Detección y mitigación de sesgos: use diversos conjuntos de datos y métodos estadísticos para detectar y corregir sesgos en modelos de IA. Realice auditorías periódicas para supervisar el sesgo.
Transparencia y explicabilidad: desarrolle sistemas que los usuarios puedan comprender y verificar fácilmente, empleando métodos tales como puntuaciones de importancia de las funciones, árboles de decisiones y explicaciones independientes del modelo para mejorar la transparencia.
Privacidad y seguridad de datos: garantice que los datos de los sistemas de IA se gestionen de forma segura y cumpla con las leyes de privacidad. Los sistemas deben usar cifrado, anonimización y protocolos seguros para proteger la integridad de los datos.
Diseño sólido y confiable: los sistemas de IA deben ser duraderos y confiables bajo varias condiciones, incorporando pruebas y validación extensas para manejar escenarios inesperados de manera eficaz.
Supervisión y actualización continuas: mantenga una supervisión continua para evaluar el rendimiento de la IA y el compliance ético, actualizando los sistemas según sea necesario en función de nuevos datos o cambios en las condiciones.
Compromiso y feedback de las partes interesadas: involucre a las partes interesadas, tales como usuarios finales, éticos y expertos en el dominio, en los procesos de diseño y desarrollo para recopilar feedback y garantizar que el sistema se alinee con los requisitos éticos y operativos.
Capacitar a la organización en la ética de IA
La capacitación integral es crucial para garantizar que el personal comprenda la ética de IA y pueda trabajar de manera responsable con tecnologías de IA. La capacitación también sirve para mejorar la integridad y eficacia de las herramientas y soluciones de IA de las empresas.
Componentes clave de un plan de estudios de capacitación en IA eficaz
- Desarrollo integral de planes de estudios: use un plan de estudios de capacitación que aborde aspectos básicos de IA, consideraciones éticas, problemas de compliance y aplicaciones prácticas, adaptadas a diferentes roles organizacionales, desde personal técnico hasta gestión ejecutiva.
- Módulos de capacitación específicos por rol: brinde módulos de capacitación personalizados para las necesidades y responsabilidades únicas de varios departamentos. Por ejemplo, los desarrolladores pueden centrarse en las prácticas de codificación ética, mientras que los equipos de ventas y marketing aprenden sobre las implicaciones de la IA en las interacciones con los clientes.
- Capacitación y actualizaciones continuas: la IA está evolucionando rápidamente, por lo que es importante mantener los programas de capacitación actualizados con los últimos desarrollos y mejores prácticas.
- Experiencias de capacitación interactivas y prácticas: use estudios de casos, simulaciones y talleres para ilustrar aplicaciones del mundo real y desafíos éticos para dar soporte al conocimiento teórico con experiencia práctica.
- Evaluación y certificación: realice evaluaciones para medir la comprensión y competencia del personal en ética de IA y considere ofrecer certificación para reconocer y motivar la mejora continua.
- Mecanismos de feedback: establezca canales de feedback para que el personal contribuya al perfeccionamiento continuo de los programas de capacitación, garantizando que cumplan con las necesidades en evolución de la empresa.
Casos de uso de ética de IA para diferentes roles en la empresa
Todas las personas de una empresa que trabaja con aplicaciones potenciadas por IA, o con motores de respuesta de IA, deben ser cautelosas ante el riesgo de sesgo de la IA y trabajar de manera responsable. Algunos ejemplos de casos de uso de ética de IA para diferentes roles o departamentos en negocios corporativos son:
- Científicos de datos o ingenieros de machine learning: en estos roles, se recomienda incorporar métodos para la detección y mitigación de sesgos, garantizando la explicabilidad del modelo y mejorándolo. Esto implica técnicas tales como métricas de equidad y análisis contrafáctico.
- Gerentes de productos o analistas de negocio: las responsabilidades relacionadas con la ética de IA pueden variar desde evaluaciones de riesgo ético, priorizando el diseño centrado en el usuario y desarrollando estrategias de comunicación claras para explicar los sistemas de IA a los usuarios y las partes interesadas. Esto implica considerar posibles impactos sociales, necesidades de los usuarios y generar confianza a través de la transparencia.
- Departamento de legales y compliance: los casos de uso críticos son cumplir con las regulaciones relevantes (por ejemplo, las leyes de privacidad de datos), gestionar riesgos legales y reputacionales asociados con la IA, y desarrollar estrategias para mitigar las responsabilidades derivadas de sesgos algorítmicos o consecuencias no intencionadas
- Profesionales de RR. HH.: el departamento de RR. HH. debe trabajar con herramientas de selección de personal potenciadas por IA que estén libres de sesgos y cumplan con las leyes antidiscriminación. Las tareas implican auditar algoritmos, implementar sistemas human-in-the-loop, y brindar capacitación sobre prácticas de selección de personal con IA ética.
Autoridades sobre ética de IA
La ética de IA es compleja, le da forma la evolución de regulaciones, estándares legales, prácticas de la industria y avances tecnológicos. Las empresas deben mantenerse al día sobre los cambios en las políticas que puedan afectarlos —y deben trabajar con las partes interesadas relevantes para determinar qué políticas se aplican a ellas—. La siguiente lista no es exhaustiva, pero brinda una idea de la gama de recursos políticos que las empresas deben buscar en función de su industria y región.
Ejemplos de autoridades y recursos de ética de IA
Informe de la ACET Artificial Intelligence for Economic Policymaking: este estudio de investigación del African Center for Economic Transformation evalúa las consideraciones económicas y éticas de la IA con el fin de informar políticas económicas, financieras e industriales inclusivas y sostenibles en toda África.
AlgorithmWatch: una organización de derechos humanos que aboga y desarrolla herramientas para la creación y el uso de sistemas algorítmicos que protegen la democracia, el Estado de Derecho, la libertad, la autonomía, la justicia y la igualdad.
ASEAN Guide on AI Governance and Ethics: una guía práctica para que los estados miembros de la Association of Southeast Asian Nations diseñen, desarrollen e implementen tecnologías de IA de manera ética y productiva.
AI Watch de la Comisión Europea: el Centro Común de Investigación de la Comisión Europea brinda orientación para crear sistemas de IA fiables, incluyendo informes y dashboards específicos de cada país para ayudar a supervisar el desarrollo, asimilación e impacto de la IA en Europa
Informe de responsabilidad de IA de la NTIA: este informe de la National Telecommunications and Information Administration de los EE. UU. propone medidas voluntarias, regulatorias y de otro tipo para ayudar a garantizar sistemas de IA legales y confiables en ese país.
Principios de IA de la OCDE: este foro de países y grupos de interés trabaja para dar forma a una IA confiable. En 2019, facilitó los Principios de IA de la OCDE, el primer estándar intergubernamental sobre IA. Estos principios también sirvieron de base para los Principios de IA del G20.
Recomendación sobre la ética de la inteligencia artificial de la UNESCO: el marco de recomendación de esta agencia de las Naciones Unidas fue adoptado por 193 estados miembros después de un proceso de consulta global de dos años con expertos y partes interesadas.
Conclusión
En conclusión, el desarrollo e implementación de IA ética requieren un enfoque multifacético. Como empresa, se recomienda establecer principios éticos claros, integrarlos en los procesos de desarrollo de IA y garantizar el compliance continuo a través de programas sólidos de gobernanza y capacitación. Priorizando valores centrados en las personas, tales como equidad, transparencia y responsabilidad, las empresas pueden aprovechar el poder de la IA de forma responsable, impulsando innovación mientras mitigan los riesgos potenciales y garantizan que estas tecnologías beneficien a la sociedad en su conjunto.
Recursos de SAP
Más casos de uso y orientación sobre ética de IA
Obtenga orientación detallada para implementar prácticas de IA ética en el SAP AI Ethics Handbook.