flex-height
text-black

Imagen de ingenieros y científicos trabajando en un prototipo de exoesqueleto biónico

¿Qué es la ética de IA?

La ética de IA se refiere a los principios que rigen el comportamiento de la IA en términos de valores humanos. La ética de IA ayuda a garantizar que la IA se desarrolle y use de maneras que sean beneficiosas para la sociedad. Abarca una amplia gama de consideraciones, como equidad, transparencia, rendición de cuentas, privacidad, seguridad y posibles repercusiones sociales.

default

{}

default

{}

primary

default

{}

secondary

Introducción a la ética de IA

Imagine un sistema de IA que proyecte la probabilidad de un comportamiento criminal futuro y que los jueces usen para determinar la duración de las sentencias. ¿Qué sucede si este sistema se dirige de forma desproporcionada a determinados grupos demográficos?

La ética de IA es una fuerza para el bien que ayuda a mitigar sesgos injustos, elimina barreras a la accesibilidad y aumenta la creatividad, entre muchos otros beneficios. A medida que las organizaciones confían cada vez más en la IA para tomar decisiones que impacten en las vidas humanas, es fundamental que consideren las complejas implicaciones éticas porque el uso indebido de la IA puede causar daño a las personas y a la sociedad —y a los resultados finales y la reputación de las empresas—.

En este artículo, exploraremos:

Ejemplos de principios de IA ética

El bienestar de las personas está en el centro de cualquier discusión sobre la ética de IA. Si bien los sistemas de IA se pueden diseñar para priorizar la moral y la ética, los humanos son, en última instancia, responsables de garantizar el diseño y el uso éticos —e intervenir cuando sea necesario—.

No hay un único conjunto universalmente acordado de principios éticos de IA. Muchas organizaciones y agencias gubernamentales consultan con expertos en ética, leyes e IA para crear sus principios rectores. Estos principios abordan comúnmente:

Términos y definiciones de ética de IA

Como una intersección de ética y alta tecnología, las conversaciones sobre la IA ética a menudo usan vocabulario de ambos campos. Comprender este vocabulario es importante para poder discutir la ética de IA:

Ética de IA: un conjunto de valores, principios y técnicas que emplean estándares de lo correcto e incorrecto ampliamente aceptados para guiar la conducta moral en el desarrollo, implementación, uso y venta de tecnologías de IA.

Modelo de IA: un marco matemático creado por personas y entrenado en datos que permite a los sistemas de IA realizar ciertas tareas identificando patrones, tomando decisiones y proyectando resultados. Los usos comunes incluyen el reconocimiento de imágenes y la traducción de idiomas, entre muchos otros.

Sistema de IA: una estructura compleja de algoritmos y modelos diseñados para imitar el razonamiento humano y realizar tareas de forma autónoma.

Agencia: la capacidad de las personas para actuar de forma independiente y tomar decisiones libres.

Sesgo: una inclinación o prejuicio a favor o en contra de una persona o grupo, especialmente de una manera considerada injusta. Los sesgos en los datos de entrenamiento —tales como la representación insuficiente o excesiva de datos pertenecientes a un grupo determinado— pueden hacer que la IA actúe de manera sesgada.

Explicabilidad: la capacidad de responder a la pregunta “¿Qué hizo la máquina para alcanzar su resultado?” Explicabilidad se refiere al contexto tecnológico del sistema de IA, por ejemplo su mecánica, reglas y algoritmos, y datos de entrenamiento.

Equidad: trato o conducta imparcial y justa sin favoritismo o discriminación injustos.

Human-in-the-loop: la capacidad de los seres humanos para intervenir en cada ciclo de decisión de un sistema de IA.

Interpretabilidad: la capacidad de las personas de comprender el contexto de la vida real y el impacto de los resultados de un sistema de IA, como cuando la IA se usa para ayudar a tomar una decisión sobre la aprobación o el rechazo de una solicitud de préstamo.

Modelo de lenguaje grande (LLM): un tipo de machine learning que se usa a menudo en tareas de reconocimiento y generación de texto.

Machine learning: un subconjunto de IA que brinda a los sistemas la capacidad de aprender automáticamente, mejorar a partir de la experiencia y adaptarse a nuevos datos sin ser programado explícitamente para hacerlo.

Normativa: un contexto clave de ética práctica que se ocupa de lo que las personas e instituciones “deberían” hacer en situaciones particulares.

Transparencia: en relación con la explicabilidad, la transparencia es la capacidad de justificar cómo y por qué se desarrolla, implementa y usa un sistema de IA, y de hacer que esa información sea visible y comprensible para las personas.

Cómo implementar principios para la ética de IA

Para las empresas, usar la IA éticamente es más que simplemente adoptar principios éticos; estos principios deben integrarse en todos los procesos de IA técnicos y operativos. Si bien integrar la ética puede parecer engorroso para las empresas que adoptan rápidamente IA, los casos reales de daño causados por problemas en los diseños y el uso de modelos de IA muestran que descuidar la ética adecuada puede ser riesgoso y costoso.

¿Quién es responsable de la ética de IA?

La respuesta breve: todos los que participan en la IA, incluidas las empresas, gobiernos, consumidores y ciudadanos.

Los diferentes roles de las diferentes personas en la ética de IA

Qué necesitan las partes interesadas humanas para comprender la infografía

El rol de los líderes de negocio en la ética de IA

Muchas empresas establecen comités dirigidos por sus líderes sénior para dar forma a sus políticas de gobernanza de IA. Por ejemplo, en SAP formamos un panel asesor y un comité directivo de ética de IA, compuesto por expertos en ética y tecnología, para integrar nuestros principios de IA ética en todos nuestros productos y operaciones. Estos principios priorizan:

Formar un comité directivo de ética de IA

Establecer un comité directivo es vital para gestionar el enfoque de una organización respecto a la ética de IA y brinda responsabilidad y supervisión de alto nivel. Este comité garantiza que las consideraciones éticas se integren en el desarrollo e implementación de IA.

Mejores prácticas para formar un comité directivo de ética de IA

Crear una política de ética de IA

El desarrollo de una política de ética de IA es esencial para guiar las iniciativas de IA dentro de una empresa. El comité directivo es crítico en este proceso, usando su diverso expertise para garantizar que la política se adhiera a las leyes, estándares y principios éticos más amplios.

Ejemplo de enfoque para crear una política de ética de IA

Diagrama de clasificación de riesgos y flujo de proceso de evaluación

Establecer un proceso de evaluación de compliance

Desarrollar procesos efectivos de evaluación de compliance es esencial para garantizar que las implementaciones de IA se adhieran a las políticas y regulaciones de ética de IA de la empresa. Estos procesos ayudan a generar confianza con los usuarios y reguladores y sirven para mitigar riesgos y mantener prácticas éticas en todos los proyectos de IA.

Procesos típicos de evaluación de compliance

Implementación técnica de prácticas de ética de IA

Integrar consideraciones éticas en el desarrollo de IA implica adaptar las prácticas tecnológicas actuales para garantizar que los sistemas se creen e implementen de manera responsable. Además de establecer principios de IA ética, a veces las organizaciones también crean principios de IA responsables, que pueden centrarse más en su industria específica y casos de uso técnicos.

Requisitos técnicos clave para sistemas de IA éticos

Detección y mitigación de sesgos: use diversos conjuntos de datos y métodos estadísticos para detectar y corregir sesgos en modelos de IA. Realice auditorías periódicas para supervisar el sesgo.

Transparencia y explicabilidad: desarrolle sistemas que los usuarios puedan comprender y verificar fácilmente, empleando métodos tales como puntuaciones de importancia de las funciones, árboles de decisiones y explicaciones independientes del modelo para mejorar la transparencia.

Privacidad y seguridad de datos: garantice que los datos de los sistemas de IA se gestionen de forma segura y cumpla con las leyes de privacidad. Los sistemas deben usar cifrado, anonimización y protocolos seguros para proteger la integridad de los datos.

Diseño sólido y confiable: los sistemas de IA deben ser duraderos y confiables bajo varias condiciones, incorporando pruebas y validación extensas para manejar escenarios inesperados de manera eficaz.

Supervisión y actualización continuas: mantenga una supervisión continua para evaluar el rendimiento de la IA y el compliance ético, actualizando los sistemas según sea necesario en función de nuevos datos o cambios en las condiciones.

Compromiso y feedback de las partes interesadas: involucre a las partes interesadas, tales como usuarios finales, éticos y expertos en el dominio, en los procesos de diseño y desarrollo para recopilar feedback y garantizar que el sistema se alinee con los requisitos éticos y operativos.

Capacitar a la organización en la ética de IA

La capacitación integral es crucial para garantizar que el personal comprenda la ética de IA y pueda trabajar de manera responsable con tecnologías de IA. La capacitación también sirve para mejorar la integridad y eficacia de las herramientas y soluciones de IA de las empresas.

Componentes clave de un plan de estudios de capacitación en IA eficaz

Casos de uso de ética de IA para diferentes roles en la empresa

Todas las personas de una empresa que trabaja con aplicaciones potenciadas por IA, o con motores de respuesta de IA, deben ser cautelosas ante el riesgo de sesgo de la IA y trabajar de manera responsable. Algunos ejemplos de casos de uso de ética de IA para diferentes roles o departamentos en negocios corporativos son:

Autoridades sobre ética de IA

La ética de IA es compleja, le da forma la evolución de regulaciones, estándares legales, prácticas de la industria y avances tecnológicos. Las empresas deben mantenerse al día sobre los cambios en las políticas que puedan afectarlos —y deben trabajar con las partes interesadas relevantes para determinar qué políticas se aplican a ellas—. La siguiente lista no es exhaustiva, pero brinda una idea de la gama de recursos políticos que las empresas deben buscar en función de su industria y región.

Ejemplos de autoridades y recursos de ética de IA

Informe de la ACET Artificial Intelligence for Economic Policymaking: este estudio de investigación del African Center for Economic Transformation evalúa las consideraciones económicas y éticas de la IA con el fin de informar políticas económicas, financieras e industriales inclusivas y sostenibles en toda África.

AlgorithmWatch: una organización de derechos humanos que aboga y desarrolla herramientas para la creación y el uso de sistemas algorítmicos que protegen la democracia, el Estado de Derecho, la libertad, la autonomía, la justicia y la igualdad.

ASEAN Guide on AI Governance and Ethics: una guía práctica para que los estados miembros de la Association of Southeast Asian Nations diseñen, desarrollen e implementen tecnologías de IA de manera ética y productiva.

AI Watch de la Comisión Europea: el Centro Común de Investigación de la Comisión Europea brinda orientación para crear sistemas de IA fiables, incluyendo informes y dashboards específicos de cada país para ayudar a supervisar el desarrollo, asimilación e impacto de la IA en Europa

Informe de responsabilidad de IA de la NTIA: este informe de la National Telecommunications and Information Administration de los EE. UU. propone medidas voluntarias, regulatorias y de otro tipo para ayudar a garantizar sistemas de IA legales y confiables en ese país.

Principios de IA de la OCDE: este foro de países y grupos de interés trabaja para dar forma a una IA confiable. En 2019, facilitó los Principios de IA de la OCDE, el primer estándar intergubernamental sobre IA. Estos principios también sirvieron de base para los Principios de IA del G20.

Recomendación sobre la ética de la inteligencia artificial de la UNESCO: el marco de recomendación de esta agencia de las Naciones Unidas fue adoptado por 193 estados miembros después de un proceso de consulta global de dos años con expertos y partes interesadas.

Conclusión

En conclusión, el desarrollo e implementación de IA ética requieren un enfoque multifacético. Como empresa, se recomienda establecer principios éticos claros, integrarlos en los procesos de desarrollo de IA y garantizar el compliance continuo a través de programas sólidos de gobernanza y capacitación. Priorizando valores centrados en las personas, tales como equidad, transparencia y responsabilidad, las empresas pueden aprovechar el poder de la IA de forma responsable, impulsando innovación mientras mitigan los riesgos potenciales y garantizan que estas tecnologías beneficien a la sociedad en su conjunto.

Logo de SAP

Recursos de SAP

Más casos de uso y orientación sobre ética de IA

Obtenga orientación detallada para implementar prácticas de IA ética en el SAP AI Ethics Handbook.

Ir al manual

Lea más