O que é a ética da IA?
A ética da IA refere-se aos princípios que regem o comportamento da IA em termos de valores humanos. A ética da IA ajuda a garantir que a IA seja desenvolvida e utilizada de formas benéficas para a sociedade. Abrange uma vasta gama de considerações, incluindo equidade, transparência, responsabilidade, privacidade, segurança e os potenciais impactos sociais.
default
{}
default
{}
primary
default
{}
secondary
Introdução à ética da IA
A ética da IA é uma força para o bem que ajuda a mitigar preconceitos injustos, remove barreiras à acessibilidade e aumenta a criatividade, entre muitos outros benefícios. À medida que as organizações dependem cada vez mais da IA para tomar decisões que afetam vidas humanas, é fundamental que considerem as complexas implicações éticas, pois o uso indevido da IA pode causar danos a indivíduos e à sociedade — bem como aos resultados financeiros e à reputação das empresas.
Neste artigo, vamos explorar:
- Princípios, termos e definições comuns de ética em IA
- Criar princípios éticos de IA para uma organização
- Quem é responsável pela ética da IA
- Implementação de formação em ética da IA, governação e processos técnicos
- Casos de uso e implementações éticas de IA
- Algumas das principais autoridades em ética da IA
Exemplos de princípios éticos de IA
O bem-estar das pessoas está no centro de qualquer discussão sobre a ética da IA. Embora os sistemas de IA possam ser concebidos para priorizar a moralidade e a ética, são, em última análise, as pessoas que têm a responsabilidade de garantir um design e uma utilização éticos—e de intervir quando necessário.
Não existe um conjunto único e universalmente aceite de princípios éticos para a IA. Muitas organizações e entidades governamentais consultam especialistas em ética, direito e IA para criar os seus princípios orientadores. Estes princípios geralmente abordam:
- Bem-estar e dignidade humana: Os sistemas de IA devem sempre priorizar e garantir o bem-estar, a segurança e a dignidade das pessoas, não substituindo os seres humanos nem comprometendo o bem-estar humano
- Supervisão humana: A IA necessita de monitorização humana em todas as fases do desenvolvimento e utilização—por vezes designada como “um humano no circuito”—para garantir que a responsabilidade ética final permanece com um ser humano
- Abordar o preconceito e a discriminação: Os processos de design devem priorizar a justiça, a igualdade e a representatividade para mitigar o preconceito e a discriminação
- Transparência e explicabilidade: A forma como os modelos de IA tomam decisões específicas e produzem resultados específicos deve ser transparente e explicada em linguagem clara
- Respeitar a privacidade e proteção de dados: Os sistemas de IA devem cumprir os mais rigorosos padrões de privacidade e proteção de dados, utilizando métodos robustos de cibersegurança para evitar violações de dados e acessos não autorizados
- Promover a inclusão e a diversidade: As tecnologias de IA devem refletir e respeitar a vasta variedade de identidades e experiências humanas
- Sociedade e economias: A IA deve contribuir para o progresso social e a prosperidade económica de todas as pessoas, sem promover desigualdade ou práticas injustas
- Aumentar as competências e a literacia digitais: As tecnologias de IA devem esforçar-se por ser acessíveis e compreensíveis para todas as pessoas, independentemente das suas competências digitais
- A saúde das empresas: As tecnologias empresariais de IA devem acelerar processos, maximizar a eficiência e promover o crescimento
Termos e definições de ética da IA
Como interseção entre a ética e a alta tecnologia, as conversas sobre IA ética utilizam frequentemente vocabulário de ambos os campos. Compreender este vocabulário é importante para poder discutir a ética da IA:
-
IA: A capacidade de uma máquina para realizar funções cognitivas que associamos à mente humana, como perceber, raciocinar, aprender e resolver problemas. Existem dois tipos principais de sistemas de IA, e alguns sistemas são uma combinação de ambos:
- IA baseada em regras, também chamada de IA especialista, comporta-se de acordo com um conjunto de regras totalmente definidas criadas por especialistas humanos—por exemplo, muitas plataformas de comércio eletrónico utilizam IA baseada em regras para fornecer recomendações de produtos
- IA baseada em aprendizagem resolve problemas e adapta a sua funcionalidade de forma autónoma, com base na sua configuração inicial concebida por humanos e no conjunto de dados de treino—ferramentas de IA generativa são exemplos de IA baseada em aprendizagem
Ética da IA: Um conjunto de valores, princípios e técnicas que utilizam normas amplamente aceites de certo e errado para orientar a conduta moral no desenvolvimento, implementação, utilização e venda de tecnologias de IA.
Modelo de IA: Uma estrutura matemática criada por pessoas e treinada com dados que permite aos sistemas de IA realizar determinadas tarefas, identificando padrões, tomando decisões e prevendo resultados. As utilizações comuns incluem o reconhecimento de imagens e a tradução de línguas, entre muitas outras.
Sistema de IA: Uma estrutura complexa de algoritmos e modelos concebida para imitar o raciocínio humano e executar tarefas de forma autónoma.
Agência: A capacidade dos indivíduos de agir de forma independente e de tomar decisões livres.
Tendência: Uma inclinação ou preconceito a favor ou contra uma pessoa ou grupo, especialmente de uma forma considerada injusta. Tendências nos dados de treino—como a sub-representação ou sobre-representação de dados relativos a determinado grupo—podem levar a que a IA atue de forma tendenciosa.
Explicabilidade: A capacidade de responder à pergunta: “O que fez a máquina para chegar ao seu resultado?” A explicabilidade refere-se ao contexto tecnológico do sistema de IA, como a sua mecânica, regras e algoritmos, e os dados de treino.
Equidade: Tratamento ou comportamento imparcial e justo, sem favoritismo ou discriminação injusta.
Humano no circuito: A capacidade de seres humanos intervirem em cada ciclo de decisão de um sistema de IA.
Interpretabilidade: A capacidade de as pessoas compreenderem o contexto real e o impacto do resultado de um sistema de IA, como, por exemplo, quando a IA é utilizada para ajudar a tomar uma decisão sobre aprovar ou rejeitar um pedido de empréstimo.
Modelo de linguagem de grande escala (LLM): Um tipo de aprendizagem automática frequentemente utilizado em tarefas de reconhecimento e geração de texto.
Aprendizagem automática: Um subconjunto da IA que proporciona aos sistemas a capacidade de aprender automaticamente, melhorar com a experiência e adaptar-se a novos dados sem serem explicitamente programados para tal.
Normativo: Um contexto fundamental da ética prática que se ocupa do que as pessoas e instituições “devem” ou “deveriam” fazer em situações específicas.
Transparência: Relacionada com a explicabilidade, a transparência é a capacidade de justificar como e porquê um sistema de IA é desenvolvido, implementado e utilizado, e de tornar essa informação visível e compreensível para as pessoas.
Como implementar princípios para a ética da IA
Para as organizações, utilizar a IA de forma ética vai além de adotar princípios éticos; estes princípios devem ser integrados em todos os processos técnicos e operacionais de IA. Embora integrar a ética possa parecer complicado para organizações que adotam rapidamente a IA, casos reais de danos causados por problemas no design e na utilização de modelos de IA mostram que negligenciar a ética adequada pode ser arriscado e dispendioso.
Quem é responsável pela ética da IA?
A resposta curta: todas as pessoas envolvidas na IA, incluindo empresas, governos, consumidores e cidadãos.
Os diferentes papéis das diferentes pessoas na ética da IA
- Desenvolvedores e investigadores desempenham um papel crucial na criação de sistemas de IA que priorizam a agência e supervisão humanas, abordam o preconceito e a discriminação, e são transparentes e explicáveis.
- Os decisores políticos e reguladores estabelecem leis e regulamentos para reger a utilização ética da IA e proteger os direitos das pessoas.
- Líderes empresariais e industriais garantem que as suas organizações adotem princípios éticos de IA, de forma a utilizarem a IA de maneiras que contribuam positivamente para a sociedade.
- As organizações da sociedade civil defendem o uso ético da IA, desempenham um papel na supervisão e prestam apoio às comunidades afetadas.
- As instituições académicas contribuem através da educação, investigação e desenvolvimento de diretrizes éticas.
- Utilizadores finais e utilizadores afetados, como consumidores e cidadãos, têm interesse em garantir que os sistemas de IA sejam explicáveis, interpretáveis, justos, transparentes e benéficos para a sociedade.
O papel dos líderes empresariais na ética da IA
Muitas empresas criam comités liderados pelos seus principais dirigentes para definir as suas políticas de governação de IA. Por exemplo, na SAP, formámos um painel consultivo e um comité de direção de ética em IA, composto por especialistas em ética e tecnologia, para integrar os nossos princípios éticos de IA em todos os nossos produtos e operações. Estes princípios dão prioridade a:
- Proporcionalidade e não causar danos
- Segurança e proteção
- Justiça e não-discriminação
- Sustentabilidade
- Direito à privacidade e proteção de dados
- Supervisão e determinação humanas
- Transparência e fundamentação
- Responsabilidade e responsabilização
- Consciência e literacia técnica
- Regulamentação e colaboração adaptáveis e com vários stakeholders
Formação de um comité de orientação para a ética da IA
Estabelecer um comité de direção é fundamental para gerir a abordagem de uma organização à ética da IA e proporciona responsabilidade e supervisão ao mais alto nível. Este comité assegura que as considerações éticas são integradas no desenvolvimento e implementação da IA.
Melhores práticas para formar um comité de direção de ética em IA
- Composição e especialização: Inclua uma mistura diversificada de partes interessadas com conhecimentos em IA, direito e ética. Consultores externos podem oferecer perspetivas imparciais.
- Definir o propósito e o âmbito: Defina claramente a missão e os objetivos do comité, com foco na conceção, implementação e operação ética da IA. Isto deve estar alinhado com os valores da empresa, equidade, transparência e privacidade.
- Definir funções e responsabilidades: Defina funções específicas para os membros, como desenvolver políticas de ética em IA, aconselhar sobre questões éticas em projetos de IA e garantir o cumprimento das regulamentações.
- Definição de objetivos: Defina metas claras e mensuráveis, como realizar uma auditoria anual de ética em projetos de IA e oferecer formação trimestral em IA ética.
- Criação de procedimentos: Estabeleça procedimentos operacionais, incluindo horários de reuniões, normas de documentação e protocolos de comunicação para manter a transparência.
- Educação contínua e adaptação: Mantenha-se a par dos novos desenvolvimentos na tecnologia de IA, normas éticas e regulamentos através de formação regular e conferências.
Criar uma política de ética para a IA
Desenvolver uma política de ética em IA é essencial para orientar as iniciativas de IA dentro de uma organização. O comité de direção é fundamental neste processo, utilizando a sua diversidade de competências para garantir que a política cumpre as leis, normas e princípios éticos mais amplos.
Exemplo de abordagem para criar uma política de ética em IA
-
Elaboração da política inicial: Comece por elaborar uma política que reflita os valores fundamentais da organização, os requisitos legais e as melhores práticas. Este rascunho inicial servirá de base para um aperfeiçoamento posterior.
-
Consulta e contributos: Envolva as partes interessadas internas e externas, incluindo desenvolvedores de IA, líderes empresariais e especialistas em ética, para tornar a política abrangente e representativa de múltiplas perspetivas.
-
Integração de perspetivas interdisciplinares: Utilize os diversos percursos dos membros do comité para incorporar conhecimentos de tecnologia, ética, direito e negócios, de forma a abordar os aspetos complexos da ética da IA.
-
Definir casos de uso de alto risco e de linha vermelha: Para garantir clareza, o comité deve especificar quais aplicações de IA representam riscos significativos ou são consideradas antiéticas e, por isso, proibidas. O Comité de Direção SAP, por exemplo, categoriza estes como:
- Alto risco: Esta categoria inclui aplicações que podem ser prejudiciais de qualquer forma, e abrange aplicações relacionadas com a aplicação da lei, migração e processos democráticos—bem como aquelas que envolvem dados pessoais, tomada de decisões automatizada ou que tenham impacto no bem-estar social. Estes devem ser submetidos a uma avaliação rigorosa pelo comité antes do desenvolvimento, implementação ou venda.
- Linha vermelha: Aplicações que permitem a vigilância humana, a discriminação, a desanonimização de dados que conduzam à identificação de indivíduos ou grupos, ou aquelas que manipulam a opinião pública ou minam os debates democráticos estão proibidas. A SAP considera estes usos altamente antiéticos e proíbe o seu desenvolvimento, implementação e venda.
-
Revisão e atualizações: Rever e atualizar continuamente a política com base no feedback, garantindo que se mantenha relevante e prática para o mundo real.
-
Finalização e aprovação: Submeta a política concluída para aprovação final pelos decisores, como o conselho de administração, acompanhada de uma forte recomendação do comité.
-
Implementação e acompanhamento contínuo: O comité deve monitorizar a implementação da política e atualizá-la periodicamente para refletir novos desenvolvimentos tecnológicos e éticos.
Estabelecimento de um processo de revisão de conformidade
Desenvolver processos eficazes de revisão de conformidade é essencial para garantir que as implementações de IA estejam em conformidade com as políticas e regulamentos de ética em IA da organização. Estes processos ajudam a construir confiança junto dos utilizadores e reguladores, além de servirem para mitigar riscos e manter práticas éticas em todos os projetos de IA.
Processos típicos de revisão de conformidade
- Desenvolver um quadro de avaliação padronizado: Formular um quadro abrangente que defina procedimentos para avaliar projetos de IA de acordo com diretrizes éticas, normas legais e requisitos operacionais.
- Classificação de risco: Classifique os projetos de IA de acordo com os seus riscos éticos e regulatórios. Projetos de alto risco, como aqueles que lidam com dados pessoais sensíveis ou que têm impactos significativos na tomada de decisões, exigem um elevado grau de escrutínio.
- Auditorias e avaliações regulares: Realize auditorias regulares para verificar a conformidade contínua, envolvendo tanto verificações automáticas como revisões manuais por equipas interdisciplinares.
- Envolvimento das partes interessadas: Envolva um grupo diversificado de partes interessadas no processo de revisão, incluindo especialistas em ética, juristas, cientistas de dados e utilizadores finais, para identificar potenciais riscos e dilemas éticos.
- Documentação e transparência: Mantenha registos detalhados de todas as atividades de conformidade, garantindo que estão acessíveis e claros tanto para auditorias internas como externas
- Mecanismos de feedback e escalonamento: Implementar procedimentos claros para reportar e resolver preocupações éticas e questões de conformidade
Implementação técnica de práticas éticas de IA
Integrar considerações éticas no desenvolvimento de IA envolve adaptar as práticas tecnológicas atuais para garantir que os sistemas sejam construídos e implementados de forma responsável. Para além de estabelecer princípios éticos de IA, as organizações por vezes também criam princípios de IA responsável, que podem estar mais focados no seu setor específico e em casos de utilização técnica.
Requisitos técnicos essenciais para sistemas de IA éticos
Deteção e mitigação de enviesamentos: Utilize conjuntos de dados diversificados e métodos estatísticos para detetar e corrigir enviesamentos em modelos de IA. Realize auditorias regulares para monitorizar o viés.
Transparência e explicabilidade: Desenvolver sistemas que os utilizadores possam compreender e verificar facilmente, utilizando métodos como pontuações de importância das características, árvores de decisão e explicações independentes do modelo para melhorar a transparência.
Privacidade e segurança dos dados: Assegure que os dados nos sistemas de IA são geridos de forma segura e cumprem as leis de privacidade. Os sistemas devem utilizar encriptação, anonimização e protocolos seguros para proteger a integridade dos dados.
Design robusto e fiável: Os sistemas de IA devem ser duradouros e fiáveis em várias condições, incorporando testes e validações extensivos para lidar eficazmente com cenários inesperados.
Monitorização e atualização contínuas: Mantenha uma monitorização constante para avaliar o desempenho da IA e a conformidade ética, atualizando os sistemas conforme necessário com base em novos dados ou alterações nas condições.
Envolvimento e feedback das partes interessadas: Envolva as partes interessadas, como utilizadores finais, especialistas em ética e especialistas na área, nos processos de conceção e desenvolvimento para recolher feedback e garantir que o sistema está alinhado com os requisitos éticos e operacionais.
Formação da organização na ética da IA
Formação abrangente é fundamental para garantir que as pessoas colaboradoras compreendam a ética da IA e possam trabalhar de forma responsável com tecnologias de IA. A formação também serve para reforçar a integridade e a eficácia das ferramentas e soluções de IA das organizações.
Componentes-chave de um currículo eficaz de formação em IA
- Desenvolvimento abrangente de currículo: Utilize um currículo de formação que aborde os fundamentos da IA, considerações éticas, questões de conformidade e aplicações práticas, adaptado aos diferentes papéis organizacionais, desde o pessoal técnico até à gestão executiva.
- Módulos de formação específicos para funções: Disponibilize módulos de formação personalizados para as necessidades e responsabilidades únicas de vários departamentos. Por exemplo, os programadores podem concentrar-se em práticas de codificação ética, enquanto as equipas de vendas e marketing aprendem sobre as implicações da IA nas interações com os clientes.
- Aprendizagem contínua e atualizações: A IA está a evoluir rapidamente, por isso é importante manter os programas de formação atualizados com os mais recentes desenvolvimentos e melhores práticas.
- Experiências de aprendizagem interativas e práticas: Utilize estudos de caso, simulações e workshops para ilustrar aplicações reais e desafios éticos, apoiando o conhecimento teórico com experiência prática.
- Avaliação e certificação: Realize avaliações para medir a compreensão e a proficiência dos colaboradores na ética da IA e considere oferecer certificação para reconhecer e motivar a melhoria contínua.
- Mecanismos de feedback: Crie canais de feedback para que os colaboradores possam contribuir para a melhoria contínua dos programas de formação, garantindo que estes respondam às necessidades em evolução da organização.
Casos de uso de ética em IA para diferentes funções na organização
Todas as pessoas numa organização que trabalham com aplicações alimentadas por IA, ou com motores de resposta baseados em IA, devem estar atentas ao risco de enviesamento da IA e atuar de forma responsável. Exemplos de casos de uso de ética em IA para diferentes funções ou departamentos em empresas corporativas são:
- Cientistas de dados ou engenheiros de aprendizagem automática: Nestes cargos, recomenda-se incorporar métodos para deteção e mitigação de enviesamentos, garantir a explicabilidade do modelo e melhorar o modelo. Isto envolve técnicas como métricas de equidade e análise contrafactual.
- Gestores de produto ou analistas de negócio: As responsabilidades relacionadas com a ética da IA podem variar desde avaliações de risco ético, priorização do design centrado no utilizador e desenvolvimento de estratégias de comunicação claras para explicar os sistemas de IA a utilizadores e partes interessadas. Isto envolve considerar os potenciais impactos sociais, as necessidades dos utilizadores e construir confiança através da transparência.
- Departamento Jurídico e de Conformidade: Os casos de uso críticos são a conformidade com os regulamentos relevantes (por exemplo, leis de privacidade de dados), a gestão de riscos legais e reputacionais associados à IA, e o desenvolvimento de estratégias para mitigar responsabilidades decorrentes de enviesamento algorítmico ou consequências não intencionais
- Profissionais de RH: O departamento de RH deve trabalhar com ferramentas de recrutamento baseadas em IA que sejam isentas de preconceitos e cumpram as leis anti-discriminação. As tarefas envolvem auditar algoritmos, implementar sistemas com intervenção humana e fornecer formação sobre práticas éticas de recrutamento com IA.
Autoridades em ética da IA
A ética da IA é complexa, moldada por regulamentos em evolução, normas legais, práticas do setor e avanços tecnológicos. As organizações devem manter-se atualizadas sobre as alterações de políticas que possam afetá-las — e devem trabalhar com as partes interessadas relevantes para determinar quais políticas se aplicam a si. A lista abaixo não é exaustiva, mas oferece uma ideia da variedade de recursos de políticas que as organizações devem procurar, de acordo com o seu setor e região.
Exemplos de autoridades e recursos em ética da IA
Relatório ACET Inteligência Artificial para a Formulação de Políticas Económicas: Este estudo de investigação do Centro Africano para a Transformação Económica avalia as considerações económicas e éticas da IA com o objetivo de informar políticas económicas, financeiras e industriais inclusivas e sustentáveis em toda a África.
AlgorithmWatch: Uma organização de direitos humanos que defende e desenvolve ferramentas para a criação e utilização de sistemas algorítmicos que protegem a democracia, o Estado de direito, a liberdade, a autonomia, a justiça e a igualdade.
Guia da ASEAN sobre Governação e Ética da IA: Um guia prático para os estados-membros da Associação das Nações do Sudeste Asiático para conceber, desenvolver e implementar tecnologias de IA de forma ética e produtiva.
AI Watch da Comissão Europeia: O Centro Comum de Investigação da Comissão Europeia fornece orientações para a criação de sistemas de IA fiáveis, incluindo relatórios específicos por país e painéis de controlo para ajudar a monitorizar o desenvolvimento, a adoção e o impacto da IA na Europa
Relatório de Responsabilização da IA da NTIA: Este relatório da Administração Nacional de Telecomunicações e Informação propõe medidas voluntárias, regulatórias e outras para ajudar a garantir sistemas de IA legais e de confiança nos Estados Unidos.
Princípios de IA da OCDE: Este fórum de países e grupos de partes interessadas trabalha para moldar uma IA de confiança. Em 2019, facilitou os Princípios de IA da OCDE, o primeiro padrão intergovernamental sobre IA. Estes princípios também serviram de base para os Princípios de IA do G20.
Recomendação da UNESCO sobre a Ética da Inteligência Artificial: O quadro de recomendações desta agência das Nações Unidas foi adotado por 193 Estados-membros após um processo de consulta global de dois anos com especialistas e partes interessadas.
Conclusão
Em conclusão, o desenvolvimento e a implementação ética da IA exigem uma abordagem multifacetada. Enquanto organização, é recomendável estabelecer princípios éticos claros, integrá-los nos processos de desenvolvimento de IA e garantir a conformidade contínua através de programas sólidos de governação e formação. Ao priorizar valores centrados nas pessoas, como a justiça, a transparência e a responsabilidade, as empresas podem aproveitar o poder da IA de forma responsável, impulsionando a inovação enquanto mitigam potenciais riscos e asseguram que estas tecnologias beneficiem a sociedade como um todo.
Recursos SAP
Mais casos de uso e orientações sobre ética da IA
Obtenha orientação detalhada para implementar práticas éticas de IA no Manual de Ética em IA da SAP.