flex-height
text-black

Engenheiros e cientistas trabalham num protótipo de exoesqueleto biónico

O que é a ética da IA?

A ética da IA refere-se aos princípios que regem o comportamento da IA em termos de valores humanos. A ética da IA ajuda a garantir que a IA seja desenvolvida e utilizada de formas benéficas para a sociedade. Abrange uma vasta gama de considerações, incluindo equidade, transparência, responsabilidade, privacidade, segurança e os potenciais impactos sociais.

default

{}

default

{}

primary

default

{}

secondary

Introdução à ética da IA

Imagine um sistema de IA que prevê a probabilidade de comportamentos criminais futuros e é utilizado por juízes para determinar a duração das sentenças. O que acontece se este sistema visar desproporcionalmente certos grupos demográficos?

A ética da IA é uma força para o bem que ajuda a mitigar preconceitos injustos, remove barreiras à acessibilidade e aumenta a criatividade, entre muitos outros benefícios. À medida que as organizações dependem cada vez mais da IA para tomar decisões que afetam vidas humanas, é fundamental que considerem as complexas implicações éticas, pois o uso indevido da IA pode causar danos a indivíduos e à sociedade — bem como aos resultados financeiros e à reputação das empresas.

Neste artigo, vamos explorar:

Exemplos de princípios éticos de IA

O bem-estar das pessoas está no centro de qualquer discussão sobre a ética da IA. Embora os sistemas de IA possam ser concebidos para priorizar a moralidade e a ética, são, em última análise, as pessoas que têm a responsabilidade de garantir um design e uma utilização éticos—e de intervir quando necessário.

Não existe um conjunto único e universalmente aceite de princípios éticos para a IA. Muitas organizações e entidades governamentais consultam especialistas em ética, direito e IA para criar os seus princípios orientadores. Estes princípios geralmente abordam:

Termos e definições de ética da IA

Como interseção entre a ética e a alta tecnologia, as conversas sobre IA ética utilizam frequentemente vocabulário de ambos os campos. Compreender este vocabulário é importante para poder discutir a ética da IA:

Ética da IA: Um conjunto de valores, princípios e técnicas que utilizam normas amplamente aceites de certo e errado para orientar a conduta moral no desenvolvimento, implementação, utilização e venda de tecnologias de IA.

Modelo de IA: Uma estrutura matemática criada por pessoas e treinada com dados que permite aos sistemas de IA realizar determinadas tarefas, identificando padrões, tomando decisões e prevendo resultados. As utilizações comuns incluem o reconhecimento de imagens e a tradução de línguas, entre muitas outras.

Sistema de IA: Uma estrutura complexa de algoritmos e modelos concebida para imitar o raciocínio humano e executar tarefas de forma autónoma.

Agência: A capacidade dos indivíduos de agir de forma independente e de tomar decisões livres.

Tendência: Uma inclinação ou preconceito a favor ou contra uma pessoa ou grupo, especialmente de uma forma considerada injusta. Tendências nos dados de treino—como a sub-representação ou sobre-representação de dados relativos a determinado grupo—podem levar a que a IA atue de forma tendenciosa.

Explicabilidade: A capacidade de responder à pergunta: “O que fez a máquina para chegar ao seu resultado?” A explicabilidade refere-se ao contexto tecnológico do sistema de IA, como a sua mecânica, regras e algoritmos, e os dados de treino.

Equidade: Tratamento ou comportamento imparcial e justo, sem favoritismo ou discriminação injusta.

Humano no circuito: A capacidade de seres humanos intervirem em cada ciclo de decisão de um sistema de IA.

Interpretabilidade: A capacidade de as pessoas compreenderem o contexto real e o impacto do resultado de um sistema de IA, como, por exemplo, quando a IA é utilizada para ajudar a tomar uma decisão sobre aprovar ou rejeitar um pedido de empréstimo.

Modelo de linguagem de grande escala (LLM): Um tipo de aprendizagem automática frequentemente utilizado em tarefas de reconhecimento e geração de texto.

Aprendizagem automática: Um subconjunto da IA que proporciona aos sistemas a capacidade de aprender automaticamente, melhorar com a experiência e adaptar-se a novos dados sem serem explicitamente programados para tal.

Normativo: Um contexto fundamental da ética prática que se ocupa do que as pessoas e instituições “devem” ou “deveriam” fazer em situações específicas.

Transparência: Relacionada com a explicabilidade, a transparência é a capacidade de justificar como e porquê um sistema de IA é desenvolvido, implementado e utilizado, e de tornar essa informação visível e compreensível para as pessoas.

Como implementar princípios para a ética da IA

Para as organizações, utilizar a IA de forma ética vai além de adotar princípios éticos; estes princípios devem ser integrados em todos os processos técnicos e operacionais de IA. Embora integrar a ética possa parecer complicado para organizações que adotam rapidamente a IA, casos reais de danos causados por problemas no design e na utilização de modelos de IA mostram que negligenciar a ética adequada pode ser arriscado e dispendioso.

Quem é responsável pela ética da IA?

A resposta curta: todas as pessoas envolvidas na IA, incluindo empresas, governos, consumidores e cidadãos.

Os diferentes papéis das diferentes pessoas na ética da IA

O que os intervenientes humanos precisam de compreender no infográfico

O papel dos líderes empresariais na ética da IA

Muitas empresas criam comités liderados pelos seus principais dirigentes para definir as suas políticas de governação de IA. Por exemplo, na SAP, formámos um painel consultivo e um comité de direção de ética em IA, composto por especialistas em ética e tecnologia, para integrar os nossos princípios éticos de IA em todos os nossos produtos e operações. Estes princípios dão prioridade a:

Formação de um comité de orientação para a ética da IA

Estabelecer um comité de direção é fundamental para gerir a abordagem de uma organização à ética da IA e proporciona responsabilidade e supervisão ao mais alto nível. Este comité assegura que as considerações éticas são integradas no desenvolvimento e implementação da IA.

Melhores práticas para formar um comité de direção de ética em IA

Criar uma política de ética para a IA

Desenvolver uma política de ética em IA é essencial para orientar as iniciativas de IA dentro de uma organização. O comité de direção é fundamental neste processo, utilizando a sua diversidade de competências para garantir que a política cumpre as leis, normas e princípios éticos mais amplos.

Exemplo de abordagem para criar uma política de ética em IA

Fluxograma de Classificação e Avaliação de Riscos

Estabelecimento de um processo de revisão de conformidade

Desenvolver processos eficazes de revisão de conformidade é essencial para garantir que as implementações de IA estejam em conformidade com as políticas e regulamentos de ética em IA da organização. Estes processos ajudam a construir confiança junto dos utilizadores e reguladores, além de servirem para mitigar riscos e manter práticas éticas em todos os projetos de IA.

Processos típicos de revisão de conformidade

Implementação técnica de práticas éticas de IA

Integrar considerações éticas no desenvolvimento de IA envolve adaptar as práticas tecnológicas atuais para garantir que os sistemas sejam construídos e implementados de forma responsável. Para além de estabelecer princípios éticos de IA, as organizações por vezes também criam princípios de IA responsável, que podem estar mais focados no seu setor específico e em casos de utilização técnica.

Requisitos técnicos essenciais para sistemas de IA éticos

Deteção e mitigação de enviesamentos: Utilize conjuntos de dados diversificados e métodos estatísticos para detetar e corrigir enviesamentos em modelos de IA. Realize auditorias regulares para monitorizar o viés.

Transparência e explicabilidade: Desenvolver sistemas que os utilizadores possam compreender e verificar facilmente, utilizando métodos como pontuações de importância das características, árvores de decisão e explicações independentes do modelo para melhorar a transparência.

Privacidade e segurança dos dados: Assegure que os dados nos sistemas de IA são geridos de forma segura e cumprem as leis de privacidade. Os sistemas devem utilizar encriptação, anonimização e protocolos seguros para proteger a integridade dos dados.

Design robusto e fiável: Os sistemas de IA devem ser duradouros e fiáveis em várias condições, incorporando testes e validações extensivos para lidar eficazmente com cenários inesperados.

Monitorização e atualização contínuas: Mantenha uma monitorização constante para avaliar o desempenho da IA e a conformidade ética, atualizando os sistemas conforme necessário com base em novos dados ou alterações nas condições.

Envolvimento e feedback das partes interessadas: Envolva as partes interessadas, como utilizadores finais, especialistas em ética e especialistas na área, nos processos de conceção e desenvolvimento para recolher feedback e garantir que o sistema está alinhado com os requisitos éticos e operacionais.

Formação da organização na ética da IA

Formação abrangente é fundamental para garantir que as pessoas colaboradoras compreendam a ética da IA e possam trabalhar de forma responsável com tecnologias de IA. A formação também serve para reforçar a integridade e a eficácia das ferramentas e soluções de IA das organizações.

Componentes-chave de um currículo eficaz de formação em IA

Casos de uso de ética em IA para diferentes funções na organização

Todas as pessoas numa organização que trabalham com aplicações alimentadas por IA, ou com motores de resposta baseados em IA, devem estar atentas ao risco de enviesamento da IA e atuar de forma responsável. Exemplos de casos de uso de ética em IA para diferentes funções ou departamentos em empresas corporativas são:

Autoridades em ética da IA

A ética da IA é complexa, moldada por regulamentos em evolução, normas legais, práticas do setor e avanços tecnológicos. As organizações devem manter-se atualizadas sobre as alterações de políticas que possam afetá-las — e devem trabalhar com as partes interessadas relevantes para determinar quais políticas se aplicam a si. A lista abaixo não é exaustiva, mas oferece uma ideia da variedade de recursos de políticas que as organizações devem procurar, de acordo com o seu setor e região.

Exemplos de autoridades e recursos em ética da IA

Relatório ACET Inteligência Artificial para a Formulação de Políticas Económicas: Este estudo de investigação do Centro Africano para a Transformação Económica avalia as considerações económicas e éticas da IA com o objetivo de informar políticas económicas, financeiras e industriais inclusivas e sustentáveis em toda a África.

AlgorithmWatch: Uma organização de direitos humanos que defende e desenvolve ferramentas para a criação e utilização de sistemas algorítmicos que protegem a democracia, o Estado de direito, a liberdade, a autonomia, a justiça e a igualdade.

Guia da ASEAN sobre Governação e Ética da IA: Um guia prático para os estados-membros da Associação das Nações do Sudeste Asiático para conceber, desenvolver e implementar tecnologias de IA de forma ética e produtiva.

AI Watch da Comissão Europeia: O Centro Comum de Investigação da Comissão Europeia fornece orientações para a criação de sistemas de IA fiáveis, incluindo relatórios específicos por país e painéis de controlo para ajudar a monitorizar o desenvolvimento, a adoção e o impacto da IA na Europa

Relatório de Responsabilização da IA da NTIA: Este relatório da Administração Nacional de Telecomunicações e Informação propõe medidas voluntárias, regulatórias e outras para ajudar a garantir sistemas de IA legais e de confiança nos Estados Unidos.

Princípios de IA da OCDE: Este fórum de países e grupos de partes interessadas trabalha para moldar uma IA de confiança. Em 2019, facilitou os Princípios de IA da OCDE, o primeiro padrão intergovernamental sobre IA. Estes princípios também serviram de base para os Princípios de IA do G20.

Recomendação da UNESCO sobre a Ética da Inteligência Artificial: O quadro de recomendações desta agência das Nações Unidas foi adotado por 193 Estados-membros após um processo de consulta global de dois anos com especialistas e partes interessadas.

Conclusão

Em conclusão, o desenvolvimento e a implementação ética da IA exigem uma abordagem multifacetada. Enquanto organização, é recomendável estabelecer princípios éticos claros, integrá-los nos processos de desenvolvimento de IA e garantir a conformidade contínua através de programas sólidos de governação e formação. Ao priorizar valores centrados nas pessoas, como a justiça, a transparência e a responsabilidade, as empresas podem aproveitar o poder da IA de forma responsável, impulsionando a inovação enquanto mitigam potenciais riscos e asseguram que estas tecnologias beneficiem a sociedade como um todo.

Logótipo da SAP

Recursos SAP

Mais casos de uso e orientações sobre ética da IA

Obtenha orientação detalhada para implementar práticas éticas de IA no Manual de Ética em IA da SAP.

Ir para o manual

Saiba mais