flex-height
text-black

Mulher olhando para vários ecrãs de computador e monitorizando o envolvimento do utilizador usando IA

O que é IA responsável?

IA Responsável refere-se ao desenvolvimento, implementação e uso de sistemas de inteligência artificial (IA) de maneiras que sejam éticas, transparentes e responsáveis. Visa garantir que as tecnologias de IA estejam alinhadas com os valores humanos, respeitem os direitos fundamentais e sejam concebidas para promover a justiça, a segurança e o bem-estar dos indivíduos e da sociedade.

default

{}

default

{}

primary

default

{}

secondary

Definição de IA Responsável

IA responsável é a prática de usar IA de uma forma que enfatiza a supervisão humana e o bem-estar social. Trata-se de garantir que os modelos de IA, conjuntos de dados e aplicações sejam desenvolvidos e implementados de forma ética e legal, sem causar danos intencionais ou perpetuar preconceitos. É importante porque o uso indevido de IA, ou o uso descuidado, pode causar danos aos utilizadores, pessoas afetadas, titulares de dados, sociedade e empresas.

O que é IA responsável vs. IA confiável vs. IA ética?

Os termos IA responsável, IA confiável e IA ética estão intimamente relacionados, mas existem algumas diferenças principais:

Devemos sempre ter em mente que, porque a IA não é humana, é incapaz de ter as características humanas de responsabilidade, confiabilidade ou ética. Portanto, é importante atribuir estes termos às pessoas que criam ou utilizam esta tecnologia, e não à própria tecnologia.

Como funciona a IA responsável

Existem aspetos humanos e tecnológicos para fazer a IA responsável funcionar:

Grupo de pessoas a trabalhar juntas numa sala de conferências

Estabelecer princípios de IA responsável formalizados é uma boa maneira de alinhar todos em uma organização a uma visão compartilhada de IA responsável. Mas estabelecer princípios é apenas um começo: a organização deve também implementar uma governança de IA eficaz, formação e processos técnicos para colocar os princípios em ação.

Os princípios de IA responsável variam entre organizações. Por exemplo, as empresas de serviços financeiros podem dar maior ênfase à justiça e à não discriminação, enquanto as empresas de redes sociais podem focar mais na transparência ou na privacidade. Aqui está um exemplo de princípios resumidos das diretrizes éticas da Comissão Europeia para criar sistemas de IA confiáveis:

Exemplo de princípios de IA responsável

Agência e supervisão humana: A IA deve aumentar a tomada de decisões humanas, defender os direitos humanos e ter mecanismos para supervisão humana.

Robustez técnica e segurança: Os sistemas de IA devem ser seguros, resilientes, seguros, precisos e fiáveis, com um plano de contingência para prevenir danos não intencionais.

Privacidade e governança de dados: Os sistemas devem respeitar totalmente a privacidade e regular a qualidade, privacidade e acesso legítimo aos dados.

Transparência: Os sistemas devem ser rastreáveis e transparentes. Devem ser claramente identificados como IA e as suas capacidades e limitações devem ser comunicadas de forma eficaz.

Diversidade, não discriminação e justiça: A IA deve evitar promover preconceitos, deve apoiar a diversidade, garantir acessibilidade igual e envolver as partes interessadas no processo de desenvolvimento.

Bem-estar social e ambiental: Os sistemas de IA devem beneficiar todos os seres humanos, incluindo as gerações futuras. Devem ser sustentáveis e ecologicamente corretos, e o seu impacto na sociedade deve ser cuidadosamente considerado.

Responsabilidade: Devem ser implementados mecanismos para garantir a responsabilidade e a prestação de contas dos sistemas de IA e dos seus resultados. A auditabilidade e acessibilidade devem ser asseguradas.

Práticas de desenvolvimento de IA responsável

Os desenvolvedores e investigadores que criam ou implementam sistemas de IA devem seguir melhores práticas técnicas de IA confiável e avaliar continuamente a adesão dos seus sistemas aos princípios de IA responsável das suas organizações. Aqui estão algumas práticas comuns:

Avaliação dos dados de treino do modelo

Ter conjuntos de dados diversificados ajuda a representar vários grupos, melhorando a robustez e a inclusividade do sistema de IA. Compreender os dados que são usados para treinar modelos é necessário para descobrir ou mitigar problemas como viés de IA.

Análise causal

Compreender como funcionam as relações de causa e efeito nos modelos de IA pode ajudar na tomada de decisões éticas sobre como implantá-los, ou se devem ser implantados de todo. Esta análise torna os modelos preditivos mais robustos ao revelar interações entre diferentes variáveis.

Análise de contrafactuais

Este é o processo de melhorar a justiça do modelo e a tomada de decisões usando consultas "e se" para revelar preconceitos de IA e problemas de lógica. Funciona ao perguntar ao modelo como suas decisões mudariam se a entrada, como dados sobre uma pessoa ou situação, tivesse sido diferente.

Equidade na aprendizagem automática

Eliminar o viés da IA é fundamental para garantir que os sistemas tratem diferentes grupos ou indivíduos de forma equitativa. Isto é feito identificando representação desequilibrada ou tratamento injusto nos dados de treino e algoritmos de machine learning, e normalmente tem três fases:

Avaliação de erro do modelo

Avaliar e corrigir erros nas previsões dos modelos é fundamental para evitar resultados arriscados ou embaraçosos. Os métodos comuns para avaliar erros incluem matriz de confusão, precisão, recall, pontuação F1 e curva ROC.

Interpretabilidade do modelo

Para promover a confiança e a transparência com os utilizadores e reguladores, os desenvolvedores devem ser capazes de interpretar e explicar por que os seus modelos tomam decisões específicas e demonstram certos comportamentos. Algumas técnicas de interpretabilidade comumente usadas:

binóculos

O Manual de Ética de IA da SAP

Este mergulho profundo ajuda-o a aplicar a política de Ética Global de IA da SAP ao seu trabalho diário para alcançar uma IA responsável.

Explore o manual

Por que a IA responsável é importante?

A IA está a ter um impacto profundo na sociedade, influenciando a forma como trabalhamos e interagimos. A IA responsável pode ser um catalisador para a inovação ao encorajar abordagens novas, centradas no ser humano, para a resolução de problemas e desenvolvimento de produtos. No entanto, o uso irresponsável de IA apresenta riscos significativos, como exacerbar desigualdades e gerar conteúdo prejudicial. Ao aderir aos princípios e práticas de IA responsável, as organizações podem garantir que os seus sistemas de IA sejam desenvolvidos e utilizados de formas que sejam éticas, responsáveis e benéficas para todas as partes interessadas—trata-se de ser responsável.

Imperativos éticos para empresas e governos

Todas as organizações e indivíduos devem manter elevados padrões éticos na utilização de IA. Além de cumprir os requisitos legais, as empresas e os governos devem também priorizar a privacidade dos dados, a transparência e a justiça nos seus esforços de IA.

Expectativas sociais para o uso ético da tecnologia

A exigência de responsabilidade e transparência por parte das empresas de tecnologia está a crescer à medida que a IA se torna mais amplamente utilizada. A sociedade espera que os sistemas de IA sejam projetados para respeitar os direitos humanos, abraçar a diversidade e priorizar o bem público.

Engenheiro a trabalhar no robô

Benefícios da IA responsável

À medida que as organizações aceleram a sua adoção de IA, é natural que algumas possam ver a IA responsável como um obstáculo—ou como algo a implementar mais tarde. Mas estabelecer princípios orientadores antes de iniciar grandes projetos de IA é fundamental para ajudar a prevenir erros tecnológicos, danos às pessoas e danos à reputação.

Vantagem competitiva

As organizações podem posicionar-se como líderes em inovação ética e atrair clientes que priorizam valores éticos nas suas decisões de compra. Além dos benefícios de eficiência e inovação da IA, o uso responsável permite que as empresas implementem IA com menos risco do que os concorrentes que não o fazem.

Poupança de custos e eficiência

Abordar proativamente os preconceitos da IA e garantir a precisão dos dados do modelo pode ajudar a prevenir danos às pessoas, erros dispendiosos e melhorar a eficiência. Além disso, modelos de IA transparentes e explicáveis são geralmente mais precisos do que aqueles que não são.

Confiança de marca aprimorada

Comunicar abertamente como os sistemas de IA são projetados, implementados e governados demonstra um compromisso com valores éticos e o bem-estar do cliente. Isto pode elevar a perceção da marca, a lealdade do cliente e ajudar a construir confiança com clientes e parceiros.

Tomada de decisão melhorada

Ao identificar e mitigar preconceitos nos dados e algoritmos, as organizações podem ter mais confiança de que as percepções e recomendações impulsionadas por IA são precisas, equitativas e alinhadas com padrões éticos. Este benefício aplica-se a várias funções empresariais, incluindo desenvolvimento de produtos, serviço ao cliente e planeamento estratégico.

Mitigação do risco

Casos de preconceito de IA, violações de dados ou implementação antiética podem prejudicar a reputação de uma organização e levar a processos judiciais dispendiosos. Aderir aos princípios de IA responsável pode ajudar a evitar esses riscos.

Desafios da IA responsável

Criar um conjunto de princípios de IA responsável é apenas o primeiro passo para estabelecer a mentalidade e abordagem operacional necessárias para criar e implementar IA de forma responsável. Aqui estão alguns dos desafios da IA responsável:

Viés de IA: Identificação e mitigação

Os sistemas de IA podem refletir ou amplificar preconceitos existentes presentes nos seus dados de treino, potencialmente levando a resultados injustos em aplicações como contratação de emprego ou aprovações de empréstimos. Para mitigar esses preconceitos, as organizações devem garantir que seus conjuntos de dados sejam diversos, realizar auditorias regulares e empregar algoritmos de mitigação de preconceitos.

Governança de IA: Garantindo conformidade ética

Sem uma estrutura robusta de governança de IA em vigor, as organizações podem enfrentar problemas de privacidade, segurança e controle. Estabelecer políticas claras, abraçar a transparência e envolver as partes interessadas são essenciais para manter a conformidade e a responsabilidade nos sistemas de IA.

Conformidade regulatória e padronização

A rápida evolução da IA ultrapassou muitos quadros regulatórios, criando uma lacuna que pode levar a violações éticas. Estruturas legais adaptativas e cooperação internacional são necessárias para ajudar a garantir que os sistemas de IA sejam construídos para cumprir com regulamentos e normas atualizadas.

Escalabilidade das práticas éticas de IA

Escalar práticas éticas de IA é desafiador, especialmente para organizações que carecem de recursos ou expertise. Treinar profissionais de IA em ética e usar tecnologia para automatizar verificações éticas pode ajudar a escalar práticas responsáveis de forma eficaz.

Uso malicioso de IA

A disseminação de desinformação, vigilância não autorizada e perfilagem discriminatória são questões de séria preocupação. Abordar estes riscos requer medidas regulatórias rigorosas, diretrizes éticas estritas e supervisão humana contínua.

Casos de uso de IA responsável

Cuidados de Saúde: Melhorando a precisão do diagnóstico

A IA pode ajudar os clínicos a diagnosticar doenças com mais precisão a partir de imagens médicas. Ao garantir a justiça e transparência do modelo, o uso de IA pode levar a resultados de saúde mais equitativos em diversos grupos demográficos.

Finanças: Decisões de empréstimo justas

Ao monitorizar e ajustar ativamente os algoritmos de pontuação de crédito para eliminar os preconceitos da IA, os bancos e instituições de crédito podem proporcionar um acesso mais equitativo aos produtos financeiros, reduzindo a discriminação.

Varejo: Experiências personalizadas para clientes

IA Generativa permite que os retalhistas criem conteúdo altamente personalizado e recomendações de produtos. Ao serem transparentes sobre como estão a usar esta tecnologia, os retalhistas podem construir uma confiança mais profunda com os consumidores, levando a uma maior lealdade e vendas.

Automotivo: Veículos mais seguros

Através de testes rigorosos e adesão a padrões éticos de IA, os fabricantes visam reduzir acidentes e melhorar a segurança nas estradas.

Recursos humanos: Recrutamento sem preconceitos

Ao aplicar algoritmos que são regularmente auditados para garantir a imparcialidade, os departamentos de RH podem tomar decisões de contratação mais imparciais, promovendo a diversidade e inclusão no local de trabalho.

Tipos de IA responsável

Além de IA ética e IA confiável, existem vários outros tipos de IA responsável:

IA Sustentável foca-se no desenvolvimento de tecnologias de IA de forma ambientalmente amigável. Isto inclui otimizar o uso de energia dos sistemas, usar infraestruturas mais ecológicas e considerar os impactos do ciclo de vida das implementações de IA para minimizar pegadas de carbono e impacto ambiental.

IA em conformidade com a regulamentação visa garantir que todas as operações e tecnologias de IA estejam em conformidade com as leis e regulamentos relevantes. Este tipo de IA responsável é crucial em indústrias altamente reguladas, como finanças e saúde, onde aderir aos padrões legais é tão importante quanto o desempenho técnico.

IA centrada no ser humano prioriza os valores e o bem-estar humanos, envolvendo as partes interessadas no processo de desenvolvimento e focando em tecnologias que aumentam os seres humanos sem os substituir.

Perguntas frequentes

O que é a governança de IA?
A governança de IA é o quadro que orienta como as tecnologias de IA são pesquisadas, desenvolvidas, implementadas e monitorizadas para garantir que cumpram as normas éticas, leis e regulamentos.
O que é o viés da IA?
O viés de IA refere-se a discrepâncias sistemáticas e injustas que surgem nos dados ou nos processos algorítmicos dos sistemas de IA, frequentemente levando a resultados preconceituosos contra certos grupos ou indivíduos.
Saiba mais sobre IA responsável
Aprofunde o seu entendimento dos conceitos de IA responsável, incluindo transparência, agência humana e viés de modelo com o Manual de Ética de IA da SAP.
Qual é a diferença entre IA responsável e IA explicável?
A IA explicável foca-se em compreender como os sistemas de IA tomam decisões, enquanto a IA responsável é uma estrutura mais ampla. IA responsável garante que os sistemas de IA sejam justos, transparentes, responsáveis, robustos e preservem a privacidade. A IA explicável é um componente importante da IA responsável, pois ajuda a garantir que os sistemas de IA sejam compreensíveis e confiáveis.
binóculos

O Manual de Ética de IA da SAP

Aprofunde o seu entendimento dos conceitos de IA responsável, incluindo transparência, agência humana e viés de modelo.

Obtenha o manual