flex-height
text-black

Vista aérea de quatro pessoas, vários portáteis, cadernos, notas autocolantes e um vaso com planta em cima da mesa.

O que é o viés da IA?

O viés da inteligência artificial, ou viés de IA, refere-se à discriminação sistemática incorporada nos sistemas de IA que pode reforçar preconceitos existentes e amplificar a discriminação, o preconceito e a estereotipagem.

default

{}

default

{}

primary

default

{}

secondary

Preconceito na IA explicado

O enviesamento em modelos de IA geralmente surge de duas fontes: o próprio design dos modelos e os dados de treino que utilizam.

Os modelos podem, por vezes, refletir as suposições das pessoas que os desenvolvem, o que faz com que favoreçam determinados resultados.

Além disso, o viés da IA pode desenvolver-se devido aos dados utilizados para treinar a IA. Os modelos de IA funcionam analisando grandes conjuntos de dados de treino num processo conhecido como aprendizagem automática. Estes modelos identificam padrões e correlações dentro destes dados para fazer previsões e tomar decisões.

Quando os algoritmos de IA detetam padrões de preconceitos históricos ou disparidades sistémicas incorporados nos dados em que são treinados, as suas conclusões também podem refletir esses preconceitos e disparidades. E porque as ferramentas de aprendizagem automática processam dados em grande escala, mesmo pequenos enviesamentos nos dados de treino originais podem levar a resultados discriminatórios generalizados.

Neste artigo, vamos aprofundar onde surge o viés da IA, como o viés da IA se manifesta no mundo real e porque é tão crucial abordar o viés da IA.

Importância de abordar o viés da IA

O preconceito é inerente a todos os seres humanos. É o subproduto de ter uma perspetiva limitada do mundo e da tendência para generalizar a informação de forma a simplificar a aprendizagem. No entanto, surgem questões éticas quando os preconceitos causam danos a outras pessoas.

As ferramentas de IA que são influenciadas por preconceitos humanos podem amplificar este dano a um nível sistémico, especialmente à medida que são integradas nas organizações e sistemas que moldam as nossas vidas modernas.

Considere coisas como chatbots no comércio eletrónico, diagnósticos na área da saúde, recrutamento nos recursos humanos e vigilância na polícia. Estas ferramentas prometem todas aumentar a eficiência e fornecer soluções inovadoras, mas também apresentam riscos significativos se não forem cuidadosamente geridas. Os preconceitos nestes tipos de ferramentas de IA podem agravar desigualdades existentes e criar novas formas de discriminação.

Imagine uma comissão de liberdade condicional a consultar um sistema de IA para determinar a probabilidade de um prisioneiro voltar a cometer um crime. Seria antiético que o algoritmo estabelecesse uma ligação entre a raça ou o género da pessoa reclusa ao determinar essa probabilidade.

Os preconceitos nas soluções de IA generativa também podem levar a resultados discriminatórios. Por exemplo, se um modelo de IA for utilizado para criar descrições de funções, deve ser concebido de forma a evitar a incorporação de linguagem tendenciosa ou a exclusão inadvertida de determinados grupos demográficos. Não abordar estes preconceitos pode levar a práticas de recrutamento discriminatórias e perpetuar desigualdades no local de trabalho.

Exemplos como este ilustram porque é crucial que as organizações pratiquem a IA responsável, encontrando formas de mitigar o viés antes de utilizarem a IA para informar decisões que afetam pessoas reais. Garantir a justiça, a precisão e a transparência nos sistemas de IA é essencial para proteger as pessoas e manter a confiança do público.

Produto SAP

SAP Business AI

Alcance resultados reais com IA integrada nos seus processos empresariais principais.

Saiba mais

De onde vem o preconceito da IA?

O viés da IA pode ter várias origens que podem afetar a justiça e a fiabilidade dos sistemas de IA:

Viés nos dados: Os vieses presentes nos dados utilizados para treinar modelos de IA podem levar a resultados tendenciosos. Se os dados de treino representarem predominantemente certos grupos demográficos ou contiverem preconceitos históricos, a IA irá refletir esses desequilíbrios nas suas previsões e decisões.

Viés algorítmico: Isto ocorre quando o desenho e os parâmetros dos algoritmos introduzem inadvertidamente viés. Mesmo que os dados não sejam tendenciosos, a forma como os algoritmos processam e priorizam certas características em detrimento de outras pode resultar em resultados discriminatórios.

Tendência de decisão humana: A tendência humana, também conhecida como viés cognitivo, pode infiltrar-se nos sistemas de IA através de decisões subjetivas na rotulagem de dados, no desenvolvimento de modelos e noutras fases do ciclo de vida da IA. Estes enviesamentos refletem os preconceitos e os vieses cognitivos das pessoas e equipas envolvidas no desenvolvimento das tecnologias de IA.

Tendência da IA generativa: Modelos de IA generativa, como os utilizados para criar texto, imagens ou vídeos, podem produzir conteúdos tendenciosos ou inadequados com base nos preconceitos presentes nos seus dados de treino. Estes modelos podem reforçar estereótipos ou gerar resultados que marginalizam certos grupos ou pontos de vista.

Exemplos de preconceito na IA

Os impactos do viés da IA podem ser amplos e profundos, afetando vários aspetos da sociedade e a vida das pessoas.

Aqui estão alguns exemplos de como o preconceito na IA pode impactar diferentes cenários:

Avaliação de crédito e concessão de empréstimos: Os algoritmos de avaliação de crédito podem prejudicar certos grupos socioeconómicos ou raciais. Por exemplo, os sistemas podem ser mais rigorosos com candidatos de bairros de baixos rendimentos, levando a taxas de rejeição mais elevadas.

Contratação e recrutamento: Algoritmos de triagem e geradores de descrições de funções podem perpetuar preconceitos no local de trabalho. Por exemplo, uma ferramenta pode favorecer termos tradicionalmente associados aos homens ou penalizar períodos de interrupção na carreira, afetando mulheres e pessoas cuidadoras.

Cuidados de saúde: A IA pode introduzir enviesamentos nos diagnósticos e nas recomendações de tratamento. Por exemplo, sistemas treinados com dados de um único grupo étnico podem diagnosticar incorretamente outros grupos.

Educação: Os algoritmos de avaliação e admissão podem ser tendenciosos. Por exemplo, uma IA que prevê o sucesso dos estudantes pode favorecer aqueles provenientes de escolas bem financiadas em detrimento dos que têm origens com menos recursos.

Aplicação da lei: Os algoritmos de policiamento preditivo podem conduzir a práticas tendenciosas. Por exemplo, os algoritmos podem prever taxas de criminalidade mais elevadas em bairros de minorias, resultando em policiamento excessivo.

Reconhecimento facial: Os sistemas de IA muitas vezes têm dificuldades com a precisão demográfica. Por exemplo, podem apresentar taxas de erro mais elevadas ao reconhecer tons de pele mais escuros.

Reconhecimento de voz: Os sistemas de IA conversacional podem apresentar preconceito contra certos sotaques ou dialetos. Por exemplo, assistentes de IA podem ter dificuldades com falantes não nativos ou com sotaques regionais, reduzindo a usabilidade.

Geração de imagens: Os sistemas de geração de imagens baseados em IA podem herdar preconceitos presentes nos seus dados de treino. Por exemplo, um gerador de imagens pode sub-representar ou representar incorretamente certos grupos raciais ou culturais, levando a estereótipos ou exclusão nas imagens produzidas.

Recomendação de conteúdo: Os algoritmos podem perpetuar câmaras de eco. Por exemplo, um sistema pode apresentar conteúdo politicamente tendencioso, reforçando pontos de vista já existentes.

Seguros: Os algoritmos podem determinar injustamente os prémios ou a elegibilidade. Por exemplo, prémios baseados em códigos postais podem resultar em custos mais elevados para comunidades minoritárias.

Redes sociais e moderação de conteúdos: Os algoritmos de moderação podem aplicar as políticas de forma inconsistente. Por exemplo, as publicações de utilizadores de minorias podem ser injustamente sinalizadas como ofensivas em comparação com as de utilizadores do grupo maioritário.

Quais são os impactos do viés da IA?

Os impactos do viés da IA podem ser vastos e profundos. Se não for abordado, o viés da IA pode aprofundar as desigualdades sociais, reforçar estereótipos e violar leis.

Desigualdades sociais: O viés da IA pode agravar as desigualdades sociais existentes ao afetar desproporcionalmente as comunidades marginalizadas, conduzindo a uma maior disparidade económica e social.

Reforço de estereótipos: Sistemas de IA tendenciosos podem reforçar estereótipos prejudiciais, perpetuando perceções e tratamentos negativos de determinados grupos com base na raça, género ou outras características. Por exemplo, os modelos de processamento de linguagem natural (PLN) podem associar certas profissões a um género, o que perpetua o preconceito de género.

Questões éticas e legais: A presença de preconceito na IA levanta preocupações éticas e legais significativas, colocando em causa a justiça e a equidade das decisões automatizadas. As organizações devem lidar cuidadosamente com estas questões para cumprir as normas legais e manter as responsabilidades éticas.

Impactos económicos: Algoritmos tendenciosos podem prejudicar injustamente certos grupos, limitando oportunidades de emprego e perpetuando a desigualdade no local de trabalho. Plataformas de atendimento ao cliente baseadas em IA, como chatbots, podem oferecer um serviço de menor qualidade a determinados grupos demográficos, levando à insatisfação e à perda de negócios.

Impactos nos negócios: O preconceito em sistemas de IA pode levar a decisões erradas e a uma redução da rentabilidade. As empresas podem sofrer danos reputacionais se os preconceitos nos seus instrumentos de IA se tornarem públicos, podendo perder a confiança dos clientes e quota de mercado.

Impactos na saúde e segurança: No setor da saúde, ferramentas de diagnóstico tendenciosas podem resultar em diagnósticos incorretos ou planos de tratamento subótimos para determinados grupos, agravando as disparidades em saúde.

Bem-estar psicológico e social: A exposição regular a decisões enviesadas de IA pode causar stress e ansiedade nas pessoas afetadas, impactando a sua saúde mental.

Como mitigar o viés na IA

Abordar e mitigar eficazmente o viés em sistemas de IA requer uma abordagem abrangente. Aqui estão várias estratégias fundamentais que podem ser utilizadas para alcançar resultados justos e equitativos:

Técnicas de pré-processamento de dados: Isto envolve transformar, limpar e equilibrar os dados para reduzir a influência da discriminação antes de os modelos de IA serem treinados com eles.

Algoritmos conscientes da equidade: Esta abordagem codifica regras e diretrizes para garantir que os resultados gerados pelos modelos de IA sejam justos para todas as pessoas ou grupos envolvidos.

Técnicas de pós-processamento de dados: O pós-processamento de dados ajusta os resultados dos modelos de IA para ajudar a garantir um tratamento justo. Em contraste com o pré-processamento, esta calibração ocorre após a tomada de decisão. Por exemplo, um grande modelo de linguagem que gera texto pode incluir um filtro para detetar e eliminar discurso de ódio.

Auditoria e transparência: A supervisão humana é incorporada nos processos para auditar decisões geradas por IA quanto a preconceito e equidade. Os programadores também podem proporcionar transparência sobre como os sistemas de IA chegam às suas conclusões e decidir quanto peso atribuir a esses resultados. Estes resultados são então utilizados para refinar ainda mais as ferramentas de IA envolvidas.

Esforços colaborativos para mitigar o viés da IA

Para as empresas que utilizam soluções de IA empresarial, combater o viés da IA exige uma abordagem cooperativa envolvendo os principais departamentos. As estratégias essenciais incluem:

A implementação destas estratégias permite que as organizações trabalhem no sentido de criar sistemas de IA mais equitativos, promovendo simultaneamente uma cultura de trabalho inclusiva.

Tendências emergentes no desenvolvimento de IA justa

Várias tendências emergentes procuram tornar a IA mais justa e equitativa:

IA Explicável (XAI): Existe uma procura crescente por transparência nos processos de tomada de decisão da IA. A Inteligência Artificial Explicável (IAE) tem como objetivo tornar o funcionamento dos sistemas de IA compreensível para os utilizadores, ajudando-os a perceber como são tomadas as decisões e garantindo a responsabilização.

Design centrado no utilizador: O desenvolvimento de IA está a focar-se cada vez mais nas necessidades e perspetivas dos utilizadores, garantindo que os sistemas são concebidos com inclusão em mente. Esta tendência incentiva o feedback de diversos grupos de utilizadores para informar o processo de desenvolvimento.

Envolvimento da comunidade: As empresas estão a começar a envolver-se com as comunidades impactadas pelos sistemas de IA para recolher contributos e opiniões, ajudando a garantir que o processo de desenvolvimento tenha em conta as necessidades e preocupações de diferentes partes interessadas.

Utilização de dados sintéticos: Para combater a escassez de dados e o viés, as organizações estão a explorar a utilização de dados sintéticos para aumentar os conjuntos de treino. Esta abordagem permite a criação de conjuntos de dados diversificados sem comprometer a privacidade.

Equidade desde a conceção: Esta abordagem proativa integra considerações de equidade no ciclo de desenvolvimento da IA desde o início, em vez de as adicionar posteriormente. Inclui o desenvolvimento de algoritmos justos e a realização de avaliações de impacto durante a fase de conceção.

Trabalhar em conjunto através destas abordagens pode reduzir significativamente o viés da IA, garantindo que as tecnologias de IA sirvam o bem comum e beneficiem de forma equitativa todos os segmentos da sociedade.

Produto SAP

IA Responsável com a SAP

Veja como a SAP oferece IA baseada nos mais elevados padrões de ética, segurança e privacidade.

Saiba mais

Saiba mais