Viés (Bias)

Cover Image: Kognitiv torzitasok, pszicholgia. By Braun Barbara. Creative Commons Attribution-Share Alike 4.0. November 6, 2019. Source: Wikimedia Common.

Anger and intolerance are the enemies of correct understanding.
– Mahatma Gandhi –

Maurício Pinheiro

Introdução

A inteligência artificial (IA) está sendo cada vez mais integrada a vários aspectos de nossas vidas, de assistentes virtuais a veículos autônomos. No entanto, existe uma preocupação crescente de que os sistemas de IA possam perpetuar e ampliar os preconceitos existentes na sociedade. O viés (bias) na IA pode ser classificado em dois tipos: externo e interno. O viés externo refere -se a vieses culturais nos dados de treinamento, enquanto o viés interno se refere aos vieses apresentados pelos próprios algoritmos de aprendizado de máquina. Neste pequeno artigo, discutiremos esses tipos de viés e suas implicações.

Viés externo (External Bias)

O viés externo nos sistemas de IA pode ser causado por vários fatores, incluindo vieses culturais que existem nos dados de treinamento usados para treinar o sistema. Esse tipo de viés ocorre quando os dados de treinamento usados para ensinar o sistema de IA contém vieses implícitos ou explícitos que refletem os preconceitos e estereótipos sociais. Os sistemas de IA são projetados para aprender sendo alimentados com grandes quantidades de dados e, se os dados usados para treinar o sistema forem tendenciosos, o sistema de IA poderá aprender e perpetuar esses vieses.

Por exemplo, imagine um sistema de IA projetado para ajudar as organizações com decisões de contratação. Se os dados de treinamento usados para desenvolver o sistema consistirem principalmente em currículos de candidatos a emprego masculinos, o sistema poderá aprender a associar nomes e características masculinas a níveis mais altos de qualificações, mesmo que os currículos de candidatos contenham as mesmas ou melhores qualificações. Como resultado, o sistema de IA pode fazer recomendações tendenciosas de contratação que favorecem injustamente os candidatos do sexo masculino, levando à discriminação contra as mulheres no local de trabalho. [1]

Da mesma forma, no caso de aprovações de empréstimos, se os dados de treinamento usados para desenvolver um sistema de IA contiver vieses contra certos grupos, como pessoas de cor ou com níveis mais baixos de renda, o sistema pode aprender a associar esses grupos a níveis mais altos de risco e tomar decisões tendenciosas de empréstimos que perpetuam a discriminação contra esses grupos. Isso pode ter sérias conseqüências, levando a insegurança financeira, acesso reduzido a oportunidades e outros resultados negativos para aqueles que são injustamente discriminados. [2]

Para mitigar o viés externo nos sistemas de IA, é importante usar dados de treinamento diversos e representativos da população, a fim de minimizar o risco de introduzir vieses no sistema. Além disso, é importante monitorar regularmente o desempenho do sistema e identificar quaisquer vieses que possam ter sido introduzidos durante o processo de treinamento, a fim de fazer ajustes e garantir que o sistema permaneça justo e imparcial. Ao tomar essas etapas, podemos criar sistemas de IA mais precisos, transparentes e inclusivos, e que beneficiam todos os membros da sociedade.

Viés interno (Internal Bias)

O viés interno, por outro lado, refere -se aos vieses inerentes aos próprios algoritmos de aprendizado de máquina. Os algoritmos de aprendizado de máquina são projetados para identificar padrões nos dados, e esses padrões podem refletir vieses na sociedade. O viés interno desempenha um papel crucial nas redes neurais, que são um tipo de algoritmo de aprendizado de máquina usado para tarefas de reconhecimento e classificação de padrões. Em uma rede neural, o viés (bias) refere-se a um conjunto de parâmetros aprendidos que permitem que a rede mude a função de ativação para ajustar melhor os dados de treinamento. Isso ajuda a rede neural a alcançar um melhor equilíbrio entre ajustes excessivos e subjacentes e a melhorar seu desempenho de generalização em dados novos e invisíveis. No entanto, se o viés não estiver ajustado adequadamente, também poderá introduzir viés no modelo, levando a previsões imprecisas ou injustas.

Os vieses internos são especialmente preocupantes, pois podem ser intencionalmente introduzidos por atores maliciosos que podem invadir o sistema e manipular tais parâmetros para produzir resultados tendenciosos. Por exemplo, um hacker pode alterar o viés interno de um modelo de IA de uma maneira que favorece um grupo ou resultado específico. Esse é um problema sério, principalmente em aplicações de alto risco, como assistência médica ou finanças, onde decisões tendenciosas podem ter consequências significativas.

Para mitigar os riscos do viés interno, é importante monitorar e ajustar cuidadosamente os parâmetros de viés nas redes neurais. Isso envolve garantir que os dados de treinamento sejam representativos da verdadeira distribuição subjacente e que os parâmetros de viés não estejam introduzindo viés indesejado no modelo. Além disso, medidas de segurança robustas devem estar em vigor para evitar acesso não autorizado ao sistema e detectar qualquer tentativa de manipular o viés interno do modelo.

A imagem mostra um exemplo de uma unidade neuronal em uma rede neural, ilustrando seus principais componentes. No exemplo, essas são as entradas, os pesos, a soma das entradas e o bias, a função de ativação e a saída. A função de ativação escolhida para este exemplo é uma Relu (unidade linear retificada). Por Brunello N. Creative Commons Attribution-Share 4.0. 12 de agosto de 2021. Fonte: Wikimedia Commons.

Implicações

As implicações da IA tendenciosa são abrangentes e podem ter sérias conseqüências para indivíduos e sociedade como um todo. Como vimos acima, a IA tendenciosa pode perpetuar a discriminação, reforçar os estereótipos e limitar oportunidades para certos grupos. Também pode levar à marginalização de certas comunidades e minar a confiança do público nos sistemas de IA.

Ajustar corretamente o bias interno do software em uma rede neural envolve várias etapas. Primeiro, é importante garantir que os dados de treinamento sejam diversos e representativos da verdadeira distribuição subjacente, a fim de minimizar o risco de introduzir viés externo no modelo. Isso pode envolver a coleta de dados de uma variedade de fontes e a tomada de medidas para abordar qualquer desequilíbrio ou vieses nos dados. Segundo, é importante selecionar e configurar cuidadosamente os parâmetros de função de ativação e regularização, o que pode afetar o grau de viés interno no modelo. Por fim, é importante avaliar e monitorar regularmente o desempenho do modelo em dados novos e invisíveis, a fim de detectar e abordar quaisquer vieses externos (dados) que possam ter sido introduzidos durante o processo de treinamento. Isso pode envolver técnicas como validação cruzada, métodos de conjunto e métricas de fairness, projetadas para detectar e mitigar o viés nos modelos de aprendizado de máquina. Seguindo essas práticas recomendadas, é possível criar redes neurais precisas, transparentes e imparciais, e que podem ser usadas para beneficiar a sociedade como um todo.

No geral, a chave para criar sistemas de IA justos e imparciais é estar ciente dos vários tipos de viés que podem afetar seu desenvolvimento e desempenho e tomar medidas proativas para minimizá-los. Ao fazer isso, podemos criar sistemas de IA mais precisos, transparentes e inclusivos, e que beneficiam todos os membros da sociedade.

Conclusão

O viés na IA é uma preocupação crescente e é importante entender os diferentes tipos de viés que existem. O viés externo é causado por vieses culturais nos dados de treinamento, enquanto o viés interno é inerente aos próprios algoritmos de aprendizado de máquina. É essencial abordar esses vieses para garantir que os sistemas de IA sejam justos, transparentes e imparciais. Isso pode ser alcançado por meio de dados de treinamento diversos e representativos, design cuidadoso do algoritmo e monitoramento e avaliação contínuos dos sistemas de IA. Ao abordar o viés da IA, podemos garantir que os sistemas de IA sejam usados para beneficiar a sociedade como um todo, em vez de perpetuar e ampliar as desigualdades existentes.

Referências:

[1] “Amazon Scraps Secret AI Recruiting Tool That Showed Bias Against Women” – Reuters, October 10, 2018.

O artigo relata a decisão da Amazon de interromper o uso de um sistema de IA para recrutamento que mostrou viés contra mulheres devido aos dados de treinamento usados para desenvolvê -lo. O sistema teria penalizado currículos que continham termos como “femininos” e deram rankings mais baixos a graduados das faculdades femininas. Este é um exemplo de como o viés nos dados de treinamento pode levar a resultados injustos e discriminatórios nos sistemas de IA.

[2] “How A Flawed Algorithm Led to $100M in Overdue Loans” – Wired, March 18, 2021.

O artigo relata um caso em que um sistema de IA foi usado para tomar decisões de empréstimos, mas o sistema teve uma falha que levou a decisões tendenciosas contra os mutuários das minorias. O algoritmo usou fatores como código postal e nível de educação, que foram considerados tendenciosos contra certos grupos. Como resultado, os mutuários minoritários foram negados empréstimos injustamente ou ofereceram taxas de juros mais altas, levando a danos financeiros significativos. Este exemplo ilustra como os vieses nos dados de treinamento usados para desenvolver um sistema de IA podem levar a resultados injustos e discriminatórios, particularmente em empréstimos e finanças, o que pode ter sérias conseqüências para indivíduos e comunidades.

Leitura sugerida:



Copyright © 2023 AI-Talks.org