Construindo sistemas de IA inclusivos: como garantir experiências de usuário isentas de preconceitos

Apr 19 2023
A inteligência artificial (IA) transformou a maneira como interagimos com a tecnologia. De assistentes de voz a chatbots, os sistemas baseados em IA estão se tornando onipresentes em nossas vidas diárias.
Foto por Freepik

A inteligência artificial (IA) transformou a maneira como interagimos com a tecnologia. De assistentes de voz a chatbots, os sistemas baseados em IA estão se tornando onipresentes em nossas vidas diárias. No entanto, esses sistemas nem sempre são imparciais e podem reforçar estereótipos prejudiciais e discriminação. Nesta postagem, exploraremos a questão do viés nos algoritmos de IA e como criar sistemas de IA inclusivos que forneçam experiências de usuário livres de viés.

Um dos exemplos mais notáveis ​​de viés em algoritmos de IA é o caso da ferramenta de recrutamento de IA da Amazon. Em 2018, foi revelado que a ferramenta, projetada para ajudar os recrutadores da Amazon a identificar os melhores talentos, discriminava as mulheres. O sistema foi treinado com currículos enviados à Amazon durante um período de 10 anos, em sua maioria de homens. Como resultado, a ferramenta aprendeu a favorecer candidatos do sexo masculino e rebaixar currículos contendo palavras comumente associadas a mulheres. Por exemplo, rebaixou currículos que continham a palavra “feminino” (como “capitã do clube de xadrez feminino”) e deu pontuações mais altas a currículos que continham palavras como “executado” e “capturado”, que são normalmente associados a campos dominados por homens.

Este exemplo destaca os perigos de algoritmos de IA tendenciosos e a importância de construir sistemas de IA inclusivos. Aqui estão algumas estratégias para mitigar o viés nos algoritmos de IA:

  1. Diversifique os dados de treinamento: os algoritmos de IA aprendem com os dados nos quais são treinados. Se os dados forem tendenciosos, o algoritmo será tendencioso. Para criar algoritmos imparciais, é importante diversificar os dados de treinamento para garantir que eles incluam uma ampla variedade de perspectivas.
  2. Realize auditorias regulares: auditar regularmente os sistemas de IA pode ajudar a identificar preconceitos e prevenir a discriminação. As auditorias devem incluir o teste do sistema em diversos conjuntos de dados e o monitoramento do sistema quanto a quaisquer sinais de viés.
  3. Envolva diversas equipes no desenvolvimento de IA: as equipes de desenvolvimento de IA devem ser diversificadas para garantir que uma variedade de perspectivas seja incluída no processo de design. Isso pode ajudar a evitar preconceitos e garantir que o sistema seja inclusivo.
  4. Forneça transparência: os usuários devem ser informados sobre como os sistemas de IA funcionam e como as decisões são tomadas. Isso pode ajudar a evitar confusão e garantir que o sistema seja transparente.