Integrante do Cepedi (Centro de Estudos e Pesquisas em Direito e Internet) da UFSM (Universidade de Santa Maria), que desenvolve pesquisas sobre a relação e os impactos da internet e das novas tecnologias no mundo do Direito, a estudante de Direito e Informática Luiza Berger von Ende alerta para os perigos de usar uma inteligência artificial (IA) que não seja desenvolvida e verificada por times diversos.
“A IA é basicamente um algoritmo, uma sequência lógica finita de passos programados com um objetivo específico”, ela fala. A partir do primeiro tratamento dos dados, a máquina vai aprimorando os caminhos que deram certo, baseada na devolutiva do programador.
“Como ela vai se aperfeiçoando e encontrando esses parâmetros para atender ao objetivo do programador, muitas vezes os caminhos se tornam extensos e tão complexos que o próprio humano não consegue compreender como e por que aconteceram – afinal, é uma linguagem da própria máquina, que a IA compreendeu como melhor caminho para chegar a um objetivo satisfatório”, observa a especialista. “E é aí que se escondem os vieses. Não necessariamente pela programação, nos casos em que a máquina é programada para não fazer discriminação, mas pela base de dados com que ela é treinada, que é enviesada.”
Ela lembra o caso da Amazon, mencionado no livro Weapons of Math Destruction: how big data increases inequality and threatens democracy (Armas de Destruição Matemática: como big data aumenta a desigualdade e ameaça a democracia, em tradução livre), da matemática americana Cathy O’Neil.
“A empresa utilizou uma IA para fazer a contratação de novas pessoas para a área de tecnologia e essa IA foi treinada sobre as contratações dos últimos anos”, diz a estudiosa. Só que as contratações anteriores foram quase na sua totalidade de homens. “Historicamente, há uma exclusão de mulheres nas áreas de tecnologia e ciências exatas. Mesmo que fosse não programada explicitamente para eliminar, a máquina viu essa base de dados composta por homens e entendeu que a empresa buscava pessoas parecidas – ou seja, homens.”
Luiza conta que, no caso da Amazon, títulos que tinham referências a mulheres, como “líder do clube de xadrez feminino”, ou nomes de universidades que eram somente frequentadas pelo público feminino eram descartados, mesmo que as qualificações fossem superiores às de outros currículos masculinos.
Isso foi percebido depois de um tempo, quando já haviam ocorrido contratações com discriminações, justamente porque não se sabia o rumo que a máquina tinha seguido para tomar as decisões. “Os algoritmos são simplificações de mundo. Eles nunca vão compreender o contexto da relação humana e a complexidade dessa tarefa que estão realizando”, ela sublinha. “Eles têm um objetivo bem específico e por isso possuem pontos cegos que refletem, sim, a ideologia e os objetivos da pessoa que programou.”
Para que a IA cumpra seu papel com mais assertividade, a especialista defende que seja programada com preceitos éticos e pensada não só para, mas pela diversidade. “Enquanto as equipes de programação e desenvolvedores não forem diversas, compostas por pessoas que têm visões de mundo diferentes, em vez de equipes unilateralmente e majoritariamente formadas por homens brancos com algum tipo de educação superior, vai acontecer uma discriminação, uma correlação errada”, afirma.