Folhapress | ||
A sociedade molda a forma como algoritmos refletem conceitos ou eles reforçam percepções sociais? |
Vale muito a pena ler estudo feito pelo cientista da computação brasileiro Virgilio Almeida, hoje professor em Harvard.
Ele e seus colegas da UFMG fizeram um interessante experimento. Digitaram em buscadores da internet (Google e Bing) as palavras "mulher feia" e "mulher bonita". A partir daí, utilizaram um software para analisar as 50 primeiras fotos que eram mostradas, correspondentes a cada um desses termos. Fizeram isso em algumas dezenas de países. Por fim, organizaram os resultados de acordo com a idade e a raça das mulheres listadas em cada busca.
A conclusão diz muito sobre o estado atual da rede neste ano de 2016 que termina. Na maioria absoluta dos países, o termo "mulher feia" retorna um número desproporcionalmente alto de mulheres negras. Enquanto isso, para o termo "mulher bonita", o número de fotos de brancas é predominantemente alto.
Com relação à idade, a distribuição de mulheres consideradas "bonitas" ocorre predominantemente abaixo dos 30 anos. Já as mulheres consideradas "feias", conforme os resultados dos buscadores, possuem distribuição de faixa etária bem mais alta.
Os resultados no Brasil são ainda mais exacerbados que o padrão global. Por exemplo, o número de mulheres negras listadas como "bonitas" é ínfimo. Já na busca por mulheres "feias", a presença negra é significativamente alta.
O Brasil se junta a dois outros países onde a população negra é maior que a branca, tal como aqui, que apresentam resultados similares: Angola e Nigéria. Neles a maioria das mulheres listadas como "bonitas" é branca, e as consideradas "feias" são desproporcionalmente negras. Já quanto à idade, chamam a atenção países asiáticos como o Japão ou a Malásia, onde os resultados para o termo "bonitas" mostram pouquíssimas mulheres com mais de 23 anos.
A questão aqui assemelha-se ao problema do ovo e da galinha. É a sociedade que molda a forma como algoritmos refletem esses conceitos? Ou os algoritmos acabam reforçando essas percepções sociais? Há uma corrente que tende a acreditar cada vez mais nessa segunda possibilidade, especialmente depois da eleição de Donald Trump. Em entrevista ao "Washington Post", Virgilio parece concordar com a segunda hipótese. Ele diz que "a forma como os buscadores indexam e listam as imagens pode também contribuir para a criação de estereótipos".
Em um mundo que será cada vez mais governado por algoritmos e ferramentas como a inteligência artificial, a questão traz desafios novos. Já surgiu o primeiro rol de conceitos que podem ser usados para mensurar o grau de confiança que se pode atribuir a um algoritmo. São eles: responsabilidade, inteligibilidade, acuracidade, auditabilidade e equidade. São termos ainda vagos. No entanto, serão debatidos cada vez mais em 2017 e nos próximos anos.
Nenhum comentário:
Postar um comentário