Coded Bias: documentário da Netflix revela viés racista em algoritmos
A pesquisa acadêmica de Joy Buolamwini do MIT pode mudar legislações nos EUA e abalou empresas de tecnologia
O documentário da Netflix Coded Bias (2020) é dirigido por Shalini Kantayya e investiga o viés racista e machista da inteligência artificial (IA) por trás dos algoritmos de reconhecimento facial. O enredo poderia fazer parte da série distópica Black Mirror, mas é tema de caloroso debate ético no mundo real.
Pesquisadora do Instituto de Tecnologia de Massachusetts (MIT), Joy Buolamwini apresenta as falhas que descobriu nessa tecnologia na pesquisa que conduz o filme.
Coded Bias mostra como Buolamwini percebeu o problema no reconhecimento facial: em uma tarefa no MIT Media Lab, ela posiciona o rosto em frente a uma tela com dispositivo de inteligência artificial, mas não é reconhecida.
Quando ela coloca uma máscara branca, o sistema consegue detectar. Assim, a pesquisadora começou a constatar que os programas de inteligência artificial são treinados para identificar padrões baseados em um conjunto de dados (de homens brancos) e, por isso, parecem não reconhecer com precisão faces femininas ou negras.
“A tecnologia de reconhecimento foi construída utilizando uma amostragem menor de rostos negros e de mulheres. Esse fato impede uma taxa de acertos maior. Foi uma escolha enviesada. No entanto, é possível realimentar o algoritmo para reduzir o viés e melhorar a classificação”, afirma Simone Diniz Junqueira Barbosa, especialista na área de Interação Humano-Computador e professora da PUC-Rio.
Além do estudo de Buolamwini , o documentário apresenta diversos trabalhos de outros pesquisadores e ativistas que lutam contra o uso sem regulação da tecnologia de reconhecimento. É o caso de Silkie Carlo. Ela é diretora do Big Brother Watch, iniciativa que monitora o uso do reconhecimento facial pela polícia do Reino Unido. A preocupação no mundo todo é que a tecnologia de reconhecimento utilizada para segurança pública acuse e prenda suspeitos com base em uma análise errada.
A IA já é usada para determinar se uma pessoa merece receber crédito no banco ou não, se um suspeito deve ser preso e se um doente deve ter prioridade no atendimento de hospital.
“Grandes empresas usam o reconhecimento para que funcionários batam ponto. Policiais encontram criminosos foragidos. Médicos conseguem identificar doenças por meio de imagens. Quando há uma massa de dados mais equilibrada, podemos reduzir diversos vieses. Mas obter esses dados para evitar os vieses dos algoritmos é um grande desafio”, diz Barbosa.
Na PUC-Rio há um grupo de pesquisa sobre Ética e Mediação Algorítimica de Processos Sociais (EMAPS) dedicado ao tema.
“As pesquisas envolvem times multidisciplinares. Nós deixamos rastros digitais o tempo todo, o que torna as considerações éticas mais urgentes e importantes. Os dados são valiosos porque eles podem ser usados por empresas ou governos para manipular o nosso comportamento. E devemos evitar essas manipulações”, explica Barbosa.
O filme Coded Bias dá exemplos: na China, protestos em Hong Kong são feitos com manifestantes de máscaras para impedir o reconhecimento facial. A tecnologia de reconhecimento é usada pelo governo chinês para prender suspeitos. Nessas manifestações, grupos se organizam para pichar as câmeras de segurança. Nos EUA, um condomínio no Brooklyn, onde predominam as populações negras e latinas, utiliza reconhecimento facial sem consentimento dos moradores.
Segundo dados do documentário, mais de 117 milhões de pessoas nos Estados Unidos têm o rosto em redes de reconhecimento facial a que a polícia pode acessar. Em 25 de junho de 2020, sob influência da pesquisa de Buolamwini, que analisou dados enviesados de diversas empresas de tecnologia, parlamentares americanos apresentaram projeto de lei proibindo o uso federal de reconhecimento facial.
No Brasil também não há regulação específica para a tecnologia, mas a Lei de Proteção de Dados fala sobre o assunto e exige maior transparência das práticas adotadas pelas empresas.
Para saber mais sobre as pesquisas apresentadas em Coded Bias
Livro Weapons of Math Destruction (Algoritmos de Destruição em Massa, na versão em português), da matemática Cathy O’Neil
Compre aqui
Livro Artificial Unintelligence: How Computers Misunderstand the World (Desinteligência Artificial: como os computadores entendem mal o mundo, na tradução livre), da jornalista Meredith Broussard
Compre aqui
Livro Algorithms of Oppression: How Search Engines Reinforce Racism (Algoritmos de opressão: como os motores de busca reforçam o racismo, na tradução livre), da professora da Universidade da Califórnia em Los Angeles Safiya Umoja Noble
Compre aqui