Voicers

Racismo Algorítmico: A Exclusão Racial Agora é “Tech”

por Ianaira Barretto Souza Neves¹ e Fernando Ressetti Pinheiro Marques Vianna²

“Quem antes invadiu nossos mundos em busca de madeira, ouro e petróleo, agora adentra e tenta formatar nossas subjetividades com plataformas que buscam extrair nossos dados, modular nossas expectativas, reduzir nossas escolhas, predizer nossa vontade e embarcar nos códigos e sistemas algorítmicos as estruturas de dominação patriarcais, racistas, étnicas e classistas.”

Sérgio Amadeu em “Comunidades, Algoritmos e Ativismos Digitais: Olhares afrodiaspóricos”

Não se trata de algo tão novo ou tão desconhecido, mas talvez a lente seja incômoda a ponto de preferirmos evitá-la

O sistema capitalista – cerne do conceito Capitalismo de Vigilância cunhado por Shoshana Zuboff (2019[i]) e denominado por outros autores, como Capitalismo de Plataforma [ii] ou Capitalismo de Big Data [iii] – é um sistema que, desde sua origem, aprimora continuamente a tecnologia de acumulação de capital com base na exploração de classes, gêneros e raças.

Nesse sentido, acreditamos ser emergencial a discussão que envolve o chamado racismo algorítmico na área dos Estudos Organizacionais, haja vista a relação direta entre o papel de organizações da era da Internet e da digitalização na exploração e violência racial [iv].    

O Fetiche da Tecnologia

Desde o início das máquinas autônomas, com Ada Lovelace, Babbage e seu computador que fazia cálculos “sozinho”, a ideia de máquinas que funcionam por si, constituindo-se como “autônomas e inteligentes”, faz parte do fetiche da tecnologia. No entanto, tais tecnologias são, desde a sua concepção, portadoras das visões de mundo, expectativas, objetivos e projeções conscientes ou inconscientes dos sujeitos e organizações que as projetam [v]. Em uma analogia didática e rápida, mas que torna o entendimento simples, podemos pensar em uma máquina de costura. Com a matéria-prima adequada, como um fio de linha, ela é capaz de fazer um remendo simples ou um vestido de gala, a depender do desejo da costureira ou do costureiro, em concordância com o objetivo da loja ou cliente demandante. Com as tecnologias digitais acontece algo similar: os dados são a matéria-prima, e o resultado de seu uso não é definido pelo algoritmo, mas por quem o controla.

A racialização ideológica do Vale do Silício e a Camuflagem da automação algorítmica

Dessa forma, quando a pesquisadora estado-unidense, Safiya Noble (2018[vi]), apresentou uma série de práticas de racismo digital realizadas pela Google e outros bancos de imagens, não se tratava de um fenômeno ocorrido a esmo, sem o conhecimento da empresa, mas se trata da racialização ideológica do Vale do Silício, “a partir de uma supremacia branca”[vii]. Essa cultura verticalizada do patriarcado se faz presente na forma digitalizada, por meio de resultados de pesquisas e buscas em bancos de imagens que acabam relacionando a mulher negra, por exemplo, a conotações sexuais [viii]. Trata-se de uma tentativa de manter a população negra em lugar que lhe é imposto desde o período colonial [ix], mas agora por meio das mídias digitais e sob a camuflagem da automação algorítmica [x]. Prova disso é relatada, também, por Carrera (2019[xi]), quando os resultados de buscas por imagens relacionadas à palavra pobreza são predominantemente de pessoas negras, enquanto os resultados de buscas por imagens relacionadas à palavra riqueza, são predominantemente de homens brancos.

Mas não só nas imagens estão simbolizadas as violências raciais algorítmicas. Recentemente a Google, no Brasil, foi notificada por seu teclado “inteligente” sugerir, como complemento ao termo “neguinha”, adjetivos como “assanhada” e “novinha” [xii]. Tal prática já havia sido observada anteriormente, mas relacionando imagens de sexo explícito à busca pela frase “mulher negra dando aulas”, o que não acontecia na mesma busca relacionada a mulheres brancas [xiii]. Obviamente, esse comportamento algorítmico reflete uma cultura social racista, em que mulheres negras socialmente ascendentes representam 81% das vítimas de discursos racistas no Facebook [xiv]. Tal prática indica o trauma de uma Internet culturalmente formada por uma branquitude que se recusa a falar sobre o racismo, mas continua o exercendo (agora também de forma digital) [xv].


O Capitalismo de Vigilância e Racismo Algorítmico

Imaginar que todas essas práticas são coincidência ou um simples erro é apelar para uma inocência inexistente. Programas digitais e algoritmos são passíveis a falhas éticas e morais, além de reforçarem injustiças sociais, já que são desenvolvidos por pessoas e, portanto, estão sujeitos problemas em sua concepção e/ou codificação[xvi]. Além disso, a análise algorítmica dos dados possui, inerentemente, algum viés: os conjuntos de dados são pré-estruturados de acordo com precedentes e padrões históricos das estruturas organizacionais a que servem. Dessa maneira, já foram instruídos em algum direcionamento, e esses vieses refletirão a cultura do espaço, social ou organizacional, sendo incorporados ao código de programação durante a aprendizagem da máquina [xvii]

Não por acaso, enquanto a o ódio nas redes sociais contra pessoas negras é camuflada por uma ideologia de liberdade e igualdade, a supremacia branca que impera no Vale do Silício vê suas receitas alcançando patamares nunca dantes navegados [xviii]. Trata-se de uma combinação nefasta entre o neoliberalismo e a digitalização, e que resulta em fenômenos que se retroalimentam, como o capitalismo de vigilância e o racismo algorítmico [xix].

Tecnologias de Vigilância, Campanhas Publicitárias e Influencers Digitais

Podemos, ainda, elencar outras formas nas quais o racismo algorítmico vem usufruindo das mídias socias e tecnologias digitais em prol da manutenção e ampliação do racismo estrutural.

Primeiro, quando mencionamos reconhecimento facial e sua utilização na segurança pública, os alvos são, predominantemente pessoas negras. Tecnologias de vigilância servem ao policiamento preditivo a partir de modelagens estatísticas originalmente racistas e reforçam a perseguição à população negra (Referência).

O segundo ponto levantado são as campanhas publicitárias em geral, como as relacionadas ao outubro rosa, novembro azul e julho da amamentação, que quando pesquisadas imagens relacionadas a tais campanhas, em bancos digitais, resultam, predominantemente, em imagens de pessoas brancas, invisibilizando ou precarizando as pessoas negras [xx].

Terceiro, recentemente pessoas públicas, influenciadoras negras e influenciadores negros denunciaram a exclusão algorítmica de suas postagens. Ao testar publicar fotos unicamente de mulheres brancas em sua página do Instagram, a influenciadora Sá Ollebar viu seu engajamento aumentar em mais de 6.000% denunciando, assim, a predeterminação tecnológica que atribui a imagens de pessoas brancas maior retorno digital e, consequentemente, material, do que imagens de pessoas negras [xxi].


O Poder Hegemônico da Tech tem cor e sexo

Por fim, é problemático, também, o fato dos proprietários das organizações do capitalismo de vigilância e o rol de trabalhadores de Tecnologia da Informação ser composto, em sua esmagadora maioria, por homens brancos. Tal fenômeno favorece a reprodução do poder hegemônico que enxergamos na sociedade – havendo, inclusive, uma superioridade hierárquica significativa em relação às trabalhadoras mulheres, e uma superioridade salarial significativa em relação ao trabalhador negro [xxii].

Dessa forma, o racismo algorítmico é, atualmente, ferramenta importantíssima do racismo estrutural, pois i. viabiliza a disseminação do ódio e a violência digital contra a população negra por meios que ainda não são plenamente verificáveis, ii. camufla-se como ferramenta de equidade e empoderamento, mas funciona garantindo a manutenção e ampliação das práticas patriarcais e soberanas das populações brancas que dominam financeira e tecnicamente o mundo digital, e iii. expropria os dados e manipula usuários com o objetivo de frear a possibilidade de mobilidade social da pessoa negra, em especial das mulheres negras, em prol da manutenção de um status quo escravagista.  

É Preciso Repensarmos toda a Estrutura até Aqui!

Diante de uma realidade tão complexa e de difícil acesso, é preciso repensarmos toda a estrutura que envolve essa algoritmização da vida e da sociedade. Não é mais possível naturalizarmos as questões aqui levantadas, sem evidenciar as implicações e as necessárias preocupações com a ampla utilização das tecnologias digitais e da dataficação da vida [xxiii], que acarretam em um enviesamento na utilização dos dados e reforçam práticas que prejudicam e excluem, mais uma vez, a parcela negra da população. Enquanto a discussão levantada por documentários como “Privacidade Hackeada” [xxiv] e “O dilema das Redes” [xxv] durarem apenas até o próximo like ou a próxima postagem, e não envolver o racismo praticado nas redes e pelas plataformas, a supremacia branca que domina o capitalismo de vigilância permanecerá colhendo os frutos de suas práticas sob o custo elevado de vidas que, para elas, não importam.


Referências usadas pelos autores:

[i] ZUBOFF, S.. The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power:Barack Obama’s Books of 2019. Profile Books, 2019.

[ii] SRNICEK, N. Platform capitalism. John Wiley & Sons, 2017.

[iii] CHANDLER, D.; FUCHS, C. Digital objects, digital subjects: Interdisciplinary perspectives on capitalism, labour and politics in the age of big data. University of Westminster Press, 2019.

[iv] SILVA, T. Racismo Algorítmico em Plataformas Digitais: microagressões e discriminação em código. Comunidades, Algoritmos e Ativismos digitais, n.121, 2019.

[v] ROUVROY, A.; BERNS, T.  Governamentalidade algorítmica e perspectivas de emancipação: o díspar como condição de individuação pela relação?. Revista ECO-Pós, v.18, n.2, 2015.

GILLESPIE, T. The relevance of algorithms. Media technologies: Essays on communication, materiality, and society, n. 167, 2014.

[vi] NOBLE, S. U. Algorithms of oppression: How search engines reinforce racism. nyu Press, 2018.

[vii] Idem item iv, p. 129.

[viii] CAMPOS, A. A. A cultura do estupro como método perverso de controle nas sociedades patriarcais. Revista Espaço Acadêmico, v.16, n.183, , 2016.

[ix] TRINDADE, L. V. P. Mídias sociais e a naturalização de discursos racistas no Brasil. Comunidades, Algoritmos e Ativismos digitais, n.26, 2020.

[x] Idem item vi.

[xi] CARRERA, F. (2020). Racismo e sexismo em bancos de imagens digitais: análise de resultados de busca e atribuição de relevância na dimensão financeira/profissional. Comunidades, Algoritmos e Ativismos digitais, n. 139, 2020.

[xii] CARDOSO, B. Gboard: teclado do Google sugere termos sexuais para a palavra ‘neguinha’. Techtudo, 01 ago. 2020. Disponível em https://www.techtudo.com.br/noticias/2020/08/gboard-teclado-do-google-sugere-termos-sexuais-para-a-palavra-neguinha.ghtml

[xiii] Idem item xii.

[xiv] TRINDADE, L. V. P. It is not that funny. Critical analysis of racial ideologies embedded in racialized humour discourses on social media in Brazil (Doctoral dissertation, University of Southampton), 2018.

[xv] DIANGELO, R. White fragility: Why it’s so hard for white people to talk about racism. Beacon Press, 2018.

[xvi] NOBLE, S. U. Algorithms of oppression: How search engines reinforce racism. nyu Press, 2018.

O’NEIL, C. Weapons of math destruction: How big data increases inequality and threatens democracy. Broadway Books, 2016.

GILLESPIE, T. The relevance of algorithms. Media technologies: Essays on communication, materiality, and society, n. 167, 2014.

[xvii] NOBLE, S. U. Algorithms of oppression: How search engines reinforce racism. nyu Press, 2018.

EUBANKS, V.  Automating inequality:How high-tech tools profile, police, and punish the poor. St. Martin’s Press, 2018.

[xviii] SILVA, T. Racismo Algorítmico em Plataformas Digitais: microagressões e discriminação em código. Comunidades, Algoritmos e Ativismos digitais, n.121, 2019.

COLLINS, C.; OCAMPO, O.; PASLASKI, S. Billionaire Bonanza 2020. Institute for Policy Studies. Publicado em 23 de abril de 2020. Disponível em: https://ips-dc.org/billionaire-bonanza-2020/

[xix] SILVA, T. Racismo Algorítmico em Plataformas Digitais: microagressões e discriminação em código. Comunidades, Algoritmos e Ativismos digitais, n.121, 2019.

ZUBOFF, S.. The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power:Barack Obama’s Books of 2019. Profile Books, 2019.

[xx] CARRERA, F. (2020). Racismo e sexismo em bancos de imagens digitais: análise de resultados de busca e atribuição de relevância na dimensão financeira/profissional. Comunidades, Algoritmos e Ativismos digitais, n. 139, 2020.

CARRERA, F.; CARVALHO, D. (2020). Algoritmos racistas: a hiper-ritualização da solidão da mulher negra em bancos de imagens digitais. Galáxia (São Paulo), n.43, 2010.

[xxi] OLLEBAR, S. Algorítmo. Vídeo publicado na rede social Instagram, 2020. Disponível em: https://www.instagram.com/stories/highlights/17924230549450254/

[xxii] NUNES, J. H. Gênero e raça no trabalho em tecnologia da informação (TI). Ciências Sociais Unisinos, v.52, n.3, 2016.

[xxiii] COULDRY, N.; MEJÍAS, U. A. The costs of connection:How data is colonizing human life and appropriating it for capitalism. Stanford University Press, 2019.

SCHMIDT-KRAEPELIN, M. et al. Archetypes of Gamification: Analysis of mHealth Apps. JMIR mHealth and uHealth, v.8, n.10, 2020.

BREIDBACH, C. F.;  MAGLIO, P. P.. Technology-enabled value co-creation: An empirical analysis of actors, resources, and practices. Industrial Marketing Management, n. 56, 2016.

[xxiv] PRIVACIDADE Hackeada. Direção e Produção por Jehane Noujaim e Karim Amer. Estados Unidos da América: The Othrs, 2019.

[xxv] O DILEMA das redes. Direção por Jeff Orlowski e Produção por Larissa Rhodes. Estados Unidos da América: Netflix, 2020.

¹Mestranda em Administração de Empresas pela FGV/EAESP na área de Estudos Organizacionais.

²Mestre em Administração de Empresas pela UTFPR e Doutorando em Administração de Empresas pela FGV/EAESP na área de Estudos Organizacionais.


Fonte dessa Publicação:

NEVES, Ianaira Barretto Souza; VIANNA, Fernando Resseti Pinheiro Marques. Racismo algorítmico: A exclusão racial agora é “tech” In: Nuevo Blog, 20 nov. 2020. Disponível em: https://nuevoblog.com/2020/11/20/racismo-algotitmico-a-exclusao-racial-agora-e-tech/ . Acesso em: 25/11/2020.


  • Home
  • Racismo Algorítmico: A Exclusão Racial Agora é “Tech”

Explore "Mapas, cenários e educação de futuro(s)"

Junte-se a nós em uma jornada de descoberta coletiva e inspire-se para contribuir com o futuro.

Crie Eventos e Festivais Inesquecíveis com a Voicers!

Trazemos o melhor da Tecnologia com o melhor do Humano para a curadoria de eventos, proporcionando uma experiência de Futuro(s) Saudáveis para as mais diversas indústrias. Se você deseja transformar seu evento em uma experiência única e memorável, estamos aqui para ajudar.

Solicite uma proposta
Preencha o formulário:

Acreditamos no poder da voz para inspirar, educar e transformar. Para palestras, treinamentos e jornadas, podemos trabalhar com todos os temas que estão nas linhas de pesquisas deste portal. Se você está em busca de palestras envolventes ou treinamentos inovadores que façam a diferença, você está no lugar certo.

Solicite uma proposta
Preencha o formulário: