por Ianaira Barretto Souza Neves¹ e Fernando Ressetti Pinheiro Marques Vianna²
“Quem antes invadiu nossos mundos em busca de madeira, ouro e petróleo, agora adentra e tenta formatar nossas subjetividades com plataformas que buscam extrair nossos dados, modular nossas expectativas, reduzir nossas escolhas, predizer nossa vontade e embarcar nos códigos e sistemas algorítmicos as estruturas de dominação patriarcais, racistas, étnicas e classistas.”
Sérgio Amadeu em “Comunidades, Algoritmos e Ativismos Digitais: Olhares afrodiaspóricos”
Não se trata de algo tão novo ou tão desconhecido, mas talvez a lente seja incômoda a ponto de preferirmos evitá-la
O sistema capitalista – cerne do conceito Capitalismo de Vigilância cunhado por Shoshana Zuboff (2019[i]) e denominado por outros autores, como Capitalismo de Plataforma [ii] ou Capitalismo de Big Data [iii] – é um sistema que, desde sua origem, aprimora continuamente a tecnologia de acumulação de capital com base na exploração de classes, gêneros e raças.
Nesse sentido, acreditamos ser emergencial a discussão que envolve o chamado racismo algorítmico na área dos Estudos Organizacionais, haja vista a relação direta entre o papel de organizações da era da Internet e da digitalização na exploração e violência racial [iv].
O Fetiche da Tecnologia
Desde o início das máquinas autônomas, com Ada Lovelace, Babbage e seu computador que fazia cálculos “sozinho”, a ideia de máquinas que funcionam por si, constituindo-se como “autônomas e inteligentes”, faz parte do fetiche da tecnologia. No entanto, tais tecnologias são, desde a sua concepção, portadoras das visões de mundo, expectativas, objetivos e projeções conscientes ou inconscientes dos sujeitos e organizações que as projetam [v]. Em uma analogia didática e rápida, mas que torna o entendimento simples, podemos pensar em uma máquina de costura. Com a matéria-prima adequada, como um fio de linha, ela é capaz de fazer um remendo simples ou um vestido de gala, a depender do desejo da costureira ou do costureiro, em concordância com o objetivo da loja ou cliente demandante. Com as tecnologias digitais acontece algo similar: os dados são a matéria-prima, e o resultado de seu uso não é definido pelo algoritmo, mas por quem o controla.
A racialização ideológica do Vale do Silício e a Camuflagem da automação algorítmica
Dessa forma, quando a pesquisadora estado-unidense, Safiya Noble (2018[vi]), apresentou uma série de práticas de racismo digital realizadas pela Google e outros bancos de imagens, não se tratava de um fenômeno ocorrido a esmo, sem o conhecimento da empresa, mas se trata da racialização ideológica do Vale do Silício, “a partir de uma supremacia branca”[vii]. Essa cultura verticalizada do patriarcado se faz presente na forma digitalizada, por meio de resultados de pesquisas e buscas em bancos de imagens que acabam relacionando a mulher negra, por exemplo, a conotações sexuais [viii]. Trata-se de uma tentativa de manter a população negra em lugar que lhe é imposto desde o período colonial [ix], mas agora por meio das mídias digitais e sob a camuflagem da automação algorítmica [x]. Prova disso é relatada, também, por Carrera (2019[xi]), quando os resultados de buscas por imagens relacionadas à palavra pobreza são predominantemente de pessoas negras, enquanto os resultados de buscas por imagens relacionadas à palavra riqueza, são predominantemente de homens brancos.
Mas não só nas imagens estão simbolizadas as violências raciais algorítmicas. Recentemente a Google, no Brasil, foi notificada por seu teclado “inteligente” sugerir, como complemento ao termo “neguinha”, adjetivos como “assanhada” e “novinha” [xii]. Tal prática já havia sido observada anteriormente, mas relacionando imagens de sexo explícito à busca pela frase “mulher negra dando aulas”, o que não acontecia na mesma busca relacionada a mulheres brancas [xiii]. Obviamente, esse comportamento algorítmico reflete uma cultura social racista, em que mulheres negras socialmente ascendentes representam 81% das vítimas de discursos racistas no Facebook [xiv]. Tal prática indica o trauma de uma Internet culturalmente formada por uma branquitude que se recusa a falar sobre o racismo, mas continua o exercendo (agora também de forma digital) [xv].
O Capitalismo de Vigilância e Racismo Algorítmico
Imaginar que todas essas práticas são coincidência ou um simples erro é apelar para uma inocência inexistente. Programas digitais e algoritmos são passíveis a falhas éticas e morais, além de reforçarem injustiças sociais, já que são desenvolvidos por pessoas e, portanto, estão sujeitos problemas em sua concepção e/ou codificação[xvi]. Além disso, a análise algorítmica dos dados possui, inerentemente, algum viés: os conjuntos de dados são pré-estruturados de acordo com precedentes e padrões históricos das estruturas organizacionais a que servem. Dessa maneira, já foram instruídos em algum direcionamento, e esses vieses refletirão a cultura do espaço, social ou organizacional, sendo incorporados ao código de programação durante a aprendizagem da máquina [xvii].
Não por acaso, enquanto a o ódio nas redes sociais contra pessoas negras é camuflada por uma ideologia de liberdade e igualdade, a supremacia branca que impera no Vale do Silício vê suas receitas alcançando patamares nunca dantes navegados [xviii]. Trata-se de uma combinação nefasta entre o neoliberalismo e a digitalização, e que resulta em fenômenos que se retroalimentam, como o capitalismo de vigilância e o racismo algorítmico [xix].
Tecnologias de Vigilância, Campanhas Publicitárias e Influencers Digitais
Podemos, ainda, elencar outras formas nas quais o racismo algorítmico vem usufruindo das mídias socias e tecnologias digitais em prol da manutenção e ampliação do racismo estrutural.
Primeiro, quando mencionamos reconhecimento facial e sua utilização na segurança pública, os alvos são, predominantemente pessoas negras. Tecnologias de vigilância servem ao policiamento preditivo a partir de modelagens estatísticas originalmente racistas e reforçam a perseguição à população negra (Referência).
O segundo ponto levantado são as campanhas publicitárias em geral, como as relacionadas ao outubro rosa, novembro azul e julho da amamentação, que quando pesquisadas imagens relacionadas a tais campanhas, em bancos digitais, resultam, predominantemente, em imagens de pessoas brancas, invisibilizando ou precarizando as pessoas negras [xx].
Terceiro, recentemente pessoas públicas, influenciadoras negras e influenciadores negros denunciaram a exclusão algorítmica de suas postagens. Ao testar publicar fotos unicamente de mulheres brancas em sua página do Instagram, a influenciadora Sá Ollebar viu seu engajamento aumentar em mais de 6.000% denunciando, assim, a predeterminação tecnológica que atribui a imagens de pessoas brancas maior retorno digital e, consequentemente, material, do que imagens de pessoas negras [xxi].
O Poder Hegemônico da Tech tem cor e sexo
Por fim, é problemático, também, o fato dos proprietários das organizações do capitalismo de vigilância e o rol de trabalhadores de Tecnologia da Informação ser composto, em sua esmagadora maioria, por homens brancos. Tal fenômeno favorece a reprodução do poder hegemônico que enxergamos na sociedade – havendo, inclusive, uma superioridade hierárquica significativa em relação às trabalhadoras mulheres, e uma superioridade salarial significativa em relação ao trabalhador negro [xxii].
Dessa forma, o racismo algorítmico é, atualmente, ferramenta importantíssima do racismo estrutural, pois i. viabiliza a disseminação do ódio e a violência digital contra a população negra por meios que ainda não são plenamente verificáveis, ii. camufla-se como ferramenta de equidade e empoderamento, mas funciona garantindo a manutenção e ampliação das práticas patriarcais e soberanas das populações brancas que dominam financeira e tecnicamente o mundo digital, e iii. expropria os dados e manipula usuários com o objetivo de frear a possibilidade de mobilidade social da pessoa negra, em especial das mulheres negras, em prol da manutenção de um status quo escravagista.
É Preciso Repensarmos toda a Estrutura até Aqui!
Diante de uma realidade tão complexa e de difícil acesso, é preciso repensarmos toda a estrutura que envolve essa algoritmização da vida e da sociedade. Não é mais possível naturalizarmos as questões aqui levantadas, sem evidenciar as implicações e as necessárias preocupações com a ampla utilização das tecnologias digitais e da dataficação da vida [xxiii], que acarretam em um enviesamento na utilização dos dados e reforçam práticas que prejudicam e excluem, mais uma vez, a parcela negra da população. Enquanto a discussão levantada por documentários como “Privacidade Hackeada” [xxiv] e “O dilema das Redes” [xxv] durarem apenas até o próximo like ou a próxima postagem, e não envolver o racismo praticado nas redes e pelas plataformas, a supremacia branca que domina o capitalismo de vigilância permanecerá colhendo os frutos de suas práticas sob o custo elevado de vidas que, para elas, não importam.
Referências usadas pelos autores:
[i] ZUBOFF, S.. The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power:Barack Obama’s Books of 2019. Profile Books, 2019.
[ii] SRNICEK, N. Platform capitalism. John Wiley & Sons, 2017.
[iii] CHANDLER, D.; FUCHS, C. Digital objects, digital subjects: Interdisciplinary perspectives on capitalism, labour and politics in the age of big data. University of Westminster Press, 2019.
[iv] SILVA, T. Racismo Algorítmico em Plataformas Digitais: microagressões e discriminação em código. Comunidades, Algoritmos e Ativismos digitais, n.121, 2019.
[v] ROUVROY, A.; BERNS, T. Governamentalidade algorítmica e perspectivas de emancipação: o díspar como condição de individuação pela relação?. Revista ECO-Pós, v.18, n.2, 2015.
GILLESPIE, T. The relevance of algorithms. Media technologies: Essays on communication, materiality, and society, n. 167, 2014.
[vi] NOBLE, S. U. Algorithms of oppression: How search engines reinforce racism. nyu Press, 2018.
[vii] Idem item iv, p. 129.
[viii] CAMPOS, A. A. A cultura do estupro como método perverso de controle nas sociedades patriarcais. Revista Espaço Acadêmico, v.16, n.183, , 2016.
[ix] TRINDADE, L. V. P. Mídias sociais e a naturalização de discursos racistas no Brasil. Comunidades, Algoritmos e Ativismos digitais, n.26, 2020.
[x] Idem item vi.
[xi] CARRERA, F. (2020). Racismo e sexismo em bancos de imagens digitais: análise de resultados de busca e atribuição de relevância na dimensão financeira/profissional. Comunidades, Algoritmos e Ativismos digitais, n. 139, 2020.
[xii] CARDOSO, B. Gboard: teclado do Google sugere termos sexuais para a palavra ‘neguinha’. Techtudo, 01 ago. 2020. Disponível em https://www.techtudo.com.br/noticias/2020/08/gboard-teclado-do-google-sugere-termos-sexuais-para-a-palavra-neguinha.ghtml
[xiii] Idem item xii.
[xiv] TRINDADE, L. V. P. It is not that funny. Critical analysis of racial ideologies embedded in racialized humour discourses on social media in Brazil (Doctoral dissertation, University of Southampton), 2018.
[xv] DIANGELO, R. White fragility: Why it’s so hard for white people to talk about racism. Beacon Press, 2018.
[xvi] NOBLE, S. U. Algorithms of oppression: How search engines reinforce racism. nyu Press, 2018.
O’NEIL, C. Weapons of math destruction: How big data increases inequality and threatens democracy. Broadway Books, 2016.
GILLESPIE, T. The relevance of algorithms. Media technologies: Essays on communication, materiality, and society, n. 167, 2014.
[xvii] NOBLE, S. U. Algorithms of oppression: How search engines reinforce racism. nyu Press, 2018.
EUBANKS, V. Automating inequality:How high-tech tools profile, police, and punish the poor. St. Martin’s Press, 2018.
[xviii] SILVA, T. Racismo Algorítmico em Plataformas Digitais: microagressões e discriminação em código. Comunidades, Algoritmos e Ativismos digitais, n.121, 2019.
COLLINS, C.; OCAMPO, O.; PASLASKI, S. Billionaire Bonanza 2020. Institute for Policy Studies. Publicado em 23 de abril de 2020. Disponível em: https://ips-dc.org/billionaire-bonanza-2020/
[xix] SILVA, T. Racismo Algorítmico em Plataformas Digitais: microagressões e discriminação em código. Comunidades, Algoritmos e Ativismos digitais, n.121, 2019.
ZUBOFF, S.. The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power:Barack Obama’s Books of 2019. Profile Books, 2019.
[xx] CARRERA, F. (2020). Racismo e sexismo em bancos de imagens digitais: análise de resultados de busca e atribuição de relevância na dimensão financeira/profissional. Comunidades, Algoritmos e Ativismos digitais, n. 139, 2020.
CARRERA, F.; CARVALHO, D. (2020). Algoritmos racistas: a hiper-ritualização da solidão da mulher negra em bancos de imagens digitais. Galáxia (São Paulo), n.43, 2010.
[xxi] OLLEBAR, S. Algorítmo. Vídeo publicado na rede social Instagram, 2020. Disponível em: https://www.instagram.com/stories/highlights/17924230549450254/
[xxii] NUNES, J. H. Gênero e raça no trabalho em tecnologia da informação (TI). Ciências Sociais Unisinos, v.52, n.3, 2016.
[xxiii] COULDRY, N.; MEJÍAS, U. A. The costs of connection:How data is colonizing human life and appropriating it for capitalism. Stanford University Press, 2019.
SCHMIDT-KRAEPELIN, M. et al. Archetypes of Gamification: Analysis of mHealth Apps. JMIR mHealth and uHealth, v.8, n.10, 2020.
BREIDBACH, C. F.; MAGLIO, P. P.. Technology-enabled value co-creation: An empirical analysis of actors, resources, and practices. Industrial Marketing Management, n. 56, 2016.
[xxiv] PRIVACIDADE Hackeada. Direção e Produção por Jehane Noujaim e Karim Amer. Estados Unidos da América: The Othrs, 2019.
[xxv] O DILEMA das redes. Direção por Jeff Orlowski e Produção por Larissa Rhodes. Estados Unidos da América: Netflix, 2020.
¹Mestranda em Administração de Empresas pela FGV/EAESP na área de Estudos Organizacionais.
²Mestre em Administração de Empresas pela UTFPR e Doutorando em Administração de Empresas pela FGV/EAESP na área de Estudos Organizacionais.
Fonte dessa Publicação:
NEVES, Ianaira Barretto Souza; VIANNA, Fernando Resseti Pinheiro Marques. Racismo algorítmico: A exclusão racial agora é “tech” In: Nuevo Blog, 20 nov. 2020. Disponível em: https://nuevoblog.com/2020/11/20/racismo-algotitmico-a-exclusao-racial-agora-e-tech/ . Acesso em: 25/11/2020.