Racismo digital e nanoracismo p aola Cantarini e Willis S. Guerra Filho



Baixar 45.69 Kb.
Encontro20.03.2020
Tamanho45.69 Kb.

RACISMO DIGITAL E NANORACISMO - Paola Cantarini e Willis S. Guerra Filho**

RESUMO


A inteligência artificial vem sendo utilizada cada vez mais na solução de casos jurídicos. Mas, quem vigia, controla e se responsabiliza pelos algoritmos no caso de respostas racistas, machistas, sexistas ou discriminatórias? Sabe-se que a discriminação socioeconômica, racial ou de gênero vem ocorrendo de forma muito frequente na utilização do sistema da inteligência artificial. As tecnologias digitais de comunicação e a ideologia do Vale do Silício são racializadas, pois reforçam a produção de um imaginário social racista. Trata-se, pois, em um primeiro momento, de investigar a dimensão ética e moral da automação e digitalização, envolvendo a incorporação aos sistemas inteligentes de valores humanos (machine ethics), o uso indiscriminado e a mercantilização, sem responsabilidade e sem controle de nossos dados pessoais por empresas como Google e Facebook, a concretização do direito a dados pessoais como direito humano e direito fundamental, a correlação de tal temática, com o uso discriminatório, racista ou sexistas em casos jurídicos decididos por meio da inteligência artificial, envolvendo dados obtidos por meio da mídia digital. As mídias integram o Direito, pois também o constroem, porquanto são meios de comunicação privilegiados na sociedade contemporânea, sendo sua linguagem mais amplamente divulgada, e o Direito é linguagem, com função similar. Em um segundo momento, busca-se verificar se estaríamos diante de um ponto de mutação, de uma nova virada autopoiética, em um momento de ponto crítico na forma de produção do Direito e de como este é interpretado e aplicado. Questiona-se: o desenvolvimento indiscriminado e sem controle, totalmente desvinculado de uma fundamentação superior, ética e moral do Direito em sua aplicação por meio da inteligência artificial, pode indicar o fim da humanidade? Teria chegado de fato o fim da história e a morte do homem? Trata-se do império da máquina que se aproxima, tal como vislumbrado em obras de ficção científica? E no caso de um dano a um ser humano produzido por inteligência artificial quem se responsabiliza? As máquinas podem ser consideradas aptas a serem sujeitos de direitos, com direitos e deveres, possuem aptidão para capacidade jurídica, a qual por sua vez pressupõe uma consciência individual autônoma? O Direito sendo a expressão da “humanitas” pode ser aplicado de forma legítima por meio da inteligência artificial, a qual por não possuir sentimentos, intuição e emoções, tampouco possui consciência e alma, limitando-se a uma aplicação fria e seca da legislação? Por derradeiro, visa-se analisar as representações midiáticas e políticas das principais plataformas digitais envoltas a questões do racismo e da intolerância, envolvendo pessoas afrodescendentes, e sua posterior utilização pela inteligência artificial, e de como impactam o Direito, já que a realidade impacta e também produz o Direito. Segundo Niklas Luhmann (“A realidade dos meios de comunicação”) a nossa realidade na sociedade é criada pelos meios de comunicação.

INTRODUÇÃO

Verifica-se no Direito o predomínio da técnica e do pensamento meramente científico e cartesiano, positivista, e de um modo geral a robotização e a mecanização do pensamento. Isso desconsiderando-se outros aspectos fundamentais na tomada de decisões judiciais, principalmente nos denominados “hard cases”, aqueles envolvendo colisões entre direitos fundamentais. Daí se conclui a insuficiência, para uma solução adequada, no sentido de proteção da dignidade da pessoa humana, de uma simples fórmula matemática algorítmica, como na proposta de Robert Alexy. Desconsidera-se com isso que o Direito e a Ciência, e o Direito enquanto Ciência possuem uma história, e que a própria cientificidade do Direito depende também do elemento empírico, da experiência (Pontes de Miranda, Miguel Reale), e logo, novamente, da história, reduzindo-se a realidade jurídica a fórmulas matemáticas, ou seja, a um simulacro.

Revela-se aqui uma crise de paradigmas no Direito e a necessidade de uma transmutação, a fim de encontrarmos alternativas a uma possível morte do homem e da história, pela perda da autopoiese (Luhmann), sendo esta uma condição da nossa possibilidade de existência, ante a nossa substituição por máquinas e robôs. Isto porque, na natureza tudo o que não é mais relevante e não tem função acaba sofrendo mutações ou é descartado com o tempo.

Resta a questão: com a utilização em larga escala e de forma progressiva da inteligência artificial, é o fim do homem e da história? Chegamos ao que Nietzsche denomina de “demasiado humano”? Estaríamos diante da superação definitiva da era do carbono, e com esta da extinção da forma humana e do início da era do silício, de onde virá uma nova forma, tal como preceituam Michel Foucault e Gilles Deleuze? Trata-se da era do “phylum maquínico”, termo forjado por Gilles Deleuze e Felix Guattari, mencionando o silício no agenciamento contemporâneo homem-natureza.

O motor de diversas aplicações via inteligência artificial funciona basicamente da seguinte forma: o motor de tal programa é um algoritmo, um conjunto de instruções que se aplica a um conjunto de dados. Dependendo de quem construa esses modelos de algoritmos, e dos dados coletados que os alimentam, o resultado será um ou outro. Neste sentido importante estudo de Virginia Eubanks, professora de Ciências Políticas da Universidade de Albany, autora do livro “Automating inequality”, investiga como as ferramentas tecnológicas perfilam, controlam e punem os pobres. Na mesma linha de raciocínio crítico, pesquisa da lavra de professores da Universidade de Boston demonstra que os sistemas de aprendizado das máquinas (machine learning) têm vieses sexistas, pois na fonte de dados mais comum, a internet, já há diversas associações de conceitos que induzem ou ensinam as máquinas a estabelecer certas correlações como verdadeiras, sem uma mediação de seu conteúdo, como, por exemplo, a relação “dona de casa =mulher, gênio =homem”.

Em razão de diversos algoritmos racistas e discriminatórios tem-se desenvolvido algumas iniciativas de auditoria de algoritmos e plataformas digitais, bem como a construção de data sets, visando uma espécie de controle ou regulação da utilização e resultado dos algoritmos.

Outro caso emblemático é o “Tay”, um bot criado em 2016 pela Microsoft para interagir e aprender com as pessoas no Twitter, transformando-se, no prazo de apenas 24 horas, em um defensor do nazismo e de Hitler, sendo tirado do ar, logo após pela empresa.

Por sua vez, um dos aplicativos da Google, o Google fotos, em 2015 foi objeto de diversas notícias, onde se afirmou que a inteligência artificial do aplicativo classificaria nas opções de busca pela palavra “gorila” diversas pessoas negras.

O Poder Judiciário de diversos países vem se “beneficiando” do uso de um sistemas de algoritmos matemáticos, como o Estado de Wisconsin nos EUA, para determinar o grau de periculosidade de criminosos, relacionado à possível redução de penas. Tais problemáticas foram objeto do documentário no Netflix “Making a Murderer”, mostrando a condenação de um inocente, tendo sido a sentença calculada com a ajuda de um algoritmo matemático. Verifica-se ainda a utilização em todo os EUA do “Compas”, um questionário que avalia a potencialidade ou probabilidade de uma pessoa cometer um crime futuramente, já tendo sido advertido pela Suprema Corte de Wisconsin que o Compas pode dar uma pontuação maior para minorias étnicas.

O racismo está longe de acabar e vai continuar no futuro (Mbembe, “Políticas da inimizade”, p. 95), como destaca Mbembe, apontando, na esteira de Foucault, para um novo tipo de racismo, o nanorracismo, talvez de alguma forma similar às mencionadas microagressões raciais, quando as agressões racistas estão limitadas a uma pessoa, a um determinado local, ao privado, garantindo certo anonimato por parte do agressor (Chester Pierce, 1970). Para Mbembe, é “uma forma de narcoterapia de ave de rapina, feita de remendos, com um poderoso bico adunco e afiado – a naftalina que caracteriza os tempos de dormência e de paralisia flácida, quando se perdeu toda a elasticidade (...)”. E continua:

Por nanorracismo entenda-se esta forma narcótica do preconceito em relação à cor expressa nos gestos anódinos do dia-a-dia, por isto ou por aquilo, aparentemente inconscientes, numa brincadeira, numa alusão ou numa insinuação, num lapso, numa anedota, num subentendido (...), num desejo obscuro de estigmatizar, e sobretudo, de violentar, ferir e humilhar, contaminar o que não é considerado como sendo dos nossos (...). a época do nanorracismo é efetivamente a do racismo abismal, do racismo de navalha enferrujada, (...) (Ibidem, p. 98 e ss.).

Achille Mbembe comenta acerca da relação entre capitalismo e colonialismo, bem como sobre a existência atualmente do necropoder, quando a morte tende a tornar-se cada vez mais espectral, enquanto vivemos cada vez mais uma vida supérflua, ao valer menos até do que uma mercadoria, apontando o racismo como o motor do necropoder, reduzindo-se o valor da vida, e de outro lado criando o hábito da perda. Em suas palavras:

(...) longe de levar a uma globalização da democracia, a corrida para as terras novas desembocou numa nova lei (nomos) da terra, cuja principal característica é a de tornar guerra e raça dois sacramentos privilegiados da história. A consagração da guerra e da raça nos altos-fornos do colonialismo tornou-as simultaneamente o antídoto e o veneno da modernidade, o seu duplo pharmakon (Achille Mbembe, “Políticas da inimizade”, Lisboa: Antígona Editores, 2017, 1ª. impressão, p.14; p. 65).

Já fora noticiada a existência do primeiro robô juiz do mundo na Estônia, o qual irá julgar causas de menor valor econômico. Está também em andamento o projeto “Cérebro humano”, ou “Human Brain Project”, um projeto de pesquisa, com recursos de fundos europeus, visando recriar até 2024 um cérebro humano graças a um supercomputador.

No Brasil já há proposta de criação de um Centro e Solução de Conflitos sem a participação de advogados pelo Tribunal de Justiça do Rio de Janeiro, com o objetivo de funcionar via internet e com o auxílio de inteligência artificial.

O Parlamento da Inglaterra por meio do Comitê de Ciência e Tecnologia abriu inquérito para examinar o uso crescente de algoritmos (e inteligência artificial) na tomada de decisões públicas e privadas, visando analisar como estes são formulados, as possíveis correções e principalmente o impacto sobre as pessoas quanto sua compreensão,, sugestão e-ou indução na tomada de decisões. Alguns denominam este fenômeno como “Machine bias”, “Algorithm bias” ou simplesmente, Bias. É o viés tendencioso. A remoção de tal viés tendencioso em algoritmos não é trivial e é um campo de pesquisa em andamento. No inquérito em curso na Inglaterra, destacou-se que o uso de algoritmos no setor público poder levar a policiamento discriminatório e monitoramento indiscriminado, bem como a ações de agências de inteligência, influência comportamental e invasões em larga escala de privacidade

A rápida evolução tecnológica e a globalização criaram novos desafios com relação à proteção de dados pessoais, os quais vem sendo utilizados numa escala sem precedentes por empresas privadas e públicas. A LGPD brasileira e a GDPR da União Europeia ressaltam o direito das pessoas solicitarem a revisão de decisões automatizadas que afetem de alguma forma os seus direitos, criando-se o direito à revisão de decisões automatizadas. A Alemanha possui algumas peculiaridades que se chocam com a diretiva da EU em temas de proteção de dados, destacando-se decisões do Tribunal Federal de Justiça em 1983, sobre os direitos ao livre desenvolvimento de personalidade e autodeterminação informacional, em 2008, sobre privacidade digital e em 2010 (Tribunal Constitucional Federal Alemão., BvR 256/08, Julgado em 02/03/2010, disponível em http://www.bverfg.de/e/rs20100302_1bvr025608en.html).

A Alemanha considera que a proteção aos dados pessoais e o direito à privacidade, são projeções da personalidade do indivíduo, nos termos do art. 2 I da Lei Fundamental Alemã. Destaca-se como um dos marcos referenciais na proteção de dados pessoais o julgamento da “Lei de Recenseamento de População, Profissão, Moradia e Trabalho”, pelo Tribunal Constitucional Alemão em 1983, reconhecendo o direito subjetivo fundamental de proteção de dados pessoais, relacionado ao direito à autodeterminação informativa.

O Regulamento 2016/679 do Parlamento Europeu e do Conselho relativo à proteção das pessoas (não coletivas) quanto ao tratamento de dados, revogando a Diretiva 95/46/CE prevê tal direito como direito fundamental (item 1: “a proteção das pessoas singulares relativamente ao tratamento de dados pessoais é um direito fundamental”) e faz ressalva acerca da necessidade de aplicação do princípio da proporcionalidade ao ressalvar que o direito à proteção de dados pessoais não é absoluto, devendo ser equilibrado com outros direitos fundamentais, com o princípio da proporcionalidade (item4). A Diretiva 95/46/CE visa harmonizar a defesa dos direitos e das liberdades fundamentais em relação às atividades de tratamento de dados, assegurar a livre circulação e dados pessoais entre Estados-Membros.

Por sua vez a Diretiva 2002/58/CE estabelece no art. 6º que os dados de tráfego tratados e armazenados pelo provedor de uma rede pública de comunicações ou de um serviço de comunicações eletrônicas publicamente disponíveis deveriam ser eliminados ou tornados anônimos quando deixassem de ser necessários para efeitos da transmissão da comunicação. Haveria tal possibilidade quando houvesse necessidade de proteção da segurança nacional, da defesa, da segurança pública, da prevenção, da investigação, da detecção e a repressão de infrações penais, em consonância com o art. 52 da Carta de Direitos Fundamentais da União Europeia.

O denominado e conhecido “Troley problem” demonstra a existência de questões morais e éticas da mais alta importância envoltas com a impossibilidade de uma automatização absoluta da Justiça, vez que esta sem a presença do elemento humano, já virou outra coisa. O MIT Media Lab estudando tais temáticas desenvolveu a “Moral Machine”, plataforma para coletar dados relativos a decisões morais pelos seres humanos (moralmachine.mmit.edu). Um artigo publicado na Revista “Nature” traz alguns resultados de tal pesquisa, destacando-se a conclusão de que em países com alto grau de desigualdade econômica há uma tendência a tratar de forma bastante desigual as pessoas de acordo com seu status social.

O Direito depende para sua evolução e reconstrução “in fieri”, da “poiesis”, sendo tal característica marcante dos seres humanos como seres biológicos, depende da criatividade, e da sensibilidade dos que se relacionam com o Direito.

Portanto, o Direito, apesar da predominância de sua compreensão e aplicação de forma cartesiana, técnica, limitado a ser concebido apenas como ciência técnica, afasta-se cada vez mais da “poiesis”, da poética, da sensibilidade, da criação, ocorrendo atualmente, em grande parte, apenas uma eterna repetição do igual, do mesmo, “ad nauseam”, nada se cria, e tudo se copia, ainda mais no universo jurídico, cada vez fazemos menos ciência do Direito. Cada vez mais se utiliza da linguagem automatizada e da aplicação da inteligência artificial no Direito, sem que estejam suficientemente analisados os impactos e as consequências possivelmente danosas mencionados anteriormente.

Sabe-se que os algoritmos trabalham com probabilidades e não com certezas, mas tal fato muitas vezes é desprezado ou subvalorizado pelos aplicadores do Direito na busca de uma razão geométrica na interpretação e concreção do Direito.

Em um caso noticiado nos EUA foi detectado que há já algoritmos, com base nos quais a inteligência artificial atua e toma decisões, racistas ou discriminatórias. Isto ocorre por captarem dados que circulam na sociedade em nossos sistemas de informações e de comunicações, reproduzindo a existência do racismo estrutural em nossa sociedade, e contaminando com tais dados os algoritmos utilizados por inteligência artificial para a tomada de decisões de suma importância e relevância, como as que vêm cada vez mais sendo adotadas no âmbito do Poder Judiciário.

Considerando-se o Direito enquanto Ciência, tal forma de tomada de decisão pela inteligência artificial nos parece que seria uma espécie de retorno ao entendimento de que as ciências, baseadas na observação de regularidades na ocorrência de fatos, permitindo elaborar leis mecanicistas gerais explicativas da realidade. Contudo, deve-se estar atento que tais fatos eram recortados do conjunto da realidade, para assim dar-se a eles um tratamento analítico, mas limitados e reduzidos à uma determinada localização espaço-temporal.

Trata-se de um tipo de aplicação próprio da física mecanicista-newtoniana, superada atualmente pela física quântica e relativista, a demonstrar a fragilidade de sua construção teórica e aplicação, utilizando-se de observações obtidas em escala limitada, como a que se observa na utilização de um banco de dados, sabe-se lá construído por quem, na construção de uma decisão jurídica por meio de inteligência artificial, ainda mais na seara do Direito, por desconsiderar que o Direito e as ciências no geral possuem história.

Vislumbra-se ainda outras problemáticas: a inteligência artificial, por não possuir uma consciência e uma alma, não tendo possibilidade do maravilhar-se e do assombrar-se, limitada à uma perspectiva inodora, inorgânica e mecanicista da vida, contrária pois das ações tipicamente humanas, seria indicada e apta a tomar decisões que envolvem não apenas o lado racional da inteligência, mas sobretudo o imaginário, o imaginal (Henry Corbin), a sensibilidade, as emoções e as intuições?

Característico deste tipo de forma de “conhecimento” típico da ciência, utilizando-se de signos nos cálculos matemáticos de que se vale, típico de nossa sociedade da informação, onde se produz cada vez mais informação e em uma relação inversamente proporcional, cada vez menos conhecimento reflexivo, pois seriam estes antagônicos. Há o aperfeiçoamento de uma racionalidade meramente técnica, vazia, segundo Husserl, sem a produção de saber conteúdo cognitivo algum (Tese de Doutorado em Comunicação e Semiótica. Willis S. Guerra Filho. “Quantum critic e transmutação: Etiologia da presente crise semiótica e perspectivas de superação”).

A partir, principalmente, de Newton, o padrão de ciência que vai desqualificar como ciência o que até então não havia muito de diferença em termos de ciência. Começa tal processo na verdade desde a química, no século XVIII, como bem relata Isabelle Stengers (“A invenção da Ciência”). Daí a alquimia era química, e não há separação entre o sujeito e o objeto do estudo, do conhecimento. O Sujeito está envolvido na sua própria transformação nos seus estudos, típica conclusão da alquimia, a pedra filosofal buscada, seria a própria transformação pessoal durante tal processo. Não havia distinção até o surgimento da química entre as ciências herméticas e as ciências alquímicas. Antigamente, portanto, o objetivo da ciência não era um objetivo econômico, utilitário como vem a se transformar após Newton.

A informática e a inteligência artificial na utilização de algoritmos para a produção de decisões judiciais baseiam-se na matemática, ou seja, na lógica simbólica, diferente da lógica aristotélica. A inteligência artificial é um simbolismo, um pensamento abstrato. Sob o ponto de vista do formalismo não há tanta diferença entre o Direito e a Matemática, pois ambos são formalismos, números e normas, ambos são fórmulas.

Há uma fratura, com a divisão das culturas das ciências e das humanidades, promovendo uma desumanização das ciências naturais e matemáticas e também uma atrofia do lado das humanidades, de um tipo de raciocínio lógico-matemático que poderia em muito contribuir. Há uma dupla atrofia, portanto. Promovendo o que é denominado já na década de 30 por Husserl em seu livro sobre a “Crise da civilização europeia”, das matrizes europeias ou seja, do modo ocidental de estudar a realidade, intervindo nesta realidade, de forma diversa do que era postulado pela alquimia, antes da transformação da ciência em algo utilitário.

Husserl assim já antecipando até mesmo as conclusões de Heidegger, seu aluno, apontando para o problema no cerne do pensamento matemático tendo efeitos catastróficos do ponto de vista político e social (Grande Guerra Mundial). Isto porque a ciência ao se utilizar da lógica matemática e do simbolismo e da abstração típicos da matemática, se descola do mundo da vida, do mundo vivido, da vivência mundana, e pois, de nos seres humanos. Tal conhecimento proveniente da ciência moderna, ao se descolar do mundo da vida, do verdadeiro solo que justificaria toda a construção do conhecimento, acaba se tornando um conhecimento alienado, estranho.

Trata-se do que se denomina de ciência como religião, de uma religião científica, assumindo como verdade as fases do desenvolvimento da realidade, tal como se situa o pensamento e proposta epistemológica de A. Conte, e seu positivismo. Neste sentido, a terceira fase a fase científica é tida como a derradeira e definitiva, correspondendo a ideia de progresso. Contudo a crença na ciência promove uma crença na descrença. Uma espécie de fundamentalismo na ciência. Cria-se uma espécie de alergia, e se torna o humano ainda mais indefeso e frágil, com a postura individualista e defensiva.

Devemos então promover a reconciliação das ciências e das religiões, na busca de mais convergências do que diferenças.

REFERÊNCIAS

BERNARDES, Célia Regina Ody (2013). Racismo de Estado: uma reflexão a partir da crítica da razão governamental de Michel Foucault. Curitiba: Juruá.

CANTARINI, Paola (2019). Elementos para um direito emancipatório e contra-hegemônico: uma análise crítica dos direitos humanos e fundamentais de grupos vulneráveis. Rio de Janeiro: Lumen Juris.

CASTELLS, Manuel (1996). The rise of the network society. Blackwell. Oxford.

COSTA PINTO, L. A . (1998/1953). O negro no Rio de Janeiro: relações de raça numa sociedade em mudança. Rio de Janeiro, Editora da UFRJ (2ª ed.).

FERNANDES, Florestan (1966), A integração do negro na sociedade de classe. São Paulo: Dominus.

FOUCAULT, Michel (2010). Defender la sociedad. Trad. de Horario Pons. Buenos Aires: Fondo de Cultura Económica.

FREYRE, Gilberto (1979). O escravo nos anúncios de jornais do século XIX. São Paulo: Nacional.

____________________. (1998/1936). Sobrados e mucambos: decadência do patriarcado rural e desenvolvimento do urbano. Rio de Janeiro: Record.

GILROY, Paul (2001). O Atlântico Negro: modernidade e dupla consciência. São Paulo, Ed. 34/Rio de Janeiro, Universidade Cândido Mendes – Centro de Estudos Afro-Asiáticos.

GUIMARÃES, Antônio Sérgio Alfredo (1999). Racismo e Anti-Racismo no Brasil. São Paulo, Editora 34.

IANNI, Octavio (1978). Escravidão e racismo. São Paulo: HUCITEC.

___________ (1962). A metamorfose do escravo. São Paulo: Difusão Europeia do Livro, 1962.

MARGARIDO, Alfredo (1964). Negritude e humanismo. Lisboa: Casa dos Estudantes do Império.

MBEMBE, Achille (2017). Políticas da inimizade, Lisboa: Antígona Editores, 1ª. impressão.

MUNANGA, Kabengele (1988). Construção da identidade negra: diversidade de contextos e problemas ideológicos. In: CONSORTE, Josildeth Gomes; COSTA, Márcia Regina da (1985). O universo cultural africano. Fundação João Pinheiro, Belo Horizonte, 14 (7, 8, 9, 10).

____________________. (2000). Uma abordagem conceitual das noções de raça, racismo, identidade e etnia. IN: BRANDÃO, A. A. P. (Org.) Programa de educação sobre o negro na sociedade brasileira. Niterói: EdUFF.

NASCIMENTO, Abdias do (1978). O genocídio do negro brasileiro: processo de um racismo mascarado. Rio de Janeiro: Paz e Terra (Estudos brasileiros, 30).

ORTIGUES, M. C E ORTIGUES (1984). Édipo Africano. São Paulo: Escuta. ulus.

PEREIRA, João Baptista Borges (1987). Brancos e negros no Brasil: questão de raça, questão de classe. In: D’INCAO, Maria Ângela (Org.). O saber militante – ensaio sobre Florestan Fernandes. São Paulo: Paz e Terra/Unesp.

SANTAELLA, Lúcia. (2007) Pós-humano – por quê?, in Revista USP, n. 74, São Paulo.

SANTOS, Milton (1999). As exclusões da globalização: pobres e negros. In: FERREIRA, Antônio Mário (Org.) Na própria pele; os negros no Rio Grande do Sul. Porto Alegre, CORAG/Secretaria de Estado da Cultura.

SANTOS, Joel Rufino dos (1984). O que é racismo. São Paulo: Abril Cultural, (Primeiros Passos, 8).

VIRILIO, Paul. (1989). América: depoimentos. (Pauta da entrevista: João Moreira

Huber, L. P., & Solorzano, D. G. (2015). Racial microaggressions as a tool for critical race research. Race Ethnicity and Education, 18(3), 297-320.

Levchak, C. C. (2018). Microaggressions and Modern Racism: Endurance and Evolution. New Britain (USA): Springer.

Nascimento, A. (2016). O genocídio do negro brasileiro: processo de um racismo mascarado. Editora Perspectiva SA.

Nakamura, L. (2008). Digitizing race: Visual cultures of the Internet (Vol. 23). U of Minnesota Press

Noble, S. U. (2018). Algorithms of oppression: How search engines reinforce racism. Nova Iorque (USA): NYU Press.

Osoba, O. A., & Welser IV, W. (2017). An intelligence in our image: The risks of bias and errors in artificial intelligence. Rand Corporation.

Pasquale, F. (2015). The black box society. Harvard University Press.

Pierce, C. M. (1969). Is bigotry the basis of the medical problems of the ghetto?.

Pierce, C. (1970). Offensive mechanisms. In: BARBOUR, Floyd. (org.) The black seventies. Porter Sargent Pub, p. 265-282.

Recuero, R. (2014). Discutindo análise de conteúdo como método: o #DiadaConsciênciaNegra no Twitter. Cadernos de Estudos Lingüísticos, 56(2), 289-309.

Sandvig, C., Hamilton, K., Karahalios, K., & Langbort, C. (2014). Auditing algorithms: Research methods for detecting discrimination on internet platforms. Data and discrimination: converting critical concerns into productive inquiry, 22.


* Mestre e Doutora em Direito pela PUC-SP, Doutora em filosofia do Direito pela Universidade do Salento – Itália; Pós-Doutora em Teoria do Direito pela Escola Européia de Pós-graduação – Suíça, e em sociologia do Direito pela Universidade de

**Pós-Doutor em Filosofia pela UFRJ. Titular do Centro de Ciências Jurídicas e Políticas da UNIRIO.






Compartilhe com seus amigos:


©historiapt.info 2019
enviar mensagem

    Página principal