PresentationPDF Available

Visão Computacional e Vieses Racializados: branquitude como padrão no aprendizado de máquina

Authors:

Abstract

Recursos de inteligência artificial estão cada vez mais acessíveis a empresas e governos de todos os tipos, sendo aplicados em sistemas de vigilância, plataformas de mídias sociais e outros tipos de agentes artificiais. Um dos campos mais inovadores é o da visão computacional, que permite reconhecer automaticamente objetos, entidades, conceitos ou características extraídas de imagens, inclusive sobre pessoas (WANG, ZHANG & MARTIN, 2015). A partir da exploração de como a visão maquínica dos provedores de inteligência artificial reconhecem objetos, conceitos e dimensões em redes semânticas (MINTZ, 2016), investigamos como o reconhecimento automatizado de imagens e posterior modulação algorítmica (SILVEIRA, 2017) de comportamento parte frequentemente de um olhar eurocêntrico quanto a categorias raciais (FANCHER, 2016; NAKAYAMA, 2017; BENTHALL & HAYNES, 2019) sobretudo vinculado a inclusão/exclusão e visibilidade/invisibilidade do outro racializado, com impacto efetivo para os usuários de agentes artificiais, plataformas de mídias sociais e bancos de dados. Esta investigação parte da bibliografia de estudos sobre a branquitude (BENTO, 2012; BASTOS, 2016; CARONE & BENTO, 2017) e o seu papel enquanto definidora da sociedade e tecnologias de produção e controle (MILLS, 2014; MBEMBE , 2017). O trabalho apresenta criticamente casos mapeados por ativistas e desenvolvedoras em torno do mundo sobre problemas especificamente ligados à visão computacional, lidos sob a ótica da Teoria Racial Crítica (NAKAMURA, 2008; LOPEZ, 2013; NOBLE & TYNES, 2016; BUOLAMWINI & GEBRU, 2018; NOBLE, 2018). Tratam-se de casos de equivalência de conceitos como visibilidade, eficácia, humanidade e beleza à experiência de usuários brancos em sistemas como robôs interagentes, buscadores e mídias sociais. Uma vez que categorias e tipologias são manifestações de como os registros informacionais configuram e reproduzem poder (ALI, 2013), com impacto real nas possibilidades de representação e expressão equitárias entre diferentes segmentos da sociedade (COTTOM, 2016), o estudo busca jogar luz sobre estas questões relevantes ao debate sobre algoritmos e suas opacidades (GILLESPIE, 2014; BROUSSARD, 2018).
Visão Computacional e
Vieses Racializados:
branquitude como padrão no
aprendizado de máquina
Tarcízio Roberto da Silva
Mestre em Comunicação e Cultura Contemporâneas
(Universidade Federal da Bahia)
Doutorando em Ciências Humanas e Sociais
(Universidade Federal do ABC)
Resumo
Recursos de inteligência artificial estão cada vez mais acessíveis a empresas e governos de todos os tipos, sendo
aplicados em sistemas de vigilância, plataformas de mídias sociais e outros tipos de agentes artificiais. Um dos campos
mais inovadores é o da visão computacional, que permite reconhecer automaticamente objetos, entidades, conceitos
ou características extraídas de imagens, inclusive sobre pessoas (WANG, ZHANG & MARTIN, 2015).
A partir da exploração de como a visão maquínica dos provedores de inteligência artificial reconhecem objetos,
conceitos e dimensões em redes semânticas (MINTZ, 2016), investigamos como o reconhecimento automatizado de
imagens e posterior modulação algorítmica (SILVEIRA, 2017) de comportamento parte frequentemente de um olhar
eurocêntrico quanto a categorias raciais (FANCHER, 2016; NAKAYAMA, 2017; BENTHALL & HAYNES, 2019) sobretudo
vinculado a inclusão/exclusão e visibilidade/invisibilidade do outro racializado, com impacto efetivo para os usuários
de agentes artificiais, plataformas de mídias sociais e bancos de dados. Esta investigação parte da bibliografia de
estudos sobre a branquitude (BENTO, 2012; BASTOS, 2016; CARONE & BENTO, 2017) e o seu papel enquanto
definidora da sociedade e tecnologias de produção e controle (MILLS, 2014; MBEMBE , 2017).
O trabalho apresenta criticamente casos mapeados por ativistas e desenvolvedoras em torno do mundo sobre
problemas especificamente ligados à visão computacional, lidos sob a ótica da Teoria Racial Crítica (NAKAMURA, 2008;
LOPEZ, 2013; NOBLE & TYNES, 2016; BUOLAMWINI & GEBRU, 2018; NOBLE, 2018). Tratam-se de casos de equivalência
de conceitos como visibilidade, eficácia, humanidade e beleza à experiência de usuários brancos em sistemas como
robôs interagentes, buscadores e mídias sociais. Uma vez que categorias e tipologias são manifestações de como os
registros informacionais configuram e reproduzem poder (ALI, 2013), com impacto real nas possibilidades de
representação e expressão equitárias entre diferentes segmentos da sociedade (COTTOM, 2016), o estudo busca jogar
luz sobre estas questões relevantes ao debate sobre algoritmos e suas opacidades (GILLESPIE, 2014; BROUSSARD,
2018).
TARCÍZIO SILVA
tarciziosilva.com.br
Foto da capa: https://dealhack.com/features/average-face-of-a-ceo/
Visão Computacional: o que é
A chamada “Visão Computacional” se refere à coleta,
análise e síntese de dados visuais através de
computadores, com objetivos diversos como a
identificação de rostos e biometria, a análise de
representações de objetos, entidades, conceitos e
contextos em imagens, entre outros (WANG, ZHANG
& MARTIN, 2015).
https://www.kdnuggets.com/2015/04/inside-deep-
learning-computer-vision-convolutional-neural-
networks.html
TARCÍZIO SILVA
tarciziosilva.com.br
É baseada nos procedimentos do aprendizado de
máquina (machine learning), onde os sistemas
"atualizam seu comportamento iterativamente
baseado em modelos ajustados em resposta a sua
experiência (dados de input) e métricas de
performance“ (OSOBA & WELSER, 2017, p.5)
Identificação, classificação e manipulação
https://cloud.google.com/vision
(Exemplo de funcionamento)
TARCÍZIO SILVA
tarciziosilva.com.br
Identificação, classificação e manipulação
https://cloud.google.com/vision
(Exemplo de funcionamento)
TARCÍZIO SILVA
tarciziosilva.com.br
Fornecedores de API e Vieses Algorítmicos
A visão computacional é composto de um
conjunto de recursos de algoritmos de
tomada de decisões sobre identificação,
classes e manipulações em imagens,
definidas e treinadas contextualmente.
Porém, os recursos de visão computacional
de empresas como IBM Watson, Google
Vision, Microsoft Azure e outros são
incorporados em outros sistemas mídias
sociais, identificação policial, aplicativos de
entretenimento e outros..
TARCÍZIO SILVA
tarciziosilva.com.br
Casos: identificação
https://www.theguardian.com/tech
nology/2017/may/28/joy-
buolamwini-when-algorithms-are-
racist-facial-recognition-bias
Casos: image tagging
2015
https://www.theverge.com/2015/7/
1/8880363/google-apologizes-
photos-app-tags-two-black-people-
gorillas
2018
https://www.theverge.com/2018/1/
12/16882408/google-racist-gorillas-
photo-recognition-algorithm-ai
“Engenheiro do Google pede desculpas depois
que o aplicativo Photos marcou duas pessoas
negras como gorilas”
“Google ‘consertou’ seu algoritmo racista
removendo a categorias gorilas de sua tecnologia
de etiquetamento de imagens”
Casos: classificação e julgamento
“FACEAPP: aplicativo de selfies acusado de racismo por embranquecer pele dos usuários”
“We are deeply sorry for this
unquestionably serious issue,” he
told The Independent. “It is an
unfortunate side-effect of the
underlying neural network caused
by the training set bias, not
intended behaviour.
Casos: classificação e julgamento
https://www.independent.co.uk/life-style/gadgets-and-tech/news/faceapp-
selfie-app-racism-filter-whitens-users-skin-viral-photo-a7701036.html
“Estamos muito tristes com esse
problema inquestionavelmente
sério, ele disse ao Independent.
“É um efeito colateral acidental
do funcionamento da rede neural,
não comportamento intencional”.
TARCÍZIO SILVA
tarciziosilva.com.br
Casos: identificação facial e gênero
(BUOLAMWINI & GEBRU, 2018)
Recursos da IBM Watson, Microsoft
Cognitive Services e o Face++ são
mais imprecisos em fotos de pessoas
negras e de mulheres:
Todos classificadores foram mais precisos
em faces de homens (8,1% 20,6% diferença
de taxa de erro)
Todos classificadores performaram melhor
em faces mais claras do que faces mais
escuras (11,8% contra 19,2% de erro)
Todos classificadores performaram pior em
faces mais escuras de mulheres (20,8%
comparado a 34,7%)
A diferença máxima de taxa de erro entre
dois grupos foi de 34,4%
Dataset usado em treinamento:
TARCÍZIO SILVA
tarciziosilva.com.br
Casos: identificação facial e gênero
As autoras identificaram que os
bancos de dados de “treinamento
dos sistemas quase não tinham fotos
de mulheres negras.
A base de dados desenvolvida pelas
autoras, melhor distribuída em
termos de gênero e tom de pele,
obteve resultados muito melhores.
TARCÍZIO SILVA
tarciziosilva.com.br
Caso: identificação e carros autônomos
https://www.independent.co.uk/life-style/gadgets-and-tech/news/self-driving-
car-crash-racial-bias-black-people-study-a8810031.html
“Tests on eight image-recognition
systems found this bias held true,
with their accuracy proving five per
cent less accurate on average for
people with darker skin.
“Testes em 8 sistemas de
reconhecimento de imagens
identificaram este viés. A precisão
para identificar as pessoas foi em
média 5% menor em peles mais
escuras”.
TARCÍZIO SILVA
tarciziosilva.com.br
Caso: classificação e cultura
Análise multicultural de
etiquetamento de imagens por
recursos como Google Vision
identificou a confusão entre cabelo
e peruca no caso de cabelos negros
e acessórios africanos e brasileiros.
TARCÍZIO SILVA
tarciziosilva.com.br
Branquitude
Branquitude enquanto ideologia e sistema de perpetuação de dominação
estrutural, privilégios e ignorância racial/social (Bento; Bastos; Nascimento; Mills);
invisibilidade, distância e um silenciamento sobre a existência do outro “[...] não vê,
não sabe, não conhece, não convive [...]”. A racialidade do branco é vivida como um
círculo concêntrico: a branquitude se expande, se espalha, se ramifica e direciona o
olhar do branco” (BENTO, pos. 651);
A ciência racial ganha nova relevância com a desregulação de ciência e
investimento do capital financeiro (ROBERTS, 2012), a favor da segmentação dos
corpos quanto a genética, biomedicina e vigilância (Mbembe, 2001, 2016; Harari,
2015; Browne, 2015);
Os mitos de racial-blindness, pos-racialidade (BONILLA-SILVA, 2006) e democracia
racial (NASCIMENTO, 1978; SOUZA, 2017) como vetores do silenciamento do
debate sobre raça em todas esferas se ligam ao do technochauvinismo
(BROUSSARD, 2018) e sua pretensão de neutralidade da tecnologia gerando uma
dupla opacidade do debate sobre raça e tecnologia. TARCÍZIO SILVA
tarciziosilva.com.br
Branquitude x aprendizado de máquina
Podemos falar de uma sociedade algorítmica (GILLESPIE, 2014; PASQUALE, 2015;
O’NEIL, 2016; SILVEIRA, 2017) onde procedimentos do tecnoliberalismo como
classificação, pseudo-meritocracia, mensuração e vigilância - são automatizados e
consolidados em caixas-pretas que permitem poucos desvios;
A modulação algorítmica (SILVEIRA, 2017) define e direciona comportamentos e
agenciamentos de forma sutil, sendo gradualmente adotadas também por
governos;
Geração de dados é um fenômeno social replete de vieses humanos. Aplicar
algoritmos proceduralmente corretos” a dados enviesados é um jeito de ensinar
agentes artificiais a imitar qualquer viés que os dados contenham(OSOBA &
WELSER IV, 2017, p. 17);
A sociedade americana construiu a ideologia do Vale do Silício e seus pólos de
tecnologia de modo a normalizar branquitude e masculinidade, com decorrentes
impactos nos modos e níveis de avaliação dos procedimentos de treinamento de
máquinas (BROCK,2011; NOBLE, 2018). TARCÍZIO SILVA
tarciziosilva.com.br
Locus,impactos e causas
Caso
Problema/Viés
Algorítmico
Causa/problema
“técnico”
Caract./conceitos da
branquitude
Google marca pessoas
negras como gorilas
Representação e
associação racista;
desumanização
Base de dados insuficiente
Base de dados com
associações racistas
intencionais
Ausência de testes
Pacto narcísico da
branquitude
(Bento);
Epistemologia da
ignorância (Mills);
Genocídio
epistemológico
(Nascimento);
Necropolítica
(
Mbembe);
Tecnochauvinismo
(
Broussard)
Faceapp
embranquece
pele para deixar “mais
bonita” a selfie
Representação
eurocêntrica de beleza;
desumanização
Base de dados insuficiente
Ausência de testes
APIs não reconhecem
gênero e idade de
mulheres negras
Representação
eurocêntrica de gênero
e idade
Base de dados insuficiente
Ausência de testes
Google Vision
confude
cabelo negro com
peruca
Reforço de apropriação
cultural;
desumanização
Base de dados insuficiente
Base de dados com
exemplos de apropriação
estético-cultural
Ausência de testes
Carros autônomos tem
mais chance de
atropelar pessoas
negras
Desumanização; risco
físico direto
Base de dados insuficiente
Ausência de testes
Do diagnóstico à transformação social
Interrogar/auditar algoritmos (SANDVIG et al, 2014; BAROCAS & SELBST,
2016; CRAWFORD, 2016; WILLIAMS et al; 2018);
Estudar especificidades sobre raça, gênero e classe (SWEENEY, 2013;
NOBLE, 2017; OSOBA & WELSER VI, 2017; BUOLAMWINI, 2017, 2018; EUBANKS,
2018);
Incentivo ao desenvolvimento de competência cultural dos grupos
hegemônicos (SUE, 2001; ORTIZ & SILVA, 2016);
Literacia de dados/algorítmica/computacional como forma de crítica e
defesa pelas populações racializadas (LEVCHAK, 2018; DANIELS,
NKONDE & MIR, 2019).
TARCÍZIO SILVA
tarciziosilva.com.br
Referências
ALI, Syed Mustafa. Race: The difference that makes a difference. tripleC: Cognition, Communication, Co-
operation, v. 11, n. 1, p. 93-106, 2013.
BASTOS, Janaína Ribeiro Bueno. O lado branco do racismo: a gênese da identidade branca e a branquitude.
Revista da Associação Brasileira de Pesquisadores/as Negros/as (ABPN), v. 8, n. 19, p. 211-231, 2016.
BENTHALL, Sebastian; HAYNES, Bruce D. Racial categories in machine learning. In: Proceedings of the Conference
on Fairness, Accountability, and Transparency. ACM, 2019. p. 289-298.
BENTO, Maria Aparecida Silva. Pactos narcísicos no racismo: branquitude e poder nas organizações empresariais
e no poder público. Universidade de São Paulo, São Paulo, 2002.
BONILLA-SILVA, Eduardo. Racism without racists: Color-blind racism and the persistence of racial inequality in
the United States. Rowman & Littlefield Publishers, 2006.
BROUSSARD, Meredith. Artificial unintelligence: How computers misunderstand the world. MIT Press, 2018.
BUOLAMWINI, Joy; GEBRU, Timnit. Gender shades: Intersectional accuracy disparities in commercial gender
classification. In: Conference on Fairness, Accountability and Transparency. 2018. p. 77-91.
CARONE, Iray; BENTO, Maria Aparecida Silva. Psicologia social do racismo: estudos sobre branquitude e
branqueamento no Brasil. Editora Vozes Limitada, 2017.
COTTOM, Tressie McMillan. Black Cyberfeminism: Ways Forward for Classification Situations, Intersectionality and
Digital Sociology. 2016.
FANCHER, Patricia. Composing Artificial Intelligence: Performing Whiteness and Masculinity. Present Tense, v. 6,
n. 1, 2016.
GILLESPIE, Tarleton. The relevance of algorithms. Media technologies: Essays on communication, materiality,
and society, v. 167, 2014.
GUEDES, Ivanilde; SILVA, Aline. Vício Cacheado: Estéticas Afro Diaspóricas. Revista da ABPN, v6, n.14, jul.out.,
2014.
HAARUN, Ayana; WATSON, Melodye. Original Beauty: Black Hair in Cyberspace. Amazon Publishing, 2013.
HOOKS, Bell et al. Black looks: Race and representation. Academic Internet Pub Inc, 2006.
LÓPEZ, I. F. H. The Social Construction of Race. In: DELGADO, Richard; STEFANCIC, Jean (orgs.). Critical Race
Theory: The Cutting Edge. Filadélfia (EUA): Temple University Press, 2013.
Referências
MBEMBE, Achille. Políticas da Inimizade. Lisboa (Portugal: Antígona, 2017.
MILLS, Charles W. The racial contract. Cornell University Press, 2014.
MINTZ, André. Máquinas que veem: visão computacional e agenciamentos do visível. In: MENOTTI, Gabriel;
BASTOS, Marcus; MORAN, Partrícia (orgs.). Cinema apesar da imagem. São Paulo: Intermeios, 2016.
NAKAMURA, Lisa. Digitizing race: Visual cultures of the Internet. U of Minnesota Press, 2008.
NAKAYAMA, Thomas K. What’s next for whiteness and the Internet. Critical Studies in Media Communication, v.
34, n. 1, p. 68-72, 2017.
NOBLE, Safiya Umoja; TYNES, Brendesha M. The intersectional internet: Race, sex, class, and culture online.
Peter Lang International Academic Publishers, 2016.
NOBLE, Safiya Umoja. Algorithms of oppression: How search engines reinforce racism. NYU Press, 2018.
ORTIZ, Felipe Chibás; DA SILVA, Neide Cristina. BARREIRAS CULTURAIS À COMUNICAÇÃO NO MERCADO DE
TRABALHO PARA GRUPOS ÉTNICO-CULTURAIS ESPECÍFICOS: UM ESTUDO DE CASO NA PERIFERIA DE SÃO PAULO.
InterSciencePlace, v. 11, n. 3, 2016.
SILVEIRA, Sérgio Amadeu da. Tudo sobre Tod@s: redes digitais, privacidade e venda de dados pessoais. São Paulo:
Edições Sesc, 2017.
SUE, Derald Wing. Multidimensional facets of cultural competence. The counseling psychologist, v. 29, n. 6, p.
790-821, 2001.
WANG, JuHong; ZHANG, SongHai; MARTIN, Ralph R. New advances in visual computing for intelligent processing
of visual media and augmented reality. Science China Technological Sciences, v. 58, n. 12, p. 2210-2211, 2015.
... Isso Como resultado, estão em processo iniciativas que buscam aperfeiçoar os algoritmos e as plataformas por meio de um padrão de procedimentos mais dirigente, além de indicações regulatórias. Porém, as investigações ainda são limitadas devido às restrições no acesso a informações que condizem sobre os padrões estabelecidos durante a criação destes algoritmos pelas plataformas digitais (Silva, 2019b). ...
Chapter
Full-text available
A obra completa, bem como o capítulo publicado pode ser conferido através do link: https://legalgroundsinstitute.com/blog/facetas-juridicas-da-inteligencia-artificial-generativa/
... Apesar das precariedades apontadas até aqui em relação às fotografias trazidas por Samuel, fica clara a relação afetiva que ele e sua família têm com essas fotos, tanto pela fala de Samuel ao longo do vídeo quanto pelo fato de elas terem sido guardadas por sua mãe ao longo dos anos. Assim, percebemos que a conexão profunda com essas imagens não se dá por sua legibilidade ou seu valor de ícone, mas por seu valor de índice A tecnologia fotográfica evoluiu, se popularizou e inundou nosso cotidiano, mas, como vimos, a fotografia digital, os algoritmos, os editores de imagens, continuam operando segundo lógicas racistas (KAISS, 2018;ROTH, 2016;SILVA, 2019a;2019b). É inegável a potência política das imagens, na medida em que esses testemunhos "podem devolver o dissenso e a ruptura a paisagens homogênenas, de concordância geral e assujeitamento" (MARQUES, 2014, p. 66), afetando as relações entre sujeitos; "a imagem pode desvelar potências, reconfigurar regimes de visibilidade e questionar ordens discursivas opressoras" (Ibid., p. 68), gerando estranhamentos, rearranjando, desestabilizando, impactando processos de subjetivação ao estimular a aparência ou constranger, bem como ao visibilizar ausências, segundo a autora. ...
Article
Full-text available
Este artigo analisa fotografias retiradas de “arquivos” familiares, apresentadas por Samuel Gomes em um vídeo publicado no canal Guardei no Armário, no YouTube. Abordamos a relação de sujeitos racializados com as (im)possibilidades tecnológicas instauradas pelo sistema fotográfico de produção, considerando-as para além da intenção inicial do vídeo de celebração e rememoração. A partir das reflexões de Didi-Huberman, observaremos essas imagens como testemunhos, atos de fala, que nos revelam muito sobre as condições nas quais essas imagens foram produzidas. Constatamos que o racismo impregnado nos aparelhos contribui para que a consolidação de um padrão do que é belo subsidiado na branquitude. A configuração tecnológica racista se torna um obstáculo à construção de memória das pessoas negras, dificultando a preservação de registros familiares para sujeitos racializados por meio das fotografias, apagando traços e singularidades de quem compõe a maior parte do povo brasileiro.
... Some people believed machine learning systems (a subfield of AI, detailed in Section 3.1) were neutral technologies, where objectivity prevails over subjectivity [Rosa et al. 2020]. However, [Buolamwini and Gebru 2018, Vilarino and Vicente 2021, Silva 2019 showed that machine learning models can present biased behavior and give preference to certain types of groups over others. This was evident in the year 2016 with Google through its web image search service [York 2016]. ...
Conference Paper
Full-text available
The emergence of artificial intelligence has brought many benefits to society through the automation of activities such as driving cars, product delivery, item classification, and predicting trends with a greater degree of accuracy. However, depending on how it is used, it may reflect persistent problems in society, such as discrimination. In this paper, we discuss discrimination by artificial intelligence. We begin by describing this problem and showing that it is a recurring and current problem. Then, we show the origin of this problem and propose a strategy to deal with it in order to prevent it from happening again. Lastly, we discuss future works and how the proposed strategy can be put into practice.
... A solução técnica para mitigar os vieses de representaçãoé relativamente simples: basta construir bases de treinamento representativas. Porém, estas questões demandam um tipo diferente de sabedoria de cientistas de dados e criadores de algoritmos, em sua maioria homens brancos, que envolve questões sociais e de políticas públicas a qual estes profissionais têm pouca exposição [Silva 2019]. ...
Conference Paper
Full-text available
Este artigo apresenta um estudo sobre vieses gerados no aprendizado de máquina e as suas implicações na sociedade — morais, éticas e sociais. Fazemos uma releitura de um framework que posiciona os diferentes tipos de vieses nas etapas do processo de aprendizado de máquina, desde o pré-processamento, passando pela coleta dos dados, até o pós-processamento. Apresentamos um estudo de caso sobre reconhecimento facial para ilustrar os vieses que podem ser potencialmente incluídos durante estas etapas do aprendizado de máquina e as suas implicações sociais.
... Por fim, ao construir uma rede a partir de Vision APIs, tomamos em consideração alguns estudos exploratórios, como o estudo de circulação de imagem (ver Omena, Chao, Pilipets et al. 2019). Fazemos ainda o exercício de reclassificar os resultados derivados da visão computacional (relabelling the machine); o espaço semântico das redes viabilizadas através de aprendizagem da máquina (machine learning) necessita de uma leitura crítica sobre a sua capacidade de descrição automatizada de conteúdo visual (ver também Silva, 2019 Antes de iniciarmos a interpretação daquilo que observamos nas redes digitais, ou seja, o que de facto vemos na sua representação gráfica, é necessário fazermos um exame à gramatização da plataforma e affordances de software (utilizado para extração e análise de dados), ou seja, um mapeamento de disparidades. Aqui, as camadas de conhecimento técnico são relevantes. ...
Article
Full-text available
In November 2020, Brazilian singer Ludmilla released the video clip “Rainha da Favela”, recorded in Rocinha (largest favela in Brazil) and which uses a series of controlling images (COLLINS, 2020) to portray black women. Among them, one of the inspirations presented in the clip was captured during a loot to a soft drink truck that fell on the track in 2009, whose most iconic image is a young woman throwing soda on her body. In order to understand the iconographies related to black women in the favela presented by the music video, we applied theoretically and methodologically the concept of “controlling images”, which concerns the label placed on black or racialized people, operator of sexual ideologies that articulate racism and sexism; in the specific case of the video clip, the image of the hoochie, a hypersexualized black woman. A young, black, empowered, funk singer woman and who is outside of heteronormativity represents a danger to existing structures.
Article
Full-text available
O ensaio se propõe a pensar os conflitos de tempos no Brasil contemporâneo a partir do diagnóstico de uma perda da evidência do horizonte moderno de futuro. Busca-se interrogar de que modo essa perda de evidência do horizonte de futuro como sincronizador social se revela tanto na implosão do tempo da Nova República, como na emergência do tempo planetário na história nacional, expresso pelos efeitos da mudança climática. Em ambas as dimensões, que agora se entrecruzam de maneira decisiva, a singularidade temporal da nação é profundamente colocada em questão.
Thesis
Full-text available
This work aims to question the racial division of the occupation of the territory of the Federal District, in its purposeful conception, given the planning of the city of Brasília under the sign of the modernist city and its occupation guided by real estate speculation, and the reception of this originally discriminatory design about automated surveillance technologies touted as “neutral” and cost-effective measures of social control. Starting from the racial and social opposition created in the process of distancing the “invasions” (favelas) from the surroundings of Lúcio Costa's Pilot Plan, I put in perspective its relationship with the city, product of the 1970 Campaign to Eradicate Invasions – Ceilândia, to analyze the racial character of the policies for the implementation of facial recognition software in the Federal District. Este trabalho tem como objetivo questionar a divisão racial da ocupação do território do Distrito Federal, em sua concepção proposital, dado o planejamento da cidade de Brasília sob o signo de cidade modernista e sua ocupação orientada pela especulação imobiliária, e a recepção desse design originalmente discriminatório sobre as tecnologias de vigilância automatizada alardeadas como medidas “neutras” e econômicas de controle social. Partindo da oposição racial e social criada no processo de afastamento das “invasões” (favelas) dos arredores do Plano Piloto de Lúcio Costa, coloco em perspectiva a relação deste com a cidade produto da Campanha de Erradicação de Invasões de 1970 – Ceilândia, para analisar o caráter racial das políticas de implantação de softwares de reconhecimento facial no Distrito Federal.
Race: The difference that makes a difference. tripleC: Cognition, Communication, Cooperation
  • Syed Ali
  • Mustafa
ALI, Syed Mustafa. Race: The difference that makes a difference. tripleC: Cognition, Communication, Cooperation, v. 11, n. 1, p. 93-106, 2013.
Máquinas que veem: visão computacional e agenciamentos do visível
  • André Mintz
MINTZ, André. Máquinas que veem: visão computacional e agenciamentos do visível. In: MENOTTI, Gabriel;
São Paulo: Edições Sesc, 2017. SUE, Derald Wing. Multidimensional facets of cultural competence. The counseling psychologist
  • Sérgio Amadeu Silveira
  • Da
SILVEIRA, Sérgio Amadeu da. Tudo sobre Tod@s: redes digitais, privacidade e venda de dados pessoais. São Paulo: Edições Sesc, 2017. SUE, Derald Wing. Multidimensional facets of cultural competence. The counseling psychologist, v. 29, n. 6, p. 790-821, 2001.
Composing Artificial Intelligence: Performing Whiteness and Masculinity. Present Tense
  • Patricia Fancher
FANCHER, Patricia. Composing Artificial Intelligence: Performing Whiteness and Masculinity. Present Tense, v. 6, n. 1, 2016.
The relevance of algorithms. Media technologies: Essays on communication, materiality, and society
  • Tarleton Gillespie
GILLESPIE, Tarleton. The relevance of algorithms. Media technologies: Essays on communication, materiality, and society, v. 167, 2014.
Critical Race Theory: The Cutting Edge
  • I F H López
LÓPEZ, I. F. H. The Social Construction of Race. In: DELGADO, Richard; STEFANCIC, Jean (orgs.). Critical Race Theory: The Cutting Edge. Filadélfia (EUA): Temple University Press, 2013.