ArticlePDF Available

Uma perspectiva histórica e sistêmica do capitalismo de vigilância

Authors:

Abstract

Dados são o novo petróleo, o Facebook obteve uma receita bruta de U$ 55,83 bilhões em 2018i , Alphabet, holding da Google, faturou U$ 126,8 bilhões, no mesmo períodoii , um mercado crescente e atual, baseado no Capitalismo de Vigilância. Shoshana Zuboff (2015) popularizou o conceito de “capitalismo de vigilância” que denota um novo tipo de capitalismo monetizado por dados adquiridos por vigilância, e muitas vezes à margem da legalidade e da ética. A autora atribui o surgimento dessa nova forma de capitalismo à conjunção de vastos poderes digitais e a indiferença e narcisismo intrínseco do capitalismo financeiro, dentro da ótica neoliberal, frente à nova dependência da arquitetura global de mediação digital que produz o big data, e uma nova expressão de poder que ela chama de “Big Other”
NÚMERO 41 -2019
UMA PUBLICAÇÃO DO
CENTRO DE REFERÊNCIA EM
INTELIGÊNCIA EMPRESARIAL
CRIE/COPPE/UFRJ
ISSN 1517 3860
Uma perspectiva
histórica e sistêmica
do capitalismo de
vigilância
Blockchain
confiança em
transações públicas e
o caso do BNDES
Identidade Digital a
nova economia dos
dados e a Plataforma
My Heath Data
O problema das
organizações
tradicionais não é
tecnológico, mas
psicológico!
KMAP CANVAS: uma
proposta de prática
para o mapeamento
do conhecimento
aplicando design
thinking
Disponível em: http://www.crie.ufrj.br/destaque/revista-inteligencia-empresarial-n-41/541
Sumário
3Nuvens eRastros
Marcos Cavalcanti
5Uma perspectiva histórica esistêmica do capitalismo de
vigilância
João Carlos Rebello Caribé
14 Blockchain confiança em transações públicas e o caso do
BNDES
Gladstone Arantes Jr
22 Identidade Digital anova economia dos dados e a
Plataforma My Heath Data
Valeria Queiroz, Iris Jerusa D'Amico Burger, MSc,Jefferson Prestes,
Leonardo Fernandes de Souza Aguiar, MD eMarcela Gonçalves
28 Oproblema das organizações tradicionais não é
tecnológico, mas psicológico!
Fernando Potsch
33 KMAP CANVAS: uma proposta de prática para o
mapeamento do conhecimento aplicando design thinking
Larriza Thurler eCamila Pires
NÚMERO 41 -2019 REVISTA INTELIGÊNCIA EMPRESARIAL
INTELIGÊNCIA EMPRESARIAL
NÚMERO 41 2019 ISSN 1517-3860
Publicação do CRIE Centro de Referência em Inteligência Empresarial da Coppe/UFRJ
Editor
Marcos do Couto Bezerra Cavalcanti
CRIE/COPPE/UFRJ
Conselho Editorial
André de Faria Pereira Neto FIOCRUZ
Luciana Sodré Costa CRIE/COPPE/UFRJ
Maurício Nunes Rodrigues CRIE/COPPE/UFRJ
Eduardo Costa DCC/UFMG
Gilson Schwartz ECA/USP
Guilherme Ari Plonski FEA/USP
Helena Lastres RedeSist/IE/UFRJ
Ivan da Costa Marques NCE/UFRJ
Lia Hasenclever IE/UFRJ
Raquel Borba Balceiro Gestão do Conhecimento/Petrobras
Renata Lebre La Rovere IE/UFRJ
Sarita Albagli IBICT
Silvio Meira CIn/UFPE eC.E.S.A.R
Coordenação editorial
Valéria Macedo
Pesquisa eedição de textos
Daniele C. Dantas
Adriana Maciel Rodrigues
Revisão
Larriza Thurler
Imagem da Capa
Autor Desconhecido está licenciado em CC BY
Editoração
Crie/Coppe/UFRJ
NÚMERO 41 -2019 REVISTA INTELIGÊNCIA EMPRESARIAL
EDITORIAL
NÚMERO 41 -2019 REVISTA INTELIGÊNCIA EMPRESARIAL
Nuvens eRastros
Estamos todos interligados earevolução na
economia ena sociedade em curso nos leva a
lugares nunca antes imaginados:as nuvens.
Nossos rastros, nossa identidade, nossas
vontades edesejos alimentam as nuvens, nuvens de
dados. É interessante pensar que toda anossa
interação com atecnologia, com nosso celular, pode
mapear os nossos passos. A cada clique, cada
palavra, cada foto ou ainda cada like abastece de
dados as nuvens, crescendo exponencialmente.
Os estudos desta revista tratam de forma
transparente como estamos nos relacionando com o
mundo das nuvens eresgata questões relevantes
sobre os impactos da transformação digital em
nossas vidas.
Somos parte deste processo, vivemos na
sociedade do controle eprecisamos ficar atentos
para os nossos passos.Está em nossas mãos a
decisão de participar deste mundo repleto de
oportunidades, cada vez mais intangível eaberto
aos novos designs emeios de evoluir coletivamente.
1º. Encontros CRIE
No primeiro semestre de 2019 lançamos a
iniciativa Encontros CRIE com oobjetivo de criar
espaços abertos ao debate sobre temas relevantes
sobre aeconomia do conhecimento.
Queríamos entender oque acomunidade do
CRIE acadêmicos, profissionais de mercado,
agendes de financiamento, empreendedores e
organizações estão pensando sobre omundo dos
intangíveis e o impacto que negócios digitais estão
promovendo de mudança na sociedade. Assim, o
Encontro élocal com hora edia previamente
definidos onde as pessoas se encontram, se
relacionam, compartilham conhecimento e
constroem laços.
Acompanhe o site do CRIE esaiba como
participar dos próximos Encontros.
Boa leitura
Marcos Cavalcanti
Doutor em Informática pela Université de Paris XI, é
coordenador do CRIE Centro de Referência em
Inteligência Empresarial da Coppe/UFRJ edos cursos de
pós-graduação em Gestão do Conhecimento eInteligência
Empresarial MBKM (Master on Business and Knowledge
Management) eWIDA (Web Intelligence eAnalítica de
Dados), da COPPE/UFRJ. Émembro do Board do New Club
of Paris, editor da Revista Inteligência Empresarial eco-
autor dos livros OConhecimento em Rede, Gestão de
Empresas na Sociedade do Conhecimento, Gestão
Eletrônica de documentos eQue ferramenta devo usar.
5 Capitalismo de Vigilância
Uma perspectiva histórica e
sistêmica do capitalismo de
vigilância
João Carlos Rebello Caribé
Dados são onovo petróleo, oFacebook obteve uma receita bruta de U$ 55,83 bilhões em 2018i,Alphabet,
holding da Google, faturou U$ 126,8 bilhões, no mesmo períodoii ,um mercado crescente eatual,
baseado no Capitalismo de Vigilância. Shoshana Zuboff (2015) popularizou oconceito
de capitalismo de vigilânciaque denota um novo tipo de capitalismo monetizado por dados
adquiridos por vigilância, emuitas vezes àmargem da legalidade eda ética. Aautora atribui osurgimento
dessa nova forma de capitalismo àconjunção de vastos poderes digitais e a
indiferença enarcisismo intrínseco do capitalismo financeiro, dentro da ótica neoliberal, frente ànova
dependência da arquitetura global de mediação digital que produz
obig data, euma nova expressão de poder que ela chama de Big Other.
NÚMERO 41 -2019 REVISTA INTELIGÊNCIA EMPRESARIAL
Segundo Zuboff, a Internet era um mundo
gentil e promissor, agora éonde ocapitalismo está
desenvolvendo de forma perversa eavassaladora,
pela extração de dados, ameaçando aliberdade e a
privacidade. A Internet era um vasto campo de
possibilidades eoportunidades aserem exploradas,
um espaço de democratização do conhecimento, e
repleto de otimismo, como descreve John Perry
Barlow (1996)na Declaração da Independência do
Ciberespaço,fundamentada na liberdade, equidade
edemocracia.
Doc Searls eDavid Weinberger (1996)também
cunharam um manifesto, desta vez sobre oque a
Internet era ou não era, o conceito nuclear do
manifesto OMundo de Pontas,focava na principal
característica estrutural da Internet, uma rede
distribuída, sem centro, sem donos. O valor segundo
omanifesto crescia na periferia da Internet, nas
pontas.AInternet interpreta acensura como um
defeito eroteia para contorná-lo,frase clássica de
John Gilmore,incluída no manifesto, éaexpressão
de empoderamento eliberdade, quase um grito de
guerra proferido por todos os amantes da rede.
Durante muitos anos ovalor cresceu nas
pontas, alimentando uma venturosa economia, que
acabou transformando-se na Bolha da Internet,
que estourou em 2001. O estouro da bolha não foi
responsável por afetar esta próspera economia, ele
dizimou milhares de empresas com propostas
inexequíveis, levando àprofissionalização do
mercado, que passou abuscar novos epromissores
modelos de negócios.
Adistância entre aInternet imaginada em 1996 e a
Internet atual em 2019, é tão grande que não
parece estarmos falando da mesma Internet.
Compreender erefletir sobre esta mudança étema
da conferência The Web that Was:Archives,Traces,
Reflectionsiii,organizada pela Universidade de
Amsterdã, que acontece entre 19 e21 de Junho de
2019. A chamada para os trabalhos abre com este
parágrafo:
Como aprimeira geração de usuários da web
ficando grisalha, fica claro que aInternet que
eles lembram não está mais presente.Aquela
Internet éagora simplesmente objeto de
nostalgia.Os aniversários de tecnologia são
dez centavos, enquanto aestética digital legal
fez várias reviravoltas irônicas.Tudo isso
reforça asensação de que deixamos para trás
uma história digital tão desajeitada elenta
quanto idealista eingênua.
Publicações como The Ends of the Internetde
Boris Beaude,The Culture of Connectivityde Jose
van Dijck, e The Net Delusionde Evgeny Morozov
são alguns dos estudos publicados sobre esta
reflexão.Jonathan Zittrain (2008), um dos primeiros
aescrever sobre otema, faz uma crítica a
centralização da Internet através de modelos de
negócios baseados em caixas pretas,como iPods,
iPhones,Xbox eTiVos.
NÚMERO 41 -2019 REVISTA INTELIGÊNCIA EMPRESARIAL
Para Zittrain este modelo de negócio cria uma
espécie de contra-revolução,matando ainovação na
Internet, eaumentando asua regulabilidade pelo
mercado.Para ele, aexperiência de acesso à
Internet esta sendo moldada em função do
dispositivo com oqual ousuário aacessa.Este
mesmo entendimento pode ser utilizado para
analisar as caixas pretas digitais,que são as atuais
plataformas como Google, Facebook, Alibaba,
WhatsApp, Netflix,entre outros.
Shoshana Zuboff (2015)trata esta mudança
como Independência Estrutural.Diferente da
necessidade de balancear arenda da população com
os preços dos bens produzidos, para mover aroda
da economia,do capitalismo do século XX, o
capitalismo de vigilância rompe com esta premissa,
criando uma independência estrutural, onde a
população deixa de ser necessária como fonte de
clientes eempregados. A independência estrutural
significa que aempresa, no capitalismo de
vigilância, necessita apenas dos dados do indivíduo,
com os quais constrói perfis que se tornarão seus
ativos. A hiperescala através de crescente
automação, etecnologias escaláveis em nuvens,
permite que estas empresas operem com efetivos
cada vez menores, tendo os algoritmos como meio
de produção.Esta independência estrutural das
empresas em relação àpopulação éuma questão de
excepcional importância àluz da relação histórica
entre capitalismo de mercado edemocracia.
Épossível que ocapitalismo de vigilância
tenha sido construído apartir de uma sucessão de
falhas, eventos eoportunidades, percebidos ou
construídos em diversas cestaseperspectivas, em
contextos distintos, mas de alguma forma
coordenados. Aspectos técnicos, comportamentais,
legais, econômicos, sociais eestruturais precisam
ser observados nesta construção. O conceito de
cestasvem do livro Uma introdução à
Governança da Internet,de Jovan Kurbalija (2016).
Olivro estrutura, oque pode ser compreendido
como políticas de informação na Internet,em
cinco domínios de construção política eoperacional,
que denomina de cestas:Cesta de infraestrutura e
padronização, cesta jurídica, cesta econômica, cesta
sociocultural, ecesta de desenvolvimento.
1. Um ponto de partida, modelos de negócio
Shoshana Zuboff (2014,2015,2016)não
estabelece claramente quando surgiu ocapitalismo
de vigilância, sua sistematização se deu apartir das
pesquisas de Hal R. Varian.
Em 1994,um pouco antes da oferta comercial
do acesso àInternet, Nicholas Negroponteiv do MIT
pesquisava sobre aoferta massiva de canais na TV a
cabo americana.Ele imaginava ser impossível ao
usuário escolher bons programas, apenas com o
controle remoto.
Aproposta de Negroponte era uma TV
inteligente, que aprenderia com ogosto do usuário
oferecendo-o a melhor programação, sem que
tivesse que se preocupar com isto, aprimorando
assim aexperiência do usuário.Esta proposta se
desenvolveu para oque Negroponte chamava de
agentes inteligentes.No rastro desta ideia a
Microsoft lançou oBobe a Apple o Newton,
dois agentes inteligentes que foram um grande
fracasso (PARISER,2012).
Jeff Bezos,da Amazon,atingiu amarca de um
milhão de clientes de livros em 1997. A Amazon
desenvolveu uma solução de relevância com base
nos dados ecomportamento dos clientes:que livros
procuravam, compravam, compartilhavam,
colocavam em lista de desejos.Foi oprimeiro
agente inteligenteque realmente funcionou.Bezos
baseou seu método de relevância no livreiro do
bairro, que conhece ointeresse de cada cliente
(idem).
Ao observarocomportamento dos clientes,
com oobjetivo de ofertar livros com maior chance
de compra, aAmazon pavimentou ocapitalismo de
vigilância, em outras palavras, aAmazon extraía
dados dos clientes, eos modelava na busca de
padrões, eatravés de homofiliav,estabelecia
relacionamentos, produzindo indicações para o
cliente, visando aprimorarasua experiência.Dez
anos depois, em 2007, a Amazon lançou o Kindle, o
leitor de e-book, epassou aextrair dados também
dos hábitos de leitura de seus clientes, tais como
interesse, horário de leitura, destaques e
compartilhamento de texto (idem).
Os mecanismos de busca como oAlta Vista,
InfoSeek,Lycos,Yahoo eaté oBrasileiro Cadê,
funcionavam inicialmente, como diretórios, nos
quais as páginas de Internet eram cadastradas
manualmente.Este procedimento funcionou
concomitantemente por alguns anos com robôs de
rastreamento (web crawlers), que alimentavam
estas bases de dados. A indexação destas páginas
era feita de forma estruturada, por categorias e
palavras-chave, e o resultado das pesquisas
apresentadas aos usuários, não levavam em
consideração nenhum critério de relevância
significativo.Larry Page eSergey Brin criaram o
conceito de PageRankna Universidade de
Stanford, em 1996,como parte de um projeto de
pesquisa.
Na construção da métrica de PageRank, a
Internet é vista como uma rede de citações
acadêmicas, cada corresponde auma página, e
cada ligação (hiperlink) uma referência entre
páginas. A métrica do PageRank atribui valores as
páginas (nós), de acordo com aquantidade e
relevância de suas ligações (VISE, 2006).
OGoogle, fundado pelos criadores do
PageRank,surgiu em 1998,mas somente no ano
seguinte, adotou oPageRankcomo principal
critério de indexação.
6 Capitalismo de Vigilância
NÚMERO 41 -2019 REVISTA INTELIGÊNCIA EMPRESARIAL
Aoperacionalização do Google se dá através
do Googlebot,um robô de rastreamento escalável,
construído para funcionar em múltiplas instâncias,
navegando pelos hiperlinks, construindo as bases de
dados que alimentam oPageRank, e extraindo
cópias das páginas da internet que visitam,
armazenando-as nos servidores do Google, criando o
Google Cache,objetivando aprimorar aexperiência
do usuário.
Uma questão apontada por Bernard Girard
(2009) é que aambição do Google era armazenar o
máximo de páginas da internet possível.Esta
ambição foi se tornando possível ao longo do tempo
com aredução exponencial do custo de
armazenamento por Gigabyte, que em 1994,era da
ordem de U$686,00,caindo para U$0,03vi em 2014.
Em 2003, o Google lançou oAdSensevii,um
sistema de publicidade inovador, sendo rapidamente
adotado como aprincipal fonte de renda da maioria
de sites eblogs, tornando-se onovo padrão em
publicidade na Internet.
Osistema de publicidade do Google,
emprestadodo GoTo,serviço de publicidade da
Overture,criada em 1998,diferenciava da prática
do mercado, ao cobrar por clique (Custo Por Clique
-CPC), enquanto os concorrentes, como a
DoubleClick cobravam por visualização (Custo por
Milhares -CPM), vendendo lotes de milhares de
visualizações. Ao adotar aestratégia de custo por
clique, oGoogle limitou orisco do anunciante e
reduziu aincerteza de impactar opúblico adequado
(GIRARD,2009).
AOverture inventou oCPC, mas oGoogle
inovou apublicidade, ao permitir acriação de
anúncios minimalistas, compostos apenas de 10 a
15 palavras, incluindo aURL do anunciante.Este
serviço, conhecido como AdWords,foi criado
pensando na proposta inicial de oferecer
publicidade nas páginas que exibiam resultados das
pesquisas realizadas em sua ferramenta de busca,
garantindo a contextualização eaumentando a
possibilidade de receber um clique, otimizando
desta forma aexperiência do anunciante.
Um dos sucessos atribuídos ao AdWords, é o
fato de todo processo de publicação e
monitoramento da campanha ser automatizada. O
Google reduziu acurva de aprendizado, tornando
esta tarefa simples, eliminando anecessidade de
contratar representantes evendedores, dialogando
com oprocesso de hiperescala descrito por Zuboff
(GIRARD,2009).
Em 2007, o Google adquiriu aDoubleClick, e
com ela seus ativos tangíveis eintangíveis, passando
aoferecer apublicidade em outros formatos além
do minimalista AdWords,que em julho de 2018,
passou ase chamar Google Ads. A Amazon,através
de seu programa de parceria, Amazon Associates,
possibilita arentabilização de sites eblogs por meio
do pagamento de comissões sobre venda de seus
produtos, um modelo diferente do Google AdSense,
mas com características operacionais muito
semelhantes.Para operacionalizar estas formas de
rentabilização, os proprietários de sites eblogs,
inserem códigos específicos em suas páginas.Estes
códigos funcionam como verdadeiras janelaspara
oGoogle e a Amazon,em seus sites, permitindo-os
acessar seus próprios cookies, mas com informações
adicionais do site que ousuário esta visitando. Estas
janelassão conhecidas por tracker cookie,ou
simplesmente tracker ou rastreador.Mesmo que o
usuário não compre nenhum produto, ou clique em
algum anúncio, otracker permite extrair
informações do site visitado, relacionando-as aele.
Conteúdo da página, tempo de permanência,
rolagem de tela, links clicados, itens consultados (se
for uma loja virtual), referenciador (como ousuário
chegou ao site), são algumas das informações
possíveis de serem extraídas com auxílio tracker.Ao
navegar por diversas páginas que possuam trackers,
ousuário permite involuntariamente ao Google,
Amazon,Facebook,Twitter eoutros, extraírem os
dados de sua navegação.
Uma aplicação prática do tracker é o serviço
de remarketing,oferecido às lojas virtuais, pelo
Google, por exemplo. O remarketing,possibilita
apresentar uma publicidade com os itens
abandonadosno carrinho de compra, ou
consultados, em qualquer site que tenha oserviço
de Google Ads. É uma prática nítida de
comercialização de comportamentos.
Em 2004,com olançamento do Orkut edo
Gmail, oGoogle passou aobter os dados cadastrais
dos usuários, possibilitando sua confirmação
positiva, associando identificadores anônimos a
estes dados.Além da possibilidade da extração dos
dados cadastrais, epersonificação do usuário, estes
dois novos produtos permitiram extrair dados de
interesse erede de relacionamentos dos usuários. O
Orkut, uma ferramenta de rede social, passou a
permitir uma extração dinâmica em tempo real, de
perfis emapas de relacionamento, interesses, e
padrões.
Apossibilidade de publicar fotos, inclusive de
perfil, trouxe orosto do indivíduo, e o inicio da
cultura de autoexposição na Internet.Para tornar o
Gmail um sucesso instantâneo, oGoogle ofereceu
um armazenamento gratuito de 1Gb de dados de e-
mail, isto era 500 vezes maior que oserviço
oferecido pela Microsoft, e250 vezes maior que no
Yahoo (VISE, 2006).
OGoogle lançou aBusca Personalizadae o
My Historyem 2005,quando supostamente passou
aarmazenar as consultas realizadas pelos usuários,
edesta forma ao extrair, modelar ecomparar estes
dados, permitia contextualizar as buscas,
apresentando resultados ainda mais personalizados,
aprimorando aexperiência do usuário.
Supostamente, pois oGoogle armazenava as
informações de navegação extraídas pelo tracker,
desde olançamento do AdSense em 2003.
7 Capitalismo de Vigilância
NÚMERO 41 -2019 REVISTA INTELIGÊNCIA EMPRESARIAL
OGoogle não extrai apenas os dados das
consultas dos usuários, mas também extrai dados do
cabeçalho HTTPviii,tais como modelo do computador
ou dispositivo, versão do sistema operacional,
modelo do navegador, idioma enúmero de IPix.Com
base no número de IP, épossível identificar as
coordenadas geográficas do local de acesso do
usuário com razoável precisão utilizando oGeoIP
(Geolocalização pelo IP)x.
OGoogle também lançou em 2005 oGoogle
Maps. O Google Maps é o resultado da aquisição de
três empresas: a australiana, Where2, que
desenvolveu onúcleo tecnológico de visualização
interativa de mapa, eas americanas Keyhole,
empresa de visualização geoespacial, e a ZipDash,
especializada em analise de tráfego em tempo real.
Apreocupação inicial estava ligada aquestões
de segurança geográfica, apesar das imagens de
satélite utilizadas não serem atualizadas, exibiam a
localização edisposição das edificações.
Com olançamento do Google Street View em
2007,com fotos de 360º, apartir de câmeras
especiais instaladas em veículos identificados com a
marca do Google, surgiram muitas controvérsias em
torno da natureza não censurada das fotos,
resolvida com oembasamento dos rostos eplacas
de automóveis eventualmente capturados.Foi com o
crescimento da penetração dos smartphones, a
partir de 2012,que tornou-se possível oserviço de
linha do tempodo Google Maps,registrando o
deslocamento diário do indivíduo.Este serviço,
através da extração emodelagem de dados de GPS,
permite identificar se ele está parado, caminhando,
de carro, ou se entrou em determinada edificação.
Padrões posicionais permitem determinar onde o
indivíduo mora, trabalha, estuda, além de seus
hábitos de deslocamento (VISE, 2006).
OFacebook foi lançado em 2004,inicialmente
para acesso apenas aos alunos da Universidade de
Harvard, tornando-se público em 2006. A
popularização do Facebook se deu apartir de 2011,
com olançamento do recurso linha do tempo,um
feed de postagens de amigosna tela principal.
Apesar dos estudos da Shoshana Zuboff
focarem prioritariamente no Google, oFacebook
tornou-se arepresentação mais fiel do modelo do
capitalismo de vigilância. A voracidade com que
extrai, armazena eprocessa dados de seus usuários
para apresentar-lhes uma resposta em forma de
feed éproeminente.
Olaboratório de pesquisa Iugoslavo Share
Labxi,desenvolveu um estudo detalhado, dividido
em três partes, intitulado Facebook Algorithmic
Factory(SHARE LAB,2016), desvendando acaixa
preta digitaldo Facebook. O estudo édividido em
quatro etapas da Fábrica Algorítmica do Facebook,
coleta de dados, armazenamento, processamento
algorítmico edeterminação do alvo.
8 Capitalismo de Vigilância
NÚMERO 41 -2019 REVISTA INTELIGÊNCIA EMPRESARIAL
Acoleta ou extração de dados se dá de forma
dinâmica, eem tempo real sobre cinco fontes
distintas:
-Informações da conta edo perfil, que são os dados
cadastrais einformados, incluindo as informações
de tipo de relacionamento, grau de parentesco, e
novos amigos;
-Informações do dispositivo, modelo, capacidade, IP,
sistema operacional, aplicativos instalados,
condições gerais como nível de bateria, memória
disponível;
-Ações ecomportamentos, estes são os dados que
Zuboff chama de data exhaust(dados residuais),
que são dados produzidos na interação com o
Facebook,tais como curtir, comentar, compartilhar,
clicar, marcar einteragir com apágina.Os dados
residuais parecem intangíveis eirrelevantes, mas
são os que permitem ao Facebook conhecer
profundamente ousuário;
-Tracker, o Facebook faz uso de trackers,próprios
ede terceiros, inclusive do Google;
-Informações de fora do domínio, que são
informações obtidas apartir de outros serviços do
Facebook,como Instragram,WhatsApp, Onevo,
Atlas, LiveRail,Oculos,Moves, Parsex,Mobile
Technologies Inc, Serviços de Analytics, e
interatividade com aplicações do Facebook em
outros sites.
Em outro estudo, do laboratório intitulado
Invisible Infrastructures:Mobile permissions
(SHARE LAB, 2015), que detalha as informações do
dispositivo, éapontado que oaplicativo do
Facebook acessa 42 funções esensores do
smartphone, dentre elas leitura egravação de
agenda, caderno de telefone, SMS, elog de telefones,
eainda acessa as câmeras, microfone, lista de redes
wifi próximas, einformações de geoposicionamento.
Oarmazenamento se dá apartir de todos os
dados extraídos, sobre aforma de dados brutos,
dados modelados, e graphos de relacionamento. O
processamento algorítmico se dá por machine
learning edeep learning,produzindo informações
como perfil psicométrico, orientação sexual, posição
política, estado civil, rotinas, valores eprincípios,
renda familiar ebiometria facial.
Adeterminação do alvo, que é o momento em
que oalgoritmo decide oque irá exibir no feeddo
usuário, ébaseado nos seguintes fatores:conexões,
dados demográficos, interesses do usuário eseus
comportamentos.Produzindo um feedcontendo o
conteúdo ealertas relevantes, impulsionamento
pago, euma ou mais publicações que provoquem a
injúria do usuário.
Além de proporcionar boas experiências, os
algoritmos do Facebook podem influenciar ohumor,
opinião epercepção do mundo do indivíduo. O
principal objetivo do Facebook éreter eprovocar
interações.Segundo aneurocientista Molly Crockett
(2017), aforma mais eficiente de obter este
resultado, éatravés da introdução no feed,de posta-
9 Capitalismo de Vigilância
gens que provoquem injuria.Este processo se
assemelha ao modelo de relacionamento tóxico,
conhecido por Duplo Vínculo.Segundo Crockett,as
redes, neste processo provocam uma montanha
russa emocional no usuário, eainda não se sabe as
suas consequências.
OGoogle, Amazon eFacebook utilizam
complexos algoritmos para intermediar as relações
entre usuários econteúdos.As transações mediadas
por computador permitiram observar
comportamentos que antes não eram observáveis,
isto passa apermitir transações que não eram
viáveis anteriormente, estabelecendo novos modelos
de negócios.Essa éuma nova fronteira comercial
composta de conhecimento sobre ocomportamento
em tempo real que cria oportunidades para intervir
emodificar ocomportamento visando o lucro.Como
resultado, as pessoas são reduzidas àmera
biomassa humana, inclinadas aservir as novas
regras do capital, impostas atodo comportamento,
através de uma implacável relação algorítmica que
produz um feed em tempo real, baseado em fatos, e
onipresente (ZUBOFF, 2015).
Oestudo eacorrelação dos demais modelos
de negócios relacionados ao capitalismo de
vigilância não caberiam neste artigo.Empresas e
serviços como Waze, Alibaba, Netlfix,PokemonGo,
Youtube, Spotify, iTunes eTwitter,mereceriam um
estudo detalhado, assim como os novos sistemas de
pagamento pelo smartphone com o Apple Pay e
Alipay.
2. Outras arenas de desenvolvimento
Os modelos de negócio do Google, Amazon e
Facebook no Capitalismo de Vigilância se
desenvolveram sobre odesenvolvimento simultâneo
em outras arenas.Evolução nos hábitos e velocidade
de acesso àInternet, odesenvolvimento tecnológico,
desenvolvimento de mercados, epráticas epadrões
de design ede programação para aInternet, foram
fatores importantes para este desenvolvimento.Até
1999,no Brasil, oacesso àInternet se dava apartir
de um computador fixo, através de um modem de
até 56Kbps, que discava para oprovedor de acesso.
Em 2016,segundo oNIC.Br (2018), a velocidade
média de acesso no Brasil era de 9,6 Mbs,ou seja,
171 vezes mais rápida que em 1999.No início, os
Web Designersxii trabalhavam no projeto de sites,
com apreocupação de que as páginas de Internet
não tivessem mais de 200Kb, incluindo texto e
imagem, pois estudos indicavam que ousuário
abandonaria qualquer página que demorasse mais
que 10 segundos para carregar (King, 2003).
Apartir de 2000, o acesso banda larga chega
às principais capitais do Brasil, em velocidades
entre 128Kbps e 512Kbps, estabelecendo novos
hábitos. O modelo do provimento de acesso também
mudou, antes oacesso era feito apartir de
pequenos provedores que conectavam com as redes
NÚMERO 41 -2019 REVISTA INTELIGÊNCIA EMPRESARIAL
de telecomunicações;com oacesso banda larga, as
próprias empresas de telecom passaram aprover o
acesso. A banda larga trouxe aconectividade
permanente àInternet, produzindo novos hábitos de
uso.As interações passaram aser em tempo real,
plataformas de interação social como fóruns on-line
se tornaram populares, assim como oICQxiii e o
MSN.Com oacesso àInternet em banda larga, sem
anecessidade de páginas extremamente otimizadas,
odesign tomou conta da Internet, criando um
período de muita experimentação ebeleza.Na
contramão desta internet esteticamente
experimental, Steve Krug (2000)surge com olivro
Dontmake me think!, e o conceito de
usabilidade na Internet.Krug defendia um design
funcional, planejado para ser intuitivo, conduzindo o
usuário ao longo do site. A sua aplicação trouxe
para oWeb Design aprática de observar o
comportamento dos usuários em relação às páginas
de Internet, dos laboratórios de usabilidade, criando
novas especialidades profissionais como especialista
em usabilidade, gerente de UX eInterface, abrindo
um novo epromissor mercado de extração de
comportamentos para aprimorar odesign de
páginas de Internet einterfaces interativas.
Aciência da usabilidade trouxe para oWeb
Design algumas áreas de conhecimento da Ciência
da Informação como arquitetura da informação,
taxonomia efolksonimia,gestão do conhecimento, e
também ocognitivismo, oestudo heurístico e o
behaviorismo da psicologia.Trouxe aspectos
positivos, como aredução da curva de
aprendizagem, mediação visual de informações,
colocando um pouco de organização no caos natural
da Internet;mas também trouxe aspectos
questionáveis como acapacidade de manipulação do
comportamento do usuário pelo design.
Um dos problemas enfrentado pelos Web
Designers até 2002 foi afalta de padrão provocado
pela chamada Guerra dos Navegadores.Até 2001,
adisputa pelo mercado dos navegadores era
liderado pelo Microsoft Internet Explorer epelo
Netscape.
AMicrosoft entregava seu navegador instalado
eintegrado com osistema operacional Windows, e
adotava aprática de criar marcadores (tags)HTML
personalizadas, assim como oJscript em
substituição ao JavaScript,enquanto oNetscape
utilizava oJavascript eseguia os padrões de
marcação HTML do W3xiv .Qualquer projeto de Web
Design tinha de considerar estas variáveis, e muitas
vezes as contornavam com scripts que identificavam
onavegador, enviando apágina no formato
adequado, muitos sites tinham páginas redundantes,
uma para oInternet Explorer eoutra para o
Netscape edemais navegadores (ZELDMAN,2003).
OXHTMLxv,publicado em 2000 pelo W3C,
tornou-se popular apartir de 2002,ao permitir
separar de forma estruturada oconteúdo, design e
aplicação das páginas de internet.
10 Capitalismo de Vigilância
Esta prática se tornou conhecida por Web
Standards, por seguirem os padrões do W3C. O web
design passou autilizar oXHTML como linguagem
de marcação para oconteúdo das páginas, e o CSSxvi
(Cascade Style Sheets), para construir olayout,
produzindo códigos limpos eestruturados.Antes
disto, olayout das páginas era construído com
tabelas, criando um código HTML complexo
(ZELDMAN,2003).
Até 2005, a maioria dos sites da Internet
tinham um comportamento síncrono, mesmo os
transacionais como oOrkut, Google eaAmazon.Isto
significa que as páginas eram construídas
dinamicamente no servidor, eenviadas no formato
estático do HTML ou XHTML para ousuário.
Uma vez exibida no navegador, apágina não
sofria alterações ou enviava erecebia dados, até que
um botão ou link fossem acionados.Somente
páginas que faziam uso do Adobe Flashxvii ou do
Java conseguiam produzir um comportamento
assíncrono.Estas páginas com comportamento
assíncrono fizeram parte do que foi conhecido por
RIA (Rich Internet Application).
Os aplicativos ricos de Internet eram
novidades antes de 2005,páginas que permitiam
interatividade no lado do cliente (no navegador do
usuário), atualizando dados em tempo real, eram
inovadoras.
Acapacidade de processamento, além da
memória, forma e velocidade de acesso foram
catalizadores destas mudanças.Um iPhone Xde
2018 tem 172 vezes acapacidade de processamento
de um computador topo de linha de 1996, o
Pentium 100MHz.
OAJAX (Asynchronous JavaScript And XML),
surgido em 2005, é um conjunto de técnicas de
Web Development que utilizam algumas tecnologias
no "client side", para criar aplicações de Internet
assíncronas.Com oAJAX, páginas da Internet podem
enviar ereceber dados dos servidores de forma
assincrona eem background, sem interferir na
visualização e comportamento da página que está
sendo exibida.Utilizando tecnologias como
JavaScript,XHTML, HTML eCSS, épossível construir
ereconstruir partes da pagina que esta sendo
exibida sem necessitar recarrega-la.Por operar em
background enviando erecebendo dados sem
interferir na visualização, o AJAX pode ser usado
para extrair dados residuais do usuário, eenvia-los
ao servidor sem que este perceba.
AMobilidade possibilitou um grande salto no
capitalismo de vigilância, graças aos smartphones
que tornaram populares no Brasil apartir de 2012
com 18%de penetração, atingindo 57%da
população em 2015, e chegando a87%em 2017xviii.
Amobilidade passou apermitir ouso permanente
da Internet, apartir de qualquer lugar.Novos dados
passaram aser extraídos apartir da capacidade dos
aplicativos em acessar diversos sensores e
funcionalidades do smartphone.
NÚMERO 41 -2019 REVISTA INTELIGÊNCIA EMPRESARIAL
Amobilidade tornou viável aplicativos como o
Waze,UBER, Moovit, Runkeeper, Strava,que operam
apartir da extração de dados de
geoposicionamento.
Oacesso móvel àInternet por 3G/4G possui
características técnicas específicas que levaram as
operadoras de redes móveis (ORM), estabelecerem
uma franquia mensal no consumo de dados (Data
Cap).
Segundo apesquisa TIC Domicílios 2017
(CGI.Br,2018), 49%dos usuários de Internet
utilizam apenas osmartphone para acessar a
Internet no Brasil, sendo que 22%destes usuário
(11%do total), utilizam apenas 3G/4G para acessar
aInternet, concentrando-se em sua maioria nas
classes D e E. Isto significa que estes usuários
acessam aInternet sob restrição econômica,
limitando suas as opções, construindo bitos de
uso diferenciado, isto porque as ORM costumam
ofertar Facebook,WhatsApp eoutras aplicações
grátis,caracterizando uma prática comercial
conhecida por Zero Rating.
Para Bauman eLyon (2013), aarquitetura das
tecnologias eletrônicas permitem formas de controle
com diferentes faces, inclusive compartilhando as
características ligadas ao consumo eentretenimento,
apontando para a vigilância e autovigilância como
novas perspectivas comportamentais do indivíduo
frente às tecnologias, que inclusive sentem-se felizes
emotivados acompartilhar detalhes íntimos de
suas vidas pessoais tais como fotos, fatos, eventos e
pensamentos.
Atecnologia vem transformando o vigiado
servidor do vigilante, através da autovigilância, vinte
equatro horas por dia esete dias por semana como
destacam os autores.Bauman eLyon utilizam o
conceito de panóptico pessoal como odispositivo
que torna oindivíduo vigilante de si ede seus
pares, pavimentando oconceito da portabilidade de
que a vigilância atua de forma descentralizada
(CARIBÉ,2018).
Éinteressante observar oquanto o
desenvolvimento tecnológico permitiu novas
práticas de desenho edesenvolvimento para a
Internet, aplicações em AJAX não teriam como
funcionar nos computadores de 1996,os padrões de
Internet (Web Standards) não teriam se tornado tão
populares se aGuerra dos Navegadores não tivesse
criado tantos transtornos.
Ocaso dos smartphones no Brasil mostra que
aresposta do mercado éimportante, com 5% da
população Brasileira com smartphone em 2009,
aplicações que fazem uso da mobilidade não teriam
economia de escala para subsistirem.Com a
penetração próxima dos 90%, eles se tornaram a
principal ferramenta auxiliar do capitalismo de
vigilância.
11 Capitalismo de Vigilância
3. Novas fronteiras do capitalismo de vigilância
Anavegação na Internet baseia-se na trocas de
informações, que são premissas do modelo
Transmission Control Protocol (TCP), que inclui o
conjunto de protocolos TCP/IP, constituída de
quatro camadas: a camada de acesso àrede; a
camada de Internet; a camada de transporte; e a
camada de aplicação.
Acamada de acesso àrede éacamada física,
também conhecida como camada de infraestrutura,
composta de cabos, modems, roteadores, servidores
raiz, dentre outros equipamentos.
Acamada de Internet éconhecida como a
camada de rede, responsável pela interconexão das
diferentes redes, estabelecendo afuncionalidade da
infraestrutura.
Acamada de transporte controla a
comunicação host ahost,utilizando protocolos
como oTCP/IP, UDP, eoutros.Este protocolos são
responsáveis por converter os dados em pacotes de
dados, endereçá-los edeterminar arota, em
conjunto com acamada de internet.Os protocolos
codificam regras específicas, edentro deste aspecto
são estrategicamente alvos de políticas de tráfego e
gestão da rede.
Acamada de aplicação éde fato aInternet
que os usuários conhecem:navegadores e
aplicativos, que acessam sites edados remotos
utilizando outros protocolos escripts. É importante
observar que as camadas atuam de forma
coordenada na coleta, codificação, transporte,
armazenamento, recuperação, distribuição e
decodificação das informações na Internet.
Oque se quer demonstrar éque no
capitalismo de vigilância, a extração de dados
acontece usualmente na camada de aplicação, mas
eventos recentes, chamam aatenção para novas
possibilidades de extração, ainda na camada de
transporte.
Um dos temas relevantes durante a20th ITU
Plenipotentiary Conference(PP-18)xix ,que
aconteceu entre 29 de Outubro e16 de Novembro
de 2018 em Dubai, foi aaprovação da resolução
(WGPL/3) com oobjetivo de delinear oescopo das
atividades da UIT relacionadas aos serviços OTTs
(over-the-top), prestados na camada de aplicação,
acima da camada da infraestrutura de
telecomunicações.
OFacebook,Google, WhatsApp, Netflix eoutras
plataformas são exemplos de OTTs. A pressão por
esta resolução vem do que especialistas do setor
estão chamando de Bolha dos Cabos Submarinos.
Projetos como oMONETxx (Google, Antel,Algar
eAngola Cables), um cabo com acapacidade de
64Tb/sconectando Boca Raton,na Florida (EUA), às
cidades de Fortaleza (CE) eSantos (SP);MAREAxxi
(Telxius,Facebook eMicrosoft), um cabo com a
capacidade de 160Tb/s, conectando Virginia Beach
NÚMERO 41 -2019 REVISTA INTELIGÊNCIA EMPRESARIAL
nos EUA àBilbao na Espanha; O MALBECxxii
(Globenet eFacebook), com capacidade não
informada, conectando Rio de Janeiro (RJ), Praia
Grande(SP) eBuenos Aires na Argentina;
TANNATxxiii(Google e Antel)com 64Tb/sconectando
Santos(SP), interligando com oMONET, com
Maldonado no Uruguai; e dois cabos de uso
exclusivo do Google:JUNIORxxiii (Google), com
16Tb/s, conectando Rio de Janeiro eSão Paulo, e o
CURIE (Google) xxiv,interligando Los Angeles (EUA)
àValparaiso no Chile.
Omovimento teve inicio na disputa pela
Neutralidade da Internet, amesma neutralidade que
foi garantida no Brasil pelo Marco Civil da Internet,
equebrada nos EUA por determinação da agência
americana FCC.Em poucas palavras, aneutralidade
da internet, neutralidade de rede, ou simplesmente
neutralidade, é a garantia nas camadas de
infraestrutura, internet etransporte, de que todos
os pacotes de dados tenham amesma prioridade de
tráfego.
As empresas de telecomunicações que
oferecem estas camadas almejam cobrar valores
diferenciados de acordo com oserviço que esta
sendo acessado pelo usuário, origem edestino da
rota de pacotes de dados.Esta disputa não é
recente, vem desde 2010,quando as operadoras de
telecomunicações, entenderam que as OTTs tinham
uma receita desproporcional ao que pagavam pela
infraestrutura de telecomunicações.
As OTTs em contrapartida, entenderam que
garantem otráfego nas redes de telecomunicações,
trazendo novos clientes.Deste impasse surgiram os
acordos de Zero Ratingna telefonia móvel, estes
acordos garantem que as empresas de
telecomunicação não cobrem franquia de dados,
quando usuários acessam os OTTs que fazem parte
do acordo.
12 Capitalismo de Vigilância
Esta pressão está se expandindo para as redes de
internet fixa, sob oargumento da criação de uma
franquia de dados, conhecida por Data Cap,
limitando ovolume de dados consumidos por
conexões de banda larga.
3. Conclusão, barreiras elimitações ao
capitalismo de vigilância
Shoshana Zuboff (2016), no artigo Secrets of
Surveillance Capital,explorou questões práticas da
operação do capitalismo de vigilância, ela começa
por identificar oobjetivo principal que é
modificação em escala dos comportamentos das
pessoas.Segundo Zuboff, o ataque aos dados
comportamentais étão abrangente que não pode
mais ser circunscrito pelo conceito de privacidade e
suas disputas.Ela descreve como uma equação em
quatro pontos:ampliação obsessiva nos espaços de
captura de dados, oque ela chama de excedentes
comportamentais;modelagem destes dados por
técnicas de big data;criação de produtos de
previsão comportamental;comercialização destes
produtos.
Considerando que os dados são oprincipal
ativo do capitalismo de vigilância, impor limitações
àsua extração, transporte, processamento e
armazenamento, tem sido objeto de políticas de
dados pessoais. A Europa épioneira, epossui um
marco legal para proteção de dados pessoais
conhecida por GDPRxxv.No Brasil, aLei Geral de
Proteção de Dados Pessoais (LGPD)xxvi sancionada
em 2018,entrará em vigor em 2020.
Acompreensão das camadas que compõem a
estrutura TCP/IP, pela perspectiva do capitalismo de
vigilância, permite observar em quais camadas é
possível aextração de dados, além da usual
extração na camada de aplicação, também épossível
NÚMERO 41 -2019 REVISTA INTELIGÊNCIA EMPRESARIAL
extrair na camada de transporte, sendo este um dos
riscos da concentração das empresas com as redes
de infraestrutura descrita na Bolha dos Cabos
submarinos.Ao descrever as cestas que fazem parte
da estrutura de governança da Internet, possı́vel
identi}icar que tipos de polı́ticas pú blicas poderã o
ser desenvolvidas em cada uma delas.
Acronologia esistematização dos eventos
permitiu expor, que oCapitalismo de Vigilâ ncia
soube aproveitar cada oportunidade criada,
transformando-as sempre elucro, eaprimorando
seus negó cios de comercialização de
comportamentos futuros.Este desenvolvimento foi, e
continua sendo, intimamente ligado aadoçã o de
novas tecnologias pelo mercado, produzindo uma
economia de escala, indispensável ao big data.
Acordos, fusões eaquisições de empresas, supriram
ademanda voraz por dados ecomportamentos
codi}icados, econtinuam suprindo.
Aexpansão do mercado das OTTs atravé s da
construçã o de infraestrutura de Internet privada,
como no caso da Bolha dos Cabos Submarinos,
expôs, além da disputa entre as OTTs etelecoms, a
voracidade etamanho do mercado aser abraçado
pelo Capitalismo de Vigilâ ncia.Este tem em seu
DNA uma prá tica predató ria, que esta consumindo a
privacidade, liberdade, autonomia, sanidade mental
eestado de direito.Agora está corroendo as bases
da Internet, arriscando transforma-la em um espaço
fragmentado de redes, ampliando oconceito de
jardim murado, uma vez que estas redes privadas
possuem suas pró prias regras, epoderã o não seguir
leis, acordos eregras implı́citas eexplı́citas que
norteiam agovernança da internet.
Ocapitalismo de vigilâ ncia violou uma das
regras basilares da Internet ao adicionar valor no
seu centro, eisto aestá destruindo.Violar regras
parece ser uma das caracterı́sticas operacionais do
capitalismo de vigilâ ncia, que está sempre
desenvolvendo margem da lei eda é ti ca ,
tencionando-as, até que sejam }lagrados, expandindo
para um novo campo invisı́vel, de forma cı́clica.
Tudo isto iniciou apartir de uma proposta
para aprimorar aexperiência do usuário em 1994, e
desde entã o, este termo vem sido como expressã o
politicamente correta para odesenvolvimento do
capitalismo de vigilâ ncia. Este debate, de profunda
importâ ncia para ofuturo da humanidade, está
apenas começando.
Referências
BARLOW, J. P. ADeclaration Of The Independence Of
Cyberspace,1996. Disponı́vel em: https://www.eff.org/cyberspace-
independence.Acesso em: 16/11/2018.
CARIBEÄ , J. C. R. Vigilncia cega, oque as pegadas digitais podem
revelar sobre oindivı́duo.In: II Simpósio Internacional Network
Science.Rio de Janeiro, 2018.
CROCKETT, M. J. Moral outrage in the digital age.Nature Human
Behaviour,v. 1, no 11, p. 769771, 2017. ISSN: 2397-3374, DOI:
10.1038/s41562-017-0213-3.
GIRARD, B. The Google Way -How one company is
revolutioniz ing management as we know it. No Starch Press,
2009. 248 p.
13 Capitalismo de Vigilância
COMITÊ GESTOR DA INTERNET NO BRASIL(CGI.Br). Tic domicílios
2017. CETIC, 2018. 416 p.
JOLER, V.; PETROVSKI, A. Immaterial Labour and Data
Harvesting =ShareLab.ShareLab.2016. Disponível em:
<https://labs.rs/en/facebook-algorithmic-factory-immaterial-labour-
and-data-harvesting/>. Acesso em: 29/ago./18.
KING, A. B. Speed up your site. [s.l.]: New Riders,2003. 496 p.
ISBN: 9780735713246.
KRUG, S. DontMake Me Think! A common sense approach to
Web Usability.1ed. New Riders,2000. 195 p.
KURBALIJA, J. Uma introdução àGovernança da Internet. In:
CARVALHO, C. (trad.). 6ed. São Paulo, Brasil: Nic.br,2016. 240 p.
NIC.BR, BANDA LARGA NO BRASIL :um estudo sobre aevolução
do acesso eda qualidade das conexões àInternet. Cadernos NIC.br
Estudos Setoriais. São Paulo: Comitê Gestor da Internet no Brasil
CGI.br,2018. 148 p.
PARISER, E. Ofiltro invisível: Oque ainternet está escondendo
de você. 1 ed. Brasil: Zahar, 2012. 251 p.
SEARLS, D.; WEINBERGER, D. World of Ends. 1996. Disponível em:
<http://www.worldofends.com/>. Acesso em: 14/ago./16.
VISE, D. A.; MALSEED, M. The Google Story:Inside the Hottest
Business, Media, and Technology Success of Our Time. 2ed.
[s.l.]: Pan Books, 2006. 181 p. ISBN: 9780553383669.
ZELDMAN, J. Designing with web standards. :New Riders,2003.
436 p.
ZITTRAIN, J. L.The Future of the Internet and How to Stop it. 1
ed. [s.l.]: Yale University Press, 2008. ISBN: 978-0300124873.
ZUBOFF, S. ADigital Declaration.Frankfurter Allgemeine.2014.
Disponível em:
<http://www.faz.net/aktuell/feuilleton/debatten/the-digital-
debate/shoshan-zuboff-on-big-data-as-surveillance-capitalism-
13152525.html>. Acesso em: 21/nov./18. ISBN: 0174-4909.
ZUBOFF, S. Big other:Surveillance capitalism and the prospects
of an information civilization.Journal of Information Technology,
v.30, n.1, p.7589, 2015.
ZUBOFF, S. Secrets of Surveillance Capitalism.Franffurter
Allgemeine.2016. Disponível em:
<http://www.faz.net/aktuell/feuilleton/debatten/the-digital-
debate/shoshana-zuboff-secrets-of-surveillance-capitalism-
14103616.html#void>. Acesso em: 22/nov./18.
Notas
iRelatório financeiro do Facebook de 2018:
https://investor.fb.com/investor-news/press-release-
details/2019/Facebook-Reports-Fourth-Quarter-and-Full-
Year-2018-Results/default.aspx acesso em 02/04/2019.
ii Relatório financeiro da Alphabet (Google) de 2018:
https://abc.xyz/investor/acesso em 02/04/2019.
iii The Web that Was -Call for Papers
http://thewebthatwas.net/cfp/
iv Nicholas Negroponte -
https://web.media.mit.edu/~nicholas/
vHomofilia,substantivo feminino que significa literalmente
"amor aos iguais", na tendência das pessoas pela atração
por seus homônimos. No contexto apresentado significa
avaliar os indivíduos apartir de suas características
homônimas.
vi Custo por Gb em relação aos preços dos discos rígidos,
obtido em http://www.mkomo.com/cost-per-gigabyte-
update
vii Google AdSense -
https://www.google.com.br/adsense/start/
viii Cabeçalho HTTP -Ao requisitar uma URL, onavegador
envia uma Requisição HTTP, eneste momento envia uma
série de dados sobre ocomputador eaconexão.
ix IP (Internet Protocol)significa "Internet Protocol"eéum
número que identifica um dispositivo em uma rede (um
computador, impressora, roteador, etc.), ao acessar a
Internet, onúmero de IP que oservidor receberá será o
número de IP do modem.
https://pt.wikipedia.org/wiki/Protocolo_de_Internet
Continuação na página 40.
... No capitalismo de vigilância, na sua versão original, on-line, prevê-se a taxa de visitas e se vende isso ao anunciante, que paga para ter visitas em seu site.70 Exemplos de materialização do capitalismo de vigilância na práxis mercantil são narrados por João Carlos Caribé71 , ao aduzir o caso da Amazon. Jeff Bezos, CEO da Amazon, que "atingiu a marca de um milhão de clientes de livros em 1997. ...
Article
Full-text available
O objetivo do artigo é discutir criticamente a desconstrução da ideia de soberania do consumidor no contexto da hipermodernidade e os reflexos do neoliberalismo nesse cenário. Nesse sentido, persegue-se a problemática de compreender se a noção de soberania do consumidor no atual mercado de consumo não importaria em um verdadeiro mito. A resposta a esse problema de pesquisa é desenvolvida, metodologicamente, em um estudo de abordagem qualitativa e, quanto aos objetivos, exploratória, tendo como procedimentos o levantamento bibliográfico, entre outras fontes primárias e secundárias. Apresenta-se, inicialmente, um breve panorama do neoliberalismo e do capital financeirizado. Em seguida, é abordada a construção da ideia de hipermodernidade e sua conformação dentro da perspectiva neoliberal. Ao fim, discute-se a desconstrução da ideia de soberania do consumidor no mercado a partir das reflexões anteriormente propostas no presente estudo, especialmente, analisando a obra de John Kenneth Galbraith e a Teoria Econômica Neoclássica Marginalista
... Segundo Caribé (2019), é possível que o capitalismo de vigilância tenha sido construído a partir de uma sucessão de falhas, eventos e oportunidades, percebidos ou construídos em diversas "cestas" e perspectivas, em contextos distintos, mas de alguma forma coordenados. ...
Book
Full-text available
O conteúdo desta obra resulta das exposições realizadas no IV Encontro Dados, Tecnologia e Informação (IV DTI), ocorrido no dia 16 de Julho de 2021. Promovido no âmbito do Programa de Pós-Graduação em Ciência da Informação – PPGCI (UNESP), com apoio do Grupo de Pesquisa Tecnologia de Acesso a Dados – GPTAD (UNESP), o evento proporcionou uma reunião online de pesquisadores, alunos e comunidade científica em prol do debate acerca das aplicações, tendências e reflexões resultantes de investigações que abordam a inter-relação entre a tríade ‘Dados’, ‘Tecnologia’ e ‘Informação’. As palestras e os trabalhos apresentados no IV DTI materializam este livro eletrônico, intitulado ‘Acesso a Dados e a Ciência da Informação: Aplicações, tendência e reflexões’, cuja publicação encontra-se motivada pela necessidade de dar visibilidade aos temas da Ciência da Informação que possuem intersecções com os aspectos relacionados às tecnologias de acesso a dados e informação, e, ao mesmo tempo, de estabelecer relações interdisciplinares deste arcabouço teórico com segmentos da sociedade que ganharam destaque no cenário pandêmico atual (COVID-19), como, por exemplo, a saúde, a educação, a cultura e a economia. Para estruturar o fio condutor desta obra, o livro foi organizado em três eixos temáticos. O primeiro congrega os capítulos que tratam sobre questões que dão ênfase aos aspectos ligados ao acesso e uso dos dados (Capítulos 1 ao 7). Algumas abordagens ganham destaque, como, por exemplo: o estudo das convergências com o contexto bibliotecário; as implicações para o cenário científico atual; e aspectos relacionados a qualidade dos conjuntos de dados e às ferramentas de visualização. No segundo eixo temático foram agrupados os Capítulos que possuem vertentes direcionadas ao uso das tecnologias informacionais (Capítulos 8 ao 11). Neste bloco, encontram-se capítulos que tratam sobre: questões de interoperabilidade e integração; aspectos ligados ao desenvolvimento de interfaces considerando a experiência do usuário; e aplicação de tecnologias informacionais no contexto governamental. O terceiro e último eixo temático apresenta os capítulos (Capítulos 12 ao 21) que se dedicam ao estudo de aspectos ligados a informação, ou seja, de unidades informacionais que possuem maior carga de elementos semânticos, apresentadas de forma menos estruturada quando comparada aos conjuntos de dados. Destacam-se, neste eixo, temas relacionados com: a representação da informação (ex: uso de vocabulários controlados; padrões de metadados; estruturação conceitual de teses e dissertações); com elementos contextuais da Sociedade da Informação (ex: desinformação, capitalismo de vigilância, assimetria informacional); e com os novos formatos de disseminação de informações (ex: Redes Sociais Online). A convergência dos três eixos delimitados permite ao leitor refletir sobre as implicações dos imperativos tecnológicos considerando as distintas manifestações informacionais, tanto o conteúdo informacional quando os conjuntos de dados. Isso se dá pela demonstração de cases que ilustram aplicações teóricas e práticas, acompanhadas de proposições que vislumbram as principais tendências investigativas da Ciência da Informação, o que o torna um prato cheio para os entusiastas e especialistas da área. Uma boa leitura a todos.
... Segundo Caribé (2019), é possível que o capitalismo de vigilância tenha sido construído a partir de uma sucessão de falhas, eventos e oportunidades, percebidos ou construídos em diversas "cestas" e perspectivas, em contextos distintos, mas de alguma forma coordenados. ...
Chapter
Full-text available
Acesso a Dados e a Ciência da Informação Aplicações, tendências e reflexões
Article
Full-text available
Dualidades como informação é poder, informação é conhecimento, informação como coisa, informação como processo, informação como mercadoria, são frequentemente debatidas no campo da Ciência da Informação. Logo, não existe uma corrente dentro do próprio campo que traga uma definição específica do que se trata o conceito de informação, visto que esse é um conceito que está em constante discussão no campo. Desse modo, a informação recebe uma definição a partir de seu contexto e também do estabelecimento de um significado, seja ele tecnológico, administrativo, comunicacional, político, social e cultural. Este trabalho analisa de forma teórica e interdisciplinar a noção de Capitalismo de Vigilância Informacional no campo da Ciência da Informação. Além disso, busca compreender como essa vigilância atua na captação e manipulação de dados fornecidos por usuários em plataformas manuais ou automatizadas. O termo "Capitalismo de Vigilância" foi cunhado pela professora e psicóloga social estadunidense da Harvard Business School, Shoshana Zuboff. Com base em autores consagrados do campo, como Borko, Saracevic, Capurro, trata-se de um conceito que ainda não foi analisado e discutido com rigor na Ciência da Informação. A metodologia de pesquisa foi a revisão bibliográfica para o levantamento, seleção, análise, leitura e fichamento dos materiais sobre o conceito de Capitalismo de Vigilância e Ciência da Informação. Os materiais foram coletados em dicionários e manuais, nas bases de dados, em periódicos especializados, em eventos científicos nacionais e internacionais realizados na Ciência da Informação e de Tecnologia. Outras fontes de informação, como artigos, monografias, dissertações, teses e livros foram utilizados para dar sustentação teórica à pesquisa. Com base na análise da literatura e na interpretação textual dos materiais, considera-se que a ideia de Capitalismo de Vigilância Informacional é um conceito que precisa ser mais bem analisado do ponto de vista teórico-crítico, visto que, dados e informações são elementos fundamentais e que são inerentes às práticas sociais e humanas.
Article
O presente artigo busca compreender a evolução histórica dos direitos fundamentais, o avanço das novas tecnologias na era digital em que vivemos e novo modelo de capitalismo de dados. Dada a importância dos três assuntos em nossa sociedade buscamos compreender como as tecnologias que viabilizam o capitalismo pautado na obtenção e processamento de dados pessoais, atualmente ativo mais valioso das empresas, impacta a dinâmica de proteção dos direitos fundamentais já consagrados, e traz à discussão questões como o modelo de liberdade vigiada que presenciamos com o advento da internet, redes sociais e modernos aparelhos celulares; além da lógica de facilidade e comodidades que impute, de maneira sutil, o capitalismo de dados que nos torna cada vez mais reféns das escolhas feitas pelas grandes empresas. E até mesmo a aparente liberdade democrática que pode estar se tornando uma democracia manipulada, ou seja, uma imposição revestida de aparente escolha da maioria. Por fim, demonstraremos a proteção de dados pessoais em uma sociedade com grandes avanços tecnológicos que se torna tão fundamental em erguê-la ao rol de direitos de maior proteção jurídica, os direitos fundamentais.
Conference Paper
Full-text available
Resumo Quando se fala em vigilância, logo vem a mente a imagem de uma câmera, um observador por trás dos monitores. É um modelo naturalizado no século XX, que com o advento do big data, está se tornando obsoleto. O modelo de vigilância do Panóptico de Benthan, descrito por Foucault (2014) em "Vigiar e Punir", se baseia no par ver-ser-visto, a partir de um ponto de observação central, com o vigilante tendo ampla visão do vigiado e este nenhuma visão do vigilante, presumindo assim a sua vigilância. Com a emergência da mobilidade e do capitalismo de vigilância (Shoshana Zuboff, 2015), surgiram novas sistematizações de modelos de vigilância. Zigmunt Bauman (2013) em "Vigilância Líquida", apresenta o modelo do Panóptico pessoal, onde o indivíduo torna-se vigilante de si e seus pares, carregando seu próprio Panóptico, materializado como seus smartphones e dispositivos conectados. O que Bauman descreve, dialoga com o que Fernanda Bruno (2013), em "Máquinas de ver, Modo de Ser. Vigilância Tecnologia e Subjetividade" descreve como Vigilância Distribuída, que tira a centralidade da vigilância, principal característica do Panóptico. Sandra Braman (2006) no livro "Change of State-Information, Policy, and Power", apresenta o Panspectro, como o modelo de vigilância adequado ao advento do big data. Segundo a autora, o foco do Panspectro não é o indivíduo em particular, seu foco está nos dados, e sua ação focal se dá em resposta a padrões. O volume de dados produzidos voluntária e involuntariamente, pelo indivíduo, na Internet configuram o novo petróleo, o Facebook, por exemplo, teve uma receita bruta de U$ 40,6 bilhões em 2017, Alphabet, holding da Google, faturou U$ 110 bilhões, no mesmo período. Panspectros, treinados com modelos, através de machine learning, constroem a partir dai, por deep learnig, padrões sofisticados, que respondem de forma lateral, distinta da lógica humana, com extrema precisão a perguntas feitas na tela panspectral. Yoyou Wu et al (2015) demonstra em "Computer-based personality judgments are more accurate than those made by humans" como os julgamentos baseados em computador são mais precisos que os feitos por humanos. As pegadas digitais que o indivíduo produz permitem produzir informações valiosas de sua individualidade, seus gostos, temores, e até revelar seus mais sombrios segredos. Anais: http://networkscience.com.br/anais_18/
Article
Full-text available
This extraordinary book explains the engine that has catapulted the Internet from backwater to ubiquity—and reveals that it is sputtering precisely because of its runaway success. With the unwitting help of its users, the generative Internet is on a path to a lockdown, ending its cycle of innovation—and facilitating unsettling new kinds of control. IPods, iPhones, Xboxes, and TiVos represent the first wave of Internet-centered products that can’t be easily modified by anyone except their vendors or selected partners. These “tethered appliances” have already been used in remarkable but little-known ways: car GPS systems have been reconfigured at the demand of law enforcement to eavesdrop on the occupants at all times, and digital video recorders have been ordered to self-destruct thanks to a lawsuit against the manufacturer thousands of miles away. New Web 2.0 platforms like Google mash-ups and Facebook are rightly touted—but their applications can be similarly monitored and eliminated from a central source. As tethered appliances and applications eclipse the PC, the very nature of the Internet—its “generativity,” or innovative character—is at risk. The Internet’s current trajectory is one of lost opportunity. Its salvation, Zittrain argues, lies in the hands of its millions of users. Drawing on generative technologies like Wikipedia that have so far survived their own successes, this book shows how to develop new technologies and social structures that allow users to work creatively and collaboratively, participate in solutions, and become true “netizens.” The author has made an online version of this work available under a Creative Commons Attribution-Noncommercial-Share Alike 3.0 License. It can be accessed through the author’s Web site at http://www.jz.org.
Article
p>Moral outrage is an ancient emotion that is now widespread on digital media and online social networks. How might these new technologies change the expression of moral outrage and its social consequences?</p
Article
This article describes an emergent logic of accumulation in the networked sphere, ‘surveillance capitalism,’ and considers its implications for ‘information civilization.’ The institutionalizing practices and operational assumptions of Google Inc. are the primary lens for this analysis as they are rendered in two recent articles authored by Google Chief Economist Hal Varian. Varian asserts four uses that follow from computer-mediated transactions: ‘data extraction and analysis,’ ‘new contractual forms due to better monitoring,’ ‘personalization and customization,’ and ‘continuous experiments.’ An examination of the nature and consequences of these uses sheds light on the implicit logic of surveillance capitalism and the global architecture of computer mediation upon which it depends. This architecture produces a distributed and largely uncontested new expression of power that I christen: ‘Big Other.’ It is constituted by unexpected and often illegible mechanisms of extraction, commodification, and control that effectively exile persons from their own behavior while producing new markets of behavioral prediction and modification. Surveillance capitalism challenges democratic norms and departs in key ways from the centuries-long evolution of market capitalism.
Article
From the Publisher:Even if every Web site could afford a usability expert (which they can't), there just aren't enough of us to go around. So I tried to boil down what I've learned over the years (principles like "Don't make me think" and "Get rid of half the words on each page, then get rid of half of what's left") into a short, profusely illustrated book-one that even the guy who signs the checks (the one who looks at the site when it's ready to launch and says "I hate green. And there should be more big pictures.") might read.
Article
Obra en que se ofrecen técnicas y consejos para la utilización de estándares durante el diseño y producción de páginas web, con el fin de que su codificación, visualización y presentación no se vuelvan obsoletas con paso del tiempo y el desarrollo de nuevas tecnologías.
Article
The article illustrates a fundamental thesis about the Internet and its structure as a world of ends.
Make Me Think! A common sense approach to Web Usability. 1 ed. New Riders, 2000. 195 p. KURBALIJA, J. Uma introdução à Governança da Internet
  • S Don't
KRUG, S. Don't Make Me Think! A common sense approach to Web Usability. 1 ed. New Riders, 2000. 195 p. KURBALIJA, J. Uma introdução à Governança da Internet. In: CARVALHO, C. (trad.). 6 ed. São Paulo, Brasil: Nic.br, 2016. 240 p. NIC.BR, BANDA LARGA NO BRASIL : um estudo sobre a evolução do acesso e da qualidade das conexões à Internet. Cadernos NIC.br Estudos Setoriais. São Paulo: Comitê Gestor da Internet no Brasil CGI.br, 2018. 148 p.
The Google Way -How one company is revolutionizing management as we know it
  • B Girard
GIRARD, B. The Google Way -How one company is revolutionizing management as we know it. No Starch Press, 2009. 248 p.