O Big Data é a era dos sumos sacerdotes e seus oráculos”: entrevista com Mark Andrejevic

Mark Andrejevic, professor da Monash University, da Austrália, é um dos pesquisadores mais conhecidos na área de vigilância. É autor dos livros Reality TV: The work of being watched e iSpy: Surveillance and power in the interactive era. Entre os seus principais conceitos estão o trabalho de assistir e ser observado, em contextos de reality show e mídias digitais, a produtividade dos fãs nas mídias sociais, a vigilância lateral, a sociedade do sensor e a divisória do Big Data.

Em um de seus artigos mais recentes, Automating Surveillance, Andrejevic trata das lógicas da vigilância na era da coleta e do processamento automatizado de dados, resultando em formas de monitoramento pós-disciplinares não mais baseadas na internalização do olhar de monitoramento pelos sujeitos.

Confira entrevista ao DigiLabour:

 

DIGILABOUR: Qual o papel da vigilância no contexto do trabalho digital e da análise preditiva?

MARK ANDREJEVIC: No âmbito do consumidor, a vigilância tem sido como um meio para um fim definido: racionalizar o processo de consumo, melhorando alcance, distribuição e envio de mensagens. Embora haja alguma indicação de que a publicidade de target pode melhorar as vendas, o nível de vigilância ultrapassa muito o impacto sobre as vendas. Em parte, isso ocorre porque a vigilância se tornou relativamente barata, graças às possibilidades das mídias digitais e aos custos relativamente baixos de transmissão e armazenamento de dados. Isso ocorre, em alguma medida, porque grande parte da economia de vigilância é especulativa e baseada na promessa de que haverá uma recompensa maior quando as práticas de direcionamento forem aperfeiçoadas. Mas há outra tendência: o borrar de linhas entre eficiência econômica e poder. As empresas coletam informações porque acham que isso lhes proporcionará maior controle e, portanto, com menores margens de risco. Coletam dados porque isso é associado ao poder, mesmo que não esteja totalmente claro como isso se traduz em ganho econômico. A mesma coisa acontece com os aparatos de Estado: o enorme aumento na coleta de dados ainda não produziu ganhos comparáveis em eficiência e eficácia, mas ampliou muito a capacidade de monitorar e rastrear populações. Há suposição de que esses sistemas de monitoramento aumentarão seu poder. Isso nos deixa diante de três possibilidades. Uma, os coletores de dados estão corretos e os enormes dados que estão acumulando valerão para controle social e gerenciamento da população mais efetivos. Se esse for o caso, podemos esperar concentrações de poder econômico e político mais dramáticas. Uma segunda possibilidade é os coletores de dados estarem errados, e a economia baseada em dados entrar em colapso quando ficar claro que a análise preditiva não funciona conforme prometido e o envio de mensagens direcionadas é muito menos eficaz que o previsto. A terceira, talvez a mais provável, é que os coletores de dados estão errados, mas será tarde demais para perceber o quão errados estão porque executaremos sistemas empresariais e estatais como se a análise preditiva funcionasse como prometido, sem nunca desenvolver as ferramentas para avaliar com precisão suas reivindicações. Nesse cenário, a polícia usará dados para alocar forças, os profissionais de marketing imaginarão que qualquer aumento nas vendas tem a ver com as práticas de direcionamento e os empregadores contratarão de acordo com os serviços de inteligência artificial, e assim por diante. Haverá uma sociedade do controle sem nenhum referente porque não haverá vontade ou ferramentas para determinar se as previsões estão corretas, por exemplo, se os empregados que não foram contratados seriam mesmo superiores aqueles que foram rejeitados, se mais crimes teriam sido antecipados se a polícia tivesse sido enviada a outro lugar. Assim, nossas vidas serão moldadas por algoritmos que podem ou não ser eficazes naquilo que afirmam estar fazendo, mas nunca saberemos se esses algoritmos são realmente precisos, ou se tudo não passa de um grande golpe.

 

DIGILABOUR: O que significa considerar as tecnologias de Big Data como próteses analíticas?

ANDREJEVIC: Essas tecnologias são próteses disponíveis apenas para aqueles com recursos para acumular e processar grandes bancos de dados: assim, elas chegam a ser próteses analíticas apenas para um número relativamente pequeno de pessoas, aquelas que possuem, controlam e utilizam os bancos de dados. Além disso, a noção de uma prótese pode ser enganosa, pois próteses são extensões do “eu” que melhoram nossas capacidades. Como uma prótese analítica, o Big Data não aumenta a capacidade de gerar conhecimento, mas reconfigura essa capacidade e a transforma em uma forma de não conhecimento. O Big Data, se estiver funcionando de acordo com o planejado, gera insights que não estão disponíveis de outra forma e, portanto, não podem ser compartilhados. Em vez disso, o Big Data equivale a era dos sumos sacerdotes e seus oráculos. Suas proclamações não se baseiam em conhecimentos explicáveis e compartilháveis, mas em operações complexas que permanecem mistificadas, ou místicas, porque não podem ser submetidas à engenharia reversa ou, em alguns casos, melhoradas. Se as correlações orientadas por dados indicam que escrever seu nome em letras maiúsculas faz com que você tenha um risco de crédito maior do que alguém que faz isso de outra forma, não há explicação necessária para esse fato além de ser algo cuspido do sistema de processamento de dados.

 

DIGILABOUR: Após cinco anos da publicação do seu texto sobre a divisória do Big Data, como você define esse termo atualmente?

ANDREJEVIC: A divisória do Big Data  não se refere ao diferencial de poder criado por sistemas que privilegiam aqueles com acesso a conjuntos de dados em larga escala. O  meu foco recente em inteligência artificial destaca a dinâmica de poder invocada por essa noção de “divisória”. Minha preocupação era principalmente com a mudança epistêmica que resulta do uso de sistemas automatizados de processamento de informação, uma categoria que inclui inteligência artificial. Tais sistemas se baseiam em correlações emergentes que podem ser inexplicáveis e impossíveis de fazer engenharia reversa, ao mesmo tempo em que resultam em recomendações práticas. Em alguns casos, resultam em ações. Vimos recentemente que os sistemas automatizados da Amazon têm o poder de demitir funcionários. As interações complexas de milhares ou centenas de milhares de variáveis podem produzir uma previsão que resulta em alguém sendo contratado ou demitido, por exemplo. Em alguns casos, tais decisões não são passíveis de formas tradicionais de accountability. Elas não podem ser explicadas ou justificadas de forma diferente “porque foi isso que os dados disseram”. Isso cria uma divisão, a princípio, entre conhecimento disponível para aqueles com acesso a dados e aqueles que não têm. Isso significa que muitas categorias até então consideradas irrelevantes para determinados processos de tomada de decisão tornam-se relevantes de diferentes maneiras, até mesmo imprevisíveis. Vimos, por exemplo, empresas que dizem que as pessoas que escrevem seus nomes tudo em letra maiúscula em pedidos de empréstimo são considerados com maior risco de crédito, e que as pessoas que preenchem pedidos de emprego no Chrome ou no Firefox são consideradas melhores funcionários do que aqueles que usam Internet Explorer ou Safari. Esses são achados puramente correlacionais, e não há como explicá-los. Em alguns casos, eles podem servir como “entrada” para outras variáveis, como nível de formação e classe social. Em muitos casos, essas correlações podem ser espúrias, mas há uma suposta fé na objetividade e no poder das máquinas. Estamos entrando em um mundo no qual aqueles que têm acesso a grandes conjuntos de dados e a ferramentas para usá-los em processos de tomadas de decisão podem moldar cada aspecto de nossa existência: quais escolas frequentamos, se temos aprovação para empréstimos financeiros, quais vagas de empregos estão disponíveis para nós, e assim por diante. Fiquei intrigado ao ver que o Facebook anunciou recentemente quem terá acesso aos seus dados para checar como a rede tem sido usada para impactar eleições. No entanto, eles definem os termos de acesso para um número limitado de pesquisadores, com prazo e nível de acesso aos dados. Esta é uma tentativa limitada de superar a divisória, mas podemos ver como o controle é daqueles que detêm o poder sobre os bancos de dados. Nesse caso, construir uma ponte sobre a divisória significa obter algum acesso limitado ao conjunto de dados e trazê-lo para processamento das universidades. Mesmo quando se trata de questões cruciais para o destino dos sistemas democráticos, o Facebook tem o poder de definir os termos de acesso. Esta é, certamente, uma forma de divisória digital. Em muitos casos, no entanto, mesmo o acesso aos dados não possibilitará a engenharia reversa nas decisões tomadas em meus sistemas de inteligência artificial. Tudo o que podemos fazer para responsabilizar esses sistemas é tentar coletar as informações que podem ser usadas para avaliar preconceito, discriminação e outras potenciais patologias da tomada de decisão automatizada. Mas isso requer acesso público aos dados, bem como o poder de processamento para dar sentido a esses dados. Essa é uma luta contínua!

 

Sair da versão mobile