Descolonizar a Computação: entrevista com Syed Mustafa Ali

Professor da Escola de Computação e Comunicação da Open University, Syed Mustafa Ali tem se dedicado a compreender conexões entre computação, raça, religião, tecnologia, informação e poder. A partir de uma perspectiva de descolonização, Mustafa Ali propõe, por exemplo, a descolonização da computação e uma crítica do racismo algorítmico. Confira artigos dele aqui, aqui e aqui, e leia a entrevista abaixo.

 

DIGILABOUR: O que significa descolonizar a computação?

SYED MUSTAFA ALI: A descolonização da computação tem sido enquadrada por pesquisadores como Simone Browne, Anita Say Chan, Lilly Irani, Lawrence Liang e Jack Qiu em termos de explorar o tipo de computação que está sendo feita nas periferias, margens ou bordas do sistema moderno/colonial a partir de um compromisso baseado na práxis em direção a um descentramento radical, como faz Chan, por exemplo. No entanto, eu fico um pouco indeciso sobre a necessidade desse compromisso em relação ao descentramento em si, estando mais preocupado com o descentramento do eurocentrismo como do ocidentalismo. Em minha visão de “pluriversidade” como uma alternativa à universalidade eurocêntrica, por exemplo, pode ser que um mundo pós-eurocêntrico assuma uma visão “policêntrica”, embora eu entenda isso de uma forma um pouco diferente de um teórico marxista terceiromundista chamado Samir Amin. Inspirado por correntes da fenomenologia heidegerriana, da teoria racial crítica e do pensamento descolonial/decolonial, o meu trabalho é baseado em uma tentativa de questionar descolonialmente em relação à computação, indagando se a computação precisa ser descolonizada, e, se sim, como tal descolonização deve ser efetivada. No início, pode parecer um pouco difícil descrever a computação como “colonial”, dado que o colonialismo como um fenômeno ligado a estruturas imperiais de dominação e assentamentos é uma coisa do passado. Em suma, como a computação pode ser colonial se a “era dos impérios” acabou e nós vivemos em um mundo pós colonial? Eu argumento que, na medida em que a computação é um fenômeno moderno, e a modernidade é fundamentada e permanece amarrada com o colonialismo e suas lógicas estruturais facilitadoras – o que os teóricos descoloniais chamam de colonialidade – então pode ser que a computação continue a ter os traços do legado sistêmico do colonialismo. Em resumo, a computação é um fenômeno moderno e colonial. Isso se aplica a tipos específicos de computação, como a computação ubíqua, incluindo os desenvolvimentos mais recentes, como a Internet das coisas, que foram dirigidos por um “impulso colonial”, assim como a computação de maneira geral. Embora eu pense que é possível a computação ser desarticulada ou desconectada do capitalismo, ou então, que o capitalismo racial não pode ser entendido como separado de raça, racismo e racialização no contexto do sistema mundial moderno colonial, estou inclinado a pensar que o foco em tais desenvolvimentos periféricos, marginais ou fronteiriços, por mais importantes que sejam, diminui a necessidade de “levar a guerra ao cerne”, ou seja, efetuar a descolonização da computação em seu ponto de origem: a articulação hegemônica e a manifestação neocolonial centrífuga. Por essa razão, e como alguém atualmente geopoliticamente localizado no centro, ainda que corpo-politicamente, e como um muçulmano, marcado como “periférico” e “outro”, eu costumo focar meus esforços “disruptivos” para interrogar a computação convencional em termos de sua operação como um fenômeno baseado e flexionado por lógicas coloniais com vistas a refletir sobre as implicações de tais desenvolvimentos para, do ponto de vista privilegiado, aqueles localizados em margens, fronteiras e periferias. Nesse sentido, sugeri que, ao adotar uma perspectiva de computação descolonial, os pesquisadores façam, no mínimo, o seguinte: em primeiro lugar, considerar suas orientações geopolíticas e corpo-políticas ao projetar, construir, pesquisar ou teorizar sobre computação; em segundo lugar, abraçar a “opção descolonial” como uma ética, tentando pensar sobre o que poderia significar projetar e construir sistemas de computação com e para aqueles situados nas periferias do sistema mundial, baseados nos modos de pensar e conhecer (epistemologias) que estão localizados nesses lugares, com o objetivo de minar a assimetria das relações de poder “local-global”, efetuando o descentramento dos eurocêntricos/ocidentais universais. No entanto, para retornar à sua pergunta original, “o que significa descolonizar a computação”, acho que também há uma necessidade de pensar sobre a conveniência ou não da computação centralizada em si, independentemente de sua forma capitalista (racial), pós colonial ou descolonial. Na minha opinião, há insuficientes pesquisas descoloniais em relação à informatização, digitalização e/ou dataficação. Eu tenho apontado para o escopo da computação descolonial como algo além da crítica da computação da Internet das Coisas, ubíqua e onipresente, para incluir outros fenômenos, tentando alguns questionamentos preliminares sobre governança da internet, Big Data e dataficação. Minha preocupação, em ambos os contextos, tem sido compreender como os fenômenos são construídos discursivamente de forma conjunta a questões geopolíticas, corpo-políticas, entre outras.

 

DIGILABOUR: Com relação à governança da Internet, pode nos dar um exemplo?

MUSTAFA ALI: Aí há três questões relacionadas que constituem um local para a operação da colonialidade racializada. Em primeiro lugar, como a governança da Internet é enquadrada discursivamente, por quem e para quais fins. Minha preocupação é explicar, por meio de uma leitura descolonial, a operação tácita, ainda que não intencional, da lógica colonial em certas visões sobre a governança da Internet articuladas por vozes dominantes e geopoliticamente localizadas no Norte, e corpo-politicamente marcadas como brancas. Em segundo lugar, há a relação de formações prévias de redes de longa duração – sociais, políticas, econômicas, culturais – com as redes sociotécnicas, em face da reprodução das relações de poder sistêmicas no mundo. Em terceiro lugar, há o iliberalismo persistente e mascarado das concepções ocidentais de ordem econômica e política liberal sob a modernidade colonial. Subjacente a esse projeto está a preocupação em revelar o que pode ser descrita como “governamentalidade colonial racializada” no discurso hegemônico da governança da Internet. Há um compromisso normativo – político e ético – com a criação de uma governança da Internet para o Sul Global, e não com um enquadramento em termos da possibilidade de “inclusão” em um sistema existente, hegemonicamente ocidental e “mascarado” – intencionalmente ou não – por meio do discurso de defesa dos múltiplos atores interessados.

 

DIGILABOUR: E em relação à dataficação?

MUSTAFA ALI: Tenho feito uma crítica descolonial do discurso das pesquisas sobre dados. Nesse sentido, tenho me preocupado em mostrar como o fenômeno histórico-geográfico concreto da colonização europeia tem sido apropriado como uma metáfora no contexto de discursos “críticos” ostensivos relacionados à ascensão do Big Data e o que alguns comentaristas chamam de “capitalismo de vigilância”. Em minha leitura, tais movimentos discursivos devem ser vistos como uma concretização de violência (neo)colonial na medida em que são apropriativos e eurocêntricos/centrados no Ocidente.

 

DIGILABOUR: Como pensar a inteligência artificial em termos de uma geopolítica do conhecimento?

MUSTAFA ALI: Há duas questões emaranhadas: o que se entende por inteligência artificial e se isso é melhor abordado por meio de uma geopolítica do conhecimento. Primeiramente, é útil esclarecer brevemente a relação entre inteligência artificial e fenômenos relacionados, como machine learning. Uma maneira de compreender a inteligência artificial é se referir aos fenômenos tecnológicos considerados capazes de exibir traços inteligentes dentro de um domínio circunscrito. Já o machine learning refere-se ao uso de algoritmos para processar e analisar dados, a fim de aprender com ele e gerar previsões sobre algo. O machine learning e o deep learning são um subcampo da inteligência artificial. Há também a necessidade de diferenciar alguns dos diferentes paradigmas da inteligência artificial, incluindo suas encarnações simbólicas, muitas vezes chamadas de Good Old-Fashioned AI (GOFAI), e abordagens conexionistas baseadas em redes neurais artificiais, bem como abordagens inspiradas na biologia, como a robótica situada e reativa, os algoritmos genéticos, entre outros. Devo mencionar também a diferença entre inteligência artificial e o que veio a ser chamado de inteligência artificial geral. Esse último se refere a fenômenos tecnológicos que alcançaram inteligência a nível humano ou além disso. É claro que, a partir disso tudo, e espreitando como um elefante na sala, está a espinhosa questão sobre o significado da inteligência. Nesse sentido, a inteligência artificial, assim como machine learning e deep learning, deve ser entendida como fundamentalmente conectada a preocupações antropológicas, voltando-se a questões e decisões sobre antropocentrismo e antropomorfismo. Com relação à segunda questão, não se trata apenas de geopolítica do conhecimento, mas também de corpo-política e teo-ego-política do conhecimento. Além das preocupações epistemológicas, há questões ontológicas a serem consideradas, bem como o entrelaçamento da epistemologia (conhecimento) e da ontologia (ser) com o poder. Estou inclinado a pensar que existe uma tendência bastante persistente e difundida de pensar a inteligência como necessária cognitiva, isto é, mentalista em algum sentido. Uma das implicações desse viés cognitivista é que as questões raciais são invisibilizadas, a cognição é considerada um fenômeno sem raça, ao passo que a relação histórica da cognição com raça/racismo/racialização pode ser demonstrada. Tenho sugerido que, mesmo quando questões de localização e incorporação são levadas a sério, por exemplo, dentro da robótica reativa, o corpo tende a ser enquadrado e seu contexto de situação/incorporação é enquadrado em termos não raciais. Voltando à questão, acho que uma maneira útil de abordar a questão da inteligência artificial em uma perspectiva descolonial é em termos de como seu desenvolvimento dentro do núcleo do sistema mundial moderno colonial pode e deve ser entendido como forma de manutenção, expansão, refinamento (ou adaptação) de uma hegemonia, que tenta ser contestada por aqueles localizados nas periferias, margens e fronteiras. Em resumo, precisamos perguntar qual o papel que a inteligência artificial pode desempenhar e acaba desempenhando na manutenção da operação funcional da colonialidade e/ou da matriz colonial de poder, incluindo sua manifestação sistêmica como supremacia branca global. Acho que essa pergunta é crucial e precisa ser feita independentemente de se considerar a inteligência artificial geral algo imaginado pelos proponentes do trans-pós-humanismo, ou pelo que poderia ser descrito como “aumento/ampliação da inteligência”, isto é, a implantação de machine learning e deep learning em contextos específicos, incluindo aqueles que estão emaranhados com outras tecnologias, como a internet das coisas.

 

DIGILABOUR: Falar de descolonização virou moda no Norte Global. Como compreender isso ou lutar contra…?

MUSTAFA ALI: Embora eu compartilhe das preocupações sobre a descolonização ser reduzida a um modismo nos contextos do Norte Global e apoie os esforços para resistir a qualquer coisa que eu veja como um processo de cooptação colonial, estou inclinado a pensar que a situação é um pouco mais complexa. Em primeiro lugar, não creio que a redução da descolonização a um modismo no Norte Global seja inevitável, nem que tenha acontecido sem resistências de dentro. Em segundo lugar, e talvez mais importante: na medida em que as lógicas estruturais que sustentam o sistema mundial moderno colonial operam tanto local quanto globalmente, precisamos pensar em descolonizar tanto o núcleo (Norte Global) quanto descolonizar a periferia (Sul Global) e seu entrelaçamento relacional de poder. Talvez seja crucial a adoção de um compromisso com o que os pesquisadores descoloniais/decoloniais chamam de “opção descolonial”, que eu defino como uma opção ético-política para aqueles localizados em margens, fronteiras e periferias do sistema mundial moderno colonial, com vistas a efetuar reparações – materiais e outras – ao Sul Global e descentralizar a hegemonia do Ocidente/ Norte Global. Se o discurso de descolonização vindo do Norte Global não se alinha explicitamente com essa orientação de pensamento, fala e ação, então eu acho que ele precisa ser chamado pelo que é, ou seja, co-opção colonial modista, pelas vozes do Norte e do Sul Global comprometidas com o projeto de descolonização, entendido como um projeto de re-formação e reconstrução mundial. Em suma, eu não acho que o problema seja apenas sobre quem está gerando o discurso descolonial e de onde, mas também sobre o motivo pelo qual eles estão fazendo isso, ou seja, com qual propósito. Se as vozes do Norte Global não tirarem sua “condução” do Sul Global e de suas preocupações, então, no mínimo, elas estarão vazias do ponto de vista decolonial. Embora eu não esteja inteiramente certo de que é útil ou apropriado para alguém localizado no núcleo, como eu, embora às suas margens, corpo-politicamente falando, aconselhar aqueles geopoliticamente localizados em periferias, margens e fronteiras sobre como lutar contra a cooptação do/no projeto colonial, talvez eu possa me aventurar a sugerir a importância de reiterar a necessidade de abraçar a opção descolonial e aconselhar os atores descoloniais do Norte Global a refletir sobre o que eles pensam, dizem e fazem em seus lugares para promover o projeto de descolonização.

 

DIGILABOUR: Quais são as características do racismo algorítmico?

MUSTAFA ALI: Há dois sentidos no racismo algorítmico, um que é ôntico, e outro que é ontológico, algo baseado em uma distinção de Heidegger. Entendido onticamente, o racismo algorítmico refere-se à manifestação do viés racial nas tecnologias que incorporam algoritmos. Embora alguns comentaristas tenham argumentado que a fonte geradora de tal viés pode ser atribuída a vieses humanos no desenho, implementação ou uso dos algoritmos, outros comentaristas argumentam que não são tanto os próprios algoritmos, mas, sim, os vieses históricos nos conjuntos de dados usados para treinar esses algoritmos e as classificações geradas por eles que são a fonte do problema. Existe uma literatura já extensa sobre o tema do racismo algorítmico e discursos associados, como o FAT-ML (Fairness, Accountability and Transparency in ML), e é um fenômeno importante para se envolver em uma perspectiva descolonial de computação. No entanto, tenho a tendência de pensar que a maneira mais construtiva de fazer isso é situando essa compreensão ôntica do racismo algorítmico dentro de uma concepção ontológica do fenômeno. Entendido ontologicamente, o racismo algorítmico refere-se a uma maneira de conceituar a relação entre processos de formação racial (ou racialização) dentro da experiência histórica ocidental e seus (vários) “outro(s)”. O racismo algorítmico, nesse sentido, mobiliza a figura do algoritmo como uma metáfora para pensar sobre a relação entre diferentes formações discursivas – religiosa, filosófica, científica, cultural, informacional, algorítmica (no sentido ôntico… – e como a raça é paradigmaticamente articulada em diferentes períodos da história da modernidade colonial. O racismo algorítmico está relacionado à revelação de que há continuidade mesmo em processos de mudanças na longa e histórica conexão entre “raça” e “religião”, que é associada a processos de estabelecimento, manutenção, expansão e refinamento do sistema moderno colonial, pensando em transformações discursivas como rearticulações ou reiterações da diferença entre o europeu (branco, ocidental) e o não europeu (não branco, não ocidental) ao longo de uma trajetória programática de dominação que os pesquisadores descoloniais enquadram com referência à “linha do humano”.  Com base nesses estudos, refiro-me às origens do “humano” – ou “homem” – como categoria religiosa-racial eurocêntrica, forjada em um processo de dialética negativa hierárquica, com base em uma relação antagônica com o “outro” não europeu como subumano, desde o século XVI, se não antes. Além de explorar as transformações nas articulações de raça, penso no racismo algorítmico em termos da mudança da distinção entre subumanos (não europeus, não brancos) e humanos (europeus, brancos) para aqueles entre humanos (não europeus, não brancos) e transumanos (europeus, brancos), entendendo tal mudança como a intenção de manter o binarismo relacional e hierárquico entre o europeu e o não europeu. Nesse sentido, e no contexto do meu questionamento descolonial em relação ao transumanismo, aponto para a transformação “algorítmica” do humanismo em pós humanismo tecnológico via transumanismo como uma mudança iterativa dentro da ontologia historicamente sedimentada da racialização eurocêntrica; em suma, o humanismo, o transumanismo e pós humanismo devem ser entendidos como interações dentro da lógica estrutural, isto é, relacional, do racismo algorítmico.

 

Veja também palestras de Mustafa Ali aqui e aqui.

Abolir o Vale do Silício: entrevista com Wendy Liu

 

b9f53b6b-abf4-4214-8c93-d5e6b5da73f2

 

Cientista da computação, Wendy Liu trabalhava com programação, e desde 2017 escreve sobre tecnologia e trabalho a partir de uma perspectiva de esquerda. Alguns textos dela aqui, aqui e aqui. Atualmente, está escrevendo um livro chamado Abolir o Vale do Silício. Em entrevista ao DigiLabour, fala sobre tecnologia de um ponto de vista de esquerda, a organização dos trabalhadores de tecnologia e o que significa abolir o Vale do Silício.

 

DIGILABOUR: Qual seria uma agenda socialista para as tecnologias?

WENDY LIU: Em primeiro lugar, é importante ir além de binarismos. A tecnologia não é boa nem má. Devemos criar o hábito de separar a tecnologia, em sua forma abstrata, do modo como ela está sendo usada devido ao sistema socioeconômico. O fato de um tipo particular de tecnologia facilitar a opressão ou a exploração em nossa atual ordem mundial não significa que haja algo intrinsecamente ruim sobre a tecnologia. Em vez disso, devemos especificar a relação de dominação existente envolvendo a tecnologia. Grande parte da tecnologia que existe no capitalismo tem outras aplicações, muitas das quais poderiam ser diretamente relevantes para fins socialistas. A questão é liberar essa tecnologia dos usos para os quais ela está sendo usada atualmente. Os algoritmos da Uber, os sistemas de logística da Amazon, a infraestrutura incrivelmente complicada que nos permite interagir uns com os outros na internet… essa tecnologia atualmente está trancada dentro das corporações, gerando lucro às custas de servir ao bem público. Como Leigh Phillips e Michal Rozworski escrevem em seu livro mais recente, People’s Republic of Walmart, essa tecnologia pode ser a chave para pensar qualquer visão socialista que inclua controle em larga escala sobre os meios de produção. O desafio para a esquerda, então, é elaborar uma estratégia que tome para si essa tecnologia, o que provavelmente envolverá o apoio daqueles que já trabalham na indústria de tecnologia, e que possuem conhecimento relevante sobre o assunto. Portanto, acho que um projeto paralelo é os trabalhadores de tecnologia se organizarem, a ponto de constituírem uma força poderosa dentro das corporações, exigindo maior controle sobre a tecnologia. Isso poderia complementar o objetivo de alcançar um controle mais democrático sobre a tecnologia, como um primeiro passo para desfazer o modelo tipicamente autoritário de gerenciamento de empresas de tecnologia. Na verdade, existe um grupo no Brasil que parece estar fazendo isso, que foi inspirado na Tech Workers Coalition, dos Estados Unidos. Eles foram entrevistados pelo Notes from Below ano passado: “Precisamos pensar em uma grave dos trabalhadores de tecnologia”. O movimento trabalhista em tecnologia ainda é muito incipiente, mas acho que é um passo na direção certa: reconhecer que a tecnologia foi mal utilizada no capitalismo, mas que pode ser direcionada para fins melhores, se tivermos vontade política.

 

DIGILABOUR: Conte-nos mais sobre a organização dos trabalhadores de tecnologia…

LIU: Nos últimos meses, houve desenvolvimentos realmente interessantes nas grandes empresas de tecnologia, algo que eu nunca havia pensado que veria quando ainda trabalhava com tecnologia. Há uma percepção comum de que, como os profissionais de tecnologia em funções específicas são tão requisitados, eles devem ser bem pagos e, portanto, não podem ter nenhuma das queixas dos trabalhadores. Mas isso só foi verdade por um tempo. A indústria de tecnologia sempre desvalorizou certos tipos de mão de obra com base no perfil de quem a realiza, mesmo quando estão fazendo o trabalho que deve ser considerado valioso. Mulheres, pessoas negras e trabalhadores mais velhos têm alarmado sobre a hostilidade da indústria de tecnologia há muito tempo, e a onda mais recente de organização dos trabalhadores da área tem origem em um reconhecimento dessas críticas. Outro fator importante aqui é que as condições do setor estão mudando. Nós não estamos mais na idade de ouro da tecnologia. Você ainda pode ganhar muito dinheiro no setor se tiver o background e o network corretos, mas a demanda por trabalho se expandiu ao ponto de as empresas poderem se envolver em práticas de exploração mais óbvias. A maioria dos trabalhadores do Google não são funcionários em período integral, mas recebem contratos de curto prazo ou trabalham para agências que não lhes dão os mesmos benefícios ou prestígio. O que isso significa é que muitos dos trabalhadores mais novos, que entraram no setor porque ficaram entusiasmados com o trabalho, ou simplesmente porque queriam um emprego bem remunerado, estão presos em situações de trabalho muito diferentes do sonho estereotipado do Vale do Silício. A empresa os trata como se pudessem ser trocados a qualquer momento, o que é desmoralizante e até insultuoso. Para esses trabalhadores, faz sentido que eles se unam para exigir melhores condições de trabalho. Mas a organização desses trabalhadores não precisa se limitar às condições do local de trabalho. Muitos dos esforços de organização no último ano foram em torno de preocupações éticas em relação aos usos dos produtos que estão sendo desenvolvidos. Contra o pano de fundo do desmoronamento do establishment político, faz sentido considerar outras vias de mudança. A indústria de tecnologia está especialmente bem preparada como um lugar de luta, dada à sua imensa riqueza, bem como a sua importância infraestrutural para outros setores da economia.

 

DIGILABOUR: Por que abolir o Vale do Silício?

LIU: Abolir o Vale do Silício não significa parar o desenvolvimento tecnológico, mas desafiar o atual modo de produção que força a tecnologia a ser desenvolvida principalmente para fins capitalistas. Significa liberar o desenvolvimento tecnológico da busca incessante pelo lucro, porque isso leva a resultados que são ineficientes, com desperdício, e, em última instância, trata-se de uma distração em relação ao que a sociedade deveria estar trabalhando, por exemplo, lidar com as inúmeras mudanças ecológicas que estamos começando a enfrentar. Ficou muito claro para mim que permitir que a tecnologia seja impulsionada pelas necessidades do capital, financiada por grandes fundos de investimento e gerenciadas na esperança de gerar um retorno, é algo ruim. Nós não precisamos de um milhão de aplicativos de entrega de comida, e é patentemente imoral que tantas pessoas trabalhem em empresas de tecnologia como Uber ou Amazon simplesmente para que alguns investidores e executivos fiquem extremamente ricos. O atual modelo industrial de desenvolvimento tecnológico está distorcendo as promessas utópicas do que a tecnologia poderia ser, criando um mundo altamente estratificado. Nós podemos e devemos fazer algo melhor.

 

 

“É simplista definir o trabalho digital exclusivamente como um trabalho de clique”: entrevista com Sebastien Broca

Sebastien Broca é professor da Universidade Paris VIII e autor do livro L’utopie du logiciel libre. É integrante de rede europeia  de estudos sobre trabalho digital e tem se dedicado a escrever sobre commons digitais e a questão do trabalho digital. Confira a entrevista:

 

DIGILABOUR: Quais são as suas críticas às pesquisas sobre trabalho digital e o que propõe como alternativa?

SÉBASTIEN BROCA: Em primeiro lugar, gostaria de dizer que a pesquisa que se ancorou em torno do conceito de trabalho digital é, em minha opinião, interessante e positiva em muitos aspectos. Elas ajudaram a destacar aspectos do capitalismo digital que foram insuficientemente tratados na pesquisa acadêmica e no debate público. Por exemplo, a importância econômica do trabalho não assalariado e do trabalho não pago, a competição e a precarização do trabalho, a indefinição entre trabalho e não trabalho, combinando com a ascensão do modelo de plataforma. No debate francês, os trabalhos de Antonio Casilli permitiram trazer questões importantes, que vão além do problema da “uberização”, sobre o qual o debate público tem se concentrado há muito tempo. Hoje estamos falando cada vez mais sobre o microtrabalho nos programas de inteligência artificial, o trabalho dos moderadores de conteúdo e o trabalho gratuito de produção de conteúdo pelos usuários das redes sociais. Isso deve ser creditado à pesquisa sobre trabalho digital. Minhas reservas dizem respeito à tentação de igualar essas várias atividades dentro de uma categoria falsamente homogênea. Então, eu não acho que temos que ver o trabalho digital como um tipo único de trabalho. É simplista definir o trabalho digital exclusivamente como um “trabalho de clique” repetitivo e fragmentado feito em um computador ou smartphone. Parece-me que esmaga a diversidade e a complexidade das atividades que estão sendo discutidas. Um motorista do Uber faz mais do que apenas um “trabalho de clique”: ele também dirige o carro, coloca e tira a bagagem, conversa com seus passageiros. Outro exemplo: os voluntários que produzem os dados dos jogadores do game Football Manager também realizam uma forma de trabalho digital. Mas seu envolvimento não se reduz ao “trabalho de clique”: consiste em inserir dados em um banco de dados. Antes disso, essas pessoas tiveram que assistir a jogos e treinamentos dos clubes pelos quais são responsáveis, discutir em fóruns para justificar as pontuações dadas a um determinado jogador, entre outras tarefas. Em resumo, eu considero útil a noção de trabalho digital por circunscrever um campo original de pesquisa, mas problemático quando isso leva a apagar as diferenças entre atividades tão diversas quanto dirigir um Uber, trabalhar na Amazon Mechanical Turk, postar um vídeo em uma rede social ou classificar jogadores para um game. Esse problema é tão científico quanto político. As lutas sociais contra o trabalho digital variam em função das atividades em jogo: alguns motoristas da Uber pedem, legitimamente, para serem requalificados como trabalhadores da plataforma, mas seria absurdo que os dois bilhões de usuários que fornecem dados e conteúdos para o Facebook peçam para se tornar trabalhadores de Mark Zuckerberg. Portanto, precisamos fazer distinções específicas dentro do campo dedicado à pesquisa do trabalho digital.

 

DIGILABOUR: Como você vê as críticas liberais e marxistas em relação ao capitalismo digital?

BROCA: Eu acho que a principal diferença entre esses críticos são seus temas preferidos. Os liberais concentram-se em questões de liberdade de expressão, privacidade e acesso ao conhecimento. Sua principal âncora normativa é a defesa da autonomia individual frente o poder do GAFAM (Google, Apple, Facebook, Amazon, Microsoft) e os Estados. Isso pode ser visto em vários defensores das liberdades digitais e em alguns trabalhos recentes, como o de “capitalismo de vigilância”, de Shoshana Zuboff. Podemos dizer que a evolução iliberal da internet tornou essas críticas cada vez mais veementes nos últimos anos. Os críticos da tradição marxista, lato sensu, por sua vez, concentram-se em questões relacionadas à exploração de trabalho, à distribuição desigual do valor econômico e à erosão das formas de proteção social. Aqui, novamente, as recentes dinâmicas do capitalismo digital tendem a acentuar essas críticas e torná-las mais necessárias do que nunca. O desenvolvimento de pesquisas em torno do trabalho digital é uma boa ilustração. Meus interesses de pesquisa estão mais de acordo com os temas da crítica “marxista”. Mas acho que existem certas complementaridades entre esses críticos, que devem ser desenvolvidas. Assim, defender as liberdades online sem analisar o poder econômico do GAFAM e as mudanças no trabalho podem, em minha opinião, apenas tornar o discurso crítico em algo inofensivo, e ação política, inoperante. Como lutar contra as violações de liberdade de expressão das grandes plataformas, sem analisar os desafios enfrentados pelos moradores de conteúdo em uma economia baseada na publicidade? Como criticar essas formas de moderação de conteúdos sem levar em conta o fato de que trata-se de uma parcela terceirizada de trabalhadores precários? Como você deseja preservar a privacidade online sem questionar as estratégias de lucro que tornam a exploração massiva de dados pessoais uma necessidade econômica estrutural?

 

DIGILABOUR: O que você entende por “epistemologia do código”?

BROCA: Quando falei sobre epistemologia do código, estava tentando pensar sobre como as tecnologias digitais estão mudando a produção de conhecimento, especialmente no contexto de humanidades digitais. A ideia geral é dizer que as ferramentas computacionais não são simplesmente instrumentos “neutros”, sem influenciar a orientação epistemológica da pesquisa em desenvolvimento. Essas técnicas trazem consigo uma certa visão de mundo e uma certa representação das exigências específicas para a produção do conhecimento científico. Em outras palavras, há o que se permite ou não se permite fazer “concretamente”. E há também – não devemos esquecer disso – todo o imaginário carregado por essas técnicas. Elas, portanto, tendem a favorecer um regime de cientificidade baseado na agregação de informações, e não no confronto de pontos de vista, a fim de construir o mundo como um conjunto de elementos bem distintos e determinados, para valorizar os grandes projetos colaborativos em detrimento do trabalho solitário do pesquisador. A epistemologia do código é tudo isso

 

DIGILABOUR: Por que, em sua visão, projetos baseados em commons apresentam ambiguidades?

BROCA: Há certas ambiguidades em torno da noção de commons por seu significado ser muito amplo, e também porque, em uma perspectiva de movimentos sociais, a defesa de commons agrega atores bastante heterogêneos. Eu vou dar dois exemplos. O primeiro diz respeito à relação entre os commons digitais, como software livre e Wikipedia e o capitalismo digital. Hoje, sabemos que esses recursos são usados de várias maneiras pelo GAFAM, seja porque sua infraestrutura técnica funciona com software livre, ou porque o Google, por exemplo, aprimora o serviço que fornece aos usuários por meio da Wikipedia. O que os defensores dos commons pensam dessa situação? Alguns acreditam que não é problemático, desde que as empresas cumpram as licenças, como Creative Commons, associadas a este commons e não privatizem. Basicamente, desde que o software permaneça “livre” e a Wikipedia permaneça acessível a todos, não há problema! Outros lamentam que esses commons sejam transformados em commons do capital, e apontam para o fato de que grandes empresas geralmente se comportam como “clandestinas”. Lucram com os recursos comuns, e financiam pouco ou quase nada a produção. Uma segunda ambiguidade diz respeito à relação com o Estado. É prática corrente apresentar os commons como uma espécie de terceira via, à distância tanto do Estado quando do mercado. É claro, além disso, que há uma forte inspiração libertária no movimento dos commons, que foi construído em reação tanto aos becos sem saída do “comunismo real” quanto à excessiva verticalidade do Estado social fordista. Isso não nos diz, no entanto, como esse movimento poderia ou deveria estar articulado ao Estado no futuro. Alguns acreditam que não há nada mais a esperar do Estado e que, irremediavelmente, o neoliberalismo ganhou. Outros, ao contrário, defendem uma “comunalização” dos serviços públicos e do Estado social, e tentam pensar em maneiras pelas quais as políticas públicas poderiam encorajar o desenvolvimento de commons.

 

 

Você pode conferir outros textos de Sebastien Broca aqui, aqui e aqui.

Criptomoedas e Políticas de Direita: entrevista com David Golumbia

Professor da Virginia Commonwealth University, David Golumbia é polêmico. Daquele tipo que você pode até não concordar, mas que te faz refletir sobre o tema. Em The Cultural Logic of Computation, de 2009, Golumbia fala da necessidade de compreender os computadores sem “computacionalismo”. Já em seu livro mais recente, The Politics of Bitcoin, afirma que o bitcoin faz parte de uma política de extrema direita, assim como parte da chamada cultura digital. Em texto para a revista Baffler, Golumbia tratou também de blockchain e o que chama de “zelotes”.

Em 2015, publicou, na Jacobin, o textoA Amazon-ização de tudo”, em que coloca a Amazon como ditadora de “tendências” em relação ao mundo do trabalho, com práticas de “panóptico digital”, inovação e exploração. Em seu Medium, Golumbia postou texto em janeiro deste ano sobre inteligência artificial geral e a supremacia branca.

Confira entrevista de David Golumbia ao DigiLabour:

 

DIGILABOUR: Por que você considera o bitcoin como um elemento de um extremismo da direita?

DAVID GOLUMBIA: As ideias políticas e econômicas fundamentais nas quais o bitcoin e o blockchain são baseados somente fazem sentido a partir de uma perspectiva de direita. Para começar, são incoerentes: cada uma das promessas feitas para as tecnologias e criptomoedas é contradita por outro elemento do sistema de crenças. Esse tipo de incoerência interna é algo típico dos sistemas políticos de direita, especialmente aqueles que vão para além do conservadorismo moderado. Então, especificamente, a necessidade e a utilidade do Bitcoin dependem de ideias que surgem diretamente da direita. O menos extremo é uma versão transmutada de uma ideia chamada monetarismo, muita famosa nos Estados Unidos e associada ao economista de direita Milton Friedman, segundo a qual, como ele afirma: “a inflação é sempre e em todo lugar um fenômeno monetário”. Isto é, que a palavra “inflação” refere-se não ao aumento de preços, mas ao fato de a quantidade de moeda em circulação ser muito alta. Friedman, pelo menos, tendia a aceitar a ideia de que a palavra “inflação” em si referia-se ao aumento dos preços, mas achava que um aumento na quantidade de moeda era a única explicação para isso. Na área de criptomoedas, você encontra uma ideia ainda mais extrema e contraditória em si: a “inflação” refere-se apenas ao volume de moeda em circulação e não tem nenhuma relação com os preços. Quando o Bitcoin caiu rapidamente de quase 20 mil dólares para menos de 10 mil dólares, uma inflação acima de 100% de acordo com qualquer definição comum, foi difícil encontrar simpatizantes do Bitcoin em qualquer lugar que reconhecessem isso. De fato, mesmo agora, eles continuam insistindo que o Bitcoin é à prova de inflação, apesar do fato de todos nós termos visto diretamente não apenas inflação, mas hiperinflação em relação ao Bitcoin e outras criptomoedas, a partir das definições comuns de inflação e hiperinflação. Eles dizem que “o fornecimento de Bitcoin só aumentou um pouco”, o que é verdade, e então, “não pode ter inflação”, o que é totalmente falso. O Bitcoin foi projetado para ser “deflacionário” em um sentido quase monetarista. O fornecimento de Bitcoins é projetado para crescer mais lentamente ao longo do tempo e, eventualmente, parar completamente. E essa deflação é largamente desvinculada das realidades de deflação e escassez de tokens. Quase todos os tokens negociáveis, como ações de empresa, milhas aéreas e cartões de beisebol são limitados no fornecimento, mas essa limitação não garante seu valor. Em outros tipos de discussões em torno do Bitcoin, vemos ainda mais elementos de um extremismo de direita. Entre os principais, estão as teorias da conspiração sobre o Sistema de Reserva Federal dos Estados Unidos que circulam pelo país desde a criação do Banco Central, e que são um instrumento fundamental usado pelos antissemitas e racistas para espalhar sua propaganda. Essas teorias da conspiração vão muito além das críticas legítimas ao Banco Central, que são muitas, e chegam à alegação de que os bancos centrais e, especialmente, o Sistema de Reserva Federal, são uma associação secreta cujos membros “imprimem dinheiro” ilicitamente para roubar valor das pessoas comuns. Claramente muitas dessas teorias da conspiração são diretamente antissemitas, e não é preciso ir muito longe na maioria das discussões em fóruns de criptomoedas para encontrar invocações do arquetípico “banqueiro Rothschild” como inimigo do projeto Bitcoin. Finalmente, toda a ideia do blockchain e do ecossistema Bitcoin baseia-se na noção de que os mercados e suas transações devem ser conduzidos fora da supervisão governamental, isto é, devem ser realizados sem considerar a lei. Esse tipo de livre mercado radical e promoção da ilegalidade estão no centro de quase toda filosofia econômica de extrema direita hoje.

 

DIGILABOUR: Mas há muita gente de esquerda apoiando blockchain. Como você vê essa relação?

GOLUMBIA: Esse é, realmente, um dos aspectos mais desanimadores do mundo blockchain. Um modo de pensar em blockchain e criptomoedas é como esquemas de pirâmide. Isso não é totalmente exato, mas é mais verdadeiro que falso. Suponhamos que ouvimos pessoas de esquerda dizendo que “esquemas de pirâmide podem ser muito úteis para políticas de esquerda”. Ou pior, “podemos usar esquemas de pirâmide para transformar a sociedade à esquerda”. Suponho que poderíamos até fazer isso, mas de uma forma bem limitada. Esquemas de pirâmide são uma traição a tudo o que a esquerda representa, no meu entendimento. É preocupante o modo como a maioria dos que afirmam estar à esquerda e “acreditam” em blockchain entende tanto de tecnologia quanto de política. Muitas das que eu encontrei levam em conta as promessas feitas pelos tecnólogos do blockchain sobre o que a tecnologia “poderia” ou mesmo “quererá” fazer, embora nesse momento quase todas essas suposições tenham se mostrado falsas na melhor das hipóteses, e enganosas, na pior. Ou então adotam conceitos de políticas de esquerda que têm pouco a ver com verdadeiros programas socialistas, comunistas, ou mesmo socialistas democráticos. O fato é que as pessoas nesses lugares são particularmente resistentes a demandas que articulem claramente suas políticas e as ferramentas que podem chegar a essas políticas. E esse tipo de “ignorância estudada” sempre me parece mais consistente com a política de direita, não de esquerda. Eu vou dizer mais uma coisa: a maneira mais sóbria de entender blockchain é como uma espécie de planilha ou tecnologia de banco de dados com alguns recursos adicionais interessantes. E podemos e devemos debater quais recursos o blockchain disponibiliza que não estão disponíveis em outras tecnologias. Suponha que tivéssemos pessoas de esquerda escrevendo que “a tecnologia de banco de dados é útil para a esquerda”. É claro que a esquerda pode usar banco de dados, mas em si mesmos eles não se inclinam para a esquerda ou nada parecido. E por que não ouvimos isso? Talvez porque o blockchain seja, em grande parte, um projeto político que ofusca suas funções específicas de software, e que sua política é toda montada a partir de objetivos de direita.

 

DIGILABOUR: Como você relaciona o que chama de “inteligência artificial geral” com a alt-right?

GOLUMBIA: A cultura digital está saturada de políticas de direita de variadas maneiras. A inteligência artificial geral, também chamada de inteligência artificial “forte”, embora seja um bom exemplo disso, tem se tornado um território de “não tecnólogos”, porque a maioria dos tecnólogos e filósofos passou a reconhecer os erros conceituais profundos profundos sobre os quais essa inteligência artificial geral se baseia. Grosso modo, o que chamamos de “mente” não é equivalente ao que chamamos de “inteligência”: a inteligência, por mais que a definamos, é parte da mente, mas de modo algum é tudo. A maioria dos programas de inteligência artificial geral nega ativamente isso, de modo que não se considera tudo sobre como criar os outros aspectos da mente ou da consciência. Embora a cultura digital seja mais ou menos de direita, seu uso específico em tecnologias, discursos e comunidades online varia. A inteligência artificial geral é particularmente atraente para elementos racistas, fascistas e protofascistas de direita. Outras partes da cultura digital “apenas” usam o entusiasmo pela tecnologia para promover causas como a desregulamentação sob o disfarce de uma excepcionalidade digital, ou seja, empresas podem descrever o que fazem como sendo “digitais” e não são reguladas da mesma maneira que outras empresas são. Entendendo essas questões, lutamos contra isso. Lógico que é mais fácil dizer do que fazer. Eu e meus colegas há muito estamos em uma luta difícil para promover uma compreensão mais nuançada em relação à política digital.

 

DIGILABOUR: Dez anos após a publicação de seu livro The Cultural Logic of Computation, como pensar sobre “computadores sem computacionalismo” na atualidade?

GOLUMBIA: De certa forma, estou esperançoso em relação à direção que o mundo tomou nos últimos anos em relação aos computadores, porque muitas das coisas muito destrutivas que eu descrevi naquele livro realmente ocorreram. As pessoas estão começando a perceber que o mundo dos computadores está recheado de ideologia que vai da moderada à extrema direita, cheio de hostilidade a formas de razão e pensamento que não podem ser facilmente reduzidas a algoritmos e quantificações. Ao mesmo tempo, o desenvolvimento de ferramentas realmente nocivas que tentam aplicar o pensamento algorítmico e a quantificação a partes da vida humana que não podem ou não devem ser quantificadas continua praticamente inabalável e isso me preocupa profundamente. Tudo isso são buscas veladas de identificação com o poder, um poder que muitas vezes surge psicologicamente da experiência de domínio do indivíduo sobre o próprio computador. Continuo profundamente preocupado por termos tido tão pouco sucesso ao eliminar esses compromissos ideológicos.

Olhar, Imaginário e Circulação de Dados: entrevista com David Beer

dba4cda7-b75e-4fc7-8113-c92174c2a7e2

David Beer, professor de Sociologia da University of York, Inglaterra, lançou no fim de 2018 o seu mais recente livro, The Data Gaze: Capitalism, Power and Perception. Após pesquisa sobre 34 empresas de análise de dados, Beer aborda como o imaginário de dados molda nossa percepção sobre questões como neutralidade, relevância e transparência dos algoritmos e dados. Em outras obras, como Metric Power Popular Culture and New Media (com capítulo gratuito aqui), o autor já tinha trabalhado questões como métricas, circulação de dados e políticas de circulação. Confira entrevista exclusiva com David Beer:

 

DIGILABOUR: O que é o olhar de dados (data gaze)?

DAVID BEER: O olhar de dados (data gaze) é um conceito destinado a pensar sobre os modos como vemos e somos vistos pelos dados. Assim, pretende-se pensar sobre os novos tipos de conhecimento que surgem, como eles se organizam e como formam as infraestruturas para que seja produzido conhecimento sobre nós, tanto as pessoas envolvidas nessas práticas quanto as ideias e os ideais que estão ligados aos dados que são extraídas de nossas vidas cotidianas de diferentes maneiras. Assim, o olhar de dados (data gaze) é uma tentativa de pensar sobre os novos tipos de conhecimento que emergem nesses dados extraídos e analisados.

 

DIGILABOUR: O que você chama de imaginário de dados?

BEER: Considero o imaginário de dados como uma espécie de ponta do iceberg do olhar de dados. Ele testa as coisas e abre espaços para que a análise de dados possa se espalhar ainda mais em nossas vidas. Então, o imaginário de dados é sobre o modo como pensamos sobre eles, os ideais subjacentes que estão ligados a eles. Assim, o imaginário de dados tem a intenção de pensar em como promessas poderosas são conectadas aos dados, como isso atrai as pessoas para a análise de dados e, mais ainda, permitindo que a análise de dados seja expandida e disseminada pelas organizações e instituições das quais nós fazemos parte. Portanto, esse tipo de olhar para a análise de dados pode ser distribuído pelo mundo social, pelas infraestruturas sociais e pelas organizações em que vivemos.

 

DIGILABOUR: Você pesquisou 34 empresas de análise de dados (data analytics). Quais os seus principais achados?

BEER: Eu usei a pesquisa com empresas de análise de dados como base para entender o imaginário de dados. Encontrei uma série de características desse imaginário que compreende os dados como rápidos, acessíveis e panorâmicos, que poderiam revelar as profundezas ocultas da vida cotidiana, e também das estruturas e organizações, daquilo tudo que foi considerado como smart. Então, esses tipos de características eram coisas que eu considerava promessas e ideais projetados atualmente, a fim de empurrar e espalhar práticas alternativas. E o que eu encontrei, enquanto analisava as infraestruturas e práticas de análise de dados, foi que esses ideais se tornaram parte do modo como as próprias infraestruturas foram criadas, codificadas e produzidas, e também do modo como as práticas foram moldadas de acordo com a visão daqueles que estavam envolvidos na análise de dados. Assim, o livro The Data Gaze usa essa base para pensar sobre o modo como os imaginários produzidos em torno dos dados se espalham nas infraestruturas e práticas de análise de dados, e como eles formam e conformam o ordenamento das coisas. Eu encontrei uma série de coisas sobre o olhar de dados e como ele pontua o lugar das coisas, ou seja, esse olhar de dados é um tipo de distribuição, não é como se você abrisse um espaço analítico como uma clínica. Eu usei o livro “O Nascimento da Clínica”, de Foucault, como comparação. Quando você entra em um espaço clínico, esse olhar clínico se espalhava pelas estruturas, o que torna o olhar cada vez mais difícil de escapar. Mas também isso continua tão vivo que, na verdade, hoje tudo isso volta-se para si próprio. Então, seu desempenho e seu progresso são constantemente monitorados, assim como suas próprias capacidades. As pessoas são monitoradas por seus próprios sistemas. Então, é como se tivesse um hype em cima da vigilância.

 

DIGILABOUR: Em livros anteriores, você tratou de políticas de circulação, circulação de dados e métricas, e circulação da cultura popular. Qual a contribuição dessa noção de circulação para a pesquisa em ciências sociais e humanas?

BEER: Quando eu escrevi Popular Culture and New Media: the politics of circulation, por volta de 2012, uma das coisas que notei foi que havia muito falatório em cima de expressões como mineração de dados e extração de dados, mas pareceu-me que o mais interessante era mesmo o modo como os dados voltavam para o mundo social, mudando-o. Então, nesse livro em particular, eu olho para o modo como os dados circulam ou voltam à cultura e mudam noções sobre o que é cultura, do que ela é feita, como pode ser compreendida… E há uma política de circulação acontecendo. Então, você pode entender como as coisas surgem ou se tornam visíveis, ou como as tendências acontecem. Você pode entender que a cultura se encontra com diferentes tipos de música, games ou filmes, centrando o estudo nessas circulações de dados e nos sistemas que sustentam essas circulações. Assim, esse livro analisou a maneira como as coisas são classificadas em arquivos, ou como os algoritmos criam sistemas que facilitam a circulação desses dados em nossas vidas. Eu percebi, então, que havia uma série de questões políticas relacionadas a esses modos de circulação. Aí eu foquei em questões de métricas e mensuração, no livro Metric Power, pensando nos tipos de dinâmicas políticas que circulam nas métricas de dados e como isso dita as formas e molda nossas vidas de maneiras diferentes. E particularmente eu estava pensando em como o poder é exercido por meio de métricas de dados. Portanto, essas circulações estão diretamente ligadas a questões políticas e de relações de poder. Quem controla essa circulação de dados? Como ela acontece? Como são os sistemas que sustentam essa circulação? São essas circulações de dados que realmente desafiam nossas vidas de muitas formas diferentes. E isso me levou finalmente ao livro The Data Gaze. O que eu queria fazer era, com essas circulações de dados acontecendo, distinguir quem são as pessoas e quais são os sistemas que estão intervindo nessas circulações de dados, quem é que está mediando, ou ainda, como essas circulações de dados são mediadas por sistemas e pessoas. Foi esse o caminho que percorri. E é por isso que eu acho que a circulação é importante, porque a circulação é o momento em que os dados voltam para o social, reformulando-o. Há processos circulatórios que são difíceis de entender, mas foi uma parte importante conceituar isso se você quer compreender o que se passa na cultura contemporânea.

 

Confira também outros textos do autor aquiaquiaqui e aqui.

iSlave e o Trabalho Digital na China: entrevista com Jack Qiu

O trabalho digital não é feito só de engenheiros e designers no Vale do Silício, mas também de trabalho escravo na China. Jack Linchuan Qiu, professor da Escola de Jornalismo e Comunicação da Chinese University of Hong Kong (CUHKtem se dedicado a pesquisar o trabalho digital na China. Em 2017, publicou o livro Goodbye iSlave: a manifesto for digital abolition. A partir de entrevistas com trabalhadores da Foxconn, Qiu mostra um “protótipo da escravidão no século XXI no contexto da indústria de mídias digitais” como indicativo de um sistema mais amplo, incluindo Appcon e o sistema de produção de gadgets pelo mundo. É o que chama de iSlave.

Jack Qiu chega a citar frases da Factory Gossip, revista dos trabalhadores da Foxconn: “Os empregados são como escravos e empregados de palácio. Os gerentes e escravos  morrem frequentemente nas mãos de eunucos sem nunca saber o que aconteceu. O caso raro de sobrevivência depende, inteiramente, da boa sorte“. Mas o iSlave também acontece nas formas de servidão voluntária e trabalho gratuito dos inúmeros usuários de mídias sociais.

O autor conversou com o DigiLabour. Confira alguns trechos em textos e ouça a entrevista na íntegra em áudio.

  • “É preciso re-historicizar o trabalho digital a partir de uma perspectiva do sul Global. Há uma divisão internacional do trabalho digital“;
  • “Talvez o modelo chinês possa ser melhor como um centro para um desenvolvimento sustentável e pró-trabalho comparado ao Vale do Silício. Mas também é provável que as práticas dos trabalhadores e seus modelos de negócios digitais também possam ser vistos como uma ameaça. Se a China pode se tornar um novo centro ou um novo colonizador, na verdade isso depende, por um lado, da relação externa com os EUA, mas de forma mais central, das relações entre classe dominante e classe trabalhadora na própria China“;
  • Shenzhen não é apenas um paraíso para o capitalismo digital, mas também um foco de ativismo dos trabalhadores“;
  • “O custo de produção de um smartphone da Tecno é entre 15 e 20 dólares, mas tem todas as funções completas de um smartphone normal e avançado”;
  • “O modelo da China ainda é complexo e internamente contraditório. Enquanto parte das empresas chinesas quer lucrar no mundo todo, a Tecno quer priorizar as necessidades locais. Acho que há potencial para algumas das empresas chinesas se transformarem em forças anticoloniais na área de trabalho digital“;
  • “No leste do Congo, onde os minerais do conflito são extraídos, no norte da China, onde a maioria dos minerais mais raros do mundo foi extraída, vemos esse tipo de trabalho escravo, no sentido clássico, de corpos humanos sendo possuídos, transacionados e descartados”;

 

Trabalho Digital no Sul Global

Shenzen, Vale do Silício do Hardware e Tecno

iSlaves

Plataformização e Dataficação do Trabalho na China

Circuitos de Trabalho

 

Leia outros textos de Jack Qiu aqui, aqui e aqui.

 

A Invisibilidade do Trabalho de Dados: entrevista com Jérôme Denis

Donnees.indd

Nem só inovação e democracia, nem só reforço de desigualdades: os dados precisam ser estudados a partir de seus métodos reais de produção e circulação. Esse é o ponto de partida do livro Le travail invisible des données: eléments pour une sociologie des infrastructures scripturales, de Jérôme Denis, professor de sociologia da MINES ParisTech, lançado em 2018. Para ele, é preciso ressaltar os processos produtivos por trás dos dados. Os dados não caem do céu e o trabalho por trás deles é invisibilizado.

Confira a entrevista de Jérôme Denis ao DigiLabour:

 

DIGILABOUR: O que é o trabalho de dados e por que esse trabalho é invisível?

JÉRÔME DENIS: O termo “trabalho de dados” enfatiza todas as operações que são executadas antes do uso dos dados: tudo o que permite, em um determinado momento e local, que os dados existam e sejam processados. Essas operações podem ser muito variadas: limpeza, formatação, apreensão, configuração, entre outras. É no final dessas operações que os dados são “obtidos”, como diz Latour sobre as práticas científicas. Na maioria dos casos, esse trabalho é invisível para quem usa os dados. Há muitas razões para isso. A principal encontra-se, provavelmente, no modo de existência dos dados. Na ciência, por exemplo, muitos sociólogos e historiadores têm mostrado que os dados têm estabelecido sua força ao preço de apagar as condições de sua produção. Supõe-se que os dados sejam o ponto de partida para a atividade de conhecimento, o primeiro material de informação. Isso é evidenciado por metáforas que têm surgido com a emergência de métodos de big data e programas de dados abertos. Os dados são apresentados como recursos ou elementos naturais: “o petróleo do século XXI” ou dados que aparecem como se fossem um “dilúvio”. Eles estão sempre “lá”. Essa invisibilidade não é obrigatória. Poderia ser de outra forma, mas ela está presente e contribui centralmente para as dificuldades enfrentadas pelos trabalhadores de dados, bem como seus usuários.

 

DIGILABOUR: Quais as principais diferenças no trabalho de dados em um banco e em uma startup?

DENIS: Eu uso esses dois estudos de casos para destacar dois aspectos centrais do trabalho de dados. No caso do banco, considera-se que os dados estejam presentes nos arquivos que os clientes preenchem nas agências, e que as pessoas responsáveis por verificar esses dados e inseri-los nos sistemas de informação estejam fazendo um trabalho simples e que pode ser automatizado em curto prazo. A suposição aqui é a de que os dados circulam de maneira fluida de um ponto a outro em uma organização. Nossa pesquisa etnográfica mostra que essa visão não só está em desacordo com a atividade dos caixas de banco como também impede operações de ajuste das situações. Mas é essa visão que dita os termos do gerenciamento do trabalho no banco. Já a startup procura obter o que imagina ser os dados das pessoas numa cidade. Isso ilustra outro pressuposto sobre os dados: sua disponibilidade e sua própria existência. O trabalho de dados aparece aqui como uma obrigação. As informações existentes nas prefeituras sobre infraestruturas de ciclovias não podem ser considerados como dados pelos responsáveis pela startup. Para fazer existir esses dados, temos que concordar em gerá-los, o que já está sendo feito em parte graças ao OpenStreetMap (projeto de mapeamento colaborativo).

 

DIGILABOUR: Você afirma que o fluxo de dados é um instrumento da organização. O que isso quer dizer?

DENIS: Um dos objetivos do livro “O trabalho invisível dos dados” era reconsiderar a afirmação recorrente de que vivemos na era dos dados, como se isso fosse uma coisa totalmente nova ou até mesmo uma revolução. Muitos livros de História mostram que as organizações modernas estruturam-se enrijecendo seus circuitos de comunicação e investindo na circulação de escrituras padronizadas dispostas em associações cada vez mais complexas. Os dados são parte de uma história antiga e formados há muito tempo. Tenho chamado isso de “infraestruturas escriturais”. A mecanização dessa circulação contribuiu para a invisibilização do trabalho que torna tudo isso possível.

 

DIGILABOUR: O que seria o neopositivismo de dados e quais suas características?

DENIS: O neopositivismo de dados consiste em dar aos dados valores intrínsecos de neutralidade e mesmo de evidência. Essa é uma expressão um tanto caricatural, mas que aponta para uma tendência recente de se esquecer que os dados são sempre produzidos sob condições específicas, em torno de problemas particulares e que seu compartilhamento e reuso sempre exigem transformações e ajustes. No final do livro, tento mostrar que, em contraponto a esse positivismo, podemos adotar uma definição transacional de dados. Eles não são “coisas” identificáveis de antemão, mas o resultado de um processo de produção e troca.

 

DIGILABOUR: E no que consiste essa definição transacional de dados?

DENIS: Adotar uma definição transacional de dados é substituir a questão abstrata “o que são dados?”, para a qual não há nenhuma resposta consensual, pela pergunta concreta: “quando é um dado?”. Isso quer dizer que, em alguns casos, os dados são “obtidos”, no sentido de Latour, mas também são “dados”, como ponto de partida, em outros casos. Isso ajuda a entender, por exemplo, que uma foto é um documento para alguns, enquanto pode ser um dado para outros. Essa é uma postura agnóstica, que se recusa a defender uma posição normativa em relação à natureza dos dados, mas permite, por outro lado, estar atento ao que conta como um “dado” em uma ou outra situação particular. E a ideia do livro é dizer que, em geral, o que conta como um dado é definido no mesmo movimento em relação ao que conta como trabalho.

DIGILABOUR: Quais os riscos da invisibilização do trabalho de dados?

DENIS: O apagamento do trabalho de dados tem dois riscos principais. Em primeiro lugar, reforça as dificuldades daqueles que trabalham com isso, como o caso do banco. Assumir que as operações necessárias para a existência e a circulação de dados são triviais e não envolvem trabalho real leva a situações muito delicadas em que os trabalhadores estão constantemente lutando para realizar seu trabalho, apesar dos constrangimentos. Isso, então, pesa na qualidade dos dados e na pertinência de sua utilização. Em segundo, considerar os dados como se tivessem caído do céu, não se dar ao luxo de entender as condições de sua fabricação e os ajustes necessários à sua circulação é fazer dos dados caixas pretas que não controlamos.

 

Você pode conferir outra entrevista do autor aqui (em francês) e outros textos em inglês aqui e aqui.