O Trabalho dos Moderadores de Conteúdo: entrevista com Sarah Roberts

81XdKnCVdAL

 

Sarah Roberts, professora da University of California, Los Angeles, é uma pioneira na pesquisa sobre o trabalho dos moderadores de conteúdo das mídias sociais. Ela chama atenção especialmente para a moderação realizada por terceirizados de grandes empresas, como Facebook Google. Foi uma das entrevistadas do filme The Cleaners e lançou em junho o livro Behind the Screen: Content Moderation in the Shadows of Social Media, resultado de oito anos de pesquisa nos Estados Unidos e nas Filipinas.

Roberts afirma que a moderação de conteúdo não é algo novo, remontando a algo feito há quatro décadas. Para ela, o novo é a sua escala industrial, sendo um poderoso mecanismo de controle. Como já discutimos na DigiLabour desde o início, é o trabalho humano por trás da chamada “inteligência artificial”. Pessoas que trabalham em lugares como call centers e também em plataformas de microtrabalho como Amazon Mechanical Turk. Passam o dia vendo cerca de 1500 fotos e vídeos para decidir o que manter e o que deletar das plataformas digitais. Para Roberts, o trabalho de moderação comercial de conteúdo reforça a Internet como lugar de controle, vigilância, intervenção e circulação da informação como mercadoria.

Conversamos com Sarah Roberts e você pode conferir os áudios abaixo:

Cobertura midiática sobre os moderadores de conteúdo
Tipologia dos moderadores de conteúdo nas mídias sociais
Mudanças na moderação comercial de conteúdo
Futuro da moderação comercial de conteúdo

Se quiser ler outra entrevista com Sarah Roberts, acompanhe aqui.

Filtros-Bolha são Reais?

31BoElq-uwL._SX317_BO1,204,203,200_

Axel Bruns é professor do Centro de Pesquisa em Mídias Digital da Queensland University of Technology em Brisbane, Austrália. Autor de livros como Gatewatching and News Curation, Bruns lançará dia 16 de setembro seu novo livro: Are Filter Bubbles Real? Para ele, expressões como filtros-bolha e câmaras de eco não passam de metáforas e não explicam adequadamente as práticas nas plataformas digitais. Confira a conversa da DigiLabour com ele:

 

DIGILABOUR: Por que você considera inadequadas metáforas como filtros-bolha e câmaras de eco?

AXEL BRUNS: O primeiro problema é que são apenas metáforas: as pessoas que apresentaram essas ideias nunca se preocuparam em defini-las adequadamente. Isso significa que esses conceitos podem parecer sensatos, mas podem significar qualquer coisa. Por exemplo, o que significa estar dentro de uma bolha ou câmara de eco? Somente em casos tão extremos – talvez estar completamente desconectado do resto da sociedade – que os fortes efeitos negativos que os defensores dessas metáforas imaginam iriam se tornar realidade. Eles assumem que pessoas em câmaras de eco ou bolhas não veem mais nenhum conteúdo que discorde de suas visões de mundo políticas. Essa desconexão completa não é totalmente impossível, mas muito difícil de ser alcançada. E a maioria das evidências empíricas que temos aponta na direção oposta. Em particular, o imenso sucesso da propaganda política extremista (incluindo “fake news”, outro termo muito problemático e mal definido) nos EUA, no Reino Unido, em partes da Europa e até mesmo no próprio Brasil nos últimos anos dá um argumento muito forte contra câmaras de eco e bolhas de filtro: se fôssemos todos trancados em nossas próprias bolhas, desconectados um do outro, então esse conteúdo não poderia ter ido tão longe, e não poderia ter afetado tantas pessoas tão rapidamente quanto parece ter acontecido. Governos não liberais não investiriam recursos significativos em coisas como a russa Internet Research Agency se suas operações de influência fossem confinadas a bolhas ideológicas existentes. A propaganda depende crucialmente da ausência das câmaras de eco e dos filtros-bolha se procurar influenciar mais pessoas do que aquelas que já fazem parte de um grupo restrito de hiperpartidários.  De outra maneira, se definirmos as câmaras de eco e as bolhas de filtro muito mais livremente, de uma forma que não exija que as pessoas dentro dessas bolhas sejam desconectadas do mundo das informações ao seu redor, os termos se tornam quase inúteis. Com uma definição tão fraca, qualquer comunidade de interesse se qualificaria como uma câmara de eco ou um filtro-bolha: qualquer partido político, grupo religioso, clube de futebol ou outra associação cívica seria uma câmara de eco ou um filtro-bolha, porque possibilitaria a pessoas com interesses e perspectivas semelhantes conectarem-se e comunicarem-se livremente. Mas nesse caso, o que há de novo? Esses grupos sempre existiram na sociedade, e a sociedade evolui por meio da interação e da competição entre eles – não há necessidade de criar novas e mal definidas metáforas como “câmaras de eco” e “filtros-bolha” para descrever isso. Alguns defensores dessas metáforas afirmam que nossas novas mídias digitais e sociais pioraram as coisas: que elas tornaram mais fácil para as pessoas criarem o primeiro tipo forte de câmara de eco ou filtro-bolha, ao se desconectarem do resto do mundo. Mas embora isso possa parecer sensato, não há praticamente nenhuma evidência empírica para isso: por exemplo, sabemos agora que as pessoas que recebem notícias das mídias sociais encontram uma variedade maior de fontes de notícias do que aquelas que não recebem, e aquelas que têm as visões políticas mais fortes e mais partidárias também estão entre os consumidores mais ativos da mídia mainstream. Mesmo as hipóteses de que os algoritmos das plataformas estariam empurrando as pessoas para câmaras de eco ou filtros-bolha foram refutadas: os resultados de pesquisa do Google, por exemplo, mostram muito pouca evidência de personalização em um nível individual. Parte da razão para isso é que – ao contrário das pessoas que apoiam as metáforas da câmara de eco e do filtro-bolha – a maioria das pessoas comuns na verdade não liga muito para a política. Se houver alguma personalização por meio dos algoritmos do Google, Facebook, Twitter ou outras plataformas, ela será baseada em muitos atributos pessoais além de nossos interesses políticos. Como plataformas multiusos, ali nossas vidas pessoais, profissionais e políticas se cruzam e se chocam. Ali encontramos uma mistura ampla e imprevisível de conteúdo a partir de uma variedade de pontos de vista. No geral, essas plataformas permitem que todos nós encontremos perspectivas mais diversas, não menos. E é aí que essas metáforas não são simplesmente estúpidas, mas absolutamente perigosas: elas criam a impressão, primeiro, de que há um problema e, segundo, que o problema é causado de forma significativa pelas tecnologias que usamos. Essa é uma perspectiva explicitamente determinista tecnologicamente, ignorando o elemento humano e assumindo que somos incapazes de moldar essas tecnologias às nossas necessidades. E tais visões, então, também se viram para soluções tecnológicas: se nós assumirmos que as mídias digitais e  sociais causaram os problemas atuais na sociedade, então devemos mudar as tecnologias (por meio de ajustes tecnológicos, regulatórios e legais) para corrigir esses problemas. É como se uma simples mudança no algoritmo do Facebook fizesse o fascismo desaparecer. Em minha opinião, ao contrário, nossos problemas atuais são sociais, econômicos e políticos, e a tecnologia desempenha apenas um papel nisso tudo. Isso não quer dizer que as plataformas estão livres de culpa – Facebook, Twitter, WhatsApp e outras empresas certamente poderiam fazer muito mais para combater o discurso de ódio e o abuso em suas plataformas, por exemplo. Mas se as mídias sociais e até mesmo a própria Internet desaparecerem de repente amanhã, ainda teríamos esses mesmos problemas na sociedade, e não estaríamos mais perto de resolvê-los. O atual foco excessivamente tecnológico de nossos debates públicos – nossa tendência a culpar as mídias sociais por todos os nossos problemas – obscurece esse fato e nos impede de abordar os problemas reais.

 

DIGILABOUR: A partir disso, como abordar a polarização política?

BRUNS: Para mim, esta é a verdadeira questão e que ainda não foi pesquisada o suficiente. O problema fundamental não são as câmaras de eco e os filtros-bolha: é perfeitamente evidente que os vários grupos polarizados da sociedade estão bem cientes um do outro e das posições ideológicas de cada um – o que seria impossível se estivessem trancados em seus próprios lugares.  Na verdade, eles monitoram um ao outro muito de perto: pesquisas nos EUA mostraram que grupos de extrema direita também são seguidores ativos de sites de notícias “liberais” como o New York Times, por exemplo. Mas eles não seguem mais o outro lado para se engajar em qualquer diálogo político significativo, visando encontrar um consenso a partir  do qual ambos os lados poderiam viver. Em vez disso, eles monitoram seus oponentes a fim de encontrar novas maneiras de distorcer suas palavras, criar fake news, e atacá-los com tais falsidades. E sim, eles usam mídias digitais e sociais para fazer isso, mas novamente este não é um problema inerentemente tecnológico: se eles não tivessem mídias sociais, usariam a mídia impressa ou o broadcast em vez disso, assim como os fascistas faziam nos anos 1920 e 1930. Então, para mim, a questão chave é como chegamos a esse ponto: em termos simples, por que os hiperpartidários fazem o que fazem? Como eles se tornam tão polarizados – tão seguros de suas próprias visões de mundo que descartarão quaisquer visões opostas imediatamente, e verão quaisquer tentativas de argumentar com eles ou de corrigir suas visões meramente como uma confirmação de que o establishment está tentando persegui-los ? Quais são os processos (sociais, e não simplesmente tecnológicos) pelos quais as pessoas são atraídas para essas extremidades políticas e como podem ser retiradas de lá? Essa questão também apresenta fortes elementos psicológicos, é claro: como os hiperpartidários formam sua cosmovisão? Como eles incorporam novas evidências? Como eles interpretam e, ao fazê-lo, desarmam qualquer evidência que contrarie suas próprias perspectivas? Vemos isso em muitos campos hoje: da própria argumentação política às pessoas que acreditam que as vacinações são algum tipo de experimento global de controle da mente, ou para aqueles que ainda negam a esmagadora evidência científica das mudanças climáticas. Como essas pessoas mantêm seus pontos de vista ainda que sejam bombardeadas diariamente com evidências de que as vacinas salvam vidas e que o clima global está mudando, com consequências catastróficas? Por um lado, parece evidente que nós vemos muito mais evidências de polarização hoje do que nas últimas décadas: Brexit, Trump, Bolsonaro e muitos outros claramente nos sensibilizaram para essas profundas divisões em muitas sociedades ao redor do mundo.  Mas a maioria das sociedades capitalistas sempre teve profundas divisões entre ricos e pobres; o Reino Unido sempre teve posições firmes tanto pró quanto anti Europa; os EUA sempre foram racistas. Acho que precisamos de mais pesquisas e melhores formas de avaliar se alguma dessas coisas se tornou pior nos últimos anos, ou se isso simplesmente se tornou mais visível. Por exemplo, Trump e outros fizeram com que seja socialmente aceitável nos EUA ser politicamente incorreto, ser deliberadamente misógino, ser abertamente racista. Mas talvez as pessoas que agora apoiam publicamente tudo isso já estivessem lá, e simplesmente não tivessem coragem de expressar suas opiniões em público. Talvez o que tenha acontecido é que Trump e outros quebraram a espiral de silêncio que subjugou essas vozes prometendo sanções sociais. Talvez a espiral do silêncio agora funcione de outra maneira, e as pessoas que se opõem a esse extremismo agora permanecem em silêncio porque temem a violência comunicativa e até física. É importante ressaltar que essas também são questões-chave para a pesquisa em comunicação, mas as investigações não podem adotar a perspectiva simplista de que “as mídias digitais e sociais são as culpadas”por tudo isso. Em vez disso, a questão é até que ponto as condições e práticas em nosso sistema midiático permitiram tais mudanças. Sim, plataformas digitais e sociais permitiram que vozes nas franjas políticas publicassem seus pontos de vista, sem supervisão editorial ou censura de qualquer outra pessoa. Mas tais vozes encontram seu público, na maioria das vezes, somente depois de amplificadas por canais mainstream. É verdade que no atual panorama midiático, os fluxos de informação são diferentes do que eram no passado, não simplesmente por causa das características tecnológicas, mas pelo modo como todos nós optamos por incorporar esses recursos em nossas vidas cotidianas. A questão então é se e como isso afeta a dinâmica da polarização, e quais alavancas estão disponíveis para nós se quisermos mudar essas dinâmicas.

 

DIGILABOUR: Como podemos continuar a fazer pesquisa crítica em plataformas digitais após o que você chama de API-calipse?

BRUNS: Com grande tenacidade e engenhosidade, mesmo diante de adversidades significativas, porque temos uma obrigação social com a pesquisa. Eu disse ao longo de minhas respostas aqui que não podemos culpar de maneira simplista as mídias sociais pelos problemas que as nossas sociedades estão enfrentando agora: as tecnologias de mídias sociais não causaram nada disso. Mas as maneiras pelas quais nós, todos nós, usamos mídias sociais  claramente desempenham um papel na forma como a informação viaja e como ocorre a polarização, e assim continua sendo importante investigar as práticas de mídias sociais de cidadãos comuns, de ativistas hiperpartidários, de políticos marginais e tradicionais, de jornalistas emergentes e estabelecidos, de bots sociais e campanhas de desinformação. E, claro, mesmo além da política e da polarização, há também muitas outras razões importantes para estudar as mídias sociais. O problema agora é que, ao longo dos últimos anos, muitas das principais plataformas de mídias sociais tornaram consideravelmente mais difícil para os pesquisadores acessarem dados públicos s sobre as atividades de mídias sociais – um movimento que descrevi, em linguagem deliberadamente hiperbólica, como o “API-calipse”. Ostensivamente, tais mudanças foram introduzidas para proteger os dados dos usuários de uma exploração não autorizada, mas uma conseqüência conveniente dessas restrições de acesso tem sido o fato de que pesquisas independentes, críticas e de interesse público sobre práticas de mídias sociais se tornaram muito mais difíceis. Isso limita nossa capacidade de fornecer uma avaliação imparcial das práticas de mídias sociais e, cada vez mais, força os pesquisadores que buscam trabalhar com dados de plataformas a buscar acordos de parceria direta, sob condições que favorecem os provedores de plataformas. Isso requer várias respostas paralelas da comunidade acadêmica. É claro que devemos explorar os novos modelos de parceria oferecidos pelas plataformas, mas devemos tratá-los com um grau considerável de ceticismo e não podemos confiar apenas em uma filantropia de dados tão limitada. Em particular, é improvável que as plataformas forneçam acesso a dados em contextos em que a pesquisa acadêmica possa ser altamente crítica em relação a suas ações. Devemos, portanto, também investigar outras formas de coleta de dados: isso inclui doações de dados de usuários dessas plataformas (modeladas, por exemplo, no plugin de navegador do ProPublica que captura os anúncios políticos encontrados pelos usuários do Facebook) ou coleta de dados dos sites das plataformas como alternativa para acesso a dados baseado em API, por exemplo. As plataformas podem tentar fechar esses modos alternativos de coleta de dados (como o Facebook tentou fazer com o plugin do navegador ProPublica) ou alterar seus Termos de Serviço para proibir explicitamente essas práticas – e isso deve levar os acadêmicos a considerar se os benefícios de suas pesquisas superam os interesses das plataformas. Os Termos de Serviço geralmente são escritos para o benefício máximo da plataforma e podem não ser legalmente válidos dentro de cada país. A mesma legislação também pode fornecer exceções de “uso justo” ou “liberdade acadêmica” que justifiquem a violação deliberada das restrições dos Termos de Serviço em contextos específicos. Como acadêmicos, devemos lembrar que temos uma responsabilidade com os usuários das plataformas e com a sociedade, assim como com os provedores de plataformas. Devemos equilibrar essas responsabilidades, tomando cuidado para que os dados de usuários que coletamos permaneçam adequadamente protegidos à medida que buscamos questões de interesse social. Fazer isso pode ser um ato de equilíbrio muito difícil, é claro. Finalmente, devemos também manter nossa pressão sobre as plataformas para fornecer aos pesquisadores acadêmicos melhores interfaces para acesso a dados, muito além de esquemas limitados de filantropia de dados que excluem áreas-chave de investigação. De fato, devemos listar outros – órgãos financiadores, formuladores de políticas, instituições da sociedade civil e o próprio público em geral – que podem exercer essa pressão: é apenas em face de tal ação coletiva, coordenada em todo o mundo, que essas grandes e poderosas empresas provavelmente ajustarão suas políticas de acesso a dados para pesquisas acadêmicas. E será importante confirmar que eles agem de acordo com qualquer promessa de mudança que possam fazer. Apesar de tudo isso, no entanto, quero terminar com uma nota de otimismo: ainda há um papel crucial para a pesquisa que investiga as práticas de mídias sociais, em si mesmas e especialmente também no contexto do sistema midiático mais amplo. Não devemos e não vamos desistir deste trabalho. Diante da polarização generalizada, esta pesquisa é agora mais importante do que nunca. As adversidades com as quais somos confrontados agora também são uma fonte significativa de inovação em métodos e desenhos de pesquisa.