Você está aqui: Página Inicial / Revista / Campanha eleitoral, a largada / Como Zuckerberg trata usuários do Facebook como ratos de laboratório
Número 807,

Sociedade

Internet

Como Zuckerberg trata usuários do Facebook como ratos de laboratório

por Renan Truffi publicado 07/07/2014 04h51
Sem pedir autorização prévia, a rede social manipulou secretamente as emoções de 700 mil usuários para ver o poder de contágio de mensagens positivas ou negativas
Jdlasica/Flickr
Mark Zuckberger

Fica a dúvida: o Facebook poderia influenciar opiniões político-ideológicas, por exemplo?

Sem qualquer aviso ou pedido de permissão, o Facebook, maior rede social ativa hoje, decidiu manipular o conteúdo visto por cerca de 700 mil usuários durante uma semana. Em uma espécie de experiência científica, a empresa expôs as pessoas selecionadas a diferentes mensagens e analisou suas reações. Os perfis testados não foram divulgados, mas o vazamento do estudo gerou duras críticas. A maior preocupação é: pode uma empresa influenciar as emoções da sociedade e manipulá-las impunemente?

O resultado da pesquisa do Facebook dá sinais de que sim. O experimento foi feito em 2012, quando a companhia de Mark
Zuckerberg quis analisar se o conteúdo gerado pelos amigos de alguém poderia levá-los a deixar de usar a rede social. Para isso, examinou 3 milhões de postagens com mais de 120 milhões de palavras. O conteúdo foi, então, classificado em duas categorias: “positivo” e “negativo”. Depois disso, por meio de um algoritmo, um conjunto de regras que define o que uma pessoa vai ver ao acessar a rede, a empresa expôs as publicações “positivas” apenas para uma parcela das pessoas, e as “negativas” para o restante.

Na prática, isso quer dizer que, durante o período, as pessoas do grupo “positivo” só tinham acesso a textos que o Facebook considerou como tal. Mensagens tidas como negativas foram omitidas.

Responsáveis pelo estudo, Adam Kramer, cientista de dados do Facebook, Jamie Guillory, da Universidade da Califórnia, e Jeffey Hancock, da Universidade Cornell, descobriram depois de sete dias que os destinatários de apenas mensagens “positivas” tinham comportamento emocional similar. Já o grupo que leu somente as demais postagens publicou textos, ou compartilhou assuntos, com palavras igualmente negativas.

“Esses resultados indicam que as emoções expressas pelos outros no Facebook podem influenciar nossas próprias emoções, constituindo evidência experimental de contágio massivo de larga escala através das redes sociais”, explica o texto do estudo.

O experimento ainda conclui que mensagens que expressam emoções tendem a fazer com que as pessoas continuem usando a rede social. Ou seja, se o “Feed de Notícias”, como é chamado o local onde o usuário vê as publicações de quem escolhe acompanhar, privilegia publicações de amigos que não têm conteúdo emocional, o usuário tende a perder o interesse no Facebook.

A conclusão, contudo, não é exatamente uma novidade. Segundo o coordenador do Laboratório de Estudos sobre Internet e Cultura da Universidade Federal do Espírito Santo (Ufes), Fabio Malini, a tese de que emoção produz mais comoção é conhecida desde os primeiros estudos sobre comunicação de massa. O problema é a forma como o Facebook poderia usar informações para manter usuários ativos ou gerar sentimentos a ponto de influenciá-los de forma política e ideológica.

“O Facebook retoma o modelo televisivo de uma forma diferente porque, ao contrário da tevê, não produz conteúdo. A rede social reproduz de forma seletiva o que seus amigos produzem. É um jogo muito perigoso do ponto de vista democrático. A seleção do que é visto pode pautar o que a sociedade virá a debater”, argumenta.

A maior parte das críticas recaem, no entanto, sobre o fato de o Facebook não ter consultado ou informado os usuários selecionados de que eles participariam de um experimento. A rede social defende-se afirmando que toda pessoa que faz um perfil deveria saber que essa possibilidade existe, dada a política de uso de dados do Facebook descrita no momento da inscrição.

Entre os termos com os quais é preciso concordar para ser cadastrado está a afirmação de que a rede social pode usar informações de usuários para “operações internas que incluem correção de erros, análise de dados, testes, pesquisa, desenvolvimento e melhoria do serviço”. Um trecho ainda avisa: “Podemos fazer sugestões de amigos, escolher histórias para seu Feed de Notícias ou indicar pessoas para marcar nas fotos”.

Essas justificativas não foram suficientes para a classe acadêmica poupar os responsáveis pelo estudo. “Esse ‘consentimento’ é uma ficção jurídica, destinada a facilitar a interação online. É muito diferente do consentimento informado, que é o padrão ético e legal para a experimentação com seres humanos”, escreveu o professor de Direito, James Grimmelmann, da Universidade de Maryland.

Esse tipo de reação fez com que Kramer, um dos autores do estudo, se explicasse publicamente. “Nosso objetivo é aprender a prestar um melhor serviço. Nosso objetivo nunca foi afligir ninguém. Meus coautores e eu sentimos muito pela ansiedade causada”, lamentou em perfil na rede social. Em nota, o Facebook informou que avalia as pesquisas que faz e que esse processo é sempre reavaliado. “Não coletamos informações desnecessárias dos usuários envolvidos nessas pesquisas e todos os dados são armazenados de forma segura.”

Alguns dias depois foi a vez da diretora de operações do Facebook, Sheryl Sandberg, pedir desculpas aos usuários da rede social. "Era parte de uma pesquisa testando um produto novo, mas com pouca comunicação. Nós pedimos desculpa. Nunca quisemos incomodar nem machucar nossos usuários”, disse ela ao Wall Street Journal. Mas não bastou. Autoridades britânicas estão investigando se a empresa violou a lei de proteção de dados ao realizar o experimento. O Escritório do Comissário de Informações (ICO, na sigla em inglês), órgão responsável pela privacidade de informações sobre os cidadãos do país, pretende questionar o Facebook sobre o estudo.

Ainda que aceitem a política de uso de dados do Facebook, os usuários brasileiros que se sentirem lesados por práticas como essa podem buscar proteção no recém-aprovado Marco Civil da Internet. De acordo com o advogado Fábio Pereira, há um inciso na lei a garantir que esse tipo de experimento deve estar em destaque para o usuário, e não escondido no meio de um longo texto. Cabe ver se a lei se aplicará também à bilionária rede social.

Vale anotar que o espírito crítico pode representar uma resistência eficaz. Mesmo que o Facebook opte por calibrar o “Feed de Notícias” de cada usuário, esses não reagem apenas como ratos de laboratório. “A pesquisa parte do pressuposto de que, em situações em que a emoção está aflorada, o usuário não tem percepção sobre aquilo que publica. Mas essa discussão está ausente”, opina Malini. “Se a pessoa reagir a um estímulo emocional, pode ser reorientada e até mudar de percepção.”