Você está aqui: Página Inicial / Blogs / Outras Palavras / Manipulações ideológicas do Facebook: muito além da omissão

Tecnologia

Internet

Manipulações ideológicas do Facebook: muito além da omissão

por Rafael Evangelista — publicado 12/05/2015 12h21, última modificação 12/05/2015 17h13
Pesquisadores desmentem alegações da rede de Zuckerberg e afirmam: ela estimula bolhas de opinião que excluem pensamentos diversos

[Este é o blog do site Outras Palavras em Carta CapitalAqui você vê o site completo]

Na última quinta, dia 7, pesquisadores do Facebook publicaram um artigo na revista Science analisando os efeitos de seu polêmico algoritmo de seleção, aquele pedaço de código que roda nas redes sociais e seleciona os amigos cujas publicações você vê ou não, quais aparecem primeiro e mais frequentemente e quais vão lá pra baixo da tela. Outros pesquisadores rapidamente apelidaram o artigo de “não é minha culpa”, dado o viés complicado na análise dos dados coletados. A conclusão principal do estudo é, basicamente, que a razão de vermos na nossa linha do tempo textos cuja tendência política é mais parecida com a nossa deriva de seleções feitas por nós mesmos.  Quanto mais diversos ideologicamente os nossos amigos, mais conteúdo diverso receberíamos. O Facebook só apimentaria um pouco isso, fazendo uma retirada, em tese mínima, do que é diverso. Entre 5 a 10% do que não se alinha à visão política do usuário é omitido pelo sistema.

Os portais e jornais brasileiros rapidamente repetiram a fala oficial, provavelmente seguindo algum release.

Mas, como mostra, Zeynep Tufecki, socióloga ligada ao Berkman Center, de Harvard, o estudo tem coisas bem mais interessantes escondidas. Coisas inclusive que complicam bastante as conclusões contidas no artigo original. (Além de Tufeck muitos outros pesquisadores comentaram o artigo, o texto dela é um bom ponto de partida para outros links).

 Em primeiro lugar, a amostra usada para o estudo é problemática.  Foram tomados dados de um pequeno subgrupo de usuários, aqueles que se auto-identificam como liberais ou conservadores (o que na língua política brasileira corresponde mais ou menos a esquerda e direita, respectivamente). Ora, presume-se que esses que se auto-identificam claramente são mais propensos a criarem uma bolha informativa em torno de si, estão politicamente bem definidos.

Além disso, o estudo meio que esconde coisas bem interessantes – que ficam fora também do release.  Uma delas é que há uma brutal variação entre a probabilidade de um link ser clicado se ele está disposto no topo da página ou lá embaixo. Ou seja, o Facebook não precisa sumir com um determinado link, basta dispô-lo no fim da linha do tempo (que “do tempo” não tem mais nada) que a chance de ser realmente visto será menor. Por exemplo, um link tem 20% de chance de ser clicado, por um conservador, se estiver no topo da página. Esse número cai para menos de 10% se estiver na décima posição e e vai a quase 5% se, além de estar em décimo, não for ideologicamente alinhado a esse leitor.

A supressão automática de posições políticas diversas à nossa, somada às regras utilizadas para o ordenamento das postagens são dois elementos que se complementam e não podem ser analisados em separado.

O fato de que evitamos de ler algo que não está politicamente alinhado a nossa visão de mundo não é exatamente uma novidade. É por isso que, idealmente, deveria haver uma variedade ideológica entre os meios de comunicação, refletindo os diferentes setores da sociedade.

O elemento novo trazido pelos algoritmos das redes sociais é que essa escolha não é mais transparente, não se trata mais de comprar o jornal A ou B, ou ver a TV B ou C. Os próprios pesquisadores, que são do Facebook e têm acesso aos códigos que rodam lá, não fizeram uma análise do algoritmo, do código, para mostrar seus efeitos. Eles trabalharam com a interação entre usuários e código, tentando ver o que emerge dali. O algoritmo em si mostra pouco, seria como tentar entender o futebol apenas lendo as regras do jogo.

Isso indica que a análise do consumo de notícias tem um problema técnico e de difícil compreensão pela frente. Um problema que envolve poder e que é agravado pela centralização da distribuição das notícias em poucas redes sociais, cuja propriedade é privada. Mais complicado ainda, em sua análise, para quem nem pode ler as regras, como nós. Um abacaxizão cibernético.

——

No próxima semana, entre os dias 13 e 15 de maio, acontece no Rio de Janeiro o III Simpósio Lavits, encontro da Rede Latino Americana de Estudos sobre Vigilância, Tecnologia e Sociedade. Em pauta estarão assuntos diversos como redes sociais e big data, criptografia, drones, o mundo pós Snowden, entre outros. É gratuito e aberto, com o objetivo de conectar o que há de mais novo na pesquisa com a sociedade e os movimentos sociais. Mais detalhes no link http://lavitsrio2015.medialabufrj.net/