You are on page 1of 3

27/08/2015 Algoritmo Facebook: Usuários transformam seus murais no Facebook em ‘bolhas’ ideológicas | Tecnologia | EL PAÍS Brasil

TECNOLOGIA

REDES SOCIAIS »

Usuários transformam seus murais no


Facebook em ‘bolhas’ ideológicas
Algoritmo ajuda a reduzir a diversidade ideológica das páginas, mas não é maior culpado
Usuários se fecham em suas próprias ideias, aponta estudo com 10 milhões de pessoas

JAVIER SALAS 8 MAY 2015 - 16:06 BRT

Arquivado em: Twitter Facebook Sociologia Redes sociais Ciências sociais Internet
Tecnologia Ideologias Política Ciência Sociedade

Facebook mostra pouco conteúdo contrário à ideologia de seus usuários. / EFE

Embora ainda muita gente não saiba, o Facebook seleciona
o que os usuários veem em seu mural. Um algoritmo filtra o
que é mostrado para, em princípio, dar ao usuário apenas o
que mais lhe agrada ver e não enchê­lo com informações
que não lhe interessem tanto. A dúvida é se esse algoritmo
que nos conhece tão bem está nos alimentando apenas com
o que gostamos, criando uma bolha a nosso redor na qual
não entra nada que desafie nosso modo de pensar. Para
dissipar dúvidas, os cientistas sociais do Facebook
publicaram na quinta­feira na revista Science o primeiro
estudo que analisa a influência dessa fórmula que manipula
os murais: a bolha ideológica existe, mas é mais culpa dos
próprios usuários do que da programação de Mark
Zuckerberg.

Depois de estudar mais de 10
milhões de usuários e sua
interação com os links de notícias políticas, os cientistas do
Facebook descobriram que a rede social é uma caixa de
ressonância para nossas próprias ideias, com poucas
janelas para o exterior. Assim, de todos os links vistos pelas
pessoas que se consideram progressistas, apenas 22%
desafiam sua forma de pensar. Os conservadores veem
cerca de 33% de notícias que não correspondem com sua
ideologia.

http://brasil.elpais.com/brasil/2015/05/06/tecnologia/1430934202_446201.html?id_externo_rsoc=FB_CM 1/3
27/08/2015 Algoritmo Facebook: Usuários transformam seus murais no Facebook em ‘bolhas’ ideológicas | Tecnologia | EL PAÍS Brasil

Sem a intervenção do algoritmo, os progressistas teriam
visto 24% de notícias incômodas e, os conservadores, 35%.
Ou seja, essa fórmula idealizada nos computadores do
Facebook ajuda a reduzir a diversidade ideológica do mural
dos usuários, mas não é a principal culpada. De acordo com
o estudo, os usuários são os responsáveis por se fechar em
suas próprias ideias: se não escolhessem suas amizades
como o fazem, mas de forma aleatória, os progressistas
veriam cerca de 45% de notícias contrárias às suas ideias,
em comparação a 40% pelos conservadores.

Logicamente, o ambiente off line, as pessoas com as quais
os usuários se relacionam fisicamente, tampouco é
aleatório. Mas é muito mais difícil medir essa bolha
ideológica na ruas do que nas redes sociais. A vasta
quantidade de informação que uma empresa como o
Facebook pode compilar sobre seus usuários (e os que não
são) lhe permite medir a tendência dos que se fecham em
grupos de pensamento mais ou menos isolados. Por
exemplo, a probabilidade de clicar no mural em uma notícia
favorável às próprias ideias —um eleitor do conservador
Partido Republicano dos Estados Unidos ler uma notícia da
Fox News— em relação a uma contrária é esmagadora.

É um estudo na Um dos pontos fracos do estudo
defensiva. O Facebook é que são analisados apenas os
tem um problema de usuários dos EUA que definiram
imagem e queria sua posição ideológica em uma
demonstrar que o filtro seção do Facebook —mais fácil
algorítmico não tem de ser mostrada em lados
tanta influência como o opostos—, o que gera um viés
filtro social significativo e deixa dúvidas
sobre o comportamento dos
Esteban Moro, pesquisador
usuários que têm ideologia, mas
não a selecionaram em seu
perfil. Para Pablo Barberá, que estuda a polarização das
redes na Universidade de Nova York, os usuários estudados
provavelmente têm uma rede de contatos mais homogênea
no Facebook: “Se o estudo tivesse incluído todos os
usuários, certamente observaríamos níveis ainda mais altos
de exposição à diversidade de opiniões e um efeito maior
dos algoritmos”.

A era dos algoritmos


“É um estudo na defensiva”, explica Esteban Moro,
especialista em redes sociais da Universidade Carlos III. “O
Facebook tem um problema de imagem, por causa dos
algoritmos que filtram a informação que vemos e queria
demonstrar que o filtro algorítmico não tem tanta
influência como o filtro social”, resume o pesquisador.

Vivemos na era dos algoritmos. Não é fácil saber se


O que nos é mostrado nos
a bolha ideológica é
resultados do Google, no mural
do Facebook ou em outras maior ou menor
plataformas é decido por uma fora do Facebook,
fórmula cada vez mais complexa mas alguns estudos
que seleciona o melhor para
indicam que as
satisfazer os interesses do
usuário e da empresa. No redes ajudam a
http://brasil.elpais.com/brasil/2015/05/06/tecnologia/1430934202_446201.html?id_externo_rsoc=FB_CM 2/3
27/08/2015 Algoritmo Facebook: Usuários transformam seus murais no Facebook em ‘bolhas’ ideológicas | Tecnologia | EL PAÍS Brasil

entanto, ainda há muitos os que diminuí-la
pensam que veem o que existe e
não o que o algoritmo acredita
que devem ver. Mas não é assim: em função da interação
dos usuários com os amigos e atividade, o Facebook define
seus interesses e mostra o que provocará mais interação,
para que permaneçam mais tempo na rede e, deste modo,
gerem mais receita para a empresa.

Este ciclo de retroalimentação despertou o interesse do
ativista Eli Pariser, que publicou em 2012 um livro
chamado Filter Bubble (A Bolha dos Filtros), referindo­se
ao efeito do algoritmo em nossas vidas: ao buscar “Egito”
no Google, alguns usuários recebem informações sobre
revoltas e, outros, apenas sobre férias nas pirâmides, tudo
em função de seu comportamento prévio.

Em meados de 2014, o Facebook divulgou outro de seus
estudos —publicados regularmente sobre o comportamento
na rede— que gerou uma polêmica inusitada, porque
revelou que manipulava emocionalmente seus usuários,
mostrando­lhes mais mensagens negativas ou positivas de
seus contatos, para verificar se havia certo contágio na
forma de expressão. Em grande parte, a polêmica surgiu
porque o público descobriu que o Facebook manipula os
murais e, portanto, o comportamento das pessoas.

Não é algo que faça questão de
esconder, muito pelo contrário:
o Facebook gaba­se de influenciar de forma notável a
participação eleitoral em todo mundo, depois de arrastar às
urnas cerca de 340.000 pessoas que não tinham intenção
de votar nas legislativas dos EUA.

Nesse cenário, os cientistas da empresa comandada por
Zuckerberg mostram que o contágio social ou a bolha
ideológica que se forma em sua rede social é semelhante ou
mais moderada à que se produz off line. De fato, já em
2012, havia publicado um estudo que negava que a bolha
fosse tão grave, mas naquela ocasião o importante era
diminuir a culpa do algoritmo.

A pesquisa preliminar de Barberá e este estudo destacam
que as redes sociais poderiam ser um mecanismo para
receber informação diferente da habitual. “Por exemplo, um
eleitor de direita que apenas vê Antena 3 e lê La Razón
[jornal ultraconservador da Espanha] poderia ser exposto
pela primeira vez a um conteúdo com um viés de esquerda
compartilhado por seus contatos no Facebook”, explica
Barberá.

No entanto, esse é outro ponto fraco deste último estudo da
equipe do Facebook, como lamenta Moro, da Carlos III. “O
problema é que não compara com nada. Não podemos
saber se o que ocorre é pior ou melhor fora do Facebook.”

© EDICIONES EL PAÍS, S.L.

http://brasil.elpais.com/brasil/2015/05/06/tecnologia/1430934202_446201.html?id_externo_rsoc=FB_CM 3/3

You might also like