Qualquer usuário do Facebook já percebeu que nem todas as novidades dos amigos ou atualizações das páginas curtidas aparecem na linha do tempo. Enquanto dezenas de teorias responsabilizam a rede social e seu algoritmo por isso, que censurariam parte do conteúdo, o verdadeiro responsável por essa seleção seria o próprio usuário.
De acordo com um estudo publicado na revista "Science" por três pesquisadores da Universidade de Michigan que são funcionários do Facebook, é a própria pessoa quem acaba selecionando, a partir de suas interações na rede social, os conteúdos que aparecem para ela na rede social. Com isso, ela evitaria se expor a temas que vão contra seu pensamento e suas ideias.
Como a plataforma pretende mostrar cada vez mais aquilo que o usuário deseja ver, isso poderia gerar uma "bolha" ideológica no Facebook, em que dificilmente alguém seria exposto a opiniões diferentes. Se isso acontece ou não, diz o estudo, a responsável seria a própria pessoa —e não o site.
No ano passado, a pesquisa analisou mais de 10 milhões de perfis, o viés ideológico e a preferência política de cada um, assim como as notícias compartilhadas por eles, e cruzou com a informação de quais conteúdos apareceram em suas linhas do tempo.
A conclusão é que a escolha individual seria mais importante do que o código do site na hora de limitar a exposição a conteúdos que desagradariam o usuário.
O algoritmo do Facebook que define o que aparece na linha do tempo seria responsável por uma mudança de 1% na proporção de notícias que desafiariam as crenças dos usuários. Já as escolhas pessoais, por sua vez, produziriam uma mudança de quatro pontos percentuais nessa proporção.
Filipe Rocha/Editoria de Arte/Folhapress |