Pesquisa no Facebook: Incentiva a discórdia política[;]

O Facebook – gra√ßas a seus algoritmos “inteligentes” – impede que muitos usu√°rios sejam expostos a opini√Ķes de cren√ßas pol√≠ticas completamente diferentes ou, pelo contr√°rio, incentiva o isolamento e a polariza√ß√£o ideol√≥gica e pol√≠tica?

Um novo estudo cient√≠fico, que tenta responder √† pergunta pela primeira vez, fornece uma resposta bastante mesoamericana: o Facebook provavelmente mant√©m as barreiras divis√≥rias, mas o efeito polarizador de seus algoritmos n√£o √© grande e √© certamente menor do que as decis√Ķes dos pr√≥prios usu√°rios. sobre quais not√≠cias eles ler√£o e compartilhar√£o na rede social.

Pesquisa no Facebook: Incentiva a discórdia política[;]

O estudo, conduzido por pesquisadores do Facebook e da Universidade de Michigan, liderado pelo Dr. Solomon Messing e publicado na principal revista cient√≠fica Science, de acordo com a BBC e a Agence France-Presse, analisou dados de 10,1 milh√Ķes de usu√°rios. da rede, que havia declarado suas prefer√™ncias pol√≠ticas em seu “perfil” (por exemplo, progressivo / liberal ou conservador).

Os pesquisadores encontraram 226.000 notícias compartilhadas por pelo menos 20 usuários e classificaram cada notícia com uma classificação política, dependendo da ideologia política declarada da maioria dos usuários que a compartilharam. Eles então investigaram quantas notícias da política oposta estavam disponíveis para cada usuário.

Segundo o estudo, cerca de 80% dos amigos de um usu√°rio comum do Facebook t√™m cren√ßas pol√≠ticas semelhantes, enquanto 20% pertencem ao outro “campo”. Esses amigos trocam not√≠cias pela rede e essas not√≠cias tendem a ter uma “cor” pol√≠tica semelhante. Dessa forma, apenas 29,5% das not√≠cias que um usu√°rio v√™ cont√™m vis√Ķes pol√≠ticas opostas. Se o “filtro” de amigos n√£o interferisse e um usu√°rio tivesse acesso acidental √†s postagens do Facebook, eles seriam expostos a uma vis√£o oposta em uma extens√£o muito maior, da ordem de 40% a 45%.

Ap√≥s esse primeiro “filtro” importante de amigos, o pr√≥prio Facebook “filtra” as not√≠cias que cada usu√°rio v√™, porque seus algoritmos “sociais” complexos, confidenciais e controversos interferem, escolhendo por si mesmos o que acham que gostariam de ver. do utilizador. Esses algoritmos reduzem a porcentagem de not√≠cias pol√≠ticas de uma ideologia pol√≠tica diferente que um usu√°rio pode ver, embora um pouco (em 28,9%) – e certamente muito menos do que os amigos filtram. Afinal, quando o usu√°rio m√©dio clica para ler not√≠cias, apenas um quarto deles (24,9%) vai al√©m de sua esfera pol√≠tico-ideol√≥gica.

shutterstock_102766751

A conclus√£o inicial – mas √© necess√°ria mais investiga√ß√£o – √© que as redes sociais, como o Facebook, contribuem com seus algoritmos “sociais”, mas pouco para isolar uma pessoa em termos de “outra”. Mais importante, no entanto, eles criam comunidades de pessoas com percep√ß√Ķes semelhantes e, assim, as “protegem” (com qualquer positivo ou negativo que tenham) de pontos de vista opostos.

Como Messing colocou, as escolhas pessoais de cada usu√°rio contam muito mais do que as escolhas do algoritmo. O que “faz a diferen√ßa” √© a escolha de amigos online. Comentando a pesquisa, o pr√≥prio Facebook disse que mostrava que seus usu√°rios estavam expostos a uma variedade de visualiza√ß√Ķes. “Descobrimos que a maioria das pessoas tem amigos de ideologias pol√≠ticas opostas, e isso se reflete nas not√≠cias que est√£o compartilhando”, afirmou a rede.

A grande questão, no entanto, segundo muitos analistas, é se é melhor para a democracia ser informada sobre o que está acontecendo no mundo, através do Facebook ou diretamente através das diversas mídias.143135047

Recorde-se que, como outros estudos mostraram, as pessoas geralmente tendem a ler notícias de fontes com as quais concordam politicamente, revertendo assim suas crenças. O problema é que o Facebook parece melhorar ainda mais esse processo, principalmente através do filtro de seleção de amigos e menos através do filtro de seus algoritmos.

Fonte: nooz