Zuckerberg discute papel do Facebook na divisão social na Conferência de Segurança de Munique

Após a eleição presidencial dos EUA em 2016, a mídia social – e o Facebook especificamente – foi responsabilizada por causar maior angústia e divisão social, com a disseminação de ‘notícias falsas’, interferência estrangeira, bolhas de filtro e muito mais, tudo supostamente sendo exacerbado pelo crescente uso de aplicativos sociais.

Mas isso é verdade? O Facebook realmente desempenha um papel tão significativo no processo moderno de disseminação de notícias que agora tem o poder de mudar a opinião do eleitorado – ou apenas estamos procurando culpar as divisões que sempre existiram?

Neste último momento, onde o Facebook está inclinado, e no final da semana passada, na Conferência de Segurança de Munique , o CEO do Facebook, Mark Zuckerberg, fez algumas refutações sobre as sugestões de que sua plataforma foi a causa de tais preocupações.

Em grupos de ativistas políticos :

“Nós derrubamos agora mais de um milhão de contas falsas por dia em nossa rede. […] A grande maioria não está conectada a um ator estatal que tenta interferir nas eleições; elas são uma combinação de spammers e pessoas tentando fazer coisas diferentes “.

No viés de confirmação :

“É menos provável que as pessoas cliquem nas coisas e se envolvam com elas se não concordarem. Então, eu não sei como resolver esse problema. Isso não é tanto um problema de tecnologia quanto um problema de afirmação humana. ”

Nas câmaras de eco :

“Os dados que vimos são, na verdade, que as pessoas são expostas a visões mais diversas através da mídia social do que eram antes através da mídia tradicional através de um número menor de canais . ”

Este último comentário refere-se a um estudo também referenciado por COO do Facebook Sheryl Sandberg e Andrew Bosworth, ex-chefe de anúncios para celular do Facebook Andrew Bosworth – em um estudo interno para examinar os impactos das bolhas de filtro, o Facebook descobriu que 26% do conteúdo de notícias que os usuários veem em seus feeds do Facebook representam “outro ponto de vista”. vista ”, o que os torna significativamente mais propensos a serem expostos a mais perspectivas no Facebook do que via distribuição de mídia tradicional, em vez de restringir seu escopo.

Portanto, o Facebook não tem culpa – os atores estrangeiros que tentam manipular os eleitores não tiveram uma grande influência no comportamento da votação, Cambridge Analytica foi um ‘ não-evento ‘, desinformação dos candidatos não era “uma grande falha da publicidade política” na plataforma em 2016 (daí a decisão do Facebook de isentar anúncios políticos de checagem de fatos em 2020), as pessoas não estão tendo suas visões estabelecidas reforçadas pelo algoritmo do Facebook, mostrando-lhes mais do que concordam e menos do que não concordam.

O Facebook, a esse respeito, não se vê como causa da divisão social – mas, novamente, Zuck e companhia podem estar negligenciando uma parte significativa da equação, da qual o Facebook está realmente desempenhando um papel importante.

Em um memorando interno vazado, ao qual o The New York Times teve acesso no mês passado , o agora chefe do Facebook VR e AR Andrew Bosworth observou que, embora os usuários estejam expostos a mais perspectivas no Facebook, isso não é necessariamente uma coisa boa:

“Pergunte a si mesmo quantos jornais e programas de notícias as pessoas leram / assistiram antes da Internet. Se você adivinhou” um e um “, em média, você está certo, e se você adivinhou que aqueles estavam ideologicamente alinhados com eles, você está certo A Internet os expõe a muito mais conteúdo de outras fontes (26% a mais no Facebook, de acordo com nossa pesquisa) .Este é o que todo mundo simplesmente erra. O foco nas bolhas de filtro faz com que as pessoas percam o verdadeiro desastre que é a polarização . O que acontece quando você vê 26% mais conteúdo de pessoas com as quais não concorda? Isso ajuda a simpatizar com elas, como todo mundo está sugerindo? Não. Isso faz você não gostar delas ainda mais. ”

Esta é uma admissão significativa que muitos ignoraram – aqui, Bosworth está dizendo que o Facebook expõe conscientemente seus usuários a muito mais conteúdo com o qual eles discordam, o que posteriormente os solidifica ainda mais dentro de suas próprias crenças arraigadas.

Por que o Facebook faria isso? Se o Facebook sabe que os usuários só ficam mais irritados quando vêem mais postagens com as quais discordam, por que o Facebook permitiria que isso acontecesse?

Esta descoberta, de um estudo sobre o que torna o conteúdo mais compartilhável online , realizado em 2010, pode ter algo a ver com isso:

” Os resultados sugerem uma forte relação entre emoção e viralidade: o conteúdo carregado de afetos – independentemente de ser positivo ou negativo – é mais provável que seja a lista mais enviada por email. mais viral do que conteúdo negativo; no entanto, esse link é complexo.Enquanto o conteúdo mais inspirador e surpreendente é mais provável para fazer a lista mais enviada por email, e o conteúdo indutor de tristeza é menos viral, algumas emoções negativas estão associadas positivamente à viralidade. Mais conteúdo que induz a ansiedade e a raiva tem maior probabilidade de fazer a lista mais enviada por email. Na verdade, o mais poderoso indicador de viralidade em seu modelo é a quantidade de raiva que um artigo evoca. ”

A raiva é o preditor mais poderoso da viralidade – portanto, o conteúdo que incita a raiva é o mais provável de ser compartilhado online.

Para o Facebook, o engajamento é tudo – conectar mais usuários ao conteúdo que gera engajamento, por meio de comentários, curtidas e compartilhamentos, é o foco principal do algoritmo do Feed de notícias do Facebook . O ímpeto do Facebook é claro – quanto mais engajamento ele puder gerar, mais tempo as pessoas gastam em suas plataformas e mais anúncios ele poderá exibir enquanto estiver lá. E embora usar a raiva como atração possa parecer um risco, porque as pessoas, você supõe, acabam ficando cansadas e param de fazer logon, as descobertas na pesquisa acima alinham perfeitamente com o que a maioria das pessoas vê nos feeds do Facebook.

Citações inspiradoras, histórias de pessoas superando as probabilidades, histórias em vídeo de cães e gatos de rua trazidos de volta à saúde – esses tipos de histórias positivas se saem bem e regularmente ganham força no ecossistema do Facebook. Assim como o oposto – relatos de controvérsias políticas que provocam raiva, que geram massas de respostas e desencadeiam debates furiosos nos comentários.

O Facebook sabe que esses tipos de postagens se saem bem e, se puder manter o equilíbrio entre mostrar um pouco de cada vez que você fizer logon, provavelmente voltará.

Portanto, embora o Facebook esteja procurando evitar a culpa pelo aumento das divisões sociais, ele realmente tem muito incentivo para provocá-lo, e continue provocando-o para mantê-lo interagindo. Mais uma vez, a raiva é o preditor mais poderoso da viralidade. E o Facebook, claramente, sabe disso.

Mas é claro, isso não para por aí – com as mídias sociais agora superando os jornais impressos como uma fonte de notícias importante nos EUA, e mais americanos agora obtendo conteúdo de notícias do Facebook especificamente [ 19459004], as próprias publicações tiveram que se ajustar. Agora, a maioria dos editores obtém uma quantia significativa de sua receita com a distribuição on-line, principalmente por meio de anúncios – e para maximizar os cliques em anúncios e expor mais pessoas a mais conteúdo, as próprias publicações também aprenderam o que é viral e como isso pode levá-los mais atenção.

Nesse sistema, as publicações também são incentivadas a produzir conteúdo mais divisivo e partidário, porque, novamente, é isso que gera engajamento, gera compartilhamentos e, finalmente, leva mais pessoas a clicar em seus sites. Toda a cadeia de mídia on-line é amplamente construída em torno da divisão de combustíveis – então, se você está se perguntando, depois que os resultados da eleição presidencial dos EUA em 2020 chegam, por que esse candidato se saiu tão bem e o que fez tão mal, é mais provável que você deveria estar olhando.

Então, o que isso significa para os candidatos políticos? Bem, há uma razão pela qual a campanha de Trump gastou $ 20 milhões em anúncios no Facebook apenas em 2019.

Trump campaign ad

Como observado, os anúncios que despertam raiva veem mais engajamento no Facebook; portanto, usar mensagens políticas divisivas como essa é extremamente poderoso para a campanha de Trump. Nesse sentido, as organizações políticas provavelmente teriam mais sucesso adotando um manual semelhante – adotando uma postura firme de um lado do problema, simplificando-o em uma mensagem singular e aceitando que algumas pessoas vão ficar chateadas e não gostam de você porque disso. Aqueles que concordarem serão mais solidificados em seu apoio ao ver as respostas geradas, enquanto os que se opõem provavelmente não votariam em você de qualquer maneira.

Na era do Facebook, a simplificação do complexo nas mensagens políticas é fundamental, e a resposta emocional é o caminho mais seguro para alcançar a transição, mesmo que isso aconteça com o risco de dividir o eleitorado.

Você pode adotar uma postura semelhante no marketing de mídia social para marcas – várias pesquisas e relatórios já indicaram que o público mais jovem se sente mais alinhado com as marcas “socialmente conscientes” , com 68% dos Consumidores da geração Z que esperam que as marcas contribuam para a sociedade.

Mas é isso porque mais marcas estão fazendo isso ou porque as que estão provocando mais engajamento com seu conteúdo, expandindo seu conhecimento da marca e solidificando sua base de suporte.

Por exemplo, se você criar as duas variações abaixo de um anúncio de desodorizante:

Deodorant example

Qual você acha que teria melhor desempenho no Facebook, com base na visão geral acima?

O da direita ‘desencadeará’ mais pessoas e provavelmente provocaria significativamente mais respostas. Se isso resultaria em mais vendas é outra coisa, mas com fortes vínculos entre o reconhecimento da marca e as vendas, poderia valer a pena o risco – desde que, é claro, que essas mensagens políticas estejam, de fato, alinhadas com a posição de sua empresa. quer adotar. De qualquer forma, é um grande salto para dar.

Ele também enfatiza ainda mais o ponto – enquanto jogar na psicologia do compartilhamento social pode ajudá-lo a obter mais tráfego, também aumenta a divisão social subjacente. Isso não é uma coisa boa, mas as motivações por trás disso são evidentes.

Então, como você corrige isso? Esse é um desafio muito maior – se você removesse o Facebook da equação, outras plataformas ainda existiriam, outras fontes tomariam seu lugar, e a mudança mais ampla na distribuição de notícias on-line e as motivações para obter tráfego ainda permaneceriam. Embora exista um incentivo para impulsionar a divisão e usar a raiva para estimular o engajamento, esses problemas persistirão – e à medida que mais e mais consumo de conteúdo muda on-line, é difícil vê-lo se tornando menos problemático tão cedo.

Mas, ao considerar seu próprio comportamento, sempre que você comentar, compartilhar, sempre que disser algo sobre a última controvérsia on-line, vale a pena observar o ímpeto por trás disso.

A resposta que você sente naquele momento foi o objetivo inteiro da postagem, comentário ou anúncio. Então, como levamos mais pessoas a reconsiderar a raiva diante da provocação flagrante?

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Você Também Pode Gostar