O bizarro experimento de manipulação emocional do Facebook
Uma das coisas que carece em demasia no Facebook é ética. Isso não é novidade, a empresa do Mark Zuckerberg faz bilhões vendendo todo o nosso comportamento social na rede aos mais diversos clientes, de uma forma tão ou mais flagrante do que o Google – esse ao menos nos retorna serviços. A fraude da venda legal de likes da rede social mostrou como ela ganha dinheiro com os anúncios exibidos para qualquer um: como as curtidas vem de usuários que não interagem e seu post só aparece para mais usuários conforme seu engajamento, você está literalmente jogando dinheiro fora.
E agora foi revelada mais uma tramoia do Facebook: pelo menos uma vez a rede social manipulou os feeds de milhares de usuários, de modo a gerar uma resposta específica.
Um estudo conjunto de pesquisadores ligados ao Facebook e das Universidades de Cornell e da Califórnia (e financiado pela própria rede social, é bom frisar) publicado recentemente descreve um experimento realizado durante uma semana em 2012, em que o algoritmo do feed de 689.003 usuários foi manipulado para exibir atualizações de modo a influenciar seu comportamento. O estudo buscava verificar se mensagens animadoras ou depressivas apresentadas aos usuários poderia gerar uma resposta positiva ou negativa em seus status. No que o estudo chamou de “contágio emocional em larga escala”, verificou-se que os expostos ao experimento realmente reagiam à exposição do material da forma pressuposta, atualizando seus status de acordo com o conteúdo que lhes foi exibido através da mudança de humor, que nada mais é do que um botão onde você informa como se sente no momento: se excitado, alegre, triste, etc.
Publicado em junho, o caso explodiu quanto o The Atlantic comentou o estudo no sábado. O estudo visava observar se o estado emocional de uma pessoa poderia influenciar o de outra mesmo em uma rede social, entretanto as implicações disso são nebulosas. Do ponto de vista legal, o Facebook pode realizar tais intervenções nos feeds dos usuários, e se pensarmos friamente isso é algo que Zuck não titubearia em fazer. Entretanto o emprego dessa
técnica, mesmo legal é antiético. Metadados minerados por estudos visam observar o comportamento natural dos usuários de redes sociais, entretanto o Facebook poderia em tese manipular os resultados para gerar uma resposta desejada e distorcer os resultados a seu favor, tendo em vista a própria forma do Facebook operar, em que ele seleciona previamente o que pode e o que não pode ser exibido diretamente ao usuário.
Claro, a resposta não foi das melhores e nem falo do público. Mesmo a professora de psicologia Susan Fiske da Universidade de Princeton, responsável pela edição da versão final do artigo para a publicação se mostrou preocupada enquanto preparava o documento, devido seu conteúdo. Ao questionar os autores do artigo, eles lhe informaram que o “o comitê de ética (IRB) aprovou o estudo, assim como aparentemente o Facebook manipula os feeds dos usuários o tempo todo”.
O problema aqui é que o Facebook estaria não só bagunçando com o feed dos usuários, mas também com seus estados emocionais deliberadamente como forma de gerar uma resposta específica. Como saber se o usuário não está em uma posição delicada, fragilizado por uma instabilidade emocional que a rede social não tem como antecipar? E se a exposição a post negativos intensificar esse estado?
No fundo, isso não é novidade. Somos manipulados por marcas e empresas o tempo todo, desde a mais tenra idade, de comerciais de cadeias de lanchonetes e refrigerantes, e daí por diante. Entretanto pensava-se que uma rede social seria se não imune, menos sujeita a esse tipo de conduta. Entretanto, ao criar uma conta na rede do Zuck você concorda em ceder seus dados “para operações internas, análise de dados, testes, pesquisas e melhorias de serviço“. Legal? Sim. Ético? Nem de longe.
Fonte: Meiobit.com