1404123574_764889_1404123784_noticia_normalELPAIS.- ¿Conocen lo que significa contagio emocional masivo virtual? Facebook sí­. La red social ya sabe mucho de lo que pensamos y hacemos (si estamos solteros o si tenemos pareja, si nos gustan loscupcakes o cuánta indiferencia nos genera el maltrato animal frente a otro tipo de carne de contenido viral) pero ahora resulta que también ha estado investigando cómo sentimos. No sólo para recoger datos y hacer negocio, sino para controlar cómo reaccionamos y nos relacionamos entre nosotros a través de los mensajes que posteamos en el negocio de Zuckerberg.

Todo ocurrió en una semana de 2012, Facebook estuvo sesgando losnewsfeeds –es decir, la lí­nea de tiempo privada que nos suministra los estados y las actualizaciones de nuestros contactos– de casi 689.000 usuarios con el fin de demostrar que se pueden manipular nuestras emociones y sentimientos por contagio emocional a través de las redes sociales. El experimento, realizado por investigadores de la Universidad de Cornell (Nueva York) y California en colaboración con la dirección de la red social, se titula Experimental evidence of massive-scale emotional contagion through social networks y ya ha provocado un alud de crí­ticas entre usuarios y medios por la falta de ética de su metodologí­a, precisamente por haber alterado a propósito los datos de cuentas privadas sin haber notificado de ello, ocultando posts y filtrando contenido para analizar la conducta final de los usuarios.

Publicado a mediados de este mes en la decana revista Proceedings of the National Academy of Sciences, el estudio, en esencia, ha revelado que Facebook ya no es el reflejo virtual de nuestro mundo 2.0, seleccionado con precisión a lo largo de los años, sino que nuestra vida virtual es un mero espejismo, el resultado de un algoritmo calculado maquiavélicamente; un algoritmo tan sencillo como perverso que ya no pretende que se visualice más o menos un mensaje con intereses más o menos crematí­sticos, sino que éste nos alegre o, peor, nos deprima.

Durante el experimento se estudiaron unos 3 millones de posts que contení­an unas 122 millones de palabras, de las que cuatro millones se clasificaron como positivas y 1,8 millones, negativas. El resto, se comprende que eran neutras. Todos esos posts fueron ocultados o sobreexpuestos a esos cientos de miles de usuarios para observar su reacción y concluir de qué forma el sentimiento que transmite una publicación en Facebook altera, en efecto, nuestro humor, y que a mayor disminución de posts negativos, más mensajes positivos, y al revés.

Los beneficios de la investigación no justifican toda esta polémica.

Adam D.I. Kramer, uno de los investigadores del experimento

En Facebook lanzan balones fuera (“tratamos cada una de nuestras investigaciones de manera cuidadosa y tenemos un proceso de revisión interna muy férreo”, contestaron a la publicación The Atlanticportavoces de la compañí­a), pero los autores y la editora del artí­culo se han visto obligados a justificarse públicamente dada la polémica que ha generado el experimento. Susan Fiske, profesora de psicologí­a de la Universidad de Princeton y editora del texto, señaló ayer domingo a The Atlantic que el estudio es “éticamente correcto desde la perspectiva de la normativa [de Facebook], pero la ética es un conjunto de decisiones sociales. No tengo una respuesta absoluta al respecto y el grado de indignación que ha provocado el estudio indica que quizá no deberí­amos haberlo hecho. Todaví­a estoy pensando en ello y también me siento algo descolocada”.

Por su parte, Adam D.I. Kramer, uno de los investigadores del experimento, ha hecho pública desde su página de Facebook una declaración en la que pide disculpas y señala que su “objetivo no era molestar a nadie”. “Mis coautores y yo sentimos la manera en que el artí­culo describe el experimento y por toda la ansiedad que hemos causado. Observándolo ahora, los beneficios de la investigación no justifican toda esta polémica”.

DEJA UNA RESPUESTA