Siempre he dicho que como herramienta publicitaria Facebook es excelente, pero fuera de ello creo que es uno de las invenciones más dañinas que ha conocido la humanidad. Pues aparte de ser una herramienta para desperdiciar nuestro tiempo, además de promover la vanidad y el engaño (la mentira), ahora sabemos que también sirve para que manipulen nuestros sentimientos como si fuésemos ratas de laboratorio.
Sabemos que Facebook ajusta rutinariamente las noticias que vemos los usuarios, cambiando cosas triviales como el número de anuncios que vemos o el tamaño de las fotos que aparecen en nuestro feed. Y todo con el propósito de crear un producto más atractivo y útil.
Pero la semana pasada, Facebook reveló que había manipulado los canales de noticias de más de medio millón de usuarios seleccionados al azar, cambiando el número de mensajes positivos y negativos que vieron esos usuarios. Un grupo de usuarios sólo veían noticias negativas en su feed y otros sólo noticias positivas. Y esto era parte de un estudio psicológico para examinar cómo las emociones pueden propagarse en las redes sociales y contagiarse.
El experimento, estudio o como prefieran llamarle, se hizo sin que los usuarios supieran nada al respecto, y por tanto sin sus consentimientos. No obstante, la compañía dice que los usuarios acceden a este tipo de manipulación cuando están de acuerdo con sus términos de servicio. Aunque, en las calles la gente no piensa exactamente igual.
En un artículo académico publicado en conjunto con dos investigadores universitarios, la empresa informó que durante una semana, en enero de 2012, se había alterado el número de mensajes positivos y negativos en los canales de noticias de 689,003 usuarios seleccionados al azar para ver qué efecto tienen los cambios en el tono de los mensajes a los destinatarios.
Los investigadores encontraron que los estados de ánimo eran contagiosos. Las personas que vieron los mensajes más positivos respondieron escribiendo mensajes más positivos. Del mismo modo, los que vieron los contenidos más negativos fueron más negativos en sus propios mensajes.
Aunque los protocolos académicos generalmente exigen obtener el consentimiento de las personas antes de que se lleve a cabo la investigación psicológica sobre ellas, Facebook no pidió permiso explícito de los usuarios seleccionados para el experimento. Sostuvo que sus 1280 millones de usuarios mensuales dieron su consentimiento general a la investigación de la compañía como condición para utilizar el servicio.
Pero la manipulación de la red social de los sentimientos de sus usuarios sin su conocimiento despertó su propia reacción negativa. Algunos usuarios de Facebook y los críticos sugirieron que la compañía había cruzado una frontera ética.
El alboroto destaca el control inmenso Facebook ejerce sobre lo que sus usuarios vean. Cuando alguien se conecta, normalmente hay alrededor de 1,500 artículos que la compañía podría mostrar en el feed de noticias de esa persona, pero el servicio sólo muestra alrededor de 300 de ellos.
Lo que ves es elegido por un algoritmo misterioso que tiene en cuenta cientos de factores, tales como la frecuencia con que comentas las fotos de tu tía Sally, la cantidad de amigos que estén hablando sobre el post de un colega acerca de su nuevo trabajo o las páginas que mires con más frecuencia.
Facebook no es la única empresa de Internet que manipula y analiza los datos de consumo. Google y Yahoo también observan cómo interactúan los usuarios con los resultados de búsqueda y con los artículos de noticias para luego ajustar lo que se les mostrará. Según ambos esto mejora la experiencia del usuario, lo cual me permito poner en duda, sin embargo Facebook quizás ha ido demasiado lejos.
Es decir, ¿qué garantía tenemos de que Facebook no manipulará nuestros sentimientos para que nos agrade o nos desagrade más o menos un candidato presidencial? ¿O para que apoyemos o desaprobemos una guerra? ¿O quizás para que nos volvamos más consumistas o simplemente para hacernos sentir felices o deprimidos sin razón aparente?
No lo sé, pero la verdad es que cada vez más me fío menos de las redes sociales, y a la vez empiezo a ver el aspecto más perverso de las mismas.