Por Alfredo López, 2 de julio de 2014
¿Cómo nos hacen sentir las noticias que leemos en Internet?
Puede parecer en principio una pregunta frívola, del tipo de preguntas que se hacen en el bar después de tomar un par de copas, pero en realidad es una pregunta que tiene su enjundia. Si el contenido de Internet puede afectar a nuestros sentimientos, la manipulación de dicho contenido puede ejercer de poderoso control social.
Durante una semana de 2012, Facebook, en colaboración con la Universidad de Cornell y la Universidad de California en San Francisco, se dispusieron a explorar esa posibilidad.
Para ello, se enviaron deliberadamente a un grupo de 689.000 usuarios noticias positivas, mientras que al otro grupo escogido se le proporcionaba noticias con connotaciones negativas.
¿Qué es lo que se quería probar?
Como resultado de este experimento, aprendí mucho de Facebook. Una de las conclusiones fue que los usuarios que observan historias más positivas en su «feed» de noticias eran menos propensos a escribir un mensaje negativo. Y viceversa, cuando las noticias eran negativas, en sus comentarios había más propensión a que también lo fueran.
Y cuando se descubrió la semana pasada el experimento realizado por Facebook, los usuarios se mostraron horrorizados ( y hasta un par de Gobiernos), y se plantearon algunas preguntas interesantes: ¿ Tiene una empresa el derecho a usar a sus clientes como sujetos de una prueba sin su consentimiento? ¿Resulta ética cambiar el contenido de las noticias por uno u otro motivo?
Pero hay una cuestión más importante detrás de esas preguntas. Facebook pensó que lo que hacía estaba bien, en realidad, siempre está investigando sobre sus usuarios. Y su suposición resultó ser correcta. Entonces, ¿qué significa que una de las mayores empresas de información del mundo, a través de la cual muchas personas obtienen la información, quiera realizar este tipo de estudio para influir en las personas a través de falsedades?
El experimento fue realizado por el Equipo Científico de Datos de Facebook, el Departamento de la compañía que recolecta y analiza los datos de los usuarios. Facebook no solamente utiliza algunos de esos datos con fines publicitarios y de marketing, sino que también los vende a otras empresas y obtiene subvenciones para investigaciones por parte de Universidades y grupos de expertos. El trabajo de investigación es impresionante: pueden determinar cuantos usuarios estaban de visita en Brasil para ver el Mundial de Fútbol antes de que se subieran al avión. También han analizado una gran cantidad datos sobre los mejores lugares de Estados Unidos para elaborar un artículo para Wall Street Journal.
Aunque la mayor parte de las personas se enteraron la semana pasada, ese estudio fue publicado en el mes de marzo en las Actas de la Academia Nacional de Ciencias y surgió a raíz de una pregunta que se hicieron los responsables de Facebook: ¿Cómo puede influir el contenido de un feed de noticias en la forma de pensar, sentir y expresarse? Es una buena pregunta y digna de estudio. Y Facebook, que dispone de más datos personal en sus servidores que cualquier otra organización del mundo, era el lugar perfecto de investigación.
Facebook tiene un servicio de noticias que es muy popular entre muchos usuarios. Los investigadores dieron noticias con connotaciones positivas o negativas. Si alguna noticia tenía un tono positivo, entonces se eliminaba para un grupo de usuarios. Lo mismo hicieron con las noticias con tono negativo para el resto de usuarios. Lo hicieron durante una semana y registraron las respuestas de los usuarios, viendo que el contenido positivo de la noticia llevaba a comentarios positivos y viceversa.
En ningún momentos los usuarios supieron nada sobre todo esto.
¿Es ilegal? Lo dudo, porque los infames Términos del servicio de Facebook le permiten recoger y utilizar los datos personales a su antojo. Posee nuestros datos cuando se publican en una página de Facebook y puede hacer con ellos lo que quiera.
¿Es ético? Más bien algo obsceno. Elige las noticias que quiere que la gente lea para luego recoger sus respuestas, y eso sin su consentimiento. Es un trato propio de conejillos de indias. Es decir, la empresa puede manipular los contenidos, de los que mucha gente depende para informarse en el día a día.
También llama la atención cómo Facebook trata esta controversia. Según Adam Kramer ( uno de los científicos de Facebook que han participado en el estudio) “el impacto real sobre las personas durante el experimento fue el mínimo para detectar estadísticamente sus reacciones”. La declaración oficial de la empresa decía que había utilizado “protecciones adecuadas para informar a las personas”.
Hipócrita es una manera suave de decirlo. El impacto real es que una Empresa Online, que tiene establecidas amplias relaciones con muchos Gobiernos, se ha comprobado cómo puede manipular a la gente. Lo que deberíamos preguntarnos no es cuántas personas participaron en el estudio, sino ¿por qué la empresa hizo eso?
No hay una forma fácil de explicarlo. Al parecer eso de las protecciones adecuadas no protegen a los usuarios de Facebook. No importa lo bien que lo presente Facebook para que sea más fácil de tragar, sigue siendo veneno. Recogieron información sobre los sentimientos y los pensamientos de la gente, y la forma de controlarlos. Lo hicieron porque ningún derecho de las personas podía disuadirlos.
Han hecho algo parecido a lo que hicieron los nazis. El libro 1984 dio lugar a la palabra orwelliano para describir la visión de pesadilla de su autor, algo que en lo que se ha convertido la realidad de nuestro mundo. La manipulación mental de un Estado policial, una vigilancia que extiende a sus ciudadanos, envía a la cárcel a los que lo denuncian y mantiene un departamento de desinformación bien financiado ( lo que llaman la Oficina de Prensa) para encubrir sus crímenes y desviar la atención de las personas ¿Les suena familiar?
No importa lo popular que es, y lo bien que suena la historia del fundador de Facebook. Facebook es un monstruo: parte de una máquina monstruosa que les sirve para asegurarse de que quedemos ciegos ante la opresión que nos infligen a cada momento.
Alfredo López escribe para ¡Esto no puede estar pasando! donde apareció este artículo por primera vez.
—
Procedencia del artículo: http://dissidentvoice.org/2014/07/facebook-experiments-with-manipulating-your-mind/#more-54837
—
Artículos relacionados:
http://noticiasdeabajo.wordpress.com/2014/04/20/facebook-pornografia-emocional/
—