Enlaces accesibilidad

Facebook 'asusta' a algunos usuarios al usarlos de conejillos de indias sin su consentimiento

  • Científicos realizaron pruebas en 2012 con 700.000 usuarios registrados
  • Querían comprobar cómo afectan a sus emociones el tipo de mensajes recibidos
  • Este tipo de pruebas son comunes en otros campos de Internet

Por
Hombre con un ordenador y el logo de Facebook de fondo.
Hombre con un ordenador y el logo de Facebook de fondo.

A medida que la gente pasa cada vez más tiempo en las redes sociales es lógico suponer que aumenta la influencia que lo que leen allí en cuanto a su estado de ánimo.

Esto es lo que intentó comprobar experimentalmente hace tiempo un grupo de científicos que trabajaban para Facebook, empleando herramientas lingüísticas y de análisis masivo de datos para filtrar los mensajes publicados y luego comprobar las reacciones de la gente.

¿El problema? Que hicieron las pruebas con casi 700.00 personas «reales» como conejillos de indias, manipulando los mensajes de sus amigos -que acostumbraban a leer a diario- sin siquiera avisarles previamente.

El trabajo, mencionado en New Scientist, consistía básicamente en usar algunos filtros de selección ante ciertas palabras de un vocabulario bien definido: mensajes con más o menos palabras "emocionales" de lo habitual, en definitiva, y examinar las reacciones.

Ya existían trabajos similares en otras redes sociales como Twitter pero a menor escala. En total unas 689.000 personas recibieron una portada personalizada de Facebook con mensajes que no eran los que hubieran recibido normalmente.

Resultados del experimento

El experimento concluyó que la gente tendía a publicar mensajes más positivos cuando recibía información más positiva de sus amigos y a enfadarse o publicar información más negativa respondiendo también ante la negatividad.

En resumen: se podría manipular a la gente simplemente dejándole ver más 'buenas noticias' o 'malas noticias' de su red social esperando una reacción equivalente de alegría o enfado.

Sin embargo, este tipo de pruebas no es inusual en las redes sociales, los sitios de comercio electrónico o las webs de contenidos en general: Facebook ofrece un 'timeline' o cronología de la red social personal seleccionando solo algunos de los mensajes de los 'amigos'.

Amazon crea portadas y páginas con recomendaciones que dependen de lo que el usuario haya comprado (aderezado con lo que le interesa vender a la compañía).

Y decenas de sitios de noticias prueban de forma transparente la efectividad de diseños, titulares o fotografías con los datos en tiempo real de cómo navegan los usuarios; son las llamadas Veritasium, Facebook tiende a darle más valor a las notas o 'estados' que reciben más votaciones del tipo 'me gusta'.

Pero también a las de pago sobre las gratuitas, haciendo que mientras la visibilidad de los mensajes entre amigos va bajando, aumente la única fórmula segura de conseguir visibilidad: pagando por promocionarlos, algo importante no tanto para particulares como para todas las empresas presentes en la red social.

Reacciones al experimento

Sabiendo lo que suele hacer Facebook y que también es común es otros sitios, ¿por qué este revuelo ahora por un experimento que durante unos meses afectó tan solo a un porcentaje de la gente?

Asustar con experimentos psicológicos no es la mejor de las ideas

Ante el hecho de que muchos de los comentarios surgidos al conocerse lo sucedido mencionan la palabra 'miedo' parece claro que asustar a la gente con experimentos psicológicos inesperados no es la mejor de las ideas.

Sin duda los usuarios preferirían haber sido avisados, sobre todo cuando se trataba de filtrar información de sus amigos, familiares y conocidos. Facebook podía haber sido más transparente -explicando lo que iba a hacer por adelantado- o haber usado datos menos delicados que los sentimientos personales o las relaciones en que se transmiten mensajes.

Los investigadores han publicado su explicación sobre lo sucedido mencionando que el experimento tuvo lugar en 2012, que solo afectó a 1 de cada 2.500 usuarios de Facebook y que las diferencias de todos modos no resultaron ser muy significativas: un impacto de una palabra positiva/negativa extra por cada mil en las respuestas.

Aunque la prueba haya sido perfectamente legal según el contrato de uso de Facebook (que en definitiva, como tantos servicios gratuitos, hace que los datos personales de cliente sean la 'moneda de pago') hay gente cree que hay algo de malo o de falta de ética en el caso.

Muchos se asustan ahora por lo fácil que resulta 'manipular a las masas' pero olvida que es algo que sucede en muchos otros entornos, no solo en internet, también sucede. Quizá esta experiencia con Facebook sirva para despertar algunas conciencias y mantener más alerta a los interesados y al público en general.