Muchos piensan que el principal responsable es el algoritmo ideado por Greg Marra. Sin embargo, un reciente estudio apunta a los propios usuarios como principales responsables. El algoritmo que usa Facebook produce un cambio de un punto porcentual en la ordenación de contenidos; la elección individual, un cambio de cuatro puntos porcentuales, según este estudio.
Hace pocos meses se hablaba de Greg Marra, un genio informático de 26 años responsable de diseñar el algoritmo que Facebook utiliza para decidir qué contenidos ganan prioridad en el listado ‘Últimas noticias’ de la red social. ¿Es el principal responsable de lo que ven los millones de usuarios de Facebook a lo largo del mundo? Muchos piensan que sí, pero un reciente estudio niega tal afirmación.
Son los propios usuarios de la red social, y no los algoritmos, quienes tienen en última instancia el poder de censurar contenidos en Facebook y evitar exponerse a aquello que desafía sus pensamientos e ideas, según un estudio publicado esta semana por la revista Science.
¿Pueden las redes sociales como Facebook crear una especie de ‘burbujas’ en torno a sus usuarios para que estos vean únicamente el tipo de noticias y contenidos que quieren ver? Fue la pregunta que se hicieron los autores del estudio, tres investigadores de la Universidad de Michigan.
Eytan Bakshy y sus colegas analizaron la actividad de más de 10 millones de usuarios de Facebook en EE UU que dan a conocer en su perfil su afiliación ideológica y preferencias políticas, así como siete millones de enlaces compartidos en un periodo de seis meses, de julio de 2014 a enero pasado.
Los investigadores analizaron las noticias que esos usuarios comparten con sus amigos y luego determinaron cuáles llegaron a ellos a través de algoritmos creados por Facebook como el que la red social utiliza para decidir qué contenidos ganan prioridad en la lista de Últimas noticias (News Feed).
Tras ese análisis, llegaron a la conclusión de que la «elección individual» juega un mayor rol que ese algoritmo a la hora de limitar la exposición del usuario a contenidos que pueden desafiar su ideología.
Cuánto influye cada elemento
El algoritmo que usa Facebook para ordenar la información en la lista de Últimas Noticias del usuario produce, en promedio, un cambio de un punto porcentual en la proporción de noticias potencialmente desafiantes, según el estudio.
Sin embargo, cuando se considera la elección individual, ese cambio es de cuatro puntos porcentuales en esa proporción.
El algoritmo automático de Facebook utiliza un gran número de variables para dar preferencia a contenidos que considera que el usuario quiere ver, lo que ha levantado el temor de que los internautas se muevan en una ‘burbuja’ ideológica que no se expone a otras opiniones.
«Nuestro trabajo sugiere que el poder que tiene uno mismo de exponerse a perspectivas del otro lado (conservadoras para los progresistas y viceversa) en las redes sociales reside primero y ante todo en los individuos», sostienen los investigadores. No obstante, reconocen que su análisis tiene «limitaciones», dado que, aunque la gran mayoría de usuarios de redes sociales en EE UU tiene una cuenta en Facebook, su estudio se centra únicamente en esa plataforma.
Fuente: 20minutos.es