[ad_1]
Mauricio Macri y Cristina Kirchner fueron protagonistas del informe de Facebook

Facebook cuenta con más de 2 mil millones de usuarios en todo el mundo. En la Argentina tiene un 75% de penetración dentro de los cibernautas, de los cuales cerca del 61% accede a la plataforma a diario. El sitio no sólo se usa para contactar amigos, sino también como fuente de información: tres de cada cinco argentinos ingresan a la red social para leer noticias.

También es una herramienta de difusión importante para los políticos. Por ejemplo, Cambiemos, el partido que gobierna la Argentina, se apoyó fuertemente en las redes sociales para llegar a sus votantes. El presidente Mauricio Macri llegó a más del 92% de los usuarios de la Argentina durante la última carrera electoral, concluyó World Wide Web Foundation en un estudio en el que también analizó cómo se cura y se entrega el contenido.

El punto es que los usuarios no ven en su línea de tiempo (Noticias o News Feed) todas las publicaciones de esa comunidad virtual a la que pertenecen. En promedio, se ven 1 de cada 10 posts publicados por las páginas que se siguen.

Una de las preocupaciones que surgieron a partir de esta investigación es la medida en la que algoritmos opacos están manejando información que es crítica para nuestras sociedades, moldeando así el debate público y definiendo el acceso a servicios públicos“, dice el informe de la World Wide Web Foundation, una asociación creada en 2009 por Tim Berners-Lee, conocido como  uno de los “padres de internet”.

La mayoría de las redes sociales utilizan inteligencia artificial para filtrar la información que ven los usuarios en las redes. Ocurre en Facebook, Instagram, YouTube y Twitter. El objetivo es, según dicen, mejorar la experiencia del usuario. Sin embargo, esto puede tener un impacto muy grande en cómo se accede a información que es relevante para entender la realidad.

“Cuando se refiere a la entrega de noticias e información, esa curación tiene un impacto muy profundo. Es como comprar un diario o revista en la calle y que el vendedor corte los artículos que él o ella decide que podrían interesarte. Estas dietas informativas personalizadas, que los usuarios no pueden controlar, pueden exacerbar las divisiones entre las comunidades“, dice el informe.

Cómo se hizo el estudio

Se crearon seis perfiles en Facebook: todos correspondientes a mujeres de 30 años residentes de Buenos Aires. Las seis cuentas fueron configuradas para seguir las mismas 20 páginas de diferentes sitios de noticias además de dos políticas: la cuenta oficial de Mauricio Macri y la de Cristina Kirchner.

El 15 de diciembre se polarizaron los perfiles: dos de ellos (María y Andrea) pusieron “me gusta” a 30 publicaciones hechas en la fan page de Macri, otros dos (Lucía y Julieta) pusieron me gusta en los post de la fan page de CFK y los otros dos (Brenda y Valentina) se mantuvieron neutrales.

Se tomaron datos en dos fases: del 8 al 15 de diciembre, antes de que los perfiles se polarizaran, y del 16 al 19 de diciembre, luego de que los falsos usuarios interactuaran con otros perfiles.

Durante esos 11 días de observación, las 22 páginas publicaron un total de 11.603 posts. Todos los perfiles fueron expuestos a un promedio de 45 posts por conexión. Revisaban sus muros en los mismos horarios y hacían la misma cantidad de scrolls (desplazamientos en la pantalla).

Los resultados

De los 11.603 posts publicados durante los 11 días de observación, Andrea (seguidora de Macri) vio 1192 y los seis perfiles combinados fueron expuestos solo a 2.071 publicaciones, apenas 14% de los posts publicados en las 22 páginas.

Andrea vio posts muy diferentes cuando se la compara con Lucía (seguidora de CFK). A pesar de que ambos perfiles seguían las mismas páginas y se conectaban en los mismos horarios, cerca de la mitad de la información de Andrea estuvo excluida del timeline de Lucía, y viceversa.

El experimento demostró que los diferentes perfiles veían diferentes historias vinculadas con distintos ejes temáticos. Por ejemplo Lucía (K), que mostraba afinidad con una figura política clave de la oposición, veía más publicaciones sobre protestas y el submarino que los otros perfiles. También veía menos publicaciones sobre la represión en las protestas sociales, lo cual contradeciría la hipótesis de que sólo se ve material que refuerza una misma visión sobre diferentes temáticas.

Como conclusión, se puede decir que el estudio demuestra que la información que ven los usuarios varían según los diferentes perfiles y sus afinidades pero no queda claro cuál es el criterio, o el algoritmo detrás. Lo que sí se puede afirmar es que el criterio no es lineal y que no se sabe bien cuál es.

“Hay publicaciones que pueden ser relevantes para la sociedad en general, o para un usuario online, que pueden no verse en Facebook, a raíz de las variables que la plataforma elige priorizar al diseñar su algoritmo. Cuando una gran proporción de la población se basa en la plataforma para acceder a las noticias, esto puede volverse un gran problema. Teniendo en cuenta estos riesgos, Facebook debe diseñar herramientas totalmente transparentes que muestren qué información ven y no ven los usuarios“, dice el informe.

Las conclusiones del estudio

Los usuarios solo ven el contenido que el algoritmo produce en la sección Noticias (News Feed).

La mayoría de los usuarios no sabe que hay un proceso de curación en la plataforma. Según una investigación hecha en Estados Unidos: apenas el 24% de los consultados estaba al tanto de que el contenido que veían estaba filtrado.

No se sabe con claridad cómo funcionan los algoritmos que filtran la información, es decir qué criterio se tiene en cuenta para visibilizar algunos posts e invisibilizar otros.

SEGUÍ LEYENDO: Tras el escándalo, Facebook cambia la forma en que puedes administrar tus datos

En Facebook se ofrecen ciertas herramientas para que el usuario configure lo que ve en la plataforma. Se puede ajustar lo que aparece en la sección noticias utilizando la opción “ver primero”. También se puede cambiar el orden en que aparecen las historias: de las más destacadas a las más recientes (orden cronológico), desde el menú de configuración.

También existe una función llamada Artículos relacionados (que todavía no está disponible en la Argentina) “que le permite a las personas descubrir nuevas publicaciones sobre el mismo tema que les puedan resultar interesantes. Esos artículos aparecen en el News Feed después de leer un artículo”, según se destaca en el sitio oficial de la compañía.

Sin embargo, estas opciones son limitadas (no permiten tener un control absoluto de lo que se ve) y no le ofrecen a los usuarios suficiente información para que tomen decisiones sobre su dieta informativa, según se menciona en el informe.

Tras el escándalo de Cambridge Analytica, Facebook anunció que modificará la plataforma para facilitar a los usuarios la forma en que administra sus datos.

A su vez, en un post publicado en el blog de la compañía, se anuncia que se incluirán nuevas herramientas para que los usuarios tengan más información respecto de la fuente de las noticias que leen.

Si bien el estudio se centró en Facebook, hay igual preocupación respecto de cómo otras plataformas, entre ellas YouTube y Twitter, están determinando la información que los usuarios ven y dejan de ver, a raíz de los algoritmos que se emplean como filtros.

Las sugerencias

Los usuarios deberían entender mejor cómo impacta la tecnología en la información que reciben y por ende en cómo perciben la realidad.

Las plataformas deberían ser más claras respecto de los criterios que se emplean para filtrar información. También deberían darles opciones más claras a los usuarios para que éstos entiendan qué información queda dentro o fuera de su esfera y que puedan administrar esas alternativas en un 100 por ciento.

“Es necesario entender mejor si las leyes y regulaciones son adecuadas para afrontar los desafíos que generan estos sistemas basados en algoritmos que personalizan la entrega de información”, concluye el informe.

SEGUÍ LEYENDO:

Cómo quitarle a Facebook el acceso a tu agenda de contactos

Cómo cataloga Facebook a los usuarios según la información sensible que entregan día a día

Facebook guarda muchos más datos personales de los que reconoció Mark Zuckerberg

[ad_2]

LEAVE A REPLY

Please enter your comment!
Please enter your name here