La Red Levadura: “Muchas veces al tratar de desmentir un bulo, reforzamos el mensaje”

Por Alejandra Avendaño Alvarado

Si me indigna un contenido y lo comparto para denunciarlo o desmentir un contenido falso en mi red social favorita, lo estoy replicando y, en gran medida, avalándolo. Si mis contactos hacen lo mismo, multiplicamos ese efecto; y si rebatimos a quienes le dan like a ese contenido, ampliamos su influencia. Un escenario contrario al buscado. Así funcionan las redes sociales, pura lógica de algoritmos y cero diseño ético.  

Por ello, la desinformación y el discurso del odio ganan más terreno y para combatir esta guerra hace falta estrategia. Esa es la misión que se ha planteado la red Levadura, evangelizar sobre la manera correcta de combatir estos flagelos del mundo digital, desde el conocimiento de tácticas eficaces para no ampliar su poder de influencia y reforzar su mensaje.

Formada por más de 400 personas, de perfiles diversos, la Red Levadura nació en plena pandemia ante el vertiginoso incremento del discurso del odio y la desinformación en redes sociales. Esto, porque al igual que la eterna lucha entre el bien y el mal, la guerra contra estos dos males apunta a construir una sociedad gobernada desde el odio y el miedo o a una más solidaria. Esta entrevista la realizamos a uno de sus colaboradores, pero al ser una red, se responde como una sola voz que nos comparte las impresiones y objetivos de esta iniciativa social.

Vídeo de campaña promocional de La Red Levadura

¿Cómo funcionan las plataformas de redes sociales para capturar más audiencias?

A las redes no les vale solo con capturar audiencia, necesitan que la audiencia les preste atención continuada y que interactúe mucho. Su modelo de negocio se basa en extraer nuestros datos personales para vender publicidad personalizada, y para eso les viene bien que les dediquemos mucho tiempo y que cliquemos en muchos sitios. Por ejemplo, con acciones como: me gusta, RT (Re-Tweet), follow, play, etc. Es lo que buscan desde el propio diseño de sus interfaces, fomentando los vídeos y las imágenes que captan la atención y el contenido polarizado, el que no te deja indiferente. Están llenas de estímulos visuales, multiplican las notificaciones (que se pueden desactivar pero por defecto siempre están activas) para que nos enganchemos a mirar el móvil a cada rato, incorporan funciones de carga automática y scroll infinito, de manera que tu pantalla nunca permanece estática… es evidente que el objetivo es que interactuemos frenéticamente, sin tiempo para pensar y asimilar.

¿Qué están haciendo las compañías de redes sociales para combatir el discurso del odio y la desinformación? ¿está funcionando?

Las redes sociales han reaccionado tarde y tímidamente al problema porque su propio modelo de negocio lo fomenta. Hace más de una década que activistas, periodistas y entidades sociales venían alertando, pero hasta que la crítica no ha sido atronadora, y debido a la presión de grandes escándalos como Cambridge Analytica o el genocidio de Myanmar, no han tomado medidas. Y, lamentablemente, no hay transparencia para evaluar su eficacia. En ese sentido, sabemos que han reforzado los equipos de moderación para eliminar mensajes de odio, que trabajan con entidades que verifican las noticias y etiquetan las falsas y que están desarrollando inteligencia artificial para abordar este trabajo tan ingente; pero no sabemos cuántos mensajes borran, si hay una estimación de cuántos se les escapan… la impresión, por parte de quienes las usamos, es que se les escapan muchos. Respecto a las decisiones de diseño, observamos algunas rectificaciones; por ejemplo, WhatsApp ha puesto límite a los reenvíos para dificultar la propagación de fake news (contenidos falsos) y Twitter está experimentando con medidas como no dejarte retuitear un enlace si no lo has leído… pero siguen siendo anecdóticas, al lado de otras muchas funcionalidades pensadas para que cualquier contenido se haga viral rápidamente.

¿Cómo se puede replantear el filtro o cámaras de eco de las redes sociales manteniendo la eficiencia, por ejemplo en las recomendaciones, pero sin alentar realidades paralelas?

Es muy complicado responder a esta pregunta, entre otras cosas porque no está tan claro que las cámaras de eco sean un fenómeno relevante o preocupante en redes sociales. Hay muchas evidencias de que estamos expuestos a una variedad de opiniones mucho más diversa que si no usamos redes sociales. De cualquier manera, la respuesta debe pasar por examinar con qué motivación se diseñan los filtros y los algoritmos que nos recomiendan contenidos online. Si yo uso una red social para mantenerme informada, para participar en debates o para divertirme, y los contenidos me llegan mediados por un algoritmo que ha sido diseñado para vender publicidad, está claro que no va a resultarme plenamente satisfactorio.

¿Hay formas de que se plantee un diseño más ético en las redes sociales? ¿Cuáles serían?

Con el modelo actual de competencia feroz por la atención, parece complicado. Pero quizá podríamos mirar hacia la forma en que se construyó internet, a los fundamentos de la World Wide Web, que es una infraestructura fruto de la colaboración entre entidades públicas y privadas, universidades, empresas, etc, con principios y regulaciones para que no haya monopolios y se respete la neutralidad y la interoperabilidad. Pensemos en el correo electrónico: yo puedo tener mi propio servidor de correo casero y mandarte un mensaje a tu Gmail, gracias a que existen protocolos de email universales. Este tipo de lógicas distribuidas son las que dificultan la formación de grandes oligopolios del big data y facilitan que recuperemos algo de soberanía tecnológica. Haría falta, aparte de iniciativa ciudadana y de pequeñas empresas, que ya la hay, mucha más regulación legal, entidades internacionales legitimadas, como una especie de ONU del big data, y una implicación más decidida por parte de la comunidad tecnológica y científica.

Desde un punto de vista técnico, ustedes referencian ejemplos de teorías o estrategias que se usan para que este tipo de contenidos calen en la opinión pública, ¿cómo funcionan y de qué manera pueden detectarse y evitarse en redes sociales?

Hay varias teorías muy sólidas que explican que hablar de ellos es una forma de allanarles el terreno. Por ejemplo, la del establecimiento de agenda, o “agenda setting”, explica que los temas de los que se habla en los medios de comunicación, y ahora también en las redes sociales, se convierten en los que la opinión pública considera importantes. Eso hace que algunos grupos provoquen que se hable de ellos, sea bien o mal, pero que se hable. Es importante que detectemos esto para frenar su aparición en medios, reducir las menciones y su espacio mediático. De otro lado, la teoría de la ventana de Overton afirma que en cada momento hay un rango de ideas que la opinión pública considera aceptable y quienes proponen cosas que quedan fuera de ese rango son considerados extremistas. Pero corremos el riesgo de que algunos debates “desplacen” la ventana y ciertas ideas y acciones empiecen a parecer aceptables cuando antes no lo eran. También está la teoría de los marcos cognitivos de Lakoff… En fin, cuando decimos que es mejor no darle demasiada visibilidad a los discursos de odio y las falsedades, ni siquiera para rebatirlas, no es ninguna ocurrencia nuestra, es que hay muchos años de estudios que han concluido eso.

¿Cómo los periodistas o creadores de contenido pueden ayudar a desmentir los bulos y desalentar el discurso del odio, considerando los sesgos de la audiencia y el diseño de las plataformas?

Es necesario un cambio de narrativa. Muchas veces al tratar de desmentir un bulo lo que hacemos es justamente lo contrario: reforzamos el mensaje. Aunque la intención sea buena, el efecto que provocamos es precisamente que el mensaje siga difundiéndose. Se trata de no hacer virales ciertos contenidos interactuando con ellos, de no quemarse debatiendo con fanáticos y de no dejarse arrastrar por su agenda mediática. En lugar de eso, creemos que es mejor invertir nuestro tiempo creando y compartiendo otros contenidos positivos y constructivos. Es necesario construir marcos narrativos alternativos que activen otra serie de valores latentes que compartimos, como la solidaridad o el sentimiento de pertenencia.

¿Qué medidas ustedes propondrían para generar un ambiente menos tóxico y desinformado en las redes sociales?

Hay cuestiones que tienen que ver con la responsabilidad individual, que pasan por conocer las lógicas de las redes sociales y la construcción de noticias y fake news (contenidos falsos) para no dejarse llevar por ellas. También hay muchas otras que requieren implicación, compromiso y ética por parte de entidades gubernamentales, políticas, tecnológicas y periodísticas, como hemos explicado en respuestas anteriores.

¿En qué proyectos o campañas se encuentra ahora la Red Levadura y cuáles son los próximos?

Durante los últimos meses desde la Red Levadura han surgido distintas iniciativas que hemos ido construyendo en conjunto tanto las personas individuales que forman parte (más de 400) como con organizaciones sociales y ONG que se han unido en la difusión. Algunas de las acciones en las que hemos trabajado los últimos meses son la acción #LaFuerzaDeUnEquipo, Orgullo Hetero, la cuenta de Twitter @Nolesdescasito y la campaña “Elegimos Hablar”. Con esta última, lo que pretendemos es ayudar a entender por qué se genera ese aumento de odio y crispación en las redes y facilitar herramientas y propuestas de acción para recuperar el diálogo en redes sociales.

Seguramente en los próximos meses se pongan en marcha más iniciativas, pero eso depende del interés y las ideas que van surgiendo del propio grupo de personas que forma parte de la Red. Este es un trabajo de inteligencia colectiva, donde se suman los intereses y saberes de personas y colectivos diversos para tratar de lograr eso de lo que hablábamos antes: cambiar los marcos narrativos, frenar el odio y la crispación en redes sociales y promover alternativas que refuercen una agenda más centrada en valores de solidaridad.

Compartir
Dejar una respuesta