El veneno inoculado por las redes sociales tiene una vida útil de hasta 8 días: ¿cuál es el antídoto?
Allá por 2019 Mark Zuckerberg argumentó que vigilar el contenido nacido al calor de la red de redes era virtualmente imposible (o al menos lo era en plataformas como Facebook). Y es cierto que erradicar (al menos al 100%) el veneno que campa a sus anchas en internet se antoja una misión posible, pero también lo es que la naturaleza ajena a las regulaciones de las redes sociales ha convertido la moderación de contenidos en una tarea harto complicada (probablemente demasiado).
No todas las empresas parapetadas tras las grandes plataformas 2.0 asumen la moderación de contenidos como una prioridad y ello tiene inevitablemente un impacto de primer orden en la velocidad con la que se disemina la ponzoña en las redes sociales.
Sin embargo, un nuevo informe publicado recientemente por dos expertos en ciencia de la conducta sugiere que hay remedio para parar los pies al contenido nocivo que circula impunemente por las redes sociales. Y ese remedio pasa por dejar hasta cierto punto de lado la libertad de expresión elevada a la máxima potencia que impera hoy por hoy en Estados Unidos e inspirarse en las normativas del viejo continente.
El estudio, que ha visto la luz en Proceedings of the National Academy of Sciences y que rubrican Marian-Andrei Rizoiu, de la Universidad de Tecnología de Sídney, y Philipp Schneider, del Instituto Federal Suizo de Tecnología en Lausanne, coloca bajo los focos los efectos potenciales de la nueva Ley de Servicios Digitales (DSA) de la Unión Europea (UE), una rompedora compilación de normas enfocadas a mermar los efectos nocivos de las redes sociales que el Congreso de Estados Unidos ha calificado ya de «injusta» con las empresas tecnológicas estadounidenses. La DSA entrará en vigor el próximo mes de febrero y fijará los estándares que deberán acatar empresas como Meta y ByteDance en el seno de la UE.
Uno de los mandatos previstos por la DSA es la contratación de «flaggers» de carne y hueso cuyo último objetivo será identificar y eliminar contenido nocivo en un plazo de 24 horas en las redes sociales. No se trata de un periodo de tiempo excesivamente largo, pero sí lo es cuando hablamos de la celeridad con la que se esparcen en las redes sociales la desinformación, el discurso de odio y la propaganda terrorista.
«Hemos visto ejemplos en Twitter en los que el mero hecho de compartir una imagen falsa de una explosión en las inmediaciones del Pentágono provocó que las parqués bursátiles en Estados Unidos se desplomaran en cuestión de minutos», advierte Rizoiu.
No es probablemente la panacea, pero la DSA sí se revela como una herramienta útil para parar los pies al contenido nocivo
En este sentido, la asombrosa presteza con la que se propagan los contenido potencialmente nocivos en las redes sociales podría tornar en ineficaces las políticas que forman parte de la DSA. «Existen dudas sobre si las nuevas regulaciones de la UE tendrán realmente un impacto en la contención del contenido potencialmente dañino», dice Rizoiu.
Para probar si tales dudas son o no infundadas, Rizoiu y Schneider han creado un modelo matemático para analizar cómo se disemina el contenido de naturaleza perniciosa en las redes sociales. Y se han apoyado en dos métricas para valorar la eficacia de las medidas de moderación de la DSA: el potencial dañino del contenido (cómo se hace viral) y la vida media de ese contenido (cuánto tiempo le lleva a un contenido en particular alcanzar su punto intermedio de vida).
De acuerdo con los investigadores, X, la red social anteriormente conocida como Twitter, es la plataforma en la que los contenidos nocivos tienen una vida media más corta, que se quedaría por debajo de los 30 minutos. Siguen a X Facebook, donde el contenido nocivo tiene una vida media de 100 minutos, Instagram (20 horas), LinkedIn (24 horas) y YouTube (8 días), tal y como recoge Fast Company.
Rizoiu y Schneider subrayan que atajar el contenido dañino es posible en plataformas como X, donde la información circula contenido con enorme celeridad. Su modelo sugiere que moderar contenidos perniciosos transcurridas 24 horas tras su publicación puede reducir su alcance en hasta un 50%.
Conviene además hacer hincapié en que un contenido nocivo, que ya es maligno de por sí, puede tener un impacto negativo aún mayor porque prende la mecha de un «proceso de autoexcitación» en virtud del cual si acontece un evento, aumenta automáticamente la probabilidad de que que tengan lugar eventos subsiguientes. «Un contenido dañino involucra a más personas en la discusión y se traduce a la larga en más contenido perjudicial», enfatizan Rizoiu y Schneider. Por lo tanto, sin las adecuadas políticas de moderación, «un contenido dañino de manera aislada puede generar más contenido perjudicial y contribuir a la postre a su crecimiento exponencial», apostillan.
De acuerdo con el modelo de Rizoiu y Schneider, cuando más nocivo es el contenido, mayor es el efecto de reducción, lo cual demuestra que la moderación rompe efectivamente el «ciclo del boca a boca», que lleva a un post a diseminarse por todas partes de manera exponencial.
La nueva DSA de la Unión Europea se revela, por ende, como potencialmente eficaz para atajar el contenido nocivo en las redes sociales. Y está inspirando ya soluciones creativas por parte de los gigantes 2.0 para mantener a raya el contenido perjudicial. Hace poco TikTok anunciaba, por ejemplo, nuevas medidas para poner más fácil a los usuarios radicados en Europa el reporte de contenido ilegal.
Comentarios recientes