
La necesidad de una regulación democrática de los contenidos en las redes sociales
La ausencia de regulación normativa específica sobre moderación y control de contenidos en las redes sociodigitales ha propiciado un escenario idóneo para el florecimiento de la autorregulación por parte de las propias plataformas.
¿Qué ocurriría si un medio de comunicación social decidiera evitar difundir “contenido político” en sus productos periodísticos, secciones y programas? Supongamos por un momento que los grandes conglomerados televisivos, de prensa escrita y radiales proponen que nunca más se emita un programa, redacte un reportaje o exista un segmento relativo a situaciones que involucren al gobierno, partidos políticos, movimientos sociales o demandas de la ciudadanía, pues editorialmente consideran que sus audiencias ya no están interesadas en consumir dicho contenido, sino otro.
Si ello ocurriera, existiría a lo menos cierto debate sobre los motivos por los cuales se ha tomado dicha determinación. Algunos dirían que es irrelevante, porque “a la gente ya no le gusta ver, leer o escuchar asuntos relacionados con la política”. Otros plantearían que se trata de un verdadero atentado contra la libertad de expresión, pues, de alguna manera, se estaría ejerciendo un control de censura previa sobre lo que se exhibe o publica, cuestión que pugnaría con la democracia y el pluralismo (más todavía si una decisión de esta naturaleza fuera tomada por el Estado y no por privados).
Pues bien, para su sorpresa –o quizás no– esto ya está sucediendo en el plano sociodigital, sin que se haya generado ninguna de las reacciones descritas.
El 9 de febrero de 2024, la red social Instagram informó a sus usuarios sobre una “Actualización sobre cómo abordamos el contenido político en Instagram y Threads“, que concretamente, y en sus propios términos, implica que “no recomendará proactivamente contenido sobre política“. En concreto, esta decisión implica que el sistema de sugerencias de contenido de la aplicación (regido por una serie de algoritmos que se nutren desde la experiencia del usuario en base, principalmente, a sus interacciones al interior de la plataforma) se ajustará a lo dispuesto por las “Normas de recomendaciones”, evitando que los señalados contenidos aparezcan en distintas secciones (feed, historias, búsquedas, reels, “Explorar”), entregando a los usuarios la alternativa para determinar si desean seguir recibiendo recomendaciones sobre esos asuntos o no.
La ausencia de regulación normativa específica sobre moderación y control de contenidos en las redes sociodigitales ha propiciado un escenario idóneo para el florecimiento de la autorregulación por parte de las propias plataformas. En otras palabras, son las aplicaciones las que han asumido la responsabilidad de normar su propia actividad, lo que resulta particularmente delicado en el ámbito del análisis de contenidos. Esta situación implica que las plataformas tienen el poder de decidir qué contenidos son considerados aceptables y cuáles deben ser restringidos, sin que ello sea necesariamente coherente con el sistema normativo nacional y ni supervisado o fiscalizado por alguna institución del Estado.
Por su parte, las eventuales infracciones que se puedan cometer a las normas comunitarias propuestas por las plataformas, y que puedan derivar en un conflicto de relevancia jurídica, son conocidas y resueltas también por ellas mismas (a través de sistemas automatizados preventivos y reactivos, o de revisión de terceros), cuestión que además pugna con la competencia que los tribunales de justicia puedan tener sobre estos asuntos.
Así, por ejemplo, la empresa “Meta” (que sostiene WhatsApp, Instagram y Facebook) creó en 2020 un organismo denominado “Oversight Board”, que justamente toma decisiones en materia de moderación de contenidos: cuando los usuarios(as) ya han agotado las vías “internas” de denuncia o reclamo respecto de algún contenido que ha sido eliminado, este organismo determina la pertinencia o no de las decisiones tomadas de manera previa, constituyendo una verdadera forma de “autogobierno de plataforma”. De esta forma, estamos frente a un verdadero círculo perfecto de autorregulación: la aplicación decide qué y cómo regular, qué contenidos son aceptados y cuáles no, y cómo decidir frente a posibles infracciones de sus propias normas.
Ello naturalmente impacta en la definición de los contornos del espacio público digital, lugar que hoy constituye una verdadera redefinición teórica de la clásica teoría de la esfera pública desarrollada por Jürgen Habermas en la década de los 80: aquel espacio social donde los ciudadanos se reúnen para discutir asuntos de interés común y participar en debates públicos sobre política, cultura y otros temas relevantes para la sociedad.
Por su parte, trae también consecuencias en la determinación de los límites del ejercicio de la libertad de expresión, tanto en su dimensión privada (la posibilidad de emitir opinión) como social (el derecho a recibir información), labor que ha estado histórica y normativamente restringida a las leyes que regulan la materia, no a agentes privados que, desarrollando una actividad económica, se desenvuelven en el espacio comunicacional.
En vista del rol de mayor trascendencia e impacto que las redes sociodigitales tienen hoy en día en la formación de la opinión pública, incluso superior al de los medios de comunicación tradicionales, resulta imperativo que sus decisiones normativas sean sometidas al escrutinio público, estableciendo mecanismos para su análisis y debate. Es fundamental y urgente que el Estado y la sociedad civil, ya sea a través de medidas normativas o institucionales, puedan tener un rol activo en la regulación de la moderación de contenidos digitales.
- El contenido vertido en esta columna de opinión es de exclusiva responsabilidad de su autor, y no refleja necesariamente la línea editorial ni postura de El Mostrador.