Publicidad
Un nuevo peligro en el uso de la IA: slop o contenido basura Opinión

Un nuevo peligro en el uso de la IA: slop o contenido basura

Publicidad
Cristián Villegas
Por : Cristián Villegas Director Instituto de Educación y Lenguaje Universidad de Las Américas
Ver Más

Si bien el slop existe antes de la masificación de la IA, específicamente desde el 2023, en la actualidad ha alcanzado un nivel nunca visto debido a que la inteligencia artificial permite elaborar contenidos “humanizados” con una velocidad abismante.


En momentos en que se están explorando las grandes ventajas de la inteligencia artificial (IA) en distintos campos, también han ido apareciendo nuevos retos, dentro de ellos, el slop. Esto es la producción de contenido de baja calidad, totalmente automatizado, sin la interacción humana y que poco a poco va acrecentando su presencia en la red como material duplicado, spam, clickbait (titular llamativo para que una persona haga click normalmente ligado a publicidad), fake news, e incluso, comentarios falsos en foros y redes sociales. Son contenidos que no tienen valor y dañan la confianza de las personas en torno a la información.

Si bien el slop existe antes de la masificación de la IA, específicamente desde el 2023, en la actualidad ha alcanzado un nivel nunca visto debido a que la inteligencia artificial permite elaborar contenidos “humanizados” con una velocidad abismante. Cabe preguntarse entonces: ¿qué motiva a las personas a producir estos tópicos? Las razones, en general, son económicas, debido a que muchos sitios web dependen de las visitas y los clics que se generen en ellas por la publicidad.

Asimismo, hay plataformas online que no tienen filtros de entrada para publicar o comentar, y las que tienen son muy débiles, dando paso a que personas intencionalmente creen noticias falsas para desinformar o manipular la opinión pública. El slop siempre será nocivo ya que su foco es la desinformación y la saturación de información no comprobada con errores.

En educación, el slop dificulta que las comunidades accedan a contenidos relevantes y confiables a través de la red, además, provoca dudas en las interacciones online pudiendo desconfiar, por ejemplo, de comentarios o la validez de reseñas, las cuales pueden estar realizadas por chatbot.

Sin embargo, es posible combatir estos peligros, por ejemplo, gracias a la alfabetización digital se puede hacer una evaluación crítica de la información, reconocer el contenido automatizado y aplicar el pensamiento crítico. A esto también hay que sumarle la educación ética en torno la gestión de la IA, que previene los usos maliciosos, fomentando así la autenticidad y creatividad en la producción académica. Obviamente el rol estatal también es importante al proponer políticas reguladoras de inteligencia artificial, particularmente del tipo de bot que generan estos contenidos automatizados sin valor.

El uso de las potencialidades de la IA depende de cada persona, pero evitar los peligros y desafíos actuales también, por lo cual el apoyo del sistema educativo para desarrollar las habilidades requeridas en la prevención y preparación personal para subsanar y evitar no caer en ellos, resulta clave.

  • El contenido vertido en esta columna de opinión es de exclusiva responsabilidad de su autor, y no refleja necesariamente la línea editorial ni postura de El Mostrador.
Publicidad

Tendencias