YouTube ha implementado una nueva herramienta que solicita a usuarios seleccionados evaluar si ciertos vídeos «parecen AI slop», es decir, contenido de baja calidad creado mediante inteligencia artificial. Esta encuesta presenta el vídeo, su título y miniatura, pidiendo directamente a los usuarios su percepción sobre si el material parece ser «IA basura» o de «baja calidad», con opciones de respuesta que varían de «nada» a «extremadamente». Aunque no se ha especificado el impacto exacto de esta evaluación en el vídeo, canal o recomendaciones, deja entrever la dirección que YouTube está tomando.
Enfoque contra el ‘AI slop’
En su comunicado anual, el CEO Neal Mohan reconoció el crecimiento del denominado ‘AI slop’ y aseguró que la plataforma está fortaleciendo sus medidas contra el spam y el clickbait para disminuir la difusión de contenido repetitivo y de baja calidad generado con IA. Este enfoque no busca prohibir la inteligencia artificial, sino distinguir entre su uso creativo y la producción industrial de vídeos de baja calidad.
Equilibrio en la implementación de IA
Es relevante destacar que, al mismo tiempo, YouTube está promocionando diversas herramientas basadas en IA dentro de su ecosistema. Entre estas se incluyen funciones como Ask y doblaje automático, que en diciembre ya atraían a más de 6 millones de espectadores diarios con al menos diez minutos de visualización, mientras introduce nuevas salvaguardas contra falsificaciones. Recientemente, la plataforma extendió un piloto a periodistas, funcionarios públicos y candidatos para identificar vídeos generados por IA que suplantan su identidad y permitirles solicitar su eliminación en caso de infringir las normas.
Regulación de contenido
En julio de 2025, YouTube modificó su política de «contenido repetitivo» a «contenido inauténtico» y especificó que el material repetitivo o producido en masa no puede ser monetizado. Sus directrices subrayan que el contenido debe ser original, no masivo y no repetitivo a gran escala con plantillas prácticamente idénticas. Esta medida responde a un problema creciente, ya que un informe citado por The Guardian estimó que más del 20% de los vídeos recomendados a nuevos usuarios por el algoritmo eran ‘AI slop’ a finales de 2025. YouTube ha tomado medidas enérgicas al eliminar varios canales prominentes por violar sus políticas contra el spam, el engaño y las estafas.
Implicaciones en el panorama digital
La incursión de YouTube en la identificación y regulación del contenido generado por IA marca un hito significativo en la evolución de la plataforma y en la forma en que se aborda el fenómeno del ‘AI slop’. A medida que avanza la integración de la inteligencia artificial en el marketing digital, es fundamental encontrar un equilibrio entre la innovación tecnológica y la calidad del contenido ofrecido a los usuarios. El futuro de la inteligencia artificial en las empresas dependerá en gran medida de la capacidad de las plataformas para adaptarse y regular de manera efectiva el uso de esta tecnología.
Fuente: as.com
