Un número creciente de YouTubers informan de una tendencia inquietante: canales bien establecidos y de larga duración desaparecen de la plataforma de la noche a la mañana sin una explicación clara. Estas no son cuentas pequeñas ni nuevos creadores, son canales con años de cargas, cientos de miles de suscriptores y registros impecables de las pautas de la comunidad. Sin embargo, muchos de ellos se están despertando y descubren que sus canales han sido cancelados repentinamente o han sido golpeados con severas huelgas, todo bajo etiquetas vagas como “correo basura,”“prácticas engañosas” o “vinculado a cuentas maliciosas”. Lo que alarma aún más a los creadores es que estas sanciones parecen ser activadas por sistemas de moderación automatizados impulsados ​​por inteligencia artificial, no por revisión humana.Esta ola de eliminaciones repentinas ha provocado una preocupación generalizada en la comunidad de creadores. Canales como Enderman y varios en las categorías de tecnología y juegos fueron eliminados abruptamente, solo para ser restaurados más tarde después de una protesta pública masiva, lo que sugiere que las terminaciones originales fueron errores. A medida que los creadores comparan notas, está surgiendo un patrón: los sistemas automatizados señalan falsamente canales legítimos como dañinos y el proceso de apelación en sí a menudo se maneja mediante una mayor automatización. Con tantos medios de vida vinculados a YouTube, los creadores califican estos errores de IA como catastróficos, y algunos ahora instan a los creadores estadounidenses a involucrar a los legisladores para impulsar la supervisión regulatoria.

Por qué los creadores veteranos de YouTube dicen que las desapariciones repentinas apuntan a un problema mayor

En el centro del problema está la creciente dependencia de YouTube de la moderación de la IA para detectar violaciones de políticas, manejar denuncias a gran escala e incluso revisar apelaciones. Si bien la automatización ayuda a la plataforma a gestionar miles de millones de vídeos, los creadores argumentan que se ha vuelto demasiado agresiva y peligrosamente inexacta. Según se informa, la IA está vinculando canales a “malos actores” o detectando “comportamiento similar al spam” sin contexto, arrastrando a creadores inocentes en el proceso. Herramientas como vidIQ y varios YouTubers de alto perfil creen que estos falsos positivos son cada vez más frecuentes y dañinos.A la frustración se suma la falta de intervención humana oportuna. Muchos canales cancelados solo regresan después de que la comunidad los respalda, lo que resalta cuán dependientes son los creadores de la visibilidad y la presión pública en lugar de sistemas de revisión internos confiables. Como resultado, las voces de la industria advierten que el actual marco de moderación impulsado por la IA no sólo es defectuoso, sino que está desestabilizando la plataforma y poniendo en riesgo el sustento de los creadores.La repentina desaparición de canales de YouTube de larga data es más que un problema técnico: es un síntoma de una crisis de moderación más amplia alimentada por sistemas de inteligencia artificial demasiado asertivos y una supervisión humana inadecuada. A medida que los creadores presionan por la transparencia, la rendición de cuentas y la participación política, el debate sobre la futura estrategia de moderación de YouTube no hace más que intensificarse. Por ahora, una cosa está clara: la confianza en los sistemas de seguridad de la plataforma se está erosionando rápidamente.Lea también: ¿Quién es Clavicular? Dentro del controvertido streamer looksmaxxing detrás del escándalo de la inyección Kick

Fuente