YouTube aloja una gran cantidad de videos, atractivos para una amplia gama de audiencias, pero a veces los videos pueden ser demasiado accesibles. Las animaciones para adultos como "Happy Tree Friends" o "Don't Hug Me I'm Scared" pueden atraer a los niños con sus colores brillantes o títeres tipo Muppet, a pesar de que no son apropiados para los niños. Pero, parece que la plataforma para compartir videos podría abordar las quejas con una versión actualizada de la aplicación YouTube Kids que sería monitoreada por humanos reales, según un informe de BuzzFeed News. La solicitud de Romper de comentarios de YouTube sobre los informes de la actualización no fue respondida de inmediato.
La idea es que esta nueva aplicación coexistiría junto con YouTube Kids, el intento original de la compañía de utilizar un algoritmo para filtrar el contenido accesible para los niños, según BuzzFeed News. El medio de noticias informó que les dará a los padres la opción de desactivar los videos sugeridos algorítmicamente. En cambio, los niños no tendrían acceso a ningún video que no haya sido proyectado por un humano de carne y hueso. Que tiene sentido; Los algoritmos pueden ser geniales, pero es un programa de computadora y solo se puede codificar para leer y marcar durante tanto tiempo.
La aplicación YouTube Kids funciona para bloquear los buscadores básicos de videos inadecuados; la búsqueda de contenido explícito no arrojará ningún resultado. Además, los padres tenían la opción de eliminar el botón de búsqueda en su totalidad, dejando solo videos preseleccionados disponibles. Pero las preocupaciones sobre los videos que YouTube Kids sugirió a los niños han existido por algún tiempo, como informó Tech Radar. Aunque YouTube Kids es un intento decente para tratar de filtrar información dañina, ha habido casos de la aplicación que supuestamente sugiere videos de conspiración para niños, según informó Business Insider.
Otros videos incluyeron afirmaciones de que el mundo es plano, que el alunizaje fue falso y que el planeta estaba gobernado por híbridos reptil-humanos, según Business Insider. Pero YouTube Kids ha estado experimentando problemas peores que las teorías de conspiración desde su creación en 2015. Menos de dos meses después del lanzamiento de la aplicación, en mayo de 2015, la Campaña por una Infancia sin comerciales, una coalición de grupos de defensa de niños y consumidores, se quejó a la Comisión Federal de Comercio (FTC). Sus preocupaciones incluían contenido que el grupo llamó "no solo … molesto para que lo vean los niños pequeños, sino potencialmente dañino".
Mediante el uso de personajes de dibujos animados populares, como Spiderman y Elsa, los YouTubers pudieron atraer a los niños a videos ofensivos. Según Polygon, los videos comenzaron de manera normal, pero pronto mostraron princesas, superhéroes y otros favoritos que participaban en actos lascivos o violentos. Debido a que un sistema basado en algoritmos no escanea todo el video, los YouTubers pudieron eludir el sistema mediante el uso de nombres de video y miniaturas que el algoritmo lee como seguros para los niños.
Otros temas que el informe enumera, según lo informado por Polygon, incluyen: lenguaje sexual explícito presentado en medio de animación de dibujos animados, una parodia profana de la película Casino con Bert y Ernie de Sesame Street, discusiones gráficas para adultos sobre violencia familiar, pornografía y suicidio infantil, bromea sobre la pedofilia y el uso de drogas, y sobre modelos de conductas inseguras.
Aquí es donde intervendría la aplicación informada. En lugar de depender de algoritmos fáciles de engañar, todo el contenido tendría que filtrarse a través de humanos reales. Según los informes, la fuente le dijo a BuzzFeed News que la opción de la aplicación en la lista blanca podría lanzarse en las próximas semanas. Según BuzzFeed News, YouTube no negó los planes para la aplicación, pero supuestamente declaró: "Siempre estamos trabajando para actualizar y mejorar a los niños de YouTube, sin embargo, no comentamos sobre rumores o especulaciones".
Matt Cardy / Getty Images Noticias / Getty ImagesPero la directora ejecutiva de YouTube, Susan Wojcicki, dijo que la compañía está expandiendo su cuerpo de moderación a más de 10, 000 contratistas en 2018, según Polygon, y que se centrarían en contenido que podría violar las políticas de YouTube. "Los revisores humanos siguen siendo esenciales tanto para eliminar el contenido como para entrenar los sistemas de aprendizaje automático porque el juicio humano es fundamental para tomar decisiones contextualizadas sobre el contenido", escribió en una publicación de blog de diciembre de 2017.
La siguiente declaración fue lanzada por YouTube en ese momento a Polygon:
El contenido que engaña o pone en peligro a los niños es inaceptable para nosotros. Tenemos políticas claras contra estos videos y los aplicamos agresivamente. Utilizamos una combinación de aprendizaje automático, algoritmos y marcas comunitarias para determinar el contenido en la aplicación YouTube Kids. El equipo de YouTube está compuesto por padres que se preocupan profundamente por esto y se comprometen a mejorar la aplicación todos los días.
Aunque YouTube aún no ha confirmado el desarrollo de esta nueva aplicación, parece que mantendrá las políticas y estándares de la compañía. Con suerte, YouTube continuará respondiendo a los problemas relacionados con YouTube Kids, para que los padres puedan confiar en que a sus hijos no se les presentará contenido problemático en una aplicación comercializada para niños.