Loading...

YOUTUBE VUELVE A MODERAR CONTENIDO CONTRA IA

La plataforma de vídeos YouTube ha vuelto a utilizar más moderadores humanos para analizar contenido dañino después de que los sistemas automáticos utilizados por la compañía eliminaran vídeos de la plataforma en exceso.

Entre los meses de abril y junio, YouTube eliminó más de 11,4 millones de vídeos por infringir las normas de la plataforma, una cifra bastante más elevada que la del mismo periodo el año anterior cuando retiró alrededor de nueve millones de vídeos.

Por esta razón, YouTube comenzó a dar a su sistema de Inteligencia Artificial (IA) una mayor autonomía para evitar que los usuarios de la plataforma vieran vídeos violentos, de odio u otros contenidos dañinos o de desinformación.

“Dependemos temporalmente más de la tecnología para ayudar con parte del trabajo que normalmente realizan los revisores humanos, lo que significa que estamos eliminando más contenido que puede no infringir nuestras políticas”, señaló YouTube en un comunicado.

Ahora el director de Productos de YouTube, Neal Mohan, ha afirmado en una entrevista al diario Financial Times que han recuperado al equipo de moderadores humanos, ya que a pesar de que la tecnología puede eliminar de forma rápida contenidos claramente dañinos, sus capacidades tienen límites.

En este sentido, los algoritmos pudieron identificar vídeos que podrían ser potencialmente dañinos, pero en varias ocasiones no fueron tan buenos a la hora de decidir qué debería eliminarse.

Mohan ha subrayado que más del 50% de los 11,4 millones de vídeos eliminados de la plataforma durante el segundo trimestre del año fueron retirados sin que un solo usuario real de YouTube los hubiera visto, mientras que más del 80% fueron retirados con menos de diez visionados.

Comentarios