YouTube relega a las máquinas y recupera a los moderadores humanos para filtrar el contenido dañino

La compañía ha anunciado que volverá a utilizar más moderadores humanos para analizar el “contenido dañino”.
La compañía ha anunciado que volverá a utilizar más moderadores humanos para analizar el “contenido dañino”.Rachit Tank / Rachit Tank

YouTube volverá a priorizar a los moderadores humanos para filtrar el contenido dañino. La plataforma, en la que se suben cada minuto más de 500 horas de vídeo, implementó con el estallido de la pandemia de coronavirus unas medidas sanitarias que llevaron a sustituir e de los trabajadores encargados de la supervisión por máquinas. Sin embargo, ahora revertirá esa situación tras constatar que los sistemas automatizados eliminan vídeos “en exceso” por “falta de criterio”, según ha explicado la filial de Alphabet en un comunicado.

Con menos personal en sus oficinas, YouTube había optado por reforzar su sistema de Inteligencia Artificial y darle mayor autonomía. Esta medida supuso que entre abril y junio, sus sistemas eliminaran más de 11 millones de videos que supuestamente infringían las normas de la plataforma. Los datos compartidos por YouTube revelan que en el segundo trimestre del 2020, la compañía eliminó cinco millones de videos más que en el primer trimestre de este año y tres millones más que en el mismo periodo pero del año anterior.

“Aún utilizamos máquinas y lo seguiremos haciendo cuando sean útiles. Lo que ha sucedido ahora es que, por la pandemia y con el fin de proteger a nuestro personal, optamos por depender más de los sistemas automatizados y esto ocasionó que fueran bloqueados más videos de lo normal”, aclaran fuentes de YouTube a EL PAÍS vía correo electrónico. Por esa razón, la plataforma ha decidido reintegrar al equipo a los moderadores humanos para que trabajen con los sistemas automatizados.

Cuestión de criterio

YouTube, que cuenta con más de 2.000 millones de usuarios activos al mes, pretende evitar que las personas consuman vídeos violentos, racistas, que inciten el odio o que promuevan la desinformación. La plataforma presume de la velocidad con la que sus sistemas automáticos logran analizar el contenido dañino y suprimirlo. Por ejemplo, según el último informe de transparencia de la plataforma, más del 40% de los 11 millones de vídeos eliminados entre abril y junio, fueron retirados de la plataforma sin que un solo usuario real los viera y más del 80% fueron retirados con menos de diez vistas.

Sin embargo, esa velocidad lleva en ocasiones a sacrificar contenido que no infringe las normas, y que por sus características necesita del criterio humano para ser aprobado. El director de Productos de YouTube, Neal Mohan, ha explicado al diario Financial Times que hay ciertos videos que exigen “decisiones más matizadas” para su aprobación o eliminación, sobre todo cuando tratan de temas como el discurso del odio y acoso. El sistema de Inteligencia Artificial acierta al identificar vídeos “potencialmente dañinos”, pero falla en el momento de decidir qué debería eliminarse, qué no y porqué.

Para Manuel Moreno, consultor de redes sociales y director de TreceBits, el caso de YouTube prueba que por mucho que la tecnología pueda ayudar a controlar la difusión de contenidos ilícitos, hay aspectos en los que la supervisión humana es fundamental. «Tanto YouTube como otras redes acuden a supervisores humanos, formados para tal fin, que son capaces de optimizar esa depuración realizada por máquinas. Su trabajo es necesario, por mucho que se vayan optimizando las inteligencias artificiales y aprendan con el uso”, dice Moreno a EL PAÍS vía telefónica.

Elecciones y pandemia

Esta medida de YouTube se suma a otras adoptadas por las grandes plataformas para frenar la desinformación en las próximas elecciones de Estados Unidos y durante la pandemia por el coronavirus. Twitter, por ejemplo, ha hecho cambios en su plataforma desde febrero. Hace unas semanas actualizó sus políticas para proteger la conversación cívica y ahora “etiquetará o eliminará la información errónea que tenga como objetivo socavar la confianza en las elecciones” y también ha eliminado o etiquetado múltiples tuits de usuarios que difunden información falsa sobre el coronavirus. Facebook e Instagram también anunciaron una medida similar: alertarán a sus usuarios sobre las publicaciones de los candidatos que “declaren la victoria prematuramente” o que “intenten poner en duda el resultado de las elecciones”.

Las compañías tecnológicas han extremado el cuidado de sus políticas de moderación y buscan blindarse de la desinformación, noticias falsas, discursos violentos y cualquier tipo de filtraciones que puedan repetir un escenario como el de 2016, cuando, según las agencias de inteligencia estadounidenses, Rusia utilizó las redes sociales para interferir en las elecciones presidenciales que llevaron al poder a Donald Trump.

Puedes seguir a EL PAÍS TECNOLOGÍA RETINA en Facebook, Twitter, Instagram o suscribirte aquí a nuestra Newsletter.

Compartir

Deja un comentario

A %d blogueros les gusta esto: