La necesidad de YouTube de deshabilitar los comentarios resalta lo mal que está internet.

0
27

Los titulares de los últimos días han estado dominados por historias sobre contenido problemático en las plataformas principales y la difícil tarea de vigilarlos.

La noticia más reciente proviene de YouTube, que señaló que ahora está desactivado los comentarios de decenas de millones de videos con menores, en un esfuerzo por prevenir el comportamiento depredador en la sección de comentarios de estos clips.

No es la primera vez que YouTube ha tenido que lidiar con usuarios que sexualizan niños en su plataforma; como señala The Verge, la compañía ha estado abordando estas cuestiones desde al menos 2013. Es un gran paso para un servicio cuyas comunidades de espectadores de todo el mundo interactúan principalmente entre sí a través de comentarios.

Es trágico que la compañía haya tenido que recurrir a esta medida drástica, a pesar de tener los medios para desplegar inteligencia artificial y miles de moderadores de contenido humano para hacer frente a los contenidos infractores. Pero ese es el mundo en el que vivimos ahora, y es por eso que no podemos tener cosas buenas en Internet, al menos por el momento.

Hemos visto a las personas usar indebidamente las plataformas en línea durante décadas, por lo que este no es un problema nuevo en . Sin embargo, ahora tenemos expectativas mucho más altas de higiene y seguridad con respecto a estos servicios, y la tecnología no ha respondido a esas necesidades. En el caso de YouTube, ayudó a la compañía a purgar su sitio de cientos de miles de videos extremistas más rápido de lo que podía con un equipo de revisores humanos de tamaño razonable, pero estos sistemas aparentemente no pueden seguir el ritmo de los comentaristas sórdidos.

¿Debemos culpar directamente a las empresas de tecnología? Creo que las compañías deberían hacer más para garantizar que sus servicios sean seguros de usar a medida que se amplían, y deberían ser responsables de las infracciones de las políticas y los daños que enfrentan los usuarios como resultado de su falta de cumplimiento de dichas políticas. Al mismo tiempo, es importante permanecer consciente de cuán grande es el desafío. Para referenciaYouTube entrega mil millones de horas de video por día, y unos 1,9 mil millones de usuarios con cuentas inician sesión cada mes.

Lo mejor para YouTube es sanear sus plataformas lo mejor posible. Podría argumentar que ser negligente respecto a los comentarios policiales y permitir que los presuntos pedófilos se desaten podría ser bueno para los negocios, pero piense en todo el dinero que puede ganar de millones de personas que miran sus videos en lugar de sintonizar los canales de cable. Principalmente videos que la empresa no tenía que gastar dinero para producir.

Sí, podría poner a más personas a trabajar en la moderación de comentarios y videos. Pero tampoco es una buena opción, como hemos aprendido en varias historias que relatan las difíciles vidas de los moderadores de contenido contratados desde 2014. El rastreo de publicaciones problemáticas ha causado traumas mentales a muchos de estos trabajadores y ha llevado a varios de ellos a renunciar a esos roles de baja remuneración en cuestión de meses. El propio YouTube limitaba a sus trabajadores a cuatro horas al día. Ese es un trabajo que probablemente no desea, por lo que no es justo exigir que muchas más personas tengan la tarea de hacer esto.

En última instancia, la inteligencia artificial debe mejorar mucho al marcar el contenido y las interacciones violatorias en dichas plataformas; al mismo tiempo, las empresas deben aplicar sus políticas de manera más estricta para mantener alejados a los malos actores. Hasta entonces, tal vez sean necesarios movimientos como la inhabilitación de los comentarios, ya que estamos seguros de que no podemos actuar como seres humanos decentes en línea.