Según los datos proporcionados por YouTube, Google ha eliminado en tan solo tres meses 8,2 millones de vídeos de su portal para compartir vídeos. Al parecer, dicho trabajo habría sido realizado en un 80% por un sistema automático de inteligencia artificial.
Facebook, durante el primer trimestre de 2018, ha borrado de su plataforma cerca de 1,9 millones de publicaciones terroristas vinculadas a grupos como alQaeda o ISIS. Dicho contenido violento de la red social es detectado en su mayoría por herramientas de la propia plataforma y no por las denuncias de usuarios. El 99% del contenido eliminado ha sido borrado por los propios trabajadores de la compañía o por herramientas de detección.
Ambas compañías se han propuesto seriamente limpiar sus plataformas y ser más estrictos en la aplicación de sus condiciones de uso. YouTube ha puesto en marcha desde ya hace un tiempo un equipo de moderadores de confianza que marcan como inapropiados todos los vídeos detectados.
Por su parte la red social, explica que dispone de un equipo que actúa lo más rápido posible. En muchos de los casos el contenido pasa como máximo un minuto en la plataforma antes de ser eliminado. Esto se debe a que las publicaciones en Facebook tienen más impacto en el momento de la publicación que según avanza el tiempo.