La red social reveló por primera vez datos numéricos sobre contenido removido por violar sus normas comunitarias en seis áreas: violencia gráfica, desnudez de adultos y pornografía, propaganda extremista, discurso de odio, spam y cuentas falsas. La forma en que la empresa fundada por Mark Zuckerberg lleva adelante este trabajo es mediante tecnologías basadas en aprendizaje automático (machine learning), pero también con equipos de moderadores que revisan los contenidos que circulan por la red social.
“Puede ser que un contenido cuente con muchas visualizaciones pero tenga un nivel de severidad bajo, mientras que hay otros que son vistos pocas veces pero tienen una severidad alta”, ejemplificó sobre la dinámica de trabajo Alex Schultz, vicepresidente de Analítica de Datos de Facebook.
El directivo brindó estas declaraciones desde la sede de la red social ubicada en California, donde también estaba Guy Rosen, vicepresidente de Producto de Facebook.
Para desarrollar la tarea de revisión de contenidos, Schultz indicó que otra técnica que utilizan es priorizarlos con la variable del “aquí y ahora”; por ejemplo, cuántas veces fue vista una determinada pieza en la última hora. Los resultados de esta tarea que lleva adelante la red social, que desde hace dos meses rinde cuentas por la privacidad de sus más de 2 mil millones de usuarios a raíz del conflicto que atraviesa junto a Cambridge Analytica, son los que publicó por primera vez en su Informe de Transparencia. Entre las cifras más significantes está la de cuentas falsas, porque es una “acción clave para combatir el spam”, explicó Schultz.