Facebook lanzó su informe de cumplimiento de estándares comunitarios hoy por la mañana, que ofrece una visión mucho más profunda del funcionamiento interno de la compañía que lo que se había visto anteriormente.
Una de las ideas más sorprendentes provino de la eliminación de cuentas falsas en Facebook. La compañía dijo que eliminó 2,200 millones durante el primer trimestre de 2019. Eso es un salto de casi el doble en comparación con el cuarto trimestre de 2018, cuando se eliminaron 1,200 millones de cuentas.
Ese número parece astronómico, especialmente si se considera que Facebook dice que tiene 2,380 millones de usuarios activos mensuales en general. La razón por la que la red social puede presumir de la mayor cantidad de eliminaciones que tienen los usuarios activos es que generalmente encuentra y elimina cuentas falsas a los pocos minutos de haberse registrado. Como resultado, Facebook estima que solo el 5% de sus usuarios activos mensuales son falsos.
Sin embargo, este aumento en las cuentas de Facebook falsas es ciertamente alarmante. La empresa lo atribuye a un aumento en los ataques automatizados, lo que significa que más cuentas falsas están pasando de la detección inicial de la compañía, aunque el informe no ofreció más detalles. Como tal, la cifra de 2,200 millones no incluye las cuentas que no pudieron registrarse.
También hubo cuentas que no solo se marcaron como falsas, sino que también participaron en un “comportamiento abusivo”.
El discurso de odio está aumentando en Facebook, el sitio de redes sociales parece estar mejorando para atraparlo. El porcentaje de casos en los que Facebook detectó y eliminó este discurso antes de que lo informaran los usuarios ha aumentado en el último año, aunque todavía se encuentra en un 65% aproximadamente en el último trimestre.
Eso no es universal; sin embargo, cuando se trata de acoso y hostigamiento, la gran mayoría de los casos solo se eliminan después de que ya haya sido marcado por un usuario. Eso tampoco ha mejorado mucho, aunque los datos son limitados.
El CEO de Facebook, Mark Zuckerberg, junto con otros jefes de compañías de medios sociales, han dicho que planean aumentar la detección automática de violaciones. Al usar un algoritmo en lugar de esperar a que alguien reporte el contenido puede ser más fácil de eliminar antes de que alguien lo vea. Pero claramente hay mucho trabajo por hacer.
El informe es un paso en la dirección correcta para Facebook, no solo para reconocer la protesta de sus usuarios, sino también para evitar la amenaza de la regulación gubernamental.
Por Lisa Marie Segarra