La IA de Facebook para eliminar mensajes de odio en realidad no funciona, según sus ingenieros

Zuckerberg apostó por el uso de IA para moderación de contenido

18 octubre 2021 |

Documentos internos de Facebook revelarían que las herramientas para detectar contenido que vulnera las reglas son inadecuadas para semejante tarea.
Esto es importante porque, durante años, Mark Zuckerberg ha justificado el uso de algoritmos para luchar contra el contenido ilegal y abusivo en su plataforma; hasta el punto de que el CEO de Facebook llegó a asegurar antes del 2020 que su Inteligencia Artificial sería capaz de acabar con "la mayor parte del contenido problemático" en su plataforma. De esta manera, Facebook no contrata a tantos empleados humanos, y puede dejar la moderación de su plataforma en "automático".

En la práctica, estos algoritmos ignoran la mayor parte del contenido que vulnera las reglas de Facebook; y la compañía lo sabe, según documentos internos publicados por Wall Street Journal. Las cifras de la investigación interna no dejan bien parada a la IA, afirmando que eliminó publicaciones que generaron apenas entre el 3% y el 5% de mensajes de odio, y sólo el 0,6% de las publicaciones que vulneraron las reglas de violencia.

Son cifras que no tienen absolutamente nada que ver con las que la propia Facebook publica en sus informes; según el último, publicado en febrero para negar su implicación en el asalto al Capitolio de los EEUU, la "super eficiente" Inteligencia Artificial habría detectado y borrado el 97% de las publicaciones de odio, antes incluso de que ningún humano las haya detectado.

La diferencia no sorprende a los investigadores y organizaciones que han estudiado a Facebook, que durante mucho tiempo han advertido que las cifras de Facebook no encajan con las de estudios de terceros; pero también han denunciado las dificultades que Facebook pone para obtener ese tipo de datos, y la falta de transparencia sobre cómo llegó a sus conclusiones.

Facebook ha respondido a la publicación del Wall Street Journal, aclarando que esos son documentos viejos y no actualizados, y que demuestran que su trabajo es "un viaje de varios años".

Su defensa se ha centrado en que es "más importante" ver cómo los mensajes de odio, "por lo general", se están reduciendo en Facebook, más que en la eliminación de contenido de odio. Es por eso que cree que la métrica más "objetiva" es la prevalencia, ya que representa el contenido que se les ha 'escapado', y que se ha reducido en un 50% en los últimos tres trimestres según sus datos.

Por lo tanto, Facebook estaría aceptando tácitamente que no es capaz de eliminar el contenido de odio de su plataforma, pero que lo importante es que consigue que muy poca gente lo vea.

Esta no es la primera vez ni mucho menos que Facebook tiene que defenderse de sus propios estudios internos sólo en este mes; una exempleada de Facebook filtró documentos que demostrarían que Facebook no hace nada contra el contenido odioso porque le perjudicaría económicamente.

TE INTERESA