TECNOLOGÍA
Facebook confirmó que usa inteligencia artificial para identificar y eliminar publicaciones que inciten odio y violencia
Facebook eliminó casi 6,7 millones de piezas de contenido de odio organizado de sus plataformas desde octubre hasta diciembre de 2020.
Facebook confirmó que usa inteligencia artificial para identificar y eliminar publicaciones que contienen incitación al odio y violencia, pero la tecnología realmente no funciona, según documentos internos revisados por el Wall Street Journal.
Los ingenieros superiores de Facebook dicen que el sistema automatizado de la compañía solo eliminó las publicaciones que generaron solo el 2% del discurso de odio visto en la plataforma que violaba sus reglas, informó el Journal el domingo.
Otro grupo de empleados de Facebook llegó a una conclusión similar, diciendo que la IA de Facebook solo eliminó las publicaciones que generaban entre el 3% y el 5% del discurso de odio en la plataforma y el 0,6% del contenido que violaba las reglas de Facebook sobre violencia.
El informe del domingo del Journal fue el último capítulo de sus “Archivos de Facebook” que descubrió que la compañía hace la vista gorda ante su impacto en todo, desde la salud mental de las niñas que usan Instagram hasta la desinformación, la trata de personas y la violencia de pandillas en el sitio. La compañía ha calificado los informes de “caracterizaciones erróneas”.
El director ejecutivo de Facebook, Mark Zuckerberg, dijo que creía que la inteligencia artificial de Facebook podría eliminar “la gran mayoría del contenido problemático” antes de 2020, según el Journal. Facebook defiende su afirmación de que la mayor parte del discurso de odio y el contenido violento de la plataforma son eliminados por su IA “supereficiente” antes de que los usuarios lo vean.
El informe de Facebook de febrero de este año afirmó que esta tasa de detección estaba por encima del 97%.
Los últimos hallazgos en el Journal también se producen después de que la ex empleada de Facebook y denunciante Frances Haugen se reuniera con el Congreso la semana pasada para discutir cómo la plataforma de redes sociales dependía demasiado de la inteligencia artificial y los algoritmos.
Debido a que Facebook usa algoritmos para decidir qué contenido mostrar a sus usuarios, el contenido con el que está más involucrado y que Facebook posteriormente intenta empujar a sus usuarios suele ser publicaciones enojadas, divisivas y sensacionalistas que contienen información errónea, dijo Haugen.
“Deberíamos tener un software a escala humana, donde los humanos tengan conversaciones juntos, no computadoras que faciliten de quién podemos escuchar”, dijo Haugen durante la audiencia.
Los algoritmos de Facebook a veces pueden tener problemas para determinar qué es discurso de odio y qué es violencia, lo que lleva a que se dejen videos y publicaciones dañinos en la plataforma durante demasiado tiempo.
Facebook eliminó casi 6,7 millones de piezas de contenido de odio organizado de sus plataformas desde octubre hasta diciembre de 2020. Algunas publicaciones eliminadas involucraban venta de órganos, pornografía y violencia con armas de fuego, según un informe del Journal.
Sin embargo, parte del contenido que sus sistemas pueden pasar por alto incluyen videos violentos y publicaciones de reclutamiento compartidas por personas involucradas en la violencia de pandillas, la trata de personas y los cárteles de la droga.