Los esfuerzos de Facebook para desplegar IA para combatir el discurso de odio están avanzando, pero un informe de derechos civiles publicado la semana pasada fue crítico con la compañía. (IMÁGENES FALSAS)

Por John P. Desmond, Editor de Tendencias AI

Los esfuerzos de Facebook para desplegar IA para identificar el discurso de odio y otros contenidos ofensivos se acreditan por progresar, pero un informe crítico publicado la semana pasada por auditores independientes sobre el estado de los derechos civiles en Facebook destacó la tensión entre la libertad de expresión y el discurso de odio en las redes sociales es enorme.

La auditoría fue realizada por Facebook a instancias de los líderes de derechos civiles, en medio de un creciente boicot de anunciantes para la plataforma llamada Stop Hate for Profit. Ese esfuerzo es liderado por organizaciones de derechos civiles, incluidas la NAACP, la Liga Antidifamación y Color of Change. Más de 500 empresas se inscribieron cuando se anunció el boicot el 1 de julio.

El informe desafió a Facebook a hacer más para resolver el conflicto entre sus promesas de derechos civiles y su compromiso inquebrantable con la libertad de expresión, según un informe en Vox. «Para una compañía estadounidense del siglo XXI y para Facebook, una compañía de redes sociales que tiene un impacto tan grande en nuestra vida diaria, la falta de claridad sobre la relación entre estos dos valores es devastadora», dijo la auditora principal Laura W. Murphy al presentar el reporte. «Se necesitará una compensación dura, pero ese tipo de compensación de derechos e intereses ha sido parte del diálogo estadounidense desde su inicio, y no hay ninguna razón por la cual Facebook no pueda armonizar esos valores si realmente quiere».

Laura Murphy, auditora principal de las prácticas de derechos civiles de Facebook

Con la publicación de este informe, Facebook anunció que está creando un vicepresidente senior para el papel de un líder de derechos civiles. El grupo Stop Hate for Profit se reunió con el CEO de Facebook, Mark Zuckerberg, el 7 de julio; en un declaración Después de que se expresó la reunión, el grupo estaba decepcionado de que Facebook no había prometido llevar los derechos civiles al nivel de la suite C y no había respondido a sus otras nueve recomendaciones.

La agresión de Facebook para eliminar la información errónea COVID-19 es una trampa-22

Como parte de su respuesta COVID-19, Facebook ha sido agresivo en la eliminación de información errónea, lo que resulta en un Catch-22. El informe declaró: «Facebook no tiene reparos en frenar el discurso de los defensores del movimiento contra la vacunación, o limitar la información errónea sobre COVID-19, pero cuando se trata de votar, Facebook es demasiado reacio a tomar medidas estrictas. adoptar reglas para limitar la desinformación y la represión de los votantes «.

Mientras tanto, la IA se usa ampliamente en Facebook para combatir el discurso de odio. La compañía informó que a partir de marzo, las herramientas de inteligencia artificial ayudaron a eliminar el 89% del lenguaje odioso de la plataforma antes de que los usuarios lo informaran, en comparación con el 65% del año anterior, según una cuenta en WSJPro.

Yann LeCun, jefe de IA de Facebook, declaró en una entrevista en marzo que está desarrollando una IA autodirigida que puede ayudar a los revisores humanos, incluso en varios idiomas. «Las máquinas de hoy no tienen sentido común», dijo. «Tienen una función muy limitada y estrecha».

Facebook formó un equipo de organizaciones peligrosas para centrarse en terroristas y otros grupos de odio organizados, luego del ataque en vivo el 15 de marzo de 2019 en Christchurch, Nueva Zelanda. La unidad emplea a 350 personas, está dirigida por expertos en lucha contra el terrorismo y utiliza una combinación de evaluación manual y herramientas automatizadas. Ha sido un desafío reenfocar esos instrumentos hacia los supremacistas blancos, que están más fragmentados y cuyo discurso puede superponerse con el discurso político de derecha.

La dinámica hace que las evaluaciones de las mudanzas sean mucho más difíciles de lograr y mucho más difíciles de lograr en tiempo real. Ese es el desafío al que se enfrentan las empresas «, dijo Nicholas Rasmussen, Director Ejecutivo del Foro Global de Internet para Luchar contra el Terrorismo, una asociación entre gobiernos y empresas de tecnología, incluido Facebook, Gorjeo C ª. y Microsoft Corp.

El asesinato de George Floyd bajo custodia policial en mayo de 2020 ha provocado un diálogo nacional sobre la raza y más críticas al enfoque de Facebook para la moderación de contenido. «Hemos progresado realmente a lo largo de los años», dijo la directora de operaciones Sheryl Sandberg en una reciente publicación de blog que respondió a la auditoría de derechos civiles. «Pero este trabajo nunca termina y sabemos qué gran responsabilidad tiene Facebook para mejorar y encontrar y eliminar contenido odioso».

La tecnología de Facebook está mejorando para encontrar y eliminar el discurso de odio

Facebook recurrió a AI para ayudar a deshacerse de la información errónea sobre COVID-19 y las empresas rentables que considera inapropiadas, incluidas máscaras faciales y anuncios de desinfectante para manos. La compañía publicó etiquetas de advertencia en 50 millones de mensajes de posible desinformación alrededor de COVID-19 en abril, y desde marzo, ha eliminado 2.5 millones de piezas de contenido que violan las reglas que rodean la venta de equipos de protección personal o kits de prueba de coronavirus, de acuerdo a una cuenta Fortuna.

El sistema encuentra y elimina más discurso de odio: se eliminaron 9.6 millones de piezas de contenido en los primeros tres meses de 2020, 3.9 millones más que en los tres meses anteriores, informó la compañía. Mike Schroepfer, director de tecnología de Facebook, atribuyó el aumento al hecho de que la compañía mejoró en la búsqueda de contenido odioso. «Creo que esto se debe claramente al progreso tecnológico», dijo.

Mike Schroepfer, Director de Tecnología, Facebook

La compañía ha desarrollado un sistema llamado XLM-R que se entrenó en dos terabytes de datos, aproximadamente el equivalente de todas las palabras en medio millón de libros de 300 páginas. Ha aprendido un mapa estadístico de esas palabras en varios idiomas. La esperanza es que las similitudes entre el lenguaje odioso en cualquier idioma ayudarán a identificarlo.

El CEO Zuckerberg ha prometido que el aprendizaje automático y la inteligencia artificial permitirán a la compañía luchar contra la propagación del discurso de odio, la propaganda terrorista y la desinformación política en sus plataformas. «No somos ingenuos», dice Schroepfer. «La IA no es la solución para cada problema, y ​​creemos que los humanos serán conscientes en un futuro cercano».

El propósito de XLM-R y sistemas similares es hacer que el trabajo de los moderadores de contenido humano sea más fácil y menos repetitivo. El trabajo ha cambiado con la aparición de medidas de distancia social para combatir la propagación del coronavirus, y muchos de los moderadores que son contratistas ahora trabajan de forma remota.

«Queremos que la gente tome las decisiones finales, especialmente si la situación está matizada», dice Schroepfer. «Pero queremos brindar a las personas con las que trabajamos herramientas eléctricas todos los días».

Para otro sistema para combatir el lenguaje de odio, Facebook creó un conjunto de datos de 10,000 memes que se determinó que formaban parte de campañas de odio. Hace que el conjunto de datos esté disponible de forma gratuita para los investigadores interesados ​​en construir sistemas de inteligencia artificial que puedan detectar memes rencorosos. La empresa tiene el Odio Memes Desafío, con un premio de $ 100,000 para encontrar el mejor software de detección de memes rencorosos. Para participar en la competencia, los investigadores deben comprometerse a hacer que sus algoritmos sean de código abierto.

Es una tarea difícil. Los investigadores de Facebook han creado diferentes sistemas y los han probado contra el conjunto de datos de texto e imágenes, con una precisión del 63 por ciento. Los revisores humanos fueron aproximadamente 85 por ciento precisos.

Leer en los artículos fuente Vox, WSJPro, Fortuna, una declaración de Stop Hate for Profit Group e información en Facebook Odio Memes Desafío.



Source link