Meta Oversight Board dice que las eliminaciones automáticas de imágenes de Facebook no funcionan

by Ehsan

Meta Oversight Board dice que las eliminaciones automáticas de imágenes de Facebook no funcionan

[ad_1]

La junta de supervisión de Meta dijo que la empresa debería tener más cuidado con las herramientas de moderación automatizadas y la criticó por eliminar una caricatura que representa la violencia policial en Colombia. La decisión se tomó cuando el consejo abordó una serie de casos nuevos, incluida una pregunta sobre un video de agresión sexual en India.

El Consejo de Supervisión, un organismo semiindependiente financiado por el Meta, consideró una caricatura política que mostraba a policías colombianos golpeando a un hombre con porras. La caricatura se agregó en algún momento a la base de datos del Servicio de coincidencia de medios de Meta, lo que significa que el sistema de Meta la marcó automáticamente para eliminarla cuando los usuarios la publicaron. Pero cuando los usuarios eliminaron sus publicaciones, comenzaron a apelar la decisión y ganar. El Consejo de Supervisión dice que 215 personas apelaron el retiro y el 98% de las apelaciones fueron exitosas. Meta, sin embargo, no eliminó la caricatura de su base de datos hasta que la Junta de Supervisión se hizo cargo del asunto.

La automatización puede amplificar los efectos de una mala llamada de moderación

Este hecho preocupó al Consejo de Vigilancia. «Al usar sistemas automatizados para eliminar contenido, los bancos de Media Matching Service pueden amplificar el impacto de decisiones incorrectas tomadas por revisores humanos individuales», establece la decisión. Un sistema con mayor capacidad de respuesta podría haber resuelto el problema activando una revisión del banco cuando los mensajes individuales que contenían la imagen se llamaron con éxito. De lo contrario, las imágenes prohibidas sobre la base de una decisión equivocada podrían permanecer prohibidas en secreto por tiempo indefinido, incluso cuando los revisores individuales lleguen a una conclusión diferente más adelante.

Este es uno de los muchos casos en los que la Junta de Supervisión pregunta si la moderación automática de Facebook e Instagram está calibrada para evitar derribos demasiado agresivos y, como en casos anteriores, la Junta de Supervisión quiere más métodos de monitoreo. “El consejo está particularmente preocupado de que Meta no mida la precisión de los bancos de Media Matching Service para políticas de contenido específicas”, señala. «Sin estos datos, que son cruciales para mejorar la operación de estos bancos, la empresa no puede decir si esta tecnología funciona de manera más efectiva para ciertos estándares de la comunidad que para otros».

Solicita a Meta que publique tasas de error por contenido incluido erróneamente en el banco correspondiente. Como es habitual con las recomendaciones de políticas de la junta, Meta debe responder a la sugerencia, pero puede optar por implementarla o no.

Las sanciones del Meta por elogiar a grupos extremistas son ‘confusas y duras’

La Junta de Supervisión también abordó uno de varios incidentes que ponen a prueba la línea de Facebook entre apoyar a grupos extremistas e informar sobre ellos. Determinó que Meta se equivocó al eliminar una publicación de Facebook en urdu que informaba sobre la reapertura de escuelas y universidades talibanes para mujeres y niñas. La regla prohíbe “alabar” a grupos como los talibanes, y la publicación fue eliminada. Fue derivado después de una llamada a una cola de moderación especial, pero nunca fue revisado: la Junta de Supervisión señala que en ese momento Facebook tenía menos de 50 revisores en urdu asignados a la cola.

El caso, según el consejo, «puede indicar un problema más amplio» con las normas sobre organizaciones peligrosas. Después de varios incidentes, dice que la política parece poco clara tanto para los usuarios como para los moderadores, y que las sanciones por violar la regla son «poco claras y severas». Pide una definición más clara y estrecha de «elogiar» a las personas peligrosas y dedicar más moderadores a la cola de revisión.

Mientras tanto, el Consejo de Supervisión busca comentarios públicos sobre dos casos: el primero se refiere a un video de un tiroteo masivo en una iglesia de Nigeria, que fue prohibido por violar la política de «contenido gráfico y violento» de Meta, pero que podría haber tenido valor informativo que debería haber sido justificado. mantenlo. Del mismo modo, está interesado en saber si se debe permitir que un video que muestra una agresión sexual en la India genere conciencia sobre la violencia de casta y de género o si su representación gráfica de tocamientos no consentidos es demasiado dañina por sí sola. La ventana de comentarios para ambos casos se cerrará el 29 de septiembre.

[ad_2]

Source link