Twitter tenía un nuevo plan para luchar contra el extremismo, luego vino Elon

by Ehsan

Twitter tenía un nuevo plan para luchar contra el extremismo, luego vino Elon

[ad_1]

Había sido una larga pandemia para el equipo de investigación de Twitter. Con la tarea de abordar algunos de los problemas más difíciles de la plataforma relacionados con el acoso, el extremismo y la desinformación, el personal huyó a Napa Valley en noviembre de 2021 para un retiro de la empresa. A pesar de un cambio tumultuoso en el liderazgo (Jack Dorsey había renunciado recientemente y nombró al exdirector de tecnología Parag Agrawal en su lugar), el grupo se sintió unido, incluso esperanzado. Después de meses de luchar contra los malos en línea, los empleados se tomaron un momento para relajarse. “Finalmente tuvimos la impresión de tener un equipo cohesionado”, explica un investigador.

Pero durante el almuerzo de despedida del último día, los teléfonos de las personas comenzaron a sonar con noticias alarmantes: su jefe, Dantley Davis, vicepresidente de diseño de Twitter, había sido despedido. Nadie sabía que iba a pasar. «Fue como una película», dijo un asistente, que pidió permanecer en el anonimato porque no está autorizado a hablar públicamente sobre la empresa. “La gente empezó a llorar. Estaba sentado allí comiendo un croissant y diciendo: ‘¿Qué pasa con la vibra?’ »

La noticia presagiaba una espiral descendente para la organización de investigación. Aunque el grupo estaba acostumbrado a las reorganizaciones, una reorganización en medio de un lanzamiento destinado a unir al equipo fue profundamente simbólica.

La agitación llegó a un punto crítico en abril, cuando Elon Musk firmó un acuerdo para comprar Twitter. Las entrevistas con empleados actuales y anteriores, así como 70 páginas de documentos internos, sugieren que el caos que rodea la adquisición de Musk ha llevado a algunos equipos al punto de ruptura, lo que llevó a muchos investigadores de la salud a renunciar, y algunos dijeron que se les pidió a sus colegas que quitaran prioridad a los contadores. -Proyectos de extremismo a favor de centrarse en bots y spam. Es posible que el acuerdo de Musk ni siquiera se materialice, pero los efectos en los esfuerzos de salud de Twitter ya son claros.

El equipo de salud, que alguna vez fue responsable de fomentar conversaciones civilizadas en la plataforma notoriamente incívica, se ha reducido de 15 empleados a tiempo completo a dos.


En 2019, Jack Dorsey planteó una pregunta fundamental sobre la plataforma que ayudó a crear: “¿Podemos realmente medir el estado de las conversaciones?

En el escenario de una charla de TED en Vancouver, el director ejecutivo con gorro habló con fervor sobre invertir en sistemas automatizados para detectar de manera proactiva el mal comportamiento y «alivio completo de las víctimas».

Ese verano, la compañía comenzó a reclutar un equipo de investigadores de salud para llevar a cabo la misión de Dorsey. Su discurso convenció a personas que trabajaban en la academia o para grandes empresas tecnológicas como Meta a unirse a Twitter, inspirados por la perspectiva de trabajar por un cambio social positivo.

Cuando el proceso funcionó como se esperaba, los investigadores de salud ayudaron a Twitter a intercambiar ideas sobre posibles abusos de nuevos productos. En 2020, Twitter estaba trabajando en una herramienta llamada «no mencionar» que permite a los usuarios limitar quién puede responder a sus tuits. Los investigadores realizaron un ejercicio de «equipo rojo», reuniendo a empleados de toda la empresa para explorar cómo se podría hacer un mal uso de la herramienta. La no mención podría permitir que «personas poderosas [to] reprimir el disenso, la discusión y la corrección” y permitir que “los acosadores que buscan hacer contacto con sus objetivos [to] obligar a los objetivos a responder en persona”, escribió Red Team en un informe interno.

Pero el proceso no siempre ha sido tan fluido. En 2021, el exgerente de productos de Twitter, Kayvon Beykpour, anunció que la prioridad número uno de la empresa era lanzar Spaces. («Fue un asalto total matar a Clubhouse», dice un empleado). El equipo del proyecto trabajó horas extras tratando de sacar la función y no programó un ejercicio de equipo rojo hasta el 10 de agosto, tres meses después del lanzamiento. En julio, el ejercicio fue cancelado. Los espacios se lanzaron sin una evaluación completa de los riesgos clave, y los nacionalistas blancos y los terroristas inundaron la plataforma, como los El Correo de Washington informado.

Cuando Twitter finalmente realizó un ejercicio de equipo rojo para Spaces en enero de 2022, el informe concluyó: «No priorizamos la identificación y mitigación de los riesgos de salud y seguridad antes del lanzamiento de Spaces. Este equipo rojo llegó demasiado tarde. A pesar de las inversiones críticas en el primer año y medio de construcción de Spaces, hemos sido en gran medida reactivos al daño real infligido por actores malintencionados en Spaces. Hemos confiado demasiado en el público en general para identificar los problemas. Hemos lanzado productos y características sin una exploración adecuada de las posibles implicaciones para la salud.

A principios de este año, Twitter dio marcha atrás en su plan para monetizar el contenido para adultos después de que un equipo rojo descubriera que la plataforma no había abordado adecuadamente el material de explotación sexual infantil. Era un problema sobre el que los investigadores habían estado advirtiendo durante años. Los empleados dijeron que los ejecutivos de Twitter estaban al tanto del problema, pero señalaron que la empresa no había asignado los recursos necesarios para solucionarlo.


Para fines de 2021, los investigadores de salud de Twitter habían pasado años jugando al topo con los malos actores en la plataforma y decidieron implementar un enfoque más sofisticado para lidiar con el contenido dañino. Externamente, la compañía ha sido criticada regularmente por permitir que grupos peligrosos se vuelvan locos. Pero internamente, a veces parecía que ciertos grupos, como los teóricos de la conspiración, también estaban siendo expulsados ​​​​de la plataforma. pronto — antes de que los investigadores puedan estudiar su dinámica.

«El antiguo enfoque era casi cómicamente ineficiente y muy reactivo: un proceso manual de jugar a atrapar», dice un ex empleado, que pidió permanecer en el anonimato porque no está autorizado a hablar públicamente sobre la empresa. «Definir y simplemente atrapar a los ‘chicos malos’ es un juego perdido».

En cambio, los investigadores esperaban identificar a las personas que estaban a punto de interactuar con tweets dañinos y empujarlos hacia un contenido más saludable mediante mensajes emergentes e intersticiales. «El piloto permitirá que Twitter identifique y aproveche las señales de comportamiento, en lugar del contenido, y llegue a los usuarios en riesgo de sufrir daños con la redirección a contenido y servicios de apoyo», se lee en una nota interna del proyecto, consultada por El borde.

Los investigadores de Twitter se asociaron con Moonshot, una firma especializada en el estudio de extremistas violentos, y lanzaron un proyecto llamado Redirect, inspirado en el trabajo que Google y Facebook habían realizado para frenar la propagación de comunidades dañinas. En Google, ese trabajo culminó en una campaña sofisticada para dirigirse a las personas que buscan contenido extremista con anuncios y videos de YouTube destinados a desacreditar los mensajes extremistas. Twitter planeó hacer lo mismo.

El objetivo era llevar a la empresa más allá de la simple reacción a las malas cuentas y publicaciones para guiar de manera proactiva a los usuarios hacia un mejor comportamiento.

«Los esfuerzos de Twitter para detener a los grupos dañinos tienden a centrarse en definir estos grupos, nombrarlos dentro de un marco de políticas, detectar su alcance (a través de la afiliación y los comportamientos grupales) y suspender o tergiversar a aquellos dentro de la cohorte», se lee en un resumen interno del proyecto. “Este proyecto más bien busca comprender y procesar el comportamiento del usuario en sentido ascendente. En lugar de centrarnos en identificar cuentas o contenido maliciosos, buscamos comprender cómo los usuarios encuentran contenido grupal dañino en las cuentas y luego redirigen esos esfuerzos. »

En la primera fase del proyecto, que comenzó el año pasado, los investigadores se centraron en tres comunidades: extremismo violento por motivos raciales o étnicos, extremismo violento contra el gobierno o contra la autoridad, e incels. En un estudio de caso del movimiento boogaloo, un grupo de extrema derecha centrado en incitar a una segunda Guerra Civil estadounidense, Moonshot identificó a 17 personas influyentes muy comprometidas dentro de la comunidad, que usaban Twitter para compartir y difundir su ideología.

El informe describió posibles puntos de contacto: uno cuando alguien intentaba buscar un término de boogaloo y otro cuando estaba a punto de interactuar con un contenido de boogaloo. «El enfoque de Moonshot para identificar la comunidad central podría resaltar a los usuarios que se mueven hacia esta esfera de influencia, lo que provocó un mensaje intersticial de Twitter», dijo el informe.

El equipo también sugirió agregar un mensaje emergente antes de que los usuarios puedan retuitear contenido extremista. Las intervenciones estaban destinadas a agregar fricción al proceso de encontrar e interactuar con tweets dañinos. Si se hace bien, disminuiría el impacto del contenido extremista en Twitter, lo que dificultaría que los grupos recluten nuevos seguidores.

Sin embargo, antes de que ese trabajo pudiera implementarse por completo, Musk llegó a un acuerdo con el directorio de Twitter para comprar la compañía. Poco después, los empleados que dirigían la sociedad Moonshot se fueron. Y en los meses transcurridos desde que Musk firmó el acuerdo, el equipo de investigación de salud casi se evaporó, se redujo de 15 miembros del personal a solo dos.

«La venta de la empresa a Elon Musk fue la guinda del pastel en una historia mucho más larga de decisiones tomadas por altos niveles de la empresa que muestran que la seguridad no era una prioridad», dijo un empleado.

Varios exinvestigadores dijeron que la agitación asociada con la oferta de Musk para comprar la compañía fue un punto de inflexión y los llevó a decidir seguir trabajando.

«El caos del trato me hizo darme cuenta de que no quería trabajar para un Twitter privado propiedad de Musk, pero tampoco quería trabajar para un Twitter público que no fuera propiedad de Musk», dijo un anterior dijo el empleado. «Simplemente ya no quería trabajar para Twitter».

La fase dos de Project Redirect, que habría ayudado a Twitter a comprender qué intervenciones funcionaron y cómo los usuarios realmente interactuaron con ellas, recibió financiación. Pero cuando llegó el dinero, no había investigadores disponibles para supervisarlo. Según los informes, a algunos empleados que se quedaron se les dijo que quitaran prioridad a la redirección en favor de proyectos relacionados con bots y spam, en los que Musk se ha centrado en su intento de retirarse del trato.

La portavoz de Twitter, Lauren Alexander, se negó a comentar sobre el asunto.

Un empleado capturó la frustración del equipo en un tweet: «Completamente desinteresado en lo que Jack o cualquier otro c-suiter tenga que decir sobre esta adquisición», escribió el empleado, capturando un artículo sobre la posición del CEO de Twitter, Parag Agrawal, y el ex CEO Jack. Dorsey. para ganar el trato con Musk. «Que todos se caigan por una escalera muy larga». (El empleado se negó a comentar).

Según los empleados actuales, el tuit se informó como una amenaza a un colega y el empleado fue despedido.

[ad_2]

Source link