Cómo X está demandando para evadir la responsabilidad

X evadiendo responsabilidad

El 19 de julio, Bloomberg News informó sobre lo que muchos otros han estado diciendo durante algún tiempo: Twitter (ahora llamada X) estaba perdiendo anunciantes, en parte debido a su laxa aplicación contra el discurso de odio. Citado en gran medida en la historia estaba Callum Hood, el jefe de investigación del Centro para Contrarrestar el Odio Digital (CCDH), una organización sin fines de lucro que rastrea el discurso de odio en plataformas sociales, cuyo trabajo ha destacado varios casos en los que Twitter ha permitido contenido violento, odioso o engañoso en la plataforma.

Al día siguiente, X anunció que estaba presentando una demanda contra la organización sin fines de lucro y la Fundación Europea del Clima, por el presunto mal uso de los datos de Twitter que llevó a la pérdida de ingresos por publicidad. En la demanda, X alega que los datos que CCDH utilizó en su investigación se obtuvieron utilizando las credenciales de inicio de sesión de la Fundación Europea del Clima, que tenía una cuenta con la herramienta de escucha social de terceros, Brandwatch. Brandwatch tiene una licencia para usar los datos de Twitter a través de su API. X alega que CCDH no estaba autorizada para acceder a los datos de Twitter/X. La demanda también acusa a CCDH de extraer información de la plataforma de Twitter sin la debida autorización, violando los términos de servicio de la empresa.

X no respondió a la solicitud de comentarios de ENBLE.

“La investigación del Centro para Contrarrestar el Odio Digital muestra que el odio y la desinformación se están propagando como un incendio en la plataforma bajo la propiedad de Musk, y esta demanda es un intento directo de silenciar esos esfuerzos”, dice Imran Ahmed, CEO de CCDH.

Los expertos que hablaron con ENBLE ven la acción legal como el último movimiento de las plataformas de redes sociales para limitar el acceso a sus datos por parte de investigadores y organizaciones de la sociedad civil que buscan responsabilizarlos. “Estamos hablando de acceso no solo para investigadores o académicos, sino que también podría extenderse potencialmente a defensores y periodistas e incluso a formuladores de políticas”, dice Liz Woolery, responsable de políticas digitales de PEN America, una organización sin fines de lucro que aboga por la libertad de expresión. “Sin ese tipo de acceso, es realmente difícil para nosotros participar en la investigación necesaria para comprender mejor el alcance y la magnitud del problema que enfrentamos, cómo las redes sociales afectan nuestra vida diaria y cómo mejorarla”.

En 2021, Meta bloqueó a los investigadores del Observatorio de Anuncios de la Universidad de Nueva York para recopilar datos sobre anuncios políticos y desinformación sobre Covid-19. El año pasado, la compañía anunció que eliminaría su herramienta de monitoreo CrowdTangle, que ha sido fundamental para permitir que investigadores y periodistas monitoreen Facebook. Tanto Meta como Twitter están demandando a Bright Data, una empresa israelí de recopilación de datos, por extraer información de sus sitios. (Meta había contratado previamente a Bright Data para extraer información de otros sitios en su nombre). Musk anunció en marzo que la compañía comenzaría a cobrar $42,000 por mes por su API, excluyendo a la gran mayoría de investigadores y académicos que lo han utilizado para estudiar temas como la desinformación y el discurso de odio en más de 17,000 estudios académicos.

Hay razones por las que las plataformas no quieren que los investigadores y defensores husmeen y expongan sus fallas. Durante años, las organizaciones de defensa han utilizado ejemplos de contenido violatorio en plataformas sociales como una forma de presionar a los anunciantes para que retiren su apoyo, obligando a las empresas a abordar los problemas o cambiar sus políticas. Sin la investigación subyacente sobre el discurso de odio, la desinformación y otro contenido perjudicial en las redes sociales, estas organizaciones tendrían poca capacidad para obligar a las empresas a cambiar. En 2020, los anunciantes, incluyendo a Starbucks, Patagonia y Honda, abandonaron Facebook después de que se descubrió que la plataforma de Meta tenía un enfoque laxo para moderar la desinformación, especialmente las publicaciones del ex presidente de Estados Unidos, Donald Trump, lo que le costó a la compañía millones.

Tan pronto como Musk asumió el control de Twitter a fines de octubre de 2022, procedió a despedir a muchos de los miembros del personal responsables de mantener el discurso de odio y la desinformación fuera de la plataforma y restableció las cuentas de usuarios que habían sido previamente prohibidos, incluido Trump y el influencer Andrew Tate, quien actualmente está acusado bajo las leyes de trata de personas en Rumania. Un estudio publicado a principios de este año por el Instituto de Ciencias de la Información de la Universidad del Sur de California, la Universidad Estatal de Oregón, UCLA y UC Merced encontró que el discurso de odio aumentó drásticamente después de que Musk asumiera el control de Twitter. Durante aproximadamente el mismo período de tiempo, la compañía vio cómo sus ingresos por publicidad se reducían a la mitad a medida que las marcas, incluyendo General Motors, Pfizer y United Airlines, abandonaban la plataforma, aparentemente preocupadas por que sus productos aparecieran junto a desinformación y discurso de odio.

Y esto ha molestado a Musk inmensamente. El 4 de noviembre de 2022, tuiteó: “Twitter ha sufrido una caída masiva en sus ingresos debido a grupos activistas que presionan a los anunciantes, a pesar de que nada ha cambiado con la moderación de contenido y hemos hecho todo lo posible para complacer a los activistas. ¡Es extremadamente injusto! Están tratando de destruir la libertad de expresión en Estados Unidos”.

Woolery de PEN America se preocupa de que, independientemente de si la demanda de X contra CCDH tiene fundamento, el costo de luchar contra ella será suficiente para intimidar a otras organizaciones que realizan un trabajo similar. “Las demandas como esta, especialmente cuando se trata de una organización sin fines de lucro, definitivamente se perciben como un intento de silenciar a los críticos”, dice. “Si una organización sin fines de lucro u otra persona no está en una posición financiera donde realmente puedan dar todo lo que se necesita para defenderse, entonces corren el riesgo de tener una mala defensa o simplemente de llegar a un acuerdo y tratar de salir de la situación para evitar incurrir en más costos y daño reputacional”.

Pero la demanda no solo pone presión en los propios investigadores. También destaca otra vía a través de la cual ahora puede ser más difícil para los defensores acceder a los datos: las plataformas de escucha social de terceros. Estas empresas acceden y analizan datos de las plataformas sociales para permitir a sus clientes, desde contratistas de seguridad nacional hasta agencias de marketing, obtener información sobre su audiencia y dirigir mensajes.

Tal-Or Cohen Montemayor, fundadora y directora ejecutiva de CyberWell, una organización sin fines de lucro que rastrea el antisemitismo en línea tanto en inglés como en árabe, dice que en noviembre de 2022, poco después de que Musk se hiciera cargo de la empresa, CyberWell se acercó a Talkwalker, una empresa de escucha social de terceros, para obtener una suscripción que les permitiera analizar el discurso antisemita en la plataforma entonces llamada Twitter.

Cohen Montemayor dice que Talkwalker les dijo que la empresa no podía aceptarlos como cliente debido a la naturaleza del trabajo de CyberWell. Ella dice que parece que “las herramientas existentes de código abierto y las herramientas de escucha social solo se reservan y se ponen detrás de un muro de pago para los anunciantes e investigadores remunerados. Las organizaciones sin fines de lucro están siendo bloqueadas activamente para usar estos recursos”.

Talkwalker no respondió a una solicitud de comentario sobre si sus acuerdos con X le prohíben aceptar como clientes a organizaciones que monitorean discursos de odio. X no respondió a preguntas sobre qué parámetros establece para los tipos de clientes que pueden aceptar las empresas de escucha social de terceros.

Según la demanda de X contra CCDH, un acuerdo de 2023 entre Brandwatch y X estableció que cualquier violación de los datos de X a través de los clientes de Brandwatch sería responsabilidad de la empresa de escucha social. En Bluesky, competidor de X, Yoel Roth, exdirector principal de confianza y seguridad de Twitter, publicó: “El negocio de escucha social de Brandwatch depende completamente, al 100%, del acceso a los datos de Twitter, por lo que supongo que no es sorprendente ver cómo se doblan hacia atrás para complacer a la empresa”.

Por su parte, en un tuit del 20 de julio, Brandwatch mencionó el mismo informe de CCDH citado en la demanda de X, diciendo: “Recientemente, se nos citó en un artículo sobre relevancia de marca que se basaba en datos incompletos y obsoletos. Contenía métricas utilizadas fuera de contexto para hacer afirmaciones no fundamentadas sobre Twitter”.

Brandwatch no respondió a una solicitud de comentario.

Pero Ahmed de CCDH dice que la afirmación de que la investigación de su organización se basa en datos incompletos es una forma para que X oscurezca los problemas con su propia plataforma. “Cada vez que afirmas que has encontrado información allí, simplemente dicen: ‘No, es una mentira. Solo nosotros tenemos los datos. No podrías posiblemente saber la verdad. Solo nosotros conocemos la verdad. Y calificamos nuestra propia tarea'”, dice.

Un representante de otra herramienta de escucha social de terceros que utiliza datos de X, quien pidió permanecer en el anonimato para proteger a su empresa de represalias de X, confirmó a ENBLE que empresas como la suya dependen en gran medida de los datos de Twitter/X. “Muchos de los servicios que están muy centrados en Twitter, muchos de ellos son 100 por ciento Twitter”, dicen, señalando que Instagram ha cerrado desde hace mucho tiempo su API, y que las conversaciones en las plataformas de Meta tienden a no ser tan públicas como las de X. “En términos de datos, Twitter sigue desempeñando un papel importante al proporcionar datos a las empresas de análisis”. Señalan que, si bien la nueva API de pago de X ha presionado a las empresas de análisis de terceros, “es prácticamente como si te tuvieran como rehén”, perder el acceso a los datos de X por completo podría acabar con una empresa.

Agregan que no han visto pautas que restrinjan el uso de datos de X para el discurso de odio o la investigación de defensa, pero hay pautas específicas de “conozca a su cliente” que prohíben compartir datos de X con agencias gubernamentales sin permiso previo. El mismo día en que X anunció la demanda, el 31 de julio, America First Legal, una organización sin fines de lucro de derecha liderada por el exfuncionario de Trump Stephen Miller, anunció que había presentado solicitudes de la Ley de Libertad de Información (FOIA) para examinar las comunicaciones entre CCDH y varias agencias gubernamentales de Estados Unidos, alegando que es un “coordinador de actividades ilegales de censura”. (Ahmed dice que su organización nunca ha coordinado con el gobierno de Estados Unidos). Esto también sería, en caso de ser cierto, una violación de esos términos de servicio.

La demanda de X también alega que CCDH está siendo financiada por los competidores de X, así como por “entidades gubernamentales y sus afiliados”, pero dice que “X Corp. carece actualmente de información suficiente para incluir las identidades de estas entidades, organizaciones y personas en esta demanda”.

Incluso sin amenazas legales, hay costos significativos para los investigadores centrados en la desinformación y el discurso de odio en las plataformas. Los expertos que hablaron con ENBLE dicen que les preocupa que la amenaza de acciones legales pueda tener un efecto inhibidor en otras organizaciones que estudian el discurso de odio y la desinformación.

Después de publicar un informe que mostraba que el contenido antisemita se había duplicado en la plataforma después de la adquisición de Musk, Sasha Havlicek, cofundadora y CEO del Instituto para el Diálogo Estratégico (ISD), un think tank con sede en Londres centrado en el extremismo y la desinformación, dice que la compañía recibió una avalancha de tweets abusivos. “En respuesta, Twitter publicó un hilo que tuvo alrededor de 3 millones de visitas”, dice. “Musk mismo respondió con un emoji de caca”.

En diciembre, Musk trabajó con periodistas de derecha para publicar los llamados Archivos de Twitter, una selección de documentos internos que parecían mostrar que Twitter, antes de la llegada de Musk, había silenciado a algunos usuarios conservadores. Algunos de los documentos incluían los nombres y correos electrónicos de investigadores de desinformación en el Observatorio de Internet de Stanford, muchos de los cuales eran estudiantes universitarios en ese momento. Un ex estudiante, que pidió permanecer en el anonimato por temor al acoso, dice que las personas cuyos correos electrónicos terminaron en los Archivos de Twitter han sido objeto de acoso continuo debido a su papel en la investigación de desinformación.

“Al ver cómo han ido las cosas y al ver la posibilidad de ser acosados, muchas personas que trabajaron en ello muy de cerca ahora lo piensan dos veces”, dice el ex estudiante.

“Tienes que preguntarte”, dice Havlicek del ISD. “¿Quién es el censor ahora?”

Havlicek dice que espera que la Ley de Servicios Digitales (DSA) de la UE, que eventualmente exigirá el acceso de los investigadores a los datos de las grandes plataformas sociales, sea una hoja de ruta para otros países. Si habrá obstáculos legales con respecto a los datos obtenidos legalmente por investigadores europeos bajo el DSA pero compartidos con investigadores o defensores no europeos, es otra pregunta abierta.

“Estuve en Bruselas hace unas semanas hablando con las personas de Servicios Digitales sobre cómo podemos utilizar los datos que estarán disponibles a través del régimen de transparencia de datos del DSA”, dice Ahmed. “Y cuando eso aparezca, lo utilizaremos de la manera más efectiva posible”.