La IA potente no detendrá los deepfakes electorales con marcas de agua

IA no detendrá deepfakes electorales con marcas de agua

En mayo, una imagen falsa de una explosión cerca del Pentágono se volvió viral en Twitter. Pronto le siguieron imágenes que parecían mostrar explosiones cerca de la Casa Blanca también. Expertos en desinformación rápidamente señalaron que las imágenes parecían haber sido generadas por inteligencia artificial, pero no antes de que el mercado de valores comenzara a caer.

Fue solo el último ejemplo de cómo el contenido falso puede tener efectos preocupantes en el mundo real. El auge de la inteligencia artificial generativa ha significado que las herramientas para crear imágenes y videos falsos, y generar grandes cantidades de texto convincente, ahora están disponibles libremente. Los expertos en desinformación dicen que estamos entrando en una nueva era donde distinguir lo que es real de lo que no lo es será cada vez más difícil.

La semana pasada, las principales compañías de IA, incluyendo OpenAI, Google, Microsoft y Amazon, prometieron al gobierno de Estados Unidos que intentarán mitigar los daños que podrían causar sus tecnologías. Pero es poco probable que detenga la marea creciente de contenido generado por IA y la confusión que podría traer.

La Casa Blanca dice que el “compromiso voluntario” de las compañías incluye “desarrollar mecanismos técnicos sólidos para garantizar que los usuarios sepan cuándo el contenido es generado por IA, como un sistema de marca de agua”, como parte del esfuerzo por evitar que la IA se use para “fraude y engaño”.

Pero los expertos que hablaron con WIRED dicen que los compromisos son medidas a medias. “No habrá una respuesta realmente simple de sí o no sobre si algo es generado por IA o no, incluso con marcas de agua”, dice Sam Gregory, director de programa de la organización sin fines de lucro Witness, que ayuda a las personas a utilizar la tecnología para promover los derechos humanos.

El marca de agua se utiliza comúnmente por las agencias de imágenes y las agencias de noticias para evitar que las imágenes se utilicen sin permiso, y sin pago.

Pero cuando se trata de la variedad de contenido que la IA puede generar, y los muchos modelos que ya existen, las cosas se complican. Hasta ahora, no hay un estándar para las marcas de agua, lo que significa que cada compañía está utilizando un método diferente. Por ejemplo, Dall-E utiliza una marca de agua visible (y una búsqueda rápida en Google te mostrará muchos tutoriales sobre cómo eliminarla), mientras que otros servicios podrían utilizar metadatos o marcas de agua a nivel de píxel que no son visibles para los usuarios. Si bien algunos de estos métodos pueden ser difíciles de deshacer, otros, como las marcas de agua visuales, a veces pueden volverse ineficaces cuando se redimensiona una imagen.

“Habrá formas en las que se pueden corromper las marcas de agua”, dice Gregory.

La declaración de la Casa Blanca menciona específicamente el uso de marcas de agua para contenido de audio y visual generado por IA, pero no para texto.

Existen formas de marcar con agua el texto generado por herramientas como ChatGPT de OpenAI, manipulando la forma en que se distribuyen las palabras, haciendo que una palabra o conjunto de palabras aparezcan con más frecuencia. Estas serían detectables por una máquina pero no necesariamente por un usuario humano.

Eso significa que las marcas de agua deberían ser interpretadas por una máquina y luego señaladas a un espectador o lector. Eso se vuelve más complejo con el contenido multimedia mixto, como los elementos de audio, imagen, video y texto que pueden aparecer en un solo video de TikTok. Por ejemplo, alguien podría poner audio real sobre una imagen o video que ha sido manipulado. En este caso, las plataformas deberían descubrir cómo etiquetar que un componente, pero no todos, del clip ha sido generado por IA.

Y simplemente etiquetar el contenido como generado por IA no ayuda mucho a los usuarios a determinar si algo es malicioso, engañoso o está destinado al entretenimiento.

“Obviamente, los medios manipulados no son fundamentalmente malos si estás haciendo videos de TikTok y están destinados a ser divertidos y entretenidos”, dice Hany Farid, profesor de la Escuela de Información de la UC Berkeley, quien ha trabajado con la empresa de software Adobe en su iniciativa de autenticidad de contenido. “El contexto va a ser realmente importante aquí. Eso seguirá siendo extremadamente difícil, pero las plataformas han estado luchando con estos problemas durante los últimos 20 años”.

Y el creciente papel de la inteligencia artificial en la conciencia pública ha permitido otra forma de manipulación de los medios. Así como los usuarios pueden asumir que el contenido generado por IA es real, la mera existencia de contenido sintético puede sembrar dudas sobre la autenticidad de cualquier video, imagen o texto, lo que permite a los actores maliciosos afirmar que incluso el contenido genuino es falso, lo que se conoce como el “dividendo del mentiroso”. Gregory dice que la mayoría de los casos recientes que Witness ha visto no son deepfakes que se utilizan para difundir mentiras; son personas que intentan hacer pasar los medios reales como contenido generado por IA.

En abril, un legislador en el estado sureño indio de Tamil Nadu afirmó que una grabación de audio filtrada en la que acusaba a su partido de robar más de $3 mil millones era “generada por máquina”. (No lo era). En 2021, en las semanas posteriores al golpe militar en Myanmar, un video de una mujer haciendo ejercicios de baile mientras pasa un convoy militar detrás de ella se volvió viral. Muchos en línea alegaron que el video había sido falsificado. (No lo había sido).

En este momento, hay poco que impida que un actor malintencionado coloque marcas de agua en contenido real para hacerlo parecer falso. Farid dice que una de las mejores formas de protegerse contra la falsificación o corrupción de marcas de agua es a través de firmas criptográficas. “Si eres OpenAI, deberías tener una clave criptográfica. Y la marca de agua tendrá información que solo podría haber sido conocida por la persona que tiene la clave”, dice. Otras marcas de agua pueden estar a nivel de píxel o incluso en los datos de entrenamiento que la IA aprende. Farid señala a la Coalición para el Contenido, la Procedencia y la Educación, a la que asesora, como un estándar que las empresas de IA podrían adoptar y adherirse.

“Estamos entrando rápidamente en un momento en el que cada vez es más difícil creer todo lo que leemos, vemos o escuchamos en línea”, dice Farid. “Y eso significa que no solo seremos engañados por cosas falsas, sino que tampoco creeremos cosas reales. Si la cinta de Access Hollywood de Trump se hubiera lanzado hoy, él podría tener una negación plausible”, dice Farid.