No estamos preparados para el impacto de la inteligencia artificial generativa en las elecciones.

'We are not prepared for the impact of generative artificial intelligence on elections.

¿Todo esto te hace querer llorar? Bueno, George Washington también lloró aquí.

¿Has oído el chiste sobre George Washington que no apoyaba la Guerra Revolucionaria?

Mientras servía como general liderando las fuerzas rebeldes, George Washington estaba convencido de que la Guerra de Independencia Americana fue un error. “Estaba lejos de estar seguro de que merezcamos tener éxito”.

También: Cómo engañé a ChatGPT para que me dijera mentiras

En 1777, un soldado al servicio del General Británico Oliver De Lancey encontró un baúl perteneciente al General Washington. El baúl contenía una serie de cartas escritas por Washington que hablaban de su deseo de reconciliación con Inglaterra e incluso decían “Amo a mi rey”.

El baúl fue encontrado en manos del mayordomo de Washington (y persona esclavizada) William Lee, cuando Lee fue capturado por los británicos.

Aquí había una prueba tangible de que incluso Washington mismo no apoyaba la guerra.

Años después, en 1795, cuando Washington estaba solicitando al Senado ratificar el Tratado Jay con Francia, las cartas fueron citadas como evidencia de que la lealtad de Washington no podía ser confiada y de que a él no le importaba realmente la democracia. Esto dificultó mucho la aprobación del Tratado Jay.

Excepto… William Lee nunca fue capturado por los británicos. De hecho, William Lee nunca se separó del lado de Washington durante la Guerra Revolucionaria. Las cartas eran falsificaciones cuidadosamente elaboradas, el equivalente en el siglo XVIII de los deepfakes.

También: ¿Qué tan grande es esta nueva IA generativa? Piensa en una disrupción a nivel de internet

Las cartas atormentaron tanto a Washington que él escribió, como uno de sus últimos actos en el cargo, una refutación de las falsificaciones en una carta al Secretario de Estado de los Estados Unidos, Timothy Pickering.

De George Washington a Washington, DC

Avancemos rápidamente hasta 2018. Estoy a punto de tocar temas que son políticamente cargados. Por un momento, por favor ignora la política y enfócate en estos ejemplos como ejemplos de la existencia de la desinformación. Ese es el tema de este artículo. La desinformación perjudica a todas las partes. Pero para mostrarte lo que ha estado sucediendo, tengo que citar ejemplos reales. Y eso significa que tengo que mencionar a políticos.

Así que aquí vamos…

Ejemplo 1: Campaña de desinformación respaldada por el Kremlin

El Comité de Inteligencia de la Cámara, investigando las elecciones presidenciales de 2016, publicó una biblioteca de más de 3,500 anuncios que contenían afirmaciones falsas diseñadas para perturbar el sistema político estadounidense.

Los anuncios fueron producidos y comprados por una granja de trolls respaldada por el Kremlin entre 2015 y 2017. Además de los anuncios comprados, el Comité de Inteligencia de la Cámara afirmó que había al menos “80,000 piezas de contenido orgánico” en las redes sociales producidas por intereses rusos.

Ejemplo 2: Video modificado que simula comportamiento ebrio

A continuación, vamos a detenernos en 2019 para ver un video que mostraba a la entonces Presidenta de la Cámara Nancy Pelosi hablando arrastrando las palabras y pareciendo ebria. Esto provenía de un video de Pelosi dando un discurso en un evento del Center for American Progress (un “think tank” de tendencia liberal).

El video, compartido en Facebook más de 45,000 veces y con más de 23,000 comentarios, era falso. El video original había sido editado para “hacer que su voz sonara confusa y distorsionada” y para hacerla parecer ebria.

La utilización de la IA generativa como arma en las campañas políticas

Fotos, videos, audio e incluso cartas escritas a mano han sido falsificados a lo largo de los años en aras de trucos políticos sucios. Aunque varían en calidad según las habilidades de los falsificadores, la práctica no es nueva.

También: ¿Cómo funciona realmente ChatGPT?

Ten eso en cuenta a medida que avanzamos hacia una discusión sobre los deepfakes en la era de la IA generativa. Peggy Noonan, quien en una vida anterior fue la principal redactora de discursos del presidente Ronald Reagan, escribió esto en su columna del Wall Street Journal:

En casi todas las reuniones, se mencionaba la inteligencia artificial. Diría que la gente se acerca a la IA con un temor flotante pero también con un compromiso pragmático de aprovechar al máximo sus beneficios y ver cómo puede mejorar la vida. No se puede detener, igual que no puedes detener la marea. Hay una sensación de “Puede romper los códigos más profundos del cáncer” combinada con “Puede volverse en nuestra contra y provocar un ataque nuclear”.

Eso resume bastante bien la situación. Mientras Noonan se mueve en círculos políticos selectos, esta afirmación evidencia que incluso la élite política considera la inteligencia artificial generativa con cierta preocupación.

Por supuesto, eso no les impide aprovechar la tecnología en su beneficio.

El mes pasado, los seguidores de Ron DeSantis, gobernador de Florida y candidato presidencial republicano que actualmente ocupa el segundo lugar en las encuestas, utilizaron una voz generada por IA para imitar al presidente Trump en un anuncio en el que parecía que el ex presidente republicano estaba atacando a los republicanos.

También: Cómo hacer que ChatGPT proporcione fuentes y citas

Para ser claros, las palabras pronunciadas por la IA se basaron en una publicación real de Trump en la red social Truth Social. El anuncio fue financiado por el PAC Never Back Down, que técnicamente no está afiliado al gobernador DeSantis. Sin embargo, el PAC respalda en gran medida a DeSantis. Presumiblemente, el PAC consideró que usar la voz del ex presidente con sus propias palabras sería más efectivo o realista que un locutor que las pronunciara en off.

En otro anuncio atribuido a DeSantis, se muestra al presidente Trump abrazando al Dr. Anthony Fauci. Esta fue una imagen generada por IA. Fauci es un ex miembro del Grupo de Trabajo sobre el Coronavirus de Trump, ex Asesor Médico Principal del Presidente y, durante casi 40 años, Director del Instituto Nacional de Alergias y Enfermedades Infecciosas. Fauci, como muchos saben, se convirtió en una figura divisiva en los primeros días de la pandemia. La campaña de DeSantis aparentemente estaba tratando de vincular a Trump con Fauci para obtener beneficios políticos.

El propósito de este artículo no es debatir el contenido de los anuncios políticos. En cambio, se centra en el uso de la IA y lo que significa para el futuro. Las imágenes de Trump abrazando a Fauci fueron notables porque fueron generadas por IA.

En marzo, The New York Times describió cómo el Partido Demócrata estaba probando el uso de la IA para redactar mensajes de recaudación de fondos, con “apelaciones que a menudo funcionan mejor que aquellas escritas completamente por seres humanos”.

También: Cómo los investigadores rompieron a ChatGPT y lo que podría significar para el desarrollo futuro de la IA

The Times también informó sobre imágenes falsas difundidas en las redes sociales que mostraban al presidente Trump siendo arrestado en la ciudad de Nueva York.

Aunque la IA podría demostrar ser un multiplicador de fuerzas para las elecciones nacionales, espero que se utilice ampliamente en campañas donde los presupuestos limitados requieren un uso más creativo de los recursos. Una de esas campañas, según informa Insider, fue la del Alcalde de Toronto. Insider compartió una imagen de un folleto de campaña producido en nombre del candidato Anthony Furey que mostraba a una mujer con tres brazos.

Cuando busqué en línea el folleto citado por Insider, no tenía la imagen que mostraban en el artículo. Supongo que ese error fue corregido por Furey o su equipo de campaña. Sin embargo, Furey perdió, quedando en cuarto lugar, con apenas un poco más del 10% de los votos recibidos por el ganador.

Entonces, aunque la IA pueda ayudar a crear imágenes falsas o reducir costos, no garantiza una victoria. Nada lo hace.

¿Qué significa todo esto?

El hecho de que una campaña utilice IA generativa no significa que la esté utilizando como arma. Hay cuatro categorías principales de uso de herramientas de IA generativa en las campañas, y solo una es totalmente negativa por naturaleza.

Deepfakes y falsificaciones: Esta es la categoría más potencialmente destructiva. Cada vez que una campaña falsifica información, es destructiva y entra en la categoría de trucos sucios. Lo que hace que esto sea aún más preocupante ahora es que las IA hacen posible generar imágenes falsas para mucha más gente, por lo que es probable que las veamos con más frecuencia, y no solo en campañas.

También: 6 cosas que ChatGPT no puede hacer (y otras 20 que se niega a hacer)

Ayudar a componer anuncios y cartas: Esperen ver a la IA ayudando al personal de la campaña a componer anuncios y cartas. Si bien el contenido puede contener falsedades o tergiversaciones, eso no es nuevo. Mucho antes de la llegada de la IA generativa, los trabajadores de campaña ya distorsionaban la verdad en documentos escritos.

Aumentando la velocidad y personalización del contenido para llegar a las masas: Las campañas más efectivas suelen contar con bases de datos extensas sobre posibles votantes, especialmente donantes potenciales. Compran listas, recopilan datos de campañas anteriores y otros candidatos, y tratan de construir perfiles que ayuden a dirigirse de manera precisa a los prospectos. Esperen que se utilice la inteligencia artificial generativa para calibrar individualmente los esfuerzos de alcance para cada prospecto, y hacerlo a gran escala.

Realizando análisis de tendencias y sentimientos en busca de ideas: En un artículo anterior, mostré lo poderosa que puede ser la inteligencia artificial al extraer información valiosa de los datos. Las campañas suelen utilizar software de minería de datos a nivel empresarial, pero esperen que el poder, la facilidad de uso y el precio relativamente bajo de herramientas como ChatGPT Plus with Code Interpreter hagan que estas capacidades estén disponibles en todos los niveles de las campañas.

También: Le pregunté a ChatGPT, Bing y Bard qué les preocupa. La inteligencia artificial de Google se volvió Terminator conmigo

Lawrence Pingree, vicepresidente de tecnologías emergentes y tendencias en seguridad de Gartner, agregó algunas ideas sobre este tema. Le dijo a ENBLE:

Creo que el mayor peligro nuevo es que los modelos de lenguaje generativos de inteligencia artificial ahora se pueden instrumentar con automatización. Esa automatización (por ejemplo, AutoGPT, BabyAGI) se puede utilizar para llevar a cabo campañas de desinformación con objetivos específicos.

Esto facilita mucho que tanto los partidos políticos como los estados nacionales lleven a cabo operaciones de influencia.

Los modelos de lenguaje generativos también se pueden combinar con tecnologías deepfake para ejecutar campañas que incluso pueden llegar a utilizar audio y video falsificados. Llevadas a las redes sociales, este tipo de herramientas puede crear un entorno digital muy difícil para los votantes que desean conocer la verdad.

Cuando se analiza la inteligencia artificial generativa en las campañas, el impacto real estará fuera de las campañas presidenciales. Después de todo, las campañas presidenciales cuentan con mucho dinero.

Según la Comisión Federal de Elecciones, “los candidatos presidenciales recaudaron y gastaron $4.1 mil millones en los 24 meses del ciclo electoral 2019-2020”. Según Open Secrets, que realiza un seguimiento del gasto electoral, el candidato promedio al Senado de Estados Unidos ganador gastó $15.7 millones, mientras que el candidato promedio a la Cámara de Representantes gastó $2 millones en las elecciones de 2018.

Algunas campañas locales tienen presupuestos de campaña comparativamente grandes. Por ejemplo, de cara a las elecciones de 2024 para el Concejo Municipal de Los Ángeles y el Distrito Escolar Unificado de Los Ángeles, el candidato al Concejo Municipal del Distrito 2, Adrin Nazarian, ya ha recaudado $432,000, mientras que la candidata al Distrito 3 de LAUSD, Janie Dam, ya ha recaudado $38,000.

Ahora, tengan en cuenta que el Distrito 2 de Los Ángeles tenía una población de 793,342 personas en 2020. En general, el condado de Los Ángeles tiene una población de 9.7 millones de personas. En contraste, la pequeña ciudad rural histórica en la que vivo aquí en Oregón tiene una población de menos de 10,000 personas.

También: Detección de deepfakes en tiempo real: cómo Intel Labs utiliza la inteligencia artificial para combatir la desinformación

Las campañas más pequeñas, especialmente las campañas en ciudades del tamaño de la mía, cuentan con fondos de guerra mucho más pequeños que las campañas nacionales. Las herramientas de inteligencia artificial generativa pueden proporcionar a las campañas más pequeñas herramientas analíticas que antes solo estaban disponibles para campañas con presupuestos de seis y siete cifras.

Por lo tanto, aunque ciertamente podemos esperar que las campañas presidenciales utilicen la inteligencia artificial para poner a los candidatos opositores en posiciones comprometedoras (o, al menos, retratarlos de una manera que los seguidores más acérrimos elijan compartir en las redes sociales), esperen ver el mayor impacto de la inteligencia artificial generativa en las elecciones más locales.

Estén atentos, porque aunque las trampas sucias en las campañas han existido desde siempre, seguramente veremos más de ellas ahora que todos tienen acceso a las herramientas que facilitan enormemente su perpetración.

¿Todo esto te hace querer llorar? Bueno, recuerda: George Washington lloró aquí.


Puedes seguir las actualizaciones diarias de mi proyecto en las redes sociales. Asegúrate de suscribirte a mi boletín de actualización semanal en Substack, y sígueme en Twitter en @DavidGewirtz, en Facebook en Facebook.com/DavidGewirtz, en Instagram en Instagram.com/DavidGewirtz, y en YouTube en YouTube.com/DavidGewirtzTV.