Solo cuesta $400 construir una máquina de desinformación de IA

Solo $400 para construir IA de desinformación

En mayo, Sputnik International, un medio de comunicación ruso estatal, publicó una serie de tweets criticando la política exterior de Estados Unidos y atacando a la administración de Biden. Cada uno de ellos recibió una respuesta breve pero bien elaborada de una cuenta llamada CounterCloud, que a veces incluía un enlace a una noticia o artículo relevante. Generó respuestas similares a los tweets de la embajada rusa y los medios de comunicación chinos que criticaban a Estados Unidos.

Las críticas rusas hacia Estados Unidos no son nada inusuales, pero lo que sí lo fue la respuesta de CounterCloud: los tweets, los artículos e incluso los periodistas y los sitios de noticias fueron creados completamente por algoritmos de inteligencia artificial, según la persona detrás del proyecto, que se hace llamar Nea Paw y afirma que está diseñado para resaltar el peligro de la desinformación masiva generada por IA. Paw no publicó los tweets y artículos de CounterCloud de manera pública, pero los proporcionó a ENBLE y también produjo un video que describe el proyecto.

Paw afirma ser un profesional de ciberseguridad que prefiere el anonimato porque algunas personas podrían considerar que el proyecto es irresponsable. La campaña de CounterCloud que se opone a los mensajes rusos fue creada utilizando la tecnología de generación de texto de OpenAI, al igual que la que está detrás de ChatGPT, y otras herramientas de IA fácilmente accesibles para generar fotografías e ilustraciones, según dice Paw, por un costo total de alrededor de $400.

Paw dice que el proyecto demuestra que las herramientas generativas de IA ampliamente disponibles facilitan mucho la creación de campañas de información sofisticadas que promueven la propaganda respaldada por el estado.

“No creo que haya una solución única para esto, de la misma manera que no hay una solución única para los ataques de phishing, el spam o la ingeniería social”, dice Paw en un correo electrónico. Existen medidas de mitigación posibles, como educar a los usuarios para que estén atentos al contenido manipulador generado por IA, hacer que los sistemas de IA generativa intenten bloquear el mal uso o dotar a los navegadores de herramientas de detección de IA. “Pero creo que ninguna de estas cosas es realmente elegante, barata o especialmente efectiva”, dice Paw.

En los últimos años, los investigadores de desinformación han advertido que los modelos de lenguaje de IA podrían utilizarse para crear campañas de propaganda altamente personalizadas y para alimentar cuentas de redes sociales que interactúan con los usuarios de manera sofisticada.

Renee DiResta, directora de investigación técnica del Observatorio de Internet de Stanford, que rastrea las campañas de información, dice que los artículos y perfiles de periodistas generados como parte del proyecto CounterCloud son bastante convincentes.

“Además de los actores gubernamentales, las agencias de gestión de redes sociales y los mercenarios que ofrecen servicios de operaciones de influencia sin duda aprovecharán estas herramientas e incorporarán en ellas sus flujos de trabajo”, dice DiResta. Hacer que el contenido falso se distribuya ampliamente y se comparta es un desafío, pero esto se puede lograr pagando a usuarios influyentes para que lo compartan, agrega.

Ya se ha descubierto evidencia de campañas de desinformación en línea impulsadas por IA. Investigadores académicos descubrieron recientemente una red de bots burda y que promueve criptomonedas aparentemente impulsada por ChatGPT. El equipo dijo que este descubrimiento sugiere que la IA detrás del chatbot probablemente ya se está utilizando para campañas de información más sofisticadas.

Las campañas políticas legítimas también han recurrido al uso de IA antes de las elecciones presidenciales de Estados Unidos en 2024. En abril, el Comité Nacional Republicano produjo un video atacando a Joe Biden que incluía imágenes falsas generadas por IA. Y en junio, una cuenta de redes sociales asociada a Ron Desantis incluyó imágenes generadas por IA en un video destinado a desacreditar a Donald Trump. La Comisión Electoral Federal ha dicho que podría limitar el uso de deepfakes en los anuncios políticos.

Micah Musser, un investigador que ha estudiado el potencial de desinformación de los modelos de lenguaje de IA, espera que las campañas políticas convencionales intenten usar modelos de lenguaje para generar contenido promocional, correos electrónicos de recaudación de fondos o anuncios de ataque. “Es un período totalmente inestable en este momento en el que no está claro cuáles son las normas”, dice.

Musser dice que gran parte del texto generado por IA sigue siendo bastante genérico y fácil de detectar. Pero tener humanos que perfeccionen el contenido generado por IA que promueva la desinformación podría ser altamente efectivo y casi imposible de detener utilizando filtros automatizados, dice.

El CEO de OpenAI, Sam Altman, dijo en un tweet el mes pasado que le preocupa que la inteligencia artificial de su empresa pueda ser utilizada para crear desinformación automatizada y personalizada a gran escala.

Cuando OpenAI puso por primera vez su tecnología de generación de texto a disposición a través de una API, prohibió cualquier uso político. Sin embargo, en marzo, la empresa actualizó su política para prohibir el uso destinado a la producción masiva de mensajes para grupos demográficos específicos. Un artículo reciente del Washington Post sugiere que GPT en sí mismo no bloquea la generación de dicho material.

Kim Malfacini, jefa de políticas de productos en OpenAI, dice que la empresa está explorando cómo se utiliza su tecnología de generación de texto con fines políticos. La gente aún no está acostumbrada a asumir que el contenido que ven puede ser generado por IA, dice. “Es probable que el uso de herramientas de IA en diversas industrias siga creciendo y la sociedad se adaptará a eso”, dice Malfacini. “Pero por el momento creo que las personas aún están en proceso de actualización”.

Dado que ahora hay una gran cantidad de herramientas de IA similares disponibles, incluyendo modelos de código abierto en los que se pueden construir con pocas restricciones, los votantes deberían darse cuenta del uso de la IA en la política cuanto antes.