Esta desinformación es solo para ti
Desinformación solo para ti
Ahora se entiende bien que la inteligencia artificial generativa aumentará la propagación de la desinformación en Internet. Desde deepfakes hasta noticias falsas y bots, la IA generará no solo más desinformación, sino también desinformación más convincente. Pero lo que las personas están empezando a entender es cómo la desinformación se volverá más dirigida y mejorará su capacidad para interactuar con las personas y influir en sus opiniones.
Cuando Rusia intentó influir en las elecciones presidenciales de Estados Unidos en 2016 a través de la ahora disuelta Agencia de Investigación de Internet, la operación fue llevada a cabo por humanos que a menudo tenían poca fluidez cultural o incluso fluidez en el idioma inglés, por lo que no siempre podían relacionarse con los grupos a los que apuntaban. Con herramientas de IA generativa, aquellos que realizan campañas de desinformación podrán ajustar su enfoque al perfilar a individuos y grupos. Estos operativos pueden producir contenido que parece legítimo y relacionable para las personas al otro lado e incluso dirigirse a individuos con desinformación personalizada basada en datos que han recopilado. Los expertos dicen que la IA generativa también facilitará mucho más la producción de desinformación y, por lo tanto, aumentará la cantidad de desinformación que fluye libremente en Internet.
“La IA generativa reduce la barrera financiera para crear contenido adaptado a ciertas audiencias”, dice Kate Starbird, profesora asociada en el Departamento de Diseño e Ingeniería Centrada en el Humano de la Universidad de Washington. “Puedes adaptarlo a las audiencias y asegurarte de que la narrativa se ajuste a los valores y creencias de esas audiencias, así como a la parte estratégica de la narrativa”.
En lugar de producir solo unos pocos artículos al día, agrega Starbird, “puedes escribir un artículo y adaptarlo a 12 audiencias diferentes. Te lleva cinco minutos para cada uno de ellos”.
Teniendo en cuenta la cantidad de contenido que las personas publican en las redes sociales y otras plataformas, es muy fácil recopilar datos para construir una campaña de desinformación. Una vez que los operativos son capaces de perfilar diferentes grupos de personas en todo un país, pueden enseñar al sistema de IA generativa que están utilizando a crear contenido que manipule a esos objetivos de manera altamente sofisticada.
- Según informes, Apple sería un socio ideal para distribuir ESPN, pe...
- Shein acusada de prácticas anticompetitivas en su expansión global
- Las mejores ofertas de accesorios de Apple para la vuelta a clases ...
“Vas a ver esa capacidad de ajustar fino. Vas a ver que la precisión aumenta. Vas a ver que la relevancia aumenta”, dice Renee Diresta, directora de investigación técnica en el Observatorio de Internet de Stanford.
Hany Farid, profesor de ciencias de la computación en la Universidad de California, Berkeley, dice que este tipo de desinformación personalizada estará “en todas partes”. Aunque los actores malintencionados probablemente apuntarán a personas por grupos al llevar a cabo una campaña de desinformación a gran escala, también podrían utilizar la IA generativa para dirigirse a individuos.
“Podrías decir algo como: ‘Aquí tienes un montón de tweets de este usuario. Por favor, escríbeme algo que les resulte interesante’. Eso se automatizará. Creo que eso probablemente llegará”, dice Farid.
Los propagadores de desinformación intentarán todo tipo de tácticas hasta encontrar lo que funcione mejor, dice Farid, y gran parte de lo que está sucediendo con estas campañas de desinformación probablemente no se entenderá completamente hasta después de que hayan estado en funcionamiento durante algún tiempo. Además, solo necesitan ser algo efectivas para lograr sus objetivos.
“Si quiero lanzar una campaña de desinformación, puedo fallar el 99 por ciento del tiempo. Fallas todo el tiempo, pero no importa”, dice Farid. “De vez en cuando, la teoría de la conspiración de QAnon se filtra. La mayoría de tus campañas pueden fallar, pero las que no lo hacen pueden causar estragos”.
Farid dice que durante el ciclo electoral de 2016 vimos cómo los algoritmos de recomendación en plataformas como Facebook radicalizaron a las personas y ayudaron a propagar la desinformación y las teorías de conspiración. En la antesala de las elecciones de Estados Unidos en 2024, es probable que el algoritmo de Facebook, en sí mismo una forma de IA, recomiende algunas publicaciones generadas por IA en lugar de solo promocionar contenido creado totalmente por actores humanos. Hemos llegado al punto en el que se utilizará IA para crear desinformación que otra IA recomendará.
“Hemos sido engañados bastante bien por contenido de muy baja calidad. Estamos entrando en un período en el que vamos a recibir desinformación y propaganda de mayor calidad”, dice Starbird. “Va a ser mucho más fácil producir contenido adaptado para audiencias específicas de lo que era antes. Creo que simplemente tendremos que ser conscientes de que eso ya está aquí”.
¿Qué se puede hacer al respecto? Desafortunadamente, solo se puede hacer tanto. Diresta dice que las personas deben ser conscientes de estas amenazas potenciales y tener más cuidado con el contenido con el que interactúan. Por ejemplo, dice que debes verificar si tu fuente es un sitio web o un perfil de redes sociales que se creó recientemente. Farid dice que también se debe presionar a las empresas de IA para que implementen salvaguardias y se reduzca la creación de desinformación en general.
La administración de Biden recientemente llegó a un acuerdo con algunas de las mayores empresas de IA, como OpenAI, creadora de ChatGPT, Google, Amazon, Microsoft y Meta, que les anima a crear reglas específicas para sus herramientas de IA, incluyendo pruebas externas de estas herramientas y marca de agua en el contenido creado por IA. Estas empresas de IA también han creado un grupo enfocado en desarrollar estándares de seguridad para las herramientas de IA, y el Congreso está debatiendo cómo regular la IA.
A pesar de estos esfuerzos, la IA está avanzando más rápido de lo que se está controlando, y Silicon Valley a menudo no cumple con las promesas de lanzar solo productos seguros y probados. Y aunque algunas empresas se comporten de manera responsable, eso no significa que todos los actores en este espacio actuarán de la misma manera.
“Esta es la historia clásica de los últimos 20 años: liberar tecnología, invadir la privacidad de todos, causar estragos, convertirse en compañías de valoración de billones de dólares y luego decir: ‘Bueno, sí, sucedieron cosas malas'”, dice Farid. “Estamos repitiendo los mismos errores, pero ahora está supercargado porque estamos lanzando estas cosas a través de dispositivos móviles, redes sociales y un caos que ya existe”.