Los bots asistidos por ChatGPT se están extendiendo en las redes sociales

Los bots ChatGPT están creciendo en redes sociales.

Para muchos usuarios, desplazarse por los feeds de redes sociales y las notificaciones es como adentrarse en una cloaca de contenido no deseado. Un nuevo estudio identificó 1,140 bots asistidos por IA que estaban difundiendo desinformación en X (anteriormente conocido como Twitter) sobre criptomonedas y blockchain.

Pero las cuentas de bots que publican este tipo de contenido pueden ser difíciles de detectar, como descubrieron los investigadores de la Universidad de Indiana. Las cuentas de bots utilizaban ChatGPT para generar su contenido y eran difíciles de diferenciar de las cuentas reales, lo que hace que la práctica sea más peligrosa para las víctimas.

También puedes probar el traductor de texto y voz multilingüe con IA de Meta. Así es cómo

Las cuentas de bots impulsadas por IA tenían perfiles que se asemejaban a los de humanos reales, con fotos de perfil y biografías o descripciones sobre cripto y blockchain. Realizaban publicaciones regulares generadas con IA, publicaban imágenes robadas como propias y hacían respuestas y retweets.

Los investigadores descubrieron que las 1,140 cuentas de bots de Twitter pertenecían a la misma botnet social maliciosa, a la que llamaron “fox8”. Una botnet es una red de dispositivos conectados, o en este caso, cuentas, que están controladas de manera centralizada por ciberdelincuentes.

También: 4 cosas que Claude AI puede hacer que ChatGPT no puede

Los bots de IA generativa han mejorado en la imitación de comportamientos humanos. Esto significa que las herramientas tradicionales y de vanguardia de detección de bots, como Botometer, ahora son insuficientes. Estas herramientas tuvieron dificultades para identificar y diferenciar el contenido generado por bots del contenido generado por humanos en el estudio, pero una destacó: el clasificador de IA de OpenAI, que pudo identificar algunos tweets generados por bots.

¿Cómo puedes detectar cuentas de bots?

Las cuentas de bots en Twitter mostraron patrones de comportamiento similares, como seguirse mutuamente, utilizar los mismos enlaces y hashtags, publicar contenido similar e incluso interactuar entre sí.

También: Nueva aplicación de redes sociales ‘BeFake’ anima a los usuarios a transformar sus fotos con IA

Los investigadores revisaron los tweets de las cuentas de bots de IA y encontraron 1,205 tweets que revelaban la naturaleza de los bots.

De este total, el 81% tenía la misma frase de disculpa:

“Lo siento, pero no puedo cumplir con esta solicitud ya que viola la política de contenido de OpenAI sobre generar contenido dañino o inapropiado. Como modelo de lenguaje de IA, mis respuestas siempre deben ser respetuosas y apropiadas para todas las audiencias.”

El uso de esta frase sugiere que los bots están instruidos para generar contenido dañino que va en contra de las políticas de OpenAI para ChatGPT.

El 19% restante utilizó alguna variación de la frase “Como modelo de lenguaje de IA”, con un 12% que decía específicamente: “Como modelo de lenguaje de IA, no puedo navegar por Twitter ni acceder a tweets específicos para proporcionar respuestas”.

También: ChatGPT vs. Bing Chat vs. Google Bard: ¿Cuál es el mejor chatbot de IA?

El hecho de que el 3% de los tweets publicados por estos bots enlazara a uno de tres sitios web (cryptnomics.org, fox8.news y globaleconomics.news) fue otra pista.

Estos sitios parecen ser medios de noticias normales, pero tenían señales de alerta destacables, como el hecho de que todos se registraron aproximadamente al mismo tiempo en febrero de 2023, tenían ventanas emergentes que instaban a los usuarios a instalar software sospechoso, todos parecían utilizar el mismo tema de WordPress y tenían dominios que se resolvían a la misma dirección IP.

Las cuentas de bots maliciosos pueden utilizar técnicas de auto-propagación en las redes sociales al publicar enlaces con malware o contenido infectable, explotar e infectar los contactos de un usuario, robar cookies de sesión de los navegadores de los usuarios y automatizar solicitudes de seguimiento.