Deepfakes, chantajes y los peligros de la inteligencia artificial generativa
Peligros de la inteligencia artificial generativa Deepfakes y chantajes
La capacidad de la inteligencia artificial generativa está acelerando rápidamente, pero los videos e imágenes falsos ya están causando un daño real, escribe Dan Purcell, fundador de Ceartas io.
Este reciente anuncio de servicio público del FBI ha advertido sobre los peligros que representan los deepfakes de IA para la privacidad y seguridad en línea. Los ciberdelincuentes son conocidos por explotar y chantajear a individuos manipulando imágenes digitalmente para crear falsificaciones explícitas y amenazando con publicarlas en línea a menos que se pague una suma de dinero.
Esto, y otras medidas que se están tomando, son en última instancia algo bueno. Sin embargo, creo que el problema ya es más extendido de lo que nadie se da cuenta y se necesitan urgentemente nuevos esfuerzos para combatirlo.
¿Por qué los deepfakes se pueden encontrar tan fácilmente?
Lo que me preocupa de los deepfakes dañinos es lo fácil que se pueden encontrar. En lugar de estar en los rincones oscuros y turbios de Internet, se encuentran en las aplicaciones de redes sociales más populares que la mayoría de nosotros ya tenemos en nuestros teléfonos inteligentes.
Un proyecto de ley para criminalizar a quienes comparten imágenes sexuales deepfake de otras personas
El miércoles 10 de mayo, los legisladores del Senado en Minnesota aprobaron un proyecto de ley que, cuando se ratifique, criminalizará a aquellos que compartan imágenes sexuales deepfake de otras personas sin su consentimiento previo. El proyecto de ley fue aprobado casi por unanimidad e incluye a aquellos que comparten deepfakes para influir indebidamente en una elección o dañar a un candidato político.
- ¿Podrían los productos de Apple obtener un anillo inteligente para ...
- ¿Qué es ChatGPT y por qué es importante? Aquí tienes lo que necesit...
- Ofertas Amazon tiene el MacBook Air M1 a un precio récord de $749.9...
Otros estados que han aprobado legislación similar incluyen California, Virginia y Texas.
Me alegra la aprobación de este proyecto de ley y espero que no pase mucho tiempo antes de que se promulgue completamente. Sin embargo, creo que se requiere una legislación más estricta en todos los estados de Estados Unidos y a nivel mundial. La Unión Europea está liderando en este aspecto.
El Senado de Minnesota y las advertencias del FBI
Soy muy optimista de que las acciones contundentes del Senado de Minnesota y las advertencias del FBI generarán un debate nacional sobre este tema crítico. Mis razones son tanto profesionales como profundamente personales. Hace algunos años, una ex pareja mía publicó imágenes sexuales íntimas mías sin mi consentimiento previo.
SIN protección para el individuo afectado, aún
Las fotos estuvieron en línea durante aproximadamente dos años antes de que me enterara, y cuando lo hice, la experiencia fue embarazosa y traumática. Me pareció completamente perturbador que se pudiera cometer tal acto sin recurso para el perpetrador o protección para el individuo afectado por esa acción. Sin embargo, fue el catalizador para mi negocio futuro, ya que me comprometí a desarrollar una solución que rastreara, localizara, verificara y finalmente eliminara contenido de naturaleza no consensual.
Imágenes deepfake que atrajeron interés mundial
Las imágenes deepfake que atrajeron interés y atención mundial recientemente incluyen el arresto del ex presidente Donald Trump, el elegante abrigo de plumas blancas del Papa Francisco y el presidente francés Emmanuel Macron trabajando como recolector de basura. Este último fue durante las huelgas de reforma de pensiones en Francia. La reacción inmediata a estas fotos fue su realismo, aunque muy pocos espectadores se dejaron engañar. ¿Memorable? Sí. ¿Dañino? No del todo, pero el potencial está ahí.
El presidente Biden ha abordado el problema
El presidente Biden, quien recientemente abordó los peligros de la IA con líderes tecnológicos en la Casa Blanca, estuvo en el centro de una controversia de deepfake en abril de este año. Después de anunciar su intención de postularse para la reelección en las elecciones presidenciales de EE. UU. en 2024, el Comité Nacional Republicano (RNC) respondió con un anuncio en YouTube atacando al presidente utilizando imágenes generadas completamente por IA. Un pequeño descargo de responsabilidad en la parte superior izquierda del video lo atestigua, aunque el descargo de responsabilidad era tan pequeño que existe la posibilidad de que algunos espectadores confundan las imágenes como reales.
Si el RNC hubiera optado por seguir un camino diferente y centrarse en la edad avanzada o la movilidad de Biden, las imágenes de IA de él en una residencia de ancianos o en una silla de ruedas podrían influir potencialmente en los votantes con respecto a su idoneidad para ocupar el cargo durante otro mandato de cuatro años.
La manipulación de imágenes tiene el potencial de ser altamente peligrosa
No hay duda de que la manipulación de tales imágenes tiene el potencial de ser altamente peligrosa. La Primera Enmienda se supone que protege la libertad de expresión. Con la tecnología deepfake, el debate político racional y reflexivo está ahora en peligro. Puedo ver cómo los ataques políticos se vuelven cada vez más caóticos a medida que se acerca el año 2024.
Si el presidente de los Estados Unidos puede encontrarse en una posición tan vulnerable en términos de proteger su integridad, valores y reputación, ¿qué esperanza tienen el resto de los ciudadanos del mundo?
Algunos videos deepfake son más convincentes que otros, pero en mi vida profesional he descubierto que no solo los ingenieros informáticos altamente capacitados están involucrados en su producción. Una computadora portátil y algunos conocimientos básicos de informática pueden ser prácticamente todo lo que se necesita, y también hay muchas fuentes de información en línea.
Aprende a distinguir la diferencia entre un video real y uno falso
Para aquellos de nosotros que trabajamos directamente en tecnología, saber la diferencia entre un video real y uno falso es comparativamente fácil. Pero la capacidad de la comunidad en general para detectar un deepfake puede no ser tan simple. Un estudio a nivel mundial en 2022 mostró que el 57 por ciento de los consumidores declararon que podían detectar un video deepfake, mientras que el 43 por ciento afirmó que no podía distinguir la diferencia entre un video deepfake y uno real.
Este grupo incluirá sin duda a aquellos en edad de votar. Lo que esto significa es que deepfakes convincentes tienen el potencial de determinar el resultado de una elección si el video en cuestión involucra a un candidato político.
Inteligencia Artificial Generativa
El músico y compositor Sting recientemente lanzó una declaración advirtiendo que los compositores no deben ser complacientes ya que ahora compiten con sistemas de inteligencia artificial generativa. Puedo entender su punto. Un grupo llamado Human Artistry Campaign está llevando a cabo actualmente una petición en línea para mantener la expresión humana “en el centro del proceso creativo y proteger los medios de vida y el trabajo de los creadores”.
La petición afirma que la IA nunca puede ser un sustituto de los logros y la creatividad humanos. TDM (minería de texto y datos) es una de las varias formas en que la IA puede copiar la voz de un músico o su estilo de composición e implica entrenar grandes cantidades de datos.
La IA puede beneficiarnos como seres humanos.
Aunque puedo ver cómo la IA puede beneficiarnos como seres humanos, me preocupa los problemas que rodean la gobernanza adecuada de la IA generativa dentro de las organizaciones. Estos incluyen falta de transparencia, filtración de datos, sesgos, lenguaje tóxico y derechos de autor.
Debemos tener regulaciones y legislaciones más fuertes.
Sin una regulación más fuerte, la IA generativa amenaza con explotar a las personas, independientemente de si son figuras públicas o no. En mi opinión, el rápido avance de esta tecnología empeorará notablemente esto, y la reciente advertencia del FBI refleja esto.
Mientras esta amenaza continúa creciendo, también lo hace el tiempo y el dinero invertidos en investigación y desarrollo de IA. El valor de mercado global de la IA se estima actualmente en casi 100 mil millones de dólares estadounidenses y se espera que se eleve a casi dos billones de dólares estadounidenses para 2030.
Aquí hay un incidente de la vida real reportado en las noticias, KSL, hoy.
– Por favor, lee para que puedas proteger a tus hijos, especialmente a los adolescentes.
Lee aquí.
Los padres han revelado recientemente esta información para ayudarnos a todos.
Las tres principales categorías fueron robo de identidad y estafas de impostores
La tecnología ya está lo suficientemente avanzada como para generar un video deepfake a partir de una sola imagen, mientras que una versión recreada aceptable de la voz de una persona solo requiere unos segundos de audio. En contraste, entre los millones de informes presentados por los consumidores el año pasado, las tres principales categorías fueron robo de identidad y estafas de impostores, con una pérdida de hasta 8,8 mil millones de dólares en 2022 como resultado.
Volviendo a la ley de Minnesota, los registros muestran que un representante único votó en contra del proyecto de ley para criminalizar a aquellos que comparten imágenes sexuales deepfake. Me pregunto cuál fue su motivación para hacerlo.
¡Yo mismo he sido víctima!
Como víctima yo mismo, he sido bastante vocal sobre el tema, por lo que lo consideraría un problema “claro y concluido”. Cuando me sucedió a mí, me sentí muy solo y no sabía a quién acudir en busca de ayuda. Afortunadamente, las cosas han avanzado a pasos agigantados desde entonces. Espero que este impulso positivo continúe para que otros no experimenten el mismo trauma que yo.
Dan Purcell es el fundador y CEO de Ceartas DMCA, una destacada empresa de protección de derechos de autor y marcas impulsada por IA que trabaja con los principales creadores, agencias y marcas del mundo para prevenir el uso y la distribución no autorizados de su contenido. Visita www.ceartas.io para obtener más información.
Crédito de la imagen destacada: Rahul Pandit; Pexels; ¡Gracias!