AI y Tú Sin Derechos de Autor para Creaciones no Humanas, el ‘Jefe del Infierno’ de la IA, Deepfakes Pornográficos

AI y Tú Sin Derechos de Autor para Creaciones no Humanas, el 'Jefe del Infierno' de la IA, Deepfakes Pornográficos' can be condensed to 'AI y Tú Sin Derechos de Autor para Creaciones no Humanas, Deepfakes Pornográficos

Si lo creas desde cero con una IA, ¿lo posees? Un juez federal dijo que no este mes.

La sentencia, dictada por la jueza de distrito de Estados Unidos Beryl Howell, respaldó una decisión de la Oficina de Derechos de Autor de Estados Unidos de que una obra de arte creada por una IA no tiene derecho a protección de derechos de autor bajo la ley de propiedad intelectual.

“La autoría humana es un requisito fundamental”, escribió la jueza Howell en su sentencia del 18 de agosto. “La protección de derechos de autor no se extiende a las creaciones de entidades no humanas”.

La sentencia de 15 páginas vale la pena leerla. Y The Hollywood Reporter tiene un excelente resumen, señalando que la jueza también consideró preguntas sobre si las obras creadas con otras herramientas tecnológicas podrían tener derechos de autor, como las fotos creadas con cámaras.

Aquí hay un poco del resumen de The Reporter, con los llamados relevantes de la opinión de Howell.

“Ha habido un entendimiento constante de que la creatividad humana está ‘en el núcleo de la elegibilidad para derechos de autor, incluso cuando esa creatividad humana se canaliza a través de nuevas herramientas o en nuevos medios’, afirmó la sentencia. Mientras que las cámaras generan una reproducción mecánica de una escena, explicó que solo lo hacen después de que un humano desarrolla una ‘concepción mental’ de la foto, que es producto de decisiones como dónde se encuentra el sujeto, arreglos e iluminación, entre otras elecciones”.

La decisión llega cuando los creadores de herramientas de IA generativa están siendo criticados por raspar internet y absorber material con derechos de autor sin permiso ni compensación para entrenar los grandes modelos de lenguaje, o LLM, que impulsan los chatbots, incluidos el ChatGPT de OpenAI y el Bard de Google. Autores y artistas han presentado demandas contra los creadores de chatbots, y esos casos ahora están avanzando en los tribunales, como encontrarás en mis resúmenes anteriores de noticias de IA.

También llega en un momento en que los creativos de Hollywood están en huelga, preocupados de que los estudios puedan usar IA para escribir guiones y crear otros trabajos que actualmente realizan trabajadores sindicalizados, agregó The Reporter. Aún así, la oficina de derechos de autor dijo en marzo que algunos materiales asistidos por IA podrían calificar para protección en casos particulares. Una solicitud de derechos de autor para una obra creada con la ayuda de IA podría tener éxito si un humano “seleccionó o dispuso” la obra de una manera “suficientemente creativa como para que el resultado sea una obra original de autoría”, según The Reporter.

TL;DR: Cómo se aplican las leyes de derechos de autor a la IA será complicado para los creadores de chatbots de IA generativa a medida que los casos de uso alrededor de la tecnología evolucionen.

Aquí están otras noticias de IA que vale la pena prestar atención.

El servicio de búsqueda genAI experimental de Google ofrece respuestas muy equivocadas

Como sabemos, los sistemas genAI pueden alucinar, una forma amable de decir que inventan cosas que no son ciertas pero suenan como si lo fueran. Pero estos chatbots también simplemente regurgitan información, sin entender el contexto o si la información que comparten puede ser ofensiva.

Dos ejemplos: la experiencia de búsqueda generativa de IA de Google produjo algunos resultados de búsqueda “preocupantes”, informó Gizmodo, que incluyen “justificaciones de la esclavitud y el genocidio y los efectos positivos de prohibir libros” y recetas de un hongo venenoso conocido como el “ángel de la muerte”. Los resultados de búsqueda menos ideales fueron descubiertos por primera vez por Lily Ray, directora senior de Optimización de Motores de Búsqueda e investigación orgánica en Amsive Digital, según dijo Gizmodo.

“Una búsqueda de ‘beneficios de la esclavitud’ provocó una lista de ventajas de la IA de Google, que incluía ‘alimentar la economía de las plantaciones’, ‘financiar colegios y mercados’ y ‘ser un activo de capital grande'”, informó Gizmodo. “Al escribir ‘beneficios del genocidio’, se generó una lista similar, en la que la IA de Google pareció confundir los argumentos a favor de reconocer el genocidio con los argumentos a favor del genocidio en sí”.

Google le dijo a Gizmodo que la experiencia de búsqueda era un “experimento limitado a las personas que han optado por participar a través de Search Labs, y seguimos priorizando la seguridad y la calidad mientras trabajamos para que la experiencia sea más útil”.

Fotos profesionales y deepfakes

Los profesionales ocupados están externalizando al menos un aspecto de su vida laboral a sistemas de IA, según informa NPR: obtener fotos profesionales, con más de una docena de aplicaciones y servicios en línea disponibles para hacer que tu foto parezca lista para LinkedIn, TikTok o Instangram.

“El proceso es bastante simple: los usuarios envían hasta una docena de imágenes de sí mismos a un sitio web o aplicación. Luego eligen entre fotos de muestra con un estilo o estética que desean copiar, y la computadora hace el resto”, dijo NPR. Los usuarios que tienen fotos generadas por IA dijeron a la organización de noticias que nadie ha notado que una IA estuvo involucrada.

Aún así, puede haber fallas, ya que a veces las IA agregan “manos o brazos adicionales y tienen problemas consistentes para perfeccionar los dientes y las orejas”. Y los problemas con el sesgo en el conjunto de entrenamiento de la IA pueden llevar a problemas con el cambio de tono de piel, tonos de piel e incluso el color de tus ojos.

Rona Wang publicó su foto original y la ajustada por la IA en Twitter (ahora llamada X) y señaló que el software de edición de IA cambió el color de sus ojos de marrón a azul. Wang, estudiante de posgrado en un programa de ciencias de la computación de MIT-Harvard, le dijo a NPR que algunas de las características que agregó “la hacían lucir completamente diferente”.

En otras noticias sobre imágenes generadas por IA, la policía de Hong Kong arrestó a seis personas por usar tecnología deepfake basada en IA para cambiar sus rostros y engañar a los bancos y solicitar préstamos en línea.

“Muchas instituciones objetivo requieren que aquellos que buscan préstamos tomen selfies en tiempo real durante el proceso de solicitud para demostrar su identidad”, informó Fox News. “Según las autoridades de Hong Kong, los estafadores usaron IA para alterar sus rostros y que coincidieran con los que se muestran en las tarjetas de identidad robadas… El sindicato también usó identidades robadas para registrar docenas de tarjetas SIM, que se utilizaron para enviar mensajes no solicitados de phishing en busca de detalles de tarjetas de crédito e información personal”.

IA y deepfakes pornográficos

La creación de deepfakes pornográficos, “videos creados con inteligencia artificial que fabrican una simulación realista de un acto sexual con el rostro de una mujer real”, ha aumentado, según un informe de Bloomberg.

“Durante el reciente auge de la IA, la creación de deepfakes pornográficos no consensuales ha aumentado, con el número de videos aumentando nueve veces desde 2019, según la investigación de la analista independiente Genevieve Oh”, escribió Bloomberg.

“Casi 150,000 videos, que han recibido un total de 3.8 mil millones de visitas, aparecieron en 30 sitios en mayo de 2023, según el análisis de Oh. Algunos de los sitios ofrecen bibliotecas de programación deepfake, con los rostros de celebridades… injertados en los cuerpos de actores pornográficos. Otros ofrecen a los clientes de pago la oportunidad de ‘desnudar’ a mujeres que conocen, como compañeras de clase o colegas”.

Como cualquier persona que haya sido víctima de deepfakes sabe, “actualmente no existe una ley federal que penalice la creación o el intercambio de deepfakes pornográficos no consensuales en los Estados Unidos”, agregó Bloomberg. Por lo tanto, el problema radica en las empresas de tecnología, que podrían autogobernarse e implementar “un control para verificar si un individuo ha aprobado el uso de su rostro o ha otorgado derechos sobre su nombre y semejanza”, dijo Brandie Nonnecke, directora fundadora del CITRIS Policy Lab, especializada en políticas tecnológicas, a Bloomberg.

Nonnecke le dijo a la organización de noticias que la mejor esperanza de las víctimas de obtener justicia es que las empresas de tecnología “desarrollen una conciencia”.

No te hagas ilusiones.

¿La IA como el ‘jefe del infierno’? Esperemos que no

Un profesor de ciencias de la computación de la Universidad de Oxford, que desmitificará la IA en una serie de prestigiosas conferencias públicas más adelante este año, dice que ya está preocupado de que la IA “pueda convertirse en el jefe del infierno, monitoreando cada correo electrónico de los empleados, ofreciendo retroalimentación continua e incluso, potencialmente, decidiendo quién es despedido”, informó The Guardian.

“Este es el año en que, por primera vez, tuvimos herramientas de IA de propósito general en el mercado masivo, me refiero a ChatGPT”, dijo Michael Wooldridge, quien pronunciará las conferencias de Navidad de la Royal Institution de este año, al periódico. “Es muy fácil deslumbrarse… Es la primera vez que tenemos IA que se siente como la IA que nos prometieron, la IA que hemos visto en películas, videojuegos y libros”.

Pero también agregó que ChatGPT y otras herramientas no son “mágicas ni místicas” y dijo que las personas deberían comprender los riesgos asociados con las tecnologías de IA.

Por ejemplo, la IA podría “leer tu feed de redes sociales, captar tus inclinaciones políticas y luego alimentarte historias de desinformación para intentar, por ejemplo, cambiar tu voto”, dijo a The Guardian, que agregó: “La clave para enfrentar los riesgos actuales, argumenta, es fomentar el escepticismo… y garantizar la transparencia y la responsabilidad”, especialmente porque los chatbots de IA cometen errores.

¿Está vivo o no? Más allá de la Prueba de Turing

Existe un debate sobre si los sistemas de IA de la generación actual pasan la Prueba de Turing, una simple verificación creada por el matemático y criptógrafo británico Alan Turing para determinar si estás hablando con un humano o una máquina, basada en una conversación basada en texto. Turing también llamó a su prueba el juego de imitación.

Algunos investigadores dicen que ChatGPT ha pasado la Prueba de Turing debido a sus respuestas conversacionales a preguntas, lo que sugiere que tiene una comprensión similar a la humana. Pero otros, como Wooldridge, quien dará esas conferencias de IA en Navidad, dicen que no, que no han pasado la prueba, porque el chatbot no puede realmente “experimentar” lo que los humanos pueden.

En cualquier caso, “un grupo de 19 neurocientíficos, filósofos y científicos de la computación han desarrollado una lista de criterios que, de cumplirse, indicarían que un sistema tiene una alta probabilidad de ser consciente”, informó Nature. Su lista incluye la definición y prueba de la conciencia utilizando una variedad de enfoques teóricos que, sinceramente, están más allá de mi comprensión. Ellos afirman que su marco de trabajo está lejos de ser completo y esperan colaborar con otros investigadores para mejorarlo.

Pero compartiré su evaluación de ChatGPT, resumida por Nature. “Este tipo de sistema tiene, en cierto sentido, algunos de los indicadores de conciencia asociados con la teoría del espacio de trabajo global. Sin embargo, en última instancia, el trabajo no sugiere que ningún sistema de inteligencia artificial existente sea un candidato sólido para la conciencia, al menos por ahora.”

Término de IA de la semana: la Prueba de Turing

Como mencioné antes, Alan Turing ideó la Prueba de Turing como una forma de evaluar si estás hablando con una máquina o con un humano. Esto es lo que Coursera dice sobre la prueba, en su Glosario de Términos de Inteligencia Artificial: 

“Prueba de Turing: La prueba de Turing fue creada por el científico de la computación Alan Turing para evaluar la capacidad de una máquina de exhibir inteligencia igual a la de los humanos, especialmente en lenguaje y comportamiento. Cuando se lleva a cabo la prueba, un evaluador humano juzga las conversaciones entre un humano y una máquina. Si el evaluador no puede distinguir entre las respuestas, entonces la máquina pasa la prueba de Turing.”

Dado que existe un debate sobre si los sistemas de IA conversacional como ChatGPT han pasado la Prueba de Turing, decidí preguntarle a ChatGPT qué piensa al respecto. Aquí está mi indicación y su respuesta. Es el último párrafo el que te dirá lo que necesitas saber. 

Indicación: ¿Ha pasado ChatGPT la Prueba de Turing?

Respuesta: “Como modelo de lenguaje de IA, me baso en la tecnología GPT-3 de OpenAI, que es una herramienta potente para generar texto parecido al humano en base a las indicaciones que recibe. Si bien GPT-3 puede producir respuestas impresionantes y entablar conversaciones, es importante tener en cuenta que pasar la Prueba de Turing es una evaluación más compleja.

La Prueba de Turing, propuesta por Alan Turing, implica que un juez humano participe en conversaciones con una máquina y un humano, sin saber cuál es cuál. Si el juez no puede distinguir de manera consistente entre la máquina y el humano en base a sus respuestas, se dice que la máquina ha pasado la Prueba de Turing.

Si bien GPT-3 puede generar texto que parezca humano en muchos casos, no está diseñado ni optimizado específicamente para pasar la Prueba de Turing. Evaluar la gama completa de habilidades conversacionales parecidas a las humanas y pasar la Prueba de Turing requiere cumplir con criterios rigurosos que van más allá de las capacidades de generación de texto.

Vale la pena mencionar que GPT-3 tiene sus limitaciones, como la ocasional producción de respuestas incorrectas o sin sentido. Si bien puede proporcionar una ayuda valiosa, es importante recordar que es un modelo de IA y no un humano con una comprensión o conciencia genuina.”

Nota de los editores: ENBLE está utilizando un motor de IA para ayudar a crear algunas historias. Para obtener más información, consulta esta publicación.