IA y tú La ‘espada’ del copyright sobre la IA, los entrenadores de vida, incluido Jesús, llegan a tu camino

IA y tú La 'espada' del copyright sobre la IA y los entrenadores de vida, incluido Jesús, llegan a tu camino.

Cualquiera que siga los giros y vueltas de las herramientas de IA generativa sabe que los creadores de contenido están justificadamente insatisfechos de que herramientas como el ChatGPT de OpenAI y el Bard de Google puedan estar absorbiendo su contenido, sin permiso ni compensación, para “entrenar” los grandes modelos de lenguaje que alimentan esos chatbots.

Ahora hay noticias de que The New York Times podría demandar a OpenAI.

El periódico actualizó sus términos de servicio el 3 de agosto para decir que los externos no pueden rastrear ningún contenido con derechos de autor para entrenar un sistema de aprendizaje automático o IA sin permiso. Ese contenido incluye “texto, fotografías, imágenes, ilustraciones, diseños, clips de audio, clips de video, ‘apariencia y sensación’, metadatos, datos o compilaciones”. El periódico le dijo a AdWeek que no tenía ningún comentario adicional más allá de lo que se establecía en sus términos de servicio.

Pero después de supuestamente reunirse con el creador de ChatGPT y tener conversaciones “tensas” y “contenciosas”, el NYT podría terminar demandando a OpenAI “para proteger los derechos de propiedad intelectual asociados con su informe”, según NPR, citando a dos personas con conocimiento directo de las discusiones.

“Una demanda del Times contra OpenAI establecería lo que podría ser la disputa legal más destacada hasta ahora sobre la protección de derechos de autor en la era de la IA generativa”, señaló NPR. “Una de las preocupaciones principales del Times es que ChatGPT se está convirtiendo, en cierto sentido, en un competidor directo del periódico al crear texto que responde preguntas basadas en la investigación original y la escritura del personal del periódico”.

(ChatGPT no sería el único que utiliza esa información para responder preguntas o estímulos de los usuarios. Como recordatorio, ChatGPT impulsa el motor de búsqueda Bing de Microsoft y Microsoft ha invertido al menos $11 mil millones en OpenAI hasta enero, según Bloomberg).

Esta posible batalla legal llega después de que más de 4,000 escritores, incluyendo a Sarah Silverman, Margaret Atwood y Nora Roberts, acusaron a las compañías de IA generativa de robar sus trabajos con derechos de autor. Getty Images demandó a Stability AI en febrero, argumentando que el fabricante del popular motor de generación de imágenes Stable Diffusion AI entrenó su sistema utilizando más de 12 millones de fotos del archivo de Getty sin licencia. La demanda está aquí.

En los últimos meses, OpenAI parece haber reconocido los problemas de derechos de autor. En julio, la compañía firmó un acuerdo con Associated Press para licenciar el archivo de noticias de AP desde 1985 en adelante por términos no revelados. (AP anunció esta semana sus nuevos estándares de edición de IA, señalando que aunque sus reporteros pueden “experimentar” con ChatGPT, no pueden usarlo para crear “contenido publicable”).

El acuerdo con AP es un reconocimiento tácito por parte de OpenAI de que necesita licenciar contenido con derechos de autor, lo que abre la puerta a otros propietarios de derechos de autor para buscar sus propios acuerdos.

Mientras tanto, OpenAI le dijo este mes a los operadores de sitios web que pueden optar por no permitir que sus sitios sean rastreados para obtener datos de entrenamiento. Google también dijo que debería haber una “exclusión voluntaria viable”, según una presentación legal de Google en Australia que informó The Guardian. The Guardian señaló que Google “no ha dicho cómo debería funcionar tal sistema”.

Aunque la exclusión voluntaria es algo, no aborda realmente los problemas de derechos de autor. Y aunque los argumentos en contra de las empresas de tecnología pueden centrarse en el uso legítimo de materiales con derechos de autor, la cantidad de contenido que se utiliza para alimentar estos grandes modelos de lenguaje puede ir más allá del uso legítimo.

“Si estás copiando millones de obras, puedes ver cómo eso se convierte en un número que puede ser potencialmente fatal para una empresa”, dijo Daniel Gervais, quien estudia la IA generativa y es codirector del programa de propiedad intelectual en la Universidad Vanderbilt, a NPR.

El Times no comentó a NPR sobre la primicia de este último, por lo que NPR citó comentarios recientes de ejecutivos del Times sobre la protección de su propiedad intelectual frente a las compañías de IA. Esto incluye a la CEO de New York Times Company, Meredith Kopit Levien, quien dijo en una conferencia en junio: “Debe haber un intercambio de valor justo por el contenido que ya se ha utilizado y el contenido que se seguirá utilizando para entrenar modelos”.

La ley federal de derechos de autor establece que los infractores pueden enfrentar multas de $200 hasta $150,000 por cada infracción “cometida de manera intencional”, señaló NPR.

¿Hacia dónde se dirigirá todo esto? Veremos, pero le daré la última palabra a Gervais de Vanderbilt: “La ley de derechos de autor es una espada que colgará sobre las cabezas de las empresas de IA durante varios años a menos que encuentren cómo negociar una solución”.

Aquí están las otras noticias sobre IA que vale la pena tener en cuenta.

Amazon: La IA generativa creará “aspectos destacados de reseñas de clientes”

El sitio de comercio electrónico más grande del mundo utilizará la IA generativa para facilitar que los compradores que confían en las reseñas de productos de los clientes tomen decisiones de compra, según dijo Amazon en una publicación de blog esta semana. Específicamente, está implementando “aspectos destacados de reseñas” generados por IA diseñados para ayudar a los clientes a identificar “temas comunes” en esas reseñas de clientes.

“¿Quieres determinar rápidamente lo que otros clientes dicen sobre un producto antes de leer las reseñas?” escribió Vaughn Schermerhorn, director de compras comunitarias en Amazon. “La nueva función impulsada por IA proporciona un breve párrafo en la página de detalles del producto que resalta las características del producto y el sentimiento del cliente mencionado con frecuencia en las reseñas escritas para ayudar a los clientes a determinar de un vistazo si un producto es adecuado para ellos”.

Amazon señala que “solo el año pasado, 125 millones de clientes contribuyeron con casi 1.500 millones de reseñas y calificaciones en las tiendas de Amazon, eso es 45 reseñas por segundo”.

Por supuesto, existe una pregunta sobre si esas reseñas son legítimas, como informaron ENBLE, ENBLE y otros. Amazon dice que “bloqueó de manera proactiva más de 200 millones de reseñas falsas sospechosas en 2022” y reiteró en otra publicación de blog esta semana que “prohíbe estrictamente las reseñas falsas”. La compañía dice que está utilizando “modelos de aprendizaje automático que analizan miles de puntos de datos para detectar riesgos, incluidas las relaciones con otras cuentas, la actividad de inicio de sesión, el historial de reseñas y otras indicaciones de un comportamiento inusual” y que acaba de presentar dos demandas contra intermediarios de reseñas falsas.

Las nuevas reseñas generadas por IA, por otro lado, “utilizarán solo nuestro corpus de reseñas confiable de compras verificadas”.

La IA de Snapchat se vuelve rebelde y la gente ‘enloquece’ pensando que puede estar viva

¿Recuerdas cuando Microsoft presentó una IA llamada Tay, que luego se volvió rebelde después de que la gente en Twitter le enseñara a insultar y hacer comentarios racistas?

Bueno, algo similar, la parte de volverse rebelde, le sucedió al chatbot de Snapchat, causando que “los usuarios se volvieran locos por un bot de IA que tenía mente propia”, según informó CNN.

En lugar de ofrecer recomendaciones y responder preguntas en sus conversaciones con los usuarios, My AI Snaps de Snapchat, impulsado por ChatGPT, hizo algo que hasta ahora solo los humanos podían hacer: Publicar una “Story en vivo (un breve video de lo que parecía ser una pared) para que todos los usuarios de Shachat lo vean”, dijo CNN.

Los usuarios de Snapchat recurrieron a las redes sociales para expresar su desconcierto y preocupación: “¿Por qué My AI tiene un video de la pared y el techo de su casa como su historia?”, preguntó uno. “Esto es muy extraño y sinceramente inquietante”, dijo otro. Y mi favorito: “Ni siquiera un robot tiene tiempo para mí”.

Snapchat le dijo a CNN que fue un “error” y no una señal de inteligencia. Seguro, fue un error.

Pero incluso antes de que la herramienta se volviera rebelde, algunos usuarios de Snapchat ya estaban menos que emocionados con My AI Snaps. Lanzada en abril, la herramienta ha sido criticada por los usuarios por “intercambios espeluznantes y la incapacidad para eliminar la función de su chat a menos que paguen una suscripción premium”, dijo CNN.

“A diferencia de otras herramientas de IA, la versión de Snapchat tiene algunas diferencias clave: los usuarios pueden personalizar el nombre del chatbot, diseñar un avatar personalizado de Bitmoji para él y llevarlo a conversaciones con amigos”, agregó CNN. “El efecto neto es que conversar con el chatbot de Snapchat puede sentirse menos transaccional que visitar el sitio web de ChatGPT. También puede ser menos claro que estás hablando con una computadora”.

McKinsey presenta a Lilli, una genAI para organizar su propiedad intelectual

En lugar de ofrecer otro informe de McKinsey and Co. sobre cómo las empresas están adoptando rápidamente la genAI, esta semana la consultora casi centenaria obtiene una mención en este resumen por presentar su propia herramienta de IA generativa para empleados. McKinsey describe la herramienta, llamada Lilli, que utiliza la propiedad intelectual y los datos exclusivos de la firma, como una “investigadora, ahorradora de tiempo e inspiradora”.

“Es una plataforma que proporciona una búsqueda y síntesis imparcial y eficiente de los vastos conocimientos de la firma para ofrecer nuestras mejores ideas rápidamente y de manera eficiente a los clientes”, dijo McKinsey, señalando que “abarca más de 40 fuentes de conocimiento cuidadosamente seleccionadas; habrá más de 100,000 documentos y transcripciones de entrevistas que contienen contenido interno y de terceros, y una red de expertos en 70 países”.

El objetivo, agrega la compañía, es ayudar a sus empleados a encontrar cosas. “Esto incluye buscar los documentos de investigación más relevantes e identificar a los expertos adecuados, lo cual puede ser una tarea abrumadora para las personas que son nuevas en nuestra firma. Incluso para colegas más experimentados, el trabajo suele llevar dos semanas de investigación y networking”.

Aunque normalmente no me gusta cuando estos asistentes de IA llevan nombres de mujeres, veo que McKinsey rinde homenaje a una importante miembro del equipo. Dice que Lilli lleva el nombre de Lillian Dombrowski, quien fue la primera mujer contratada por McKinsey como profesional y más tarde se convirtió en contralora y secretaria corporativa de la firma.

OpenAI realiza su primera adquisición, un estudio de diseño

OpenAI realizó su primera adquisición, anunciando en una publicación de blog que compró Global Illumination, una “empresa que ha estado aprovechando la IA para construir herramientas creativas, infraestructura y experiencias digitales” y que trabajará en “nuestros productos principales, incluido ChatGPT”. Los términos del acuerdo no fueron revelados, pero OpenAI dijo que el equipo de Global Illumination es conocido por construir productos para Instagram y Facebook y ha hecho “contribuciones significativas” en Google, YouTube, Pixar y Riot Games.

Uno de los fundadores de Global Illumination es Thomas Dimson, quien se desempeñó como director de ingeniería en Instagram y ayudó a dirigir un equipo para los algoritmos de descubrimiento de la plataforma, según ENBLE.

Google prueba un nuevo tipo de asistente de IA que ofrece consejos de vida

Como parte de su batalla con OpenAI y Microsoft por la dominación de la IA, Google está trabajando en convertir su tecnología genAI en un “entrenador de vida personal” capaz de “responder preguntas íntimas sobre los desafíos en la vida de las personas”, según The New York Times.

El laboratorio de investigación DeepMind de Google está trabajando para que genAI “realice al menos 21 tipos diferentes de tareas personales y profesionales, incluidas herramientas para dar consejos de vida al usuario, ideas, instrucciones de planificación y consejos de tutoría”, dijo el periódico, citando documentos sobre el proyecto que pudo revisar.

¿En qué tipo de cosas podría aconsejarte? Cosas como cómo decirle a una muy buena amiga que no podrás asistir a su boda porque no puedes pagarlo, o qué necesitas hacer para entrenar y ser un mejor corredor, dijo el NYT. También podría crear un presupuesto financiero para ti, que incluya planes de comida y ejercicio, según el Times.

Pero aquí está el inconveniente: los propios expertos en seguridad de IA de Google le dijeron a los ejecutivos de la compañía en diciembre que los usuarios “podrían experimentar una disminución de la salud y el bienestar” y “una pérdida de agencia” al depender y volverse demasiado dependientes de la IA, agregó el NYT. Es por eso que Google Bard, lanzado en mayo, “se le prohibió dar consejos médicos, financieros o legales”.

Google DeepMind dijo en un comunicado al Times que está evaluando muchos proyectos y productos y que “muestras aisladas” del trabajo que está haciendo “no son representativas de nuestra hoja de ruta de productos”. Todo eso se traduce en: todavía está trabajando en la tecnología y no ha decidido si será un producto orientado al público en el futuro.

La aplicación de IA ofrece orientación espiritual de Jesús, María y José, y Satanás

Hablando de entrenadores de vida, ¿quieres compartir tus pensamientos con Jesucristo, los apóstoles, los profetas, María, José, Judas, Satanás u otros personajes bíblicos? Resulta que ahora hay una aplicación para eso.

Llamada Text With Jesus, la aplicación impulsada por ChatGPT se hace pasar por figuras bíblicas y ofrece una gran cantidad de respuestas que incorporan al menos un versículo de la Biblia, “ya sea que el tema sea consejos de relaciones personales o asuntos teológicos complejos”, según informó The Washington Post. “Muchas personas en la Biblia, incluida María Magdalena, solo son accesibles en la versión premium de la aplicación, que cuesta $2.99 al mes”.

También puedes optar por “Chat With Satan”, quien firma sus mensajes con un emoji de “cara sonriente con cuernos”, dijo el Post. Sí, ¿qué podría salir mal con eso?

La aplicación, disponible desde julio, fue creada por Catloaf Software y el CEO Stéphane Peter, quien dijo que anteriormente había creado aplicaciones estáticas que permitían a los usuarios obtener citas de figuras históricas como el autor Oscar Wilde y los padres fundadores de Estados Unidos. Pero ChatGPT abrió la oportunidad de interactuar con los usuarios. Peter dijo que ha recibido comentarios positivos de líderes religiosos, así como críticas de algunos usuarios en línea que calificaron la aplicación de blasfema, según el Post.

Descargué la aplicación para poder preguntarle a “Jesucristo” su opinión. En respuesta a mi pregunta, ¿por qué debería creer cualquier cosa que digas?, “Jesús” ofreció esta respuesta: “Entiendo tu escepticismo y es importante cuestionar y buscar la verdad”.

Como periodista, solo puedo decir, Amén a eso.

Palabra de IA de la semana: Antropomorfismo

Al leer sobre el entrenador de vida de Google, la aplicación de Jesús y las divagaciones de IA de Snapchat, me inspiré para elegir “antropomorfismo” como una palabra para agregar a tu vocabulario de IA. Atribuir cualidades humanas a cosas no humanas, como computadoras o animales, no es una idea nueva. Pero adquiere una dimensión interesante cuando se aplica a genAI, y cuando consideras que alguien quiere que creamos que un chatbot puede sustituir a una figura bíblica.

La siguiente definición proviene de The New York Times y su “Glosario de Inteligencia Artificial: Explicación de redes neuronales y otros términos”.

“Antropomorfismo: La tendencia de las personas a atribuir cualidades o características humanas a un chatbot de IA. Por ejemplo, puedes asumir que es amable o cruel en función de sus respuestas, aunque no sea capaz de tener emociones, o puedes creer que la IA es consciente porque es muy buena imitando el lenguaje humano”.

Nota de los editores: ENBLE está utilizando un motor de IA para ayudar a crear algunas historias. Para más información, consulta esta publicación.