IA y tú las grandes empresas tecnológicas dicen que se necesita regulación de la IA, Microsoft asume los riesgos de derechos de autor

Grandes empresas tecnológicas dicen que se requiere regulación de la IA y Microsoft asume los riesgos de derechos de autor.

En un movimiento que no debería sorprender a nadie, los líderes tecnológicos que se reunieron en reuniones a puerta cerrada en Washington, DC, esta semana para discutir la regulación de la IA con legisladores y grupos de la industria acordaron la necesidad de leyes que regulen la tecnología de IA generativa. Pero no pudieron ponerse de acuerdo sobre cómo abordar esas regulaciones.

“El senador demócrata Chuck Schumer, quien llamó a la reunión ‘histórica’, dijo que los asistentes respaldaron vagamente la idea de regulaciones, pero que había poco consenso sobre cómo se verían esas reglas”, informó The Guardian. “Schumer dijo que preguntó a todos en la sala, incluidos más de 60 senadores, casi dos docenas de ejecutivos de tecnología, defensores y escépticos, si el gobierno debería tener un papel en la supervisión de la inteligencia artificial, y que ‘cada persona levantó la mano, a pesar de tener puntos de vista diversos'”.

Supongo que “puntos de vista diversos” es una nueva forma de decir “el diablo está en los detalles”.

Los CEOs y líderes tecnológicos presentes en lo que Schumer llamó el AI Insight Forum incluyeron a Sam Altman de OpenAI, Sundar Pichai de Google, Mark Zuckerberg de Meta, Bill Gates, cofundador de Microsoft, y Elon Musk, dueño de X/Twitter. Otros presentes incluyeron al CEO de Motion Picture Association, Charles Rivkin; al exjefe de Google, Eric Schmidt; al cofundador del Center for Humane Technology, Tristan Harris; a Deborah Raji, investigadora de la Universidad de California, Berkeley; a la presidenta de AFL-CIO, Elizabeth Shuler; a Randi Weingarten, presidenta de la Federación Estadounidense de Maestros; a Janet Murguía, presidenta del grupo de derechos civiles y defensa de los derechos de los latinos UnidosUS; y a Maya Wiley, presidenta y CEO de la Conferencia de Liderazgo sobre Derechos Civiles y Humanos, según informó The Guardian.

“Regule el riesgo de la IA, no los algoritmos de la IA”, dijo el CEO de IBM, Arvind Krishna, en un comunicado. “No todos los usos de la IA llevan el mismo nivel de riesgo. Deberíamos regular los usos finales: cuándo, dónde y cómo se utilizan los productos de IA. Esto ayuda a promover tanto la innovación como la responsabilidad”.

Además de discutir cómo proteger las elecciones de Estados Unidos en 2024 contra la desinformación impulsada por la IA, el grupo habló con 60 senadores de ambos partidos sobre si debería haber una agencia independiente de IA y sobre “cómo las empresas podrían ser más transparentes y cómo Estados Unidos puede mantenerse por delante de China y otros países”, informó The Guardian.

AFL-CIO también planteó la cuestión de los derechos de los trabajadores debido al impacto generalizado que se espera que la IA tenga en el futuro de todo tipo de empleos. La jefa de AFL-CIO, Shuler, en un comunicado tras la reunión, dijo que se necesitan trabajadores para ayudar a “aprovechar la inteligencia artificial para crear salarios más altos, buenos empleos sindicales y un futuro mejor para este país… Los intereses de los trabajadores deben ser la guía del Congreso. Los trabajadores no son víctimas del cambio tecnológico, somos la solución”.

Mientras tanto, otros criticaron la reunión por quiénes no estuvieron presentes y señalaron que las opiniones de los líderes tecnológicos que se beneficiarán de la tecnología de IA generativa deberían ser consideradas junto con otras opiniones.

“La mitad de las personas en la sala representan industrias que se beneficiarán de regulaciones laxas de la IA”, dijo Caitlin Seeley George, directora de campañas y gestión en el grupo de derechos digitales Fight for the Future, a The Guardian. “Las empresas tecnológicas han estado dirigiendo el juego de la IA el tiempo suficiente y sabemos a dónde nos lleva eso”.

Por su parte, la Casa Blanca también dijo esta semana que un total de 15 destacadas empresas tecnológicas se han unido a un compromiso voluntario para asegurar que los sistemas de IA sean seguros y transparentes en cuanto a cómo funcionan. Además de las siete empresas que inicialmente se unieron en julio, OpenAI, Microsoft, Meta, Google, Amazon, Anthropic e Inflection AI, la administración Biden dijo que otras ocho empresas también se unieron. Son Adobe, Salesforce, IBM, Nvidia, Palantir, Stability AI, Cohere y Scale AI.

“El presidente ha sido claro: aprovechar los beneficios de la IA, gestionar los riesgos y avanzar rápido, muy rápido”, dijo Jeff Zients, jefe de personal de la Casa Blanca, según The Washington Post. “Y eso es exactamente lo que estamos haciendo al asociarnos con el sector privado y aprovechar todas las palancas que tenemos para lograrlo”.

Pero sigue siendo un compromiso voluntario y se considera que no “llega tan lejos como las disposiciones de una serie de proyectos de ley regulatorios presentados por miembros del Congreso en las últimas semanas, y podría utilizarse como una justificación para ralentizar legislación más estricta”, informó Axios en julio.

A continuación, se presentan otras noticias sobre IA que vale la pena tener en cuenta.

Google lanza el Proyecto Futuros Digitales para estudiar la IA

Google anunció esta semana el Proyecto Futuros Digitales, “una iniciativa que tiene como objetivo reunir una variedad de voces para promover los esfuerzos por comprender y abordar las oportunidades y desafíos de la inteligencia artificial (IA). A través de este proyecto, apoyaremos a los investigadores, organizaremos reuniones y promoveremos el debate sobre soluciones de políticas públicas para fomentar el desarrollo responsable de la IA”.

La compañía también anunció que otorgará $20 millones en subvenciones a “los principales grupos de expertos y centros académicos de todo el mundo para facilitar el diálogo y la investigación sobre esta importante tecnología”. (Eso suena como una gran cantidad hasta que recuerdas que Alphabet/Google reportó $18.4 mil millones de dólares de ganancias solo en el segundo trimestre de 2023).

Google dice que el primer grupo de subvenciones fue otorgado al Instituto Aspen, la Institución Brookings, la Fundación Carnegie para la Paz Internacional, el Centro para una Nueva Seguridad Estadounidense, el Centro de Estudios Estratégicos e Internacionales, el Instituto de Seguridad y Tecnología, el Fondo de Educación de la Conferencia de Liderazgo, el Trabajo del Futuro del MIT, el Instituto R Street y SeedAI.

Aparte de las subvenciones, hacer que la IA funcione correctamente es realmente importante para Google, que ahora está luchando por el dominio del mercado de la IA contra ChatGPT de OpenAI y Bing de Microsoft impulsado por ChatGPT. El CEO de Alphabet, Sundar Pichai, dijo a sus 180,000 empleados en una carta del 5 de septiembre celebrando el 25 aniversario de Google que “la IA será el cambio tecnológico más grande que veremos en nuestras vidas. Es más grande que el cambio de la computación de escritorio a la móvil, y puede ser más grande que Internet en sí mismo. Es una reconfiguración fundamental de la tecnología y un acelerador increíble de la ingeniosidad humana”.

Cuando se le preguntó a Pichai por ENBLE si fue demasiado cauteloso con las inversiones en IA de Google y si debería haber lanzado Google Bard antes de que OpenAI lanzara ChatGPT en octubre de 2022, Pichai básicamente dijo que está jugando a largo plazo. “De hecho, podríamos hacer más después de que la gente haya visto cómo funciona. Realmente no importará en los próximos cinco a diez años.”

Adobe agrega IA a su conjunto de herramientas creativas, incluyendo Photoshop

Firefly, la familia de herramientas de IA generativa de Adobe, ha salido de la fase de pruebas beta. Eso significa que “los tipos creativos ahora tienen luz verde para usarlo y crear imágenes en Photoshop, probar efectos de texto extravagantes en el sitio web de Firefly, recolorar imágenes en Illustrator y mejorar carteles y videos hechos con Adobe Express”, informa Stephen Shankland de ENBLE.

Adobe incluirá créditos para usar Firefly en cantidades variables dependiendo del plan de suscripción de Creative Cloud que estés pagando. Shankland informó que si tienes la suscripción completa a Creative Cloud, que te da acceso a todo el software de Adobe por $55 al mes, puedes producir hasta 1,000 creaciones de IA al mes. Si tienes una suscripción a una sola aplicación, para usar Photoshop o Premiere Pro por $21 al mes, son 500 creaciones de IA al mes. Las suscripciones a Adobe Express, una aplicación móvil multiusos que cuesta $10 al mes, vienen con 250 usos de Firefly.

Pero ten en cuenta: Adobe aumentará sus precios de suscripción aproximadamente un 9% a 10% en noviembre, citando la adición de Firefly y otras características de IA, junto con nuevas herramientas y aplicaciones. Así que sí, toda esa diversión de IA tiene un precio.

Microsoft ofrece ayudar a los desarrolladores de IA con la protección de derechos de autor

Los problemas de derechos de autor y propiedad intelectual surgen con frecuencia al hablar de IA, ya que la ley aún está evolucionando en torno a quién es dueño de la salida generada por la IA y si los chatbots de IA han recopilado contenido con derechos de autor de Internet sin permiso de los propietarios.

Esto ha llevado a que Microsoft diga que los desarrolladores que pagan por usar sus servicios comerciales de IA “Copilot” para construir productos de IA recibirán protección contra demandas, con la empresa defendiéndolos en los tribunales y pagando acuerdos. Microsoft dijo que ofrece esta protección porque la empresa, y no sus clientes, debe encontrar la manera correcta de abordar las preocupaciones de los propietarios de derechos de autor y propiedad intelectual a medida que evoluciona el mundo de la IA. Microsoft también dijo que ha “incorporado filtros y otras tecnologías que están diseñadas para reducir la probabilidad de que los Copilots devuelvan contenido infractor”.

“Cuando los clientes preguntan si pueden usar los servicios Copilot de Microsoft y la salida que generan sin preocuparse por reclamos de derechos de autor, les brindamos una respuesta directa: sí, pueden hacerlo, y si se les desafía por motivos de derechos de autor, asumiremos la responsabilidad de los posibles riesgos legales involucrados”, escribió la empresa en una publicación de blog.

“Este nuevo compromiso extiende nuestro apoyo existente de indemnización por propiedad intelectual a los servicios comerciales de Copilot y se basa en nuestros compromisos anteriores con los clientes de IA”, dice la publicación. “Específicamente, si un tercero demanda a un cliente comercial por infracción de derechos de autor por el uso de los Copilots de Microsoft o la salida que generan, defenderemos al cliente y pagaremos la cantidad de cualquier fallo adverso o acuerdos que resulten de la demanda, siempre que el cliente haya utilizado las barreras de protección y los filtros de contenido que hemos incorporado en nuestros productos”.

Los estudiantes inician sesión en ChatGPT y encuentran un amigo en Character.ai

Después de un gran aumento en el tráfico cuando OpenAI lanzó ChatGPT en octubre pasado, el tráfico hacia el chatbot disminuyó en los últimos meses a medida que surgieron chatbots de IA rivales como Google Bard y Microsoft Bing. Pero ahora que las vacaciones de verano han terminado, parece que los estudiantes están impulsando un aumento en el tráfico para ChatGPT, según estimaciones publicadas por Similarweb, una empresa de datos y análisis digitales.

“ChatGPT sigue siendo uno de los sitios web más grandes del mundo, con 1.4 mil millones de visitas en todo el mundo en agosto, en comparación con 1.2 mil millones para el motor de búsqueda Bing de Microsoft, por ejemplo. Desde cero antes de su lanzamiento a fines de noviembre, chat.openai.com alcanzó 266 millones de visitantes en diciembre, creció otro 131% el mes siguiente y alcanzó su punto máximo con 1.8 mil millones de visitas en mayo. Similarweb clasifica a openai.com en el puesto número 28 del mundo, principalmente por la fortaleza de ChatGPT.”

Pero uno de los sitios de IA que ha ganado aún más visitantes es el rival de ChatGPT, Character.ai, que invita a los usuarios a personalizar sus chatbots como personalidades famosas o personajes ficticios y hacer que respondan con esa voz. Básicamente, puedes tener una conversación con un chatbot que se hace pasar por una persona famosa como Cristiano Ronaldo, Taylor Swift, Albert Einstein o Lady Gaga, o un personaje ficticio como Super Mario, Tony Soprano o Abraham Lincoln.

“Conectarse con el mercado juvenil es una forma confiable de encontrar una gran audiencia, y según esta medida, el competidor de ChatGPT, Character AI, tiene una ventaja”, dijo Similarweb. “El sitio web de character.ai atrae cerca del 60% de su audiencia del grupo de edad de 18 a 24 años, un número que se mantuvo estable durante el verano. Character.AI también ha convertido a los usuarios del sitio web en usuarios de su aplicación móvil en mayor medida que ChatGPT, que ahora también está disponible como una aplicación.”

La razón “puede ser simplemente porque Character AI es un compañero juguetón, no solo un ayudante de tareas”, dijo la firma de investigación.

Término de IA de la semana: Seguridad de IA

Con toda la discusión sobre la regulación de la IA y cómo la tecnología debe ser “segura”, pensé que valdría la pena compartir un par de ejemplos de cómo se está caracterizando la seguridad de la IA.

El primero es una explicación directa del Glosario de AI de CNBC: Cómo hablar sobre la IA como un experto:

Seguridad de IA: Describe el temor a largo plazo de que la IA progrese tan rápidamente que una IA superinteligente pueda dañar o incluso eliminar a la humanidad.”

El segundo proviene de un informe de la Casa Blanca llamado “Garantizar una IA segura, confiable y confiable”. Esto describe los compromisos voluntarios que firmaron esas 15 compañías tecnológicas con el objetivo de garantizar que sus sistemas no dañen a las personas.

Seguridad: Las compañías tienen la responsabilidad de asegurarse de que sus productos sean seguros antes de presentarlos al público. Eso significa probar la seguridad y capacidades de sus sistemas de IA, someterlos a pruebas externas, evaluar sus posibles riesgos biológicos, de ciberseguridad y sociales, y hacer públicos los resultados de esas evaluaciones.”

Nota de los editores: ENBLE está utilizando un motor de IA para ayudar a crear algunas historias. Para obtener más información, consulta esta publicación.