IA y tú Big Tech va a Washington DC, Google se enfrenta a los anuncios políticos ‘sintéticos

IA y Big Tech en Washington DC, Google y anuncios políticos 'sintéticos

El senador Chuck Schumer invitó a los líderes de las grandes empresas tecnológicas a un Foro de Inteligencia Artificial en Washington, DC, mientras Estados Unidos trabaja para determinar cómo regular la inteligencia artificial. Las reuniones a puerta cerrada, programadas para el 13 de septiembre, se centrarán en los riesgos y oportunidades que se avecinan a medida que el público continúa adoptando herramientas como ChatGPT de Open AI y Bard de Google.

Se espera que los ejecutivos que asistan sean los líderes destacados del sector tecnológico. Los CEO incluyen a Sam Altman de OpenAI, Mark Zuckerberg de Meta, Sayta Nadella de Microsoft, Sundar Pichai de Alphabet/Google, Elon Musk de Tesla y Jensen Huang de Nvidia, según Reuters. Schumer dijo que el foro será el primero de una serie de discusiones bipartidistas que se llevarán a cabo este otoño y que las conversaciones serán “de alto nivel, diversas, pero, sobre todo, equilibradas”.

“Legislar sobre la inteligencia artificial ciertamente no será fácil”, dijo Schumer en declaraciones del 6 de septiembre publicadas en el sitio web de los demócratas del Senado. “De hecho, será una de las cosas más difíciles que hayamos emprendido, pero no podemos comportarnos como avestruces que entierran la cabeza en la arena cuando se trata de la inteligencia artificial”.

“Nuestros Foros de Inteligencia Artificial”, dijo Schumer, “convocarán a algunas de las voces más destacadas de Estados Unidos en el campo de la inteligencia artificial, provenientes de diferentes ámbitos y con diferentes puntos de vista. Ejecutivos y líderes de derechos civiles. Investigadores, defensores, voces del trabajo, la defensa, los negocios y las artes”.

Mientras el Reino Unido y la Unión Europea avanzan en sus esfuerzos por regular la tecnología de inteligencia artificial, la Casa Blanca presentó el año pasado un borrador de una Carta de Derechos de la IA, que vale la pena leer si aún no la has visto. Fue creado por la Oficina de Ciencia y Tecnología de la Casa Blanca y tiene cinco principios fundamentales. Según la carta, los estadounidenses:

  • Deben estar protegidos de sistemas inseguros o ineficaces.
  • No deben enfrentar discriminación por algoritmos, y los sistemas deben ser utilizados y diseñados de manera equitativa.
  • Deben estar protegidos de prácticas abusivas de datos a través de protecciones incorporadas, y deben tener control sobre cómo se utilizan los datos sobre ellos.
  • Deben saber cuándo se utiliza un sistema automatizado y entender cómo y por qué contribuye a resultados que les afectan.
  • Deben poder optar por no participar cuando sea apropiado, y tener acceso a una persona que pueda considerar y solucionar rápidamente los problemas que encuentren.

Aquí hay otras actividades relacionadas con la inteligencia artificial que vale la pena tener en cuenta.

Google quiere que el ‘contenido sintético’ en los anuncios políticos esté etiquetado

Con herramientas de inteligencia artificial generativas de fácil uso que han llevado a un aumento de anuncios políticos engañosos, como informó Oscar González de ENBLE, Google actualizó esta semana su política de contenido político para exigir que los anunciantes electorales “divulguen de manera prominente cuando sus anuncios contengan contenido sintético que represente de manera inauténtica personas o eventos reales o realistas”.

Google ya prohíbe los “deepfakes”, es decir, imágenes manipuladas por IA que reemplazan la apariencia de una persona con la de otra en un intento de engañar o confundir al espectador. Pero esta política actualizada se aplica a la IA utilizada para manipular o crear imágenes, videos y audio de manera más sutil. Se mencionan varias técnicas de edición, como “ajuste de tamaño de imagen, recorte, correcciones de color o brillo, corrección de defectos (por ejemplo, eliminación de ‘ojos rojos’) o ediciones de fondo que no creen representaciones realistas de eventos reales”. La nueva política se detalla aquí.

¿Qué significa todo esto en realidad? Dado lo fácil que es utilizar herramientas como ChatGPT de OpenAI y Dall-E 2 para crear contenido realista, la esperanza aquí es que al obligar a los creadores de contenido a declarar claramente que su anuncio contiene imágenes, texto o audio falsos, puedan ser más cuidadosos en cómo llevan a cabo sus manipulaciones. Especialmente si quieren compartirlos en sitios populares de Google, incluido YouTube, que llega a más de 2.500 millones de personas al mes.

Tener una etiqueta prominente en un anuncio manipulado por IA, la etiqueta debe ser clara y visible en un lugar donde “es probable que los usuarios la noten”, dijo Google, podría ayudarnos a todos a discernir la veracidad de los mensajes que estamos viendo. (Aunque el hecho de que algunas personas todavía crean que las elecciones de 2020 fueron robadas a pesar de que eso es falso sugiere que los humanos quieren creer lo que desean creer, independientemente de los hechos).

“La actualización de la política se produce en medio de la temporada de campañas para las elecciones presidenciales de Estados Unidos en 2024 y a medida que varios países de todo el mundo se preparan para sus propias elecciones importantes en el mismo año”, informó CNN sobre la actualización de la política de Google. “Expertos en integridad de la información digital han levantado alarmas de que estas nuevas herramientas de IA podrían dar lugar a una ola de desinformación electoral para la cual las plataformas de redes sociales y los reguladores pueden no estar preparados”.

Google dice que está persiguiendo dos cosas: en primer lugar, está tratando de detener los anuncios políticos que hacen parecer “como si una persona estuviera diciendo o haciendo algo que no dijo o hizo”, y en segundo lugar, tiene como objetivo evitar cualquier anuncio “que altere imágenes de un evento real o genere una representación realista de un evento para representar escenas que en realidad no ocurrieron”. Creo que cualquier persona razonable estaría de acuerdo en que esas no son buenas características de un anuncio político.

Los críticos pueden decir que esto es solo un pequeño paso para combatir la desinformación, pero al menos es un paso adelante.

Cómo la inteligencia artificial cambiará el futuro del trabajo

Ha habido muchos informes que destacan cómo la IA generativa llevará al fin de ciertos trabajos, reescribirá otros trabajos y creará nuevas categorías enteras de trabajos, como he mencionado al recapitular numerosos informes sobre el tema.

Bueno, aquí hay una evaluación del 16 de julio de McKinsey and Co. que analiza “Generative AI y la figura del trabajo en América” hasta 2030, incluyendo qué trabajos estarán en demanda y cuáles desaparecerán. El informe de 76 páginas identifica “ocupaciones resilientes y en crecimiento”, así como ocupaciones de las que los trabajadores ya se han alejado (como servicio al cliente, ventas y servicios de alimentos).

Dos conclusiones: el 30% de las horas trabajadas hoy podrían ser automatizadas para 2030, lo que significa que las descripciones de trabajo deberán modificarse para resaltar cómo los trabajadores podrían utilizar su tiempo en su lugar. Y los nuevos conjuntos de habilidades requeridos en un mundo orientado hacia la IA, en un momento en que la fuerza laboral en general en los Estados Unidos está disminuyendo, significan que “los empleadores deberán contratar habilidades y competencias en lugar de credenciales, reclutar a poblaciones ignoradas (como trabajadores rurales y personas con discapacidades), y ofrecer capacitación que se mantenga al día con sus necesidades en evolución”, dijo McKinsey.

Enfrentando a los artistas contra la IA

Sin duda, has leído historias sobre cómo una IA podría reemplazar un trabajo o hacerlo de manera diferente a un humano, especialmente cuando se trata de escribir o crear imágenes. En agosto, The New York Times examinó cómo la IA se está desempeñando contra los comediantes. TL;DR: Los comediantes aún no tienen que preocuparse, ya que la mayoría de las IA son imitadoras en lugar de creadoras y la comedia “depende de la novedad y la sorpresa”.

Eso es lo que también descubrió Katie Collins de ENBLE después de asistir al festival de artes más grande del mundo. Alrededor del 20% de los 40 espectáculos que vio en el Festival Fringe de Edimburgo en Escocia eran “sobre IA, incluían referencias a ella o eran de alguna manera co-creados por ella”.

“Ingresé al Festival Fringe de Edimburgo este año preguntándome si los espectáculos sobre IA podrían aprovechar la tecnología de formas novedosas que me impresionaran o me dieran una perspectiva diferente sobre la tecnología”, escribió Collins.

“La respuesta breve: la IA tiene un largo camino por recorrer antes de poder mantenerse al ritmo de los artistas humanos para deleitar y divertir a las audiencias… Cómo nosotros, como meros mortales, ridiculizamos a la IA, la examinamos, la admiramos y nos reímos de ella también continuará evolucionando, y eso es importante. ¿Cómo se espera que la IA aprenda qué nos resulta realmente divertido a menos que lo hagamos nosotros?”

Por diversión (con juego de palabras incluido), le pregunté a ChatGPT cuál era el chiste más divertido que había escuchado. Esto es lo que obtuve:

Como modelo de lenguaje de IA, no tengo experiencias personales ni opiniones, por lo que no tengo un chiste “más divertido” que haya escuchado. Sin embargo, puedo generar un chiste aleatorio para ti:

¿Por qué los científicos no confían en los átomos?

¡Porque lo componen todo!

Oye ChatGPT, los átomos no son los únicos que inventan cosas.

OpenAI está ganando mil millones, Apple está gastando miles de millones en IA

La popularidad de ChatGPT de OpenAI está llevando a la empresa a alcanzar mil millones de dólares en ventas anuales, incluso mientras los visitantes del chatbot disminuyeron por tercer mes consecutivo en agosto.

La startup, respaldada por Microsoft, Khosla Ventures, A16z, Sequoia Ventures, inversionistas como Reid Hoffman y otros, está obteniendo alrededor de $80 millones de ingresos cada mes después de ganar $28 millones en todo 2022 y perder $540 millones desarrollando GPT-4 y ChatGPT, según The Information. El sitio de noticias informó que OpenAI se negó a comentar.

¿De dónde viene ese dinero? OpenAI gana dinero mediante la licencia de su tecnología de IA a empresas y mediante la oferta de suscripciones de ChatGPT a individuos, que pagan $20 al mes por una versión “Plus” que la compañía dice que es más rápida y segura que la oferta gratuita. The Information informó que a partir de marzo, OpenAI tiene entre 1 y 2 millones de suscriptores individuales.

Pero la popularidad de ChatGPT no necesariamente significa grandes ganancias para OpenAI, señaló Fortune. “Incluso si comienza a generar ganancias, OpenAI no podrá aprovechar plenamente su éxito por un tiempo”, dijo Fortune. “Los términos de su acuerdo a principios de este año con Microsoft le otorgan a la compañía detrás de Windows el derecho al 75% de las ganancias de OpenAI hasta que recupere los $13 mil millones que ha invertido hasta la fecha”.

Mientras tanto, Apple está “expandiendo su presupuesto informático para construir inteligencia artificial a millones de dólares al día”, informó The Information, añadiendo que Apple ha estado trabajando en el desarrollo de un modelo de lenguaje genAI a gran escala durante los últimos cuatro años.

“Uno de sus objetivos es desarrollar funciones como una que permita a los clientes de iPhone utilizar comandos de voz sencillos para automatizar tareas que involucren múltiples pasos, según personas familiarizadas con el esfuerzo”, dijo The Information. “La tecnología, por ejemplo, podría permitir a alguien decirle al asistente de voz Siri en su teléfono que cree un GIF utilizando las últimas cinco fotos que ha tomado y enviárselo a un amigo. Hoy en día, un usuario de iPhone tiene que programar manualmente las acciones individuales”.

En este momento, simplemente estaría contento si Siri entendiera lo que estoy diciendo desde el principio.

El escritor fantasma de Heart on My Sleeve quiere un contrato discográfico

En abril, la industria musical y los compositores estaban preocupados por una canción llamada Heart on My Sleeve creada por un creador desconocido llamado Ghostwriter utilizando versiones falsas de inteligencia artificial de las voces de Drake y The Weeknd. Considerada una brillante estrategia de marketing, la canción acumuló millones de reproducciones antes de ser retirada de los servicios de streaming. El problema no era la calidad musical de la canción (meh), sino las implicaciones legales y de derechos de autor sobre quién recibiría regalías por esta especie de copia generada por inteligencia artificial, que los analistas en ese momento describieron como uno de los “últimos y más sonoros ejemplos de un género de área gris en auge: utilizar inteligencia artificial generativa para aprovechar sonidos que pueden pasar por auténticos”.

Ahora se informa que Ghostwriter y su equipo han estado reuniéndose con “sellos discográficos, líderes tecnológicos, plataformas musicales y artistas para determinar la mejor manera de aprovechar los poderes de la IA, incluida una discusión en una mesa redonda virtual este verano organizada por la Academia de Grabación, la organización detrás de los premios Grammy”, informó The New York Times esta semana.

Ghostwriter publicó una nueva canción llamada Whiplash, que utiliza filtros vocales de IA para imitar las voces de los raperos Travis Scott y 21 Savage. Puedes escucharla en Twitter (ahora conocido como el servicio llamado X) y ver cómo una persona cubierta con una sábana blanca se sienta en una silla detrás del mensaje, “Usé IA para hacer una canción de Travis Scott feat. 21 Savage… el futuro de la música está aquí. ¿Quién quiere ser el siguiente?”

“Tan pronto como escuché esa canción, supe que era algo con lo que teníamos que lidiar desde el punto de vista de la Academia, pero también desde el punto de vista de la comunidad musical e industrial”, dijo Harvey Mason Jr., quien lidera la Academia de Grabación, al Times. “Cuando empiezas a ver que la IA está involucrada en algo tan creativo y tan genial, relevante y actual, inmediatamente te hace pensar, ‘ok, ¿hacia dónde va esto? ¿Cómo va a afectar a la creatividad? ¿Cuáles son las implicaciones comerciales para la monetización?'”

Un portavoz de Ghostwriter dijo al Times que Whiplash, al igual que Heart on My Sleeve, “fue una composición original escrita y grabada por humanos. Ghostwriter intentó igualar el contenido, la entrega, el tono y la entonación de las estrellas establecidas antes de utilizar componentes de IA”.

TL;DR: Ese género de área gris podría volverse rentable si las discográficas y los artistas afectados aceptan la propuesta del equipo de Ghostwriter de lanzar oficialmente estas canciones y llegar a un acuerdo de licencia.

Quiénes son las personas impulsando el movimiento de la IA

La revista Time publicó esta semana su primera lista de las 100 personas más influyentes que trabajan en el campo de la inteligencia artificial. Es una mezcla de empresarios, tecnólogos, influenciadores y académicos. Pero lo que más destaca de Time es su recordatorio sobre la importancia de los humanos en el proceso.

Según Time, “detrás de cada avance en el aprendizaje automático y los modelos de lenguaje a gran escala hay, de hecho, personas: tanto el trabajo humano a menudo oscurecido que hace que los modelos de lenguaje a gran escala sean más seguros de usar, como las personas que toman decisiones críticas sobre cuándo y cómo utilizar mejor esta tecnología”.

Frase de la semana sobre ética en la IA: ética de la IA

Con preguntas sobre quién posee qué cuando se trata de contenido generado por IA, cómo se debe utilizar la IA de manera responsable y cómo establecer límites para prevenir daños a los seres humanos, es importante comprender todo el debate sobre la ética de la IA. La explicación de esta semana proviene de IBM, que también cuenta con un útil centro de recursos sobre el tema.

“Ética de la IA: La ética es un conjunto de principios morales que nos ayudan a discernir entre lo correcto y lo incorrecto. La ética de la IA es un campo multidisciplinario que estudia cómo optimizar el impacto beneficioso de la IA mientras se reducen los riesgos y los resultados adversos. Ejemplos de cuestiones éticas de la IA incluyen la responsabilidad y privacidad de los datos, la equidad, la explicabilidad, la robustez, la transparencia, la sostenibilidad ambiental, la inclusión, la agencia moral, la alineación de valores, la responsabilidad, la confianza y el mal uso de la tecnología.”

Nota de los editores: ENBLE está utilizando un motor de IA para ayudar a crear algunas historias. Para más información, consulta este artículo.