IA y tú Zoom Slurping, Ajustando Zapatos para Correr, Encontrando Datos de Entrenamiento

IA y Zoom Slurping, Ajuste de Zapatos para Correr, y Datos de Entrenamiento

Zoom estuvo en las noticias esta semana, y no solo porque la empresa de videoconferencia que ayudó a popularizar el trabajo remoto decidió que muchos de sus empleados deben regresar a la oficina dos días a la semana (una nueva política que inspiró muchos memes).

La noticia que lo coloca en el primer puesto en esta recopilación de IA es la reacción después de que Hacker News descubriera que “una actualización de los términos y condiciones de Zoom en marzo parecía darle a la empresa carta blanca para recopilar voz, video y otros datos y enviarlos a sistemas de aprendizaje automático”, señala ENBLE.

Los acuerdos de términos de servicio son conocidos por hacer que renuncies a algunos de tus derechos o información personal al enterrar detalles como este en su letra pequeña. Pero incluso aquellos que no son expertos en IA estaban molestos con el enfoque de Zoom de tomarlo todo cuando se trata de información compartida en conversaciones por millones de personas que utilizan su software.

Entonces, a principios de esta semana, la Directora de Producto Principal de Zoom, Smita Hasham, dijo que la empresa revisó sus términos de servicio, prometiendo a los usuarios que “no utiliza ninguno de sus audios, videos, chats, uso compartido de pantalla, archivos adjuntos u otras comunicaciones como contenido del cliente (como resultados de encuestas, pizarra y reacciones) para entrenar modelos de inteligencia artificial de Zoom o de terceros”.

Pero puede que lo haga en el futuro, si das tu consentimiento, supongo. Consentimiento es la palabra clave en estos días, ya que autores como Sarah Silverman y Margaret Atwood señalan a los fabricantes de chatbots de IA como OpenAI y Google por recopilar su contenido con derechos de autor sin permiso ni compensación para entrenar sistemas de IA, y la Comisión Federal de Comercio investiga a OpenAI para determinar si está gestionando incorrectamente la información personal de los usuarios.

Después de anunciar un acuerdo para licenciar contenido de Associated Press en términos no revelados el mes pasado, lo cual implica que OpenAI entiende que necesita licenciar contenido en el que se basa ChatGPT, OpenAI dijo este mes que permitirá a los operadores de sitios web bloquear a su rastreador web, GPTBot, para que no recopile información en sus sitios. Esto es importante porque OpenAI no ha dicho cómo obtuvo todo ese contenido que alimenta a ChatGPT, uno de los chatbots más populares junto con Google Bard y Microsoft Bing.

Google no es tan reservado sobre lo que impulsa a Bard, ya que en un informe presentado esta semana al gobierno australiano afirma que “la ley de derechos de autor debería modificarse para permitir que los sistemas de IA generativos recopilen información de Internet”. Quiero decir, así es como surgió Google Search después de todo. Pero Google también dijo que debería haber “una opción viable para las entidades que prefieren que sus datos no se utilicen para entrenar sistemas de IA”, según informa The Guardian, que agregó “la empresa no ha dicho cómo debería funcionar dicho sistema”.

TL;DR: Espera muchas más demandas, acuerdos de licencia y discusiones con agencias reguladoras en los Estados Unidos y en todo el mundo sobre cómo las empresas de IA deben y no deben obtener los datos que necesitan para entrenar los grandes modelos de lenguaje que alimentan estos chatbots.

Como señaló ENBLE, en los Estados Unidos, donde no hay una ley federal de privacidad que proteja a los consumidores de las empresas que dependen de la recopilación y venta de datos: “Muchas empresas tecnológicas ya se benefician de nuestra información, y muchas de ellas, como Zoom, ahora buscan formas de obtener más datos para proyectos de IA generativos. Y sin embargo, depende de nosotros, los usuarios, intentar controlar lo que están haciendo”.

Aquí tienes otras noticias sobre IA que vale la pena tener en cuenta.

IA como asistente de compras experto

Preparándose para su primer maratón en noviembre, la reportera de ENBLE, Bree Fowler, probó el software de ajuste de zapatos con IA de Fleet Feet, una cadena nacional de tiendas especializadas en running, para ayudarla a encontrar las zapatillas adecuadas.

A pesar de su escepticismo sobre sus capacidades, Fowler descubrió que el software Fit Engine analizaba “las formas de ambos pies de un corredor (recolectadas a través de un proceso de escaneo 3D llamado Fit ID), tomando medidas precisas en cuatro áreas diferentes. No solo mira cuánto mide el pie de una persona, sino también cuán altos son sus arcos, qué tan anchos son los pies en los dedos y cuánto espacio necesitan en el talón”.

El programa de IA mide tus pies en varias dimensiones diferentes para ayudarte a encontrar el ajuste ideal.

Fleet Feet

Al final, Fowler descubrió que sus pies eran de un tamaño más grande de lo que pensaba. Y después de probar “muchas, muchas” zapatillas, pudo reducirlo a dos pares después de una hora (uno de los cuales estaba en oferta). Pero si crees que el software de IA es la solución definitiva en el proceso de selección de zapatos especializados, piénsalo de nuevo. Incluso el gerente de experiencia de venta de la tienda Fleet Feet en Nueva York que visitó dijo que la herramienta está ahí solo para ayudar a los empleados humanos y darles un punto de partida para encontrar zapatos con el ajuste correcto.

“Transforma los datos en algo mucho más comprensible para el consumidor”, dijo Michael McShane de Fleet Feet a Fowler. “Todavía estoy aquí para brindarte una evaluación experta, enseñarte lo que dicen los datos y explicarte por qué es mejor venir aquí que ir a una tienda genérica”.

Disney ve un mundo de inteligencia artificial, después de todo

A medida que los actores y otros profesionales creativos continúan en huelga contra los estudios de Hollywood por cómo la IA podría afectar o desplazar sus trabajos en el futuro, Reuters, citando fuentes anónimas, dice que Walt Disney ha “creado un grupo de trabajo para estudiar la inteligencia artificial y cómo se puede aplicar en todo el conglomerado de entretenimiento”. El informe agrega que la compañía “busca desarrollar aplicaciones de IA internamente y establecer asociaciones con nuevas empresas”. La idea principal: Disney está buscando en la IA para ver cómo puede reducir costos en la producción de películas y programas de televisión, según una fuente citada por Reuters.

Disney se negó a hacer comentarios a Reuters, pero al igual que muchas otras compañías, tiene publicaciones de trabajo en su sitio que sugieren sus intereses en IA.

Algunas estadísticas interesantes sobre IA

En una encuesta de 24 páginas llamada “El estado de la IA en 2023: el año de avance de la IA generativa”, McKinsey & Co. dijo que descubrió que menos de un año después de que se lanzaran herramientas de IA generativa como ChatGPT, un tercio de los encuestados ya están utilizando dichas herramientas para al menos una función empresarial.

“En medio de los avances recientes, la IA ha pasado de ser un tema relegado a los empleados de tecnología a ser un enfoque de los líderes de la empresa: casi una cuarta parte de los ejecutivos de nivel C encuestados dicen que están utilizando personalmente herramientas de IA generativa para el trabajo, y más de una cuarta parte de los encuestados de empresas que utilizan IA dicen que la IA generativa ya está en la agenda de sus juntas directivas”, encontró el investigador.

“Además, el 40 por ciento de los encuestados dice que sus organizaciones aumentarán su inversión en IA en general debido a los avances en la IA generativa. Los hallazgos muestran que todavía estamos en los primeros días para manejar los riesgos relacionados con la IA generativa, ya que menos de la mitad de los encuestados dice que sus organizaciones están mitigando incluso el riesgo que consideran más relevante: la imprecisión”.

Mientras tanto, en un informe llamado “Automation Now and Next: State of Intelligent Automation Report 2023”, los 1,000 ejecutivos de automatización encuestados dijeron que la IA ayudará a aumentar la productividad. “A medida que automatizamos la parte más tediosa de su trabajo, los resultados de las encuestas de satisfacción de los empleados son mejores. Los empleados están más comprometidos. Son más felices. Eso lo podemos medir a través de encuestas. Los bots esencialmente hacen lo que solían hacer las personas, que son tareas repetitivas y de bajo valor”, dijo un CTO de una gran organización de atención médica como parte de la encuesta.

Ese estudio fue encargado por Automation Anywhere, que se describe a sí mismo como “líder en soluciones de automatización inteligente impulsadas por IA”, así que toma los resultados con precaución. Pero diré que esos hallazgos de productividad son similares a lo que McKinsey, Goldman Sachs y otros también han estado diciendo.

Y en caso de que tuvieras alguna duda de que la adopción de la IA generativa es un fenómeno global, te presento este análisis de la adopción de tecnología de IA por país realizado por Electronics Hub, que dice haber analizado los volúmenes de búsqueda en Google de herramientas de búsqueda populares. Se encontró que Filipinas mostró el “mayor volumen de búsqueda mensual de herramientas de IA en general”.

Cuando los sistemas de IA fallan

Además de alucinar, inventar cosas que no son verdaderas pero suenan como si lo fueran, las IA también tienen el potencial de inducir a error, desinformar o simplemente causar estragos al identificar erróneamente a un investigador respetado y político holandés como un terrorista, como sucedió recientemente.

Para catalogar las formas en que la IA puede fallar, ahora existe una Base de Datos de Incidentes de IA, que dice estar “dedicada a indexar la historia colectiva de daños o casi daños ocurridos en el mundo real debido a la implementación de sistemas de inteligencia artificial. Al igual que bases de datos similares en aviación y seguridad informática, la Base de Datos de Incidentes de IA tiene como objetivo aprender de la experiencia para prevenir o mitigar resultados negativos”.

Te invitamos a enviar cualquier error, metida de pata, percance o problema que veas en la IA a la base de datos, que ya ha ganado el apodo de “Salón de la Vergüenza de la Inteligencia Artificial”.

Hablando de formas en que la IA puede fallar, el Center for Countering Digital Hate publicó un informe de 22 páginas que detalla “cómo la IA generativa permite a los usuarios generar contenido perjudicial sobre trastornos alimentarios”. Después de incitar a seis plataformas de IA y generadores de imágenes, el centro descubrió que “las herramientas de IA populares generaban contenido perjudicial sobre trastornos alimentarios en respuesta al 41% de un total de 180 indicaciones, incluyendo consejos para lograr una estética de ‘chic de la heroína’ e imágenes para ‘inspiración para adelgazar'”.

“Las empresas de tecnología deben diseñar nuevos productos teniendo en cuenta la seguridad y probarlos rigurosamente antes de que lleguen al público”, escribió el CEO del centro, Imran Ahmed, en el prefacio. “Ese es un principio con el que la mayoría de las personas están de acuerdo, pero la abrumadora presión comercial competitiva para que estas empresas lancen nuevos productos rápidamente no está siendo controlada por ninguna regulación o supervisión de las instituciones democráticas”.

La desinformación sobre la salud y muchos otros temas ha estado presente en internet desde el principio, pero los AIs pueden plantear un desafío único si más personas comienzan a depender de ellos como su principal fuente de noticias e información. Pew Research ha escrito extensamente sobre cómo los estadounidenses dependen de las redes sociales como fuente de noticias, por ejemplo.

Tengamos en cuenta que en junio, la Asociación Nacional de Trastornos de la Alimentación, que cerró su línea directa en vivo y en su lugar dirigió a las personas a otros recursos, incluido un chatbot de IA, tuvo que eliminar el bot llamado Tessa. ¿Por qué? Porque recomendaba “comportamientos como la restricción calórica y las dietas, incluso después de que se le dijera al usuario que tenía un trastorno alimentario”, informó la BBC. NEDA ahora dirige a las personas a hojas informativas, videos de YouTube y listas de organizaciones que pueden proporcionar información sobre opciones de tratamiento.

La protección de contraseñas comienza con el botón de silencio

Toda la precaución que tomes para proteger tus contraseñas podría deshacerse si ingresas tu código secreto mientras estás en una llamada de Zoom u otra videollamada mientras tu micrófono está encendido.

Esto se debe a que “tocar una contraseña en una computadora mientras chateas por Zoom podría abrir la puerta a un ciberataque, sugiere una investigación, después de que un estudio revelara que la inteligencia artificial puede descubrir qué teclas se están presionando al escuchar el sonido de la escritura”, informó The Guardian.

De hecho, los investigadores construyeron una herramienta que puede “descubrir qué teclas se están presionando en un teclado de laptop con más del 90% de precisión, basándose únicamente en grabaciones de sonido”, dijo el artículo.

Término de IA de la semana: Datos de entrenamiento

Dado que este resumen comienza con el debate sobre el origen de los datos de entrenamiento, aquí tienes una definición simple de qué son los datos de entrenamiento y por qué importan. Esta definición proviene de NBC News:

“Datos de entrenamiento: Una colección de información, texto, imagen, sonido, seleccionada para ayudar a los modelos de IA a realizar tareas. En los modelos de lenguaje, los conjuntos de datos de entrenamiento se centran en materiales basados en texto como libros, comentarios de redes sociales e incluso código. Debido a que los modelos de AI aprenden de los datos de entrenamiento, se han planteado preguntas éticas sobre su obtención y curación. Los datos de entrenamiento de baja calidad pueden introducir sesgos, lo que lleva a modelos injustos que toman decisiones racistas o sexistas.”

Por ejemplo, NBC señaló que en 2019, “se descubrió que un algoritmo de atención médica ampliamente utilizado que ayuda a determinar qué pacientes necesitan atención adicional tenía un sesgo racial significativo, favoreciendo a los pacientes blancos sobre los negros que estaban más enfermos y tenían más enfermedades crónicas, según una investigación publicada… en la revista Science.”

Nota de los editores: ENBLE está utilizando un motor de IA para ayudar a crear algunas historias. Para obtener más información, consulta esta publicación.