AWS facilita el desarrollo de aplicaciones de IA para las empresas | ENBLE
AWS facilita el desarrollo de aplicaciones de IA para las empresas | ENBLE' (English 'AWS facilitates the development of AI applications for businesses | ENBLE')
El futuro de la inteligencia artificial se está convirtiendo rápidamente en una experiencia lista para usar que las empresas pueden personalizar en función de sus necesidades específicas. Experiencias de chat optimizadas que van más allá de preguntas y respuestas y herramientas para crear aplicaciones de IA sin meses de desarrollo de programación podrían ser el siguiente paso después de introducir nuevos complementos y extensiones.
Herramientas más comunes, como ChatGPT para información y Midjourney para imágenes, se basan en datos públicos y programación consistente de desarrolladores para crear un producto final. Mientras tanto, Amazon Web Services (AWS) se compromete a crear IA generativa que no solo sea más productiva y fácil de navegar, sino también única y segura para las empresas que implementan sus herramientas.
La marca está utilizando plataformas como Amazon Bedrock para abrirse un espacio único en el nuevo mercado de la IA. Su centro principal ha estado disponible desde abril y alberga varios de los que llama Modelos Fundamentales (FMs). AWS ha entrenado inicialmente estas API de nivel base y ofrece a las organizaciones las características estándar de IA que desean. Las organizaciones pueden combinar y combinar sus FMs preferidos y luego continuar desarrollando aplicaciones, agregando sus propios datos propietarios para satisfacer sus necesidades únicas.
“Como proveedor, básicamente entrenamos estos modelos en un gran corpus de datos. Una vez que el modelo está entrenado, hay un punto de corte. Por ejemplo, enero de 2023, luego el modelo no tiene ninguna información después de ese punto, pero las empresas quieren datos, que son privados”, dijo Atul Deo, Gerente General de Producto e Ingeniería de Amazon Bedrock, a ENBLE.
Cada empresa y los modelos fundamentales que utiliza serán diferentes, por lo que cada aplicación resultante será única en función de la información que las organizaciones proporcionen a un modelo. Los FMs ya son plantillas base. Luego, utilizar información de código abierto para poblar los modelos puede hacer que las aplicaciones sean repetitivas entre empresas. La estrategia de AWS brinda a las empresas la oportunidad de hacer que sus aplicaciones sean únicas al introducir sus propios datos.
- Las cifras de ventas de GPU muestran que AMD es su propio peor enem...
- Google comienza a advertir a los usuarios sobre posibles eliminacio...
- Obtén 20TB de almacenamiento en la nube de por vida por solo $100 e...
“También quieres poder hacerle preguntas al modelo y obtener respuestas, pero si solo puede responder preguntas sobre datos públicos desactualizados, eso no es muy útil. Quieres poder pasar la información relevante al modelo y obtener las respuestas relevantes en tiempo real. Ese es uno de los problemas principales que resuelve”, agregó Deo.
Modelos fundamentales
Los varios modelos fundamentales compatibles en Amazon Bedrock incluyen Amazon Titan, así como modelos de los proveedores Anthropic, AI21Labs y StabilityAI, cada uno abordando funciones importantes dentro del espacio de la IA, desde análisis de texto, generación de imágenes y generación multilingüe, entre otras tareas. Bedrock es una continuación de los modelos preentrenados que AWS ya ha desarrollado en su plataforma Stagemaker Jumpstart, que ha estado en la base de muchos FMs públicos, incluidos Meta AI, Hugging Face, LightOn, Databricks y Alexa.
AWS también anunció recientemente nuevos modelos Bedrock de la marca Cohere en su AWS Summit a fines de julio en la ciudad de Nueva York. Estos modelos incluyen Command, que puede realizar resúmenes, redacción, diálogos, extracción de texto y preguntas y respuestas para aplicaciones comerciales, y Embed, que puede completar búsquedas de grupos y clasificar tareas en más de 100 idiomas.
Swami Sivasubramanian, vicepresidente de aprendizaje automático de AWS, dijo durante el discurso principal del summit que los FMs son de bajo costo, baja latencia, están destinados a ser personalizados de forma privada, están cifrados y no se utilizan para entrenar el modelo base original desarrollado por AWS.
La marca colabora con una serie de empresas que utilizan Amazon Bedrock, incluidas Chegg, Lonely Planet, Cimpress, Philips, IBM, Nexxiot, Neiman Marcus, Ryanair, Hellmann, WPS Office, Twilio, Bridgewater & Associates, Showpad, Coda y Booking.com.
Agentes de Amazon Bedrock
AWS también presentó la herramienta auxiliar, Agentes de Amazon Bedrock, en su summit, que amplía la funcionalidad de los Modelos Fundamentales. Dirigido a empresas para una multitud de casos de uso, Agents es una experiencia de chat aumentada que ayuda a los usuarios más allá de la pregunta y respuesta estándar del chatbot. Puede ejecutar tareas de manera proactiva en función de la información en la que se ajusta.
AWS dio un ejemplo de cómo funciona bien en un espacio comercial. Digamos que un cliente minorista quiere hacer un intercambio de zapatos. Al interactuar con el Agente, el usuario puede detallar que desea hacer un intercambio de zapatos de talla 8 a talla 9. Los Agentes pedirán el ID de su pedido. Una vez ingresado, los Agentes podrán acceder al inventario minorista detrás de escena, decirle al cliente que la talla solicitada está disponible y preguntar si desean proceder con el intercambio. Una vez que el usuario dice sí, los Agentes confirmarán que el pedido ha sido actualizado.
“Tradicionalmente, hacer esto sería mucho trabajo. Los viejos chatbots eran muy rígidos. Si decías algo aquí y allá y no funcionaba, dirías “Déjame hablar con el agente humano”, dijo Deo. “Ahora, debido a que los modelos de lenguaje grandes tienen una comprensión mucho más rica de cómo hablan los humanos, pueden tomar acciones y utilizar los datos propietarios de una empresa”.
La marca también dio ejemplos de cómo una compañía de seguros puede utilizar Agentes para presentar y organizar reclamaciones de seguros. Los Agentes incluso pueden ayudar al personal corporativo con tareas como buscar la política de la empresa sobre licencia remunerada u organizar activamente ese tiempo libre, con un estilo de solicitud de IA ahora comúnmente conocido, como “¿Puede presentar la licencia remunerada por mí?”
Agentes captura particularmente cómo los modelos fundamentales permiten a los usuarios centrarse en los aspectos de IA que son más importantes para ellos. Sin tener que pasar meses desarrollando y entrenando un modelo de lenguaje a la vez, las empresas pueden dedicar más tiempo a ajustar la información que es importante para sus organizaciones en Agentes, asegurándose de que esté actualizada.
“Puede ajustar un modelo con sus datos propietarios. A medida que se realiza la solicitud, desea lo último y lo mejor”, dijo Deo.
A medida que muchas empresas en general continúan cambiando hacia una estrategia más centrada en los negocios para la IA, el objetivo principal de AWS simplemente parece ser ayudar a las marcas y organizaciones a poner en marcha sus aplicaciones y servicios integrados de IA lo antes posible. Reducir el tiempo de desarrollo de aplicaciones podría ver una oleada de nuevas aplicaciones de IA en el mercado, pero también podría ver muchas herramientas comúnmente utilizadas recibir actualizaciones muy necesarias.