Glosario de ChatGPT 41 términos de IA que todos deberían conocer

Glosario ChatGPT 41 términos IA esenciales

ChatGPT, el chatbot de IA de OpenAI, que tiene una habilidad asombrosa para responder cualquier pregunta, probablemente fue tu primera introducción a la IA. Desde escribir poemas, currículums y recetas de fusión, el poder de ChatGPT ha sido comparado con el autocompletado en esteroides.

Pero los chatbots de IA son solo una parte del panorama de la IA. Claro, tener a ChatGPT ayudando con tus tareas o tener a Midjourney creando imágenes fascinantes de mechs basados en el país de origen está genial, pero su potencial podría transformar por completo las economías. Ese potencial podría valer $4.4 billones para la economía global anualmente, según el Instituto McKinsey Global, por eso debes esperar escuchar cada vez más sobre inteligencia artificial.

A medida que las personas se acostumbran más a un mundo entrelazado con la IA, nuevos términos están apareciendo en todas partes. Así que ya sea que estés tratando de sonar inteligente durante una salida o impresionar en una entrevista de trabajo, aquí hay algunos términos importantes de IA que debes conocer.

Este glosario se actualizará continuamente.

Inteligencia artificial general, o AGI: Un concepto que sugiere una versión más avanzada de la IA de la que conocemos hoy en día, una que puede realizar tareas mucho mejor que los humanos mientras también enseña y mejora sus propias capacidades.

Ética de la IA: Principios destinados a evitar que la IA dañe a los humanos, logrado mediante medios como determinar cómo los sistemas de IA deben recopilar datos o lidiar con sesgos.

Seguridad de la IA: Un campo interdisciplinario que se preocupa por los impactos a largo plazo de la IA y cómo podría progresar repentinamente hacia una superinteligencia que podría ser hostil para los humanos.

Algoritmo: Una serie de instrucciones que permite a un programa informático aprender y analizar datos de una manera particular, como reconocer patrones, para luego aprender de ello y realizar tareas por sí mismo.

Alineación: Ajustar una IA para producir mejor el resultado deseado. Esto puede referirse desde moderar contenido hasta mantener interacciones positivas hacia los humanos.

Antropomorfismo: Cuando los humanos tienden a atribuir características humanas a objetos no humanos. En IA, esto puede incluir creer que un chatbot es más parecido a un humano y consciente de lo que realmente es, como creer que está feliz, triste o incluso consciente en su totalidad.

Inteligencia artificial, o IA: El uso de tecnología para simular la inteligencia humana, ya sea en programas informáticos o en robótica. Un campo en la ciencia de la computación que tiene como objetivo construir sistemas que puedan realizar tareas humanas.

Sesgo: En relación con los modelos de lenguaje grandes, errores resultantes de los datos de entrenamiento. Esto puede dar lugar a atribuir falsamente ciertas características a ciertas razas o grupos basados en estereotipos.

Chatbot: Un programa que se comunica con los humanos a través de texto que simula el lenguaje humano.

ChatGPT: Un chatbot de IA desarrollado por OpenAI que utiliza tecnología de modelos de lenguaje grandes.

Computación cognitiva: Otro término para inteligencia artificial.

Aumento de datos: Remodelar datos existentes o agregar un conjunto de datos más diverso para entrenar una IA.

Aprendizaje profundo: Un método de IA, y un subcampo del aprendizaje automático, que utiliza múltiples parámetros para reconocer patrones complejos en imágenes, sonido y texto. El proceso está inspirado en el cerebro humano y utiliza redes neuronales artificiales para crear patrones.

Difusión: Un método de aprendizaje automático que toma un conjunto de datos existente, como una foto, y agrega ruido aleatorio. Los modelos de difusión entrenan sus redes para reingenierar o recuperar esa foto.

Comportamiento emergente: Cuando un modelo de IA muestra habilidades no intencionadas.

Aprendizaje de extremo a extremo, o E2E: Un proceso de aprendizaje profundo en el que se instruye a un modelo para realizar una tarea de principio a fin. No se entrena para realizar una tarea de forma secuencial, sino que aprende de las entradas y la resuelve de una vez.

Consideraciones éticas: Una conciencia de las implicaciones éticas de la IA y los problemas relacionados con la privacidad, el uso de datos, la equidad, el mal uso y otros problemas de seguridad.

Foom: También conocido como despegue rápido o despegue duro. El concepto de que si alguien construye una AGI, podría ser demasiado tarde para salvar a la humanidad.

Redes generativas adversarias, o GAN: Un modelo de IA generativo compuesto por dos redes neuronales para generar nuevos datos: un generador y un discriminador. El generador crea nuevo contenido y el discriminador verifica si es auténtico.

Inteligencia Artificial Generativa: Una tecnología generadora de contenido que utiliza IA para crear texto, video, código informático o imágenes. La IA se alimenta con grandes cantidades de datos de entrenamiento, encuentra patrones para generar sus propias respuestas novedosas, que a veces pueden ser similares al material de origen.

Google Bard: Un chatbot de IA de Google que funciona de manera similar a ChatGPT pero obtiene información de la web actual, mientras que ChatGPT está limitado a datos hasta 2021 y no está conectado a internet.

Guardrails: Políticas y restricciones aplicadas a modelos de IA para garantizar que se manejen los datos de manera responsable y que el modelo no genere contenido perturbador.

Alucinación: Una respuesta incorrecta de la IA. Puede incluir respuestas generadas por IA que son incorrectas pero se expresan con confianza como si fueran correctas. Las razones de esto no se conocen completamente. Por ejemplo, al preguntarle a un chatbot de IA: “¿Cuándo pintó Leonardo da Vinci la Mona Lisa?”, podría responder con una declaración incorrecta diciendo: “Leonardo da Vinci pintó la Mona Lisa en 1815”, que es 300 años después de que realmente fue pintada.

Modelo de lenguaje grande, o LLM: Un modelo de IA entrenado con grandes cantidades de datos de texto para comprender el lenguaje y generar contenido novedoso en un lenguaje similar al humano.

Aprendizaje automático, o ML: Un componente de la IA que permite a las computadoras aprender y mejorar sus resultados predictivos sin programación explícita. Puede ser utilizado junto con conjuntos de entrenamiento para generar nuevo contenido.

Microsoft Bing: Un motor de búsqueda de Microsoft que ahora puede utilizar la tecnología que impulsa a ChatGPT para ofrecer resultados de búsqueda impulsados por IA. Es similar a Google Bard en el sentido de que está conectado a internet.

IA multimodal: Un tipo de IA que puede procesar múltiples tipos de entradas, incluyendo texto, imágenes, videos y voz.

Procesamiento del lenguaje natural: Una rama de la IA que utiliza aprendizaje automático y aprendizaje profundo para dar a las computadoras la capacidad de entender el lenguaje humano, a menudo utilizando algoritmos de aprendizaje, modelos estadísticos y reglas lingüísticas.

Red neuronal: Un modelo computacional que se asemeja a la estructura del cerebro humano y que tiene como objetivo reconocer patrones en los datos. Está compuesto por nodos interconectados, o neuronas, que pueden reconocer patrones y aprender con el tiempo.

Sobreajuste: Error en el aprendizaje automático donde el modelo se ajusta demasiado a los datos de entrenamiento y puede identificar solo ejemplos específicos en dichos datos pero no nuevos datos.

Parámetros: Valores numéricos que dan estructura y comportamiento a los LLM, permitiéndoles hacer predicciones.

Encadenamiento de indicaciones: Habilidad de la IA para utilizar información de interacciones anteriores para influir en respuestas futuras.

Loro estocástico: Una analogía de los LLM que ilustra que el software no tiene una comprensión más amplia del significado detrás del lenguaje o del mundo que lo rodea, independientemente de lo convincente que pueda sonar la salida. La frase se refiere a cómo un loro puede imitar palabras humanas sin entender el significado detrás de ellas.

Transferencia de estilo: La capacidad de adaptar el estilo de una imagen al contenido de otra, permitiendo que una IA interprete los atributos visuales de una imagen y los use en otra. Por ejemplo, tomar el autorretrato de Rembrandt y recrearlo en el estilo de Picasso.

Temperatura: Parámetros establecidos para controlar cuán aleatorio es el resultado de un modelo de lenguaje. Una temperatura más alta significa que el modelo toma más riesgos.

Generación de texto a imagen: Creación de imágenes basadas en descripciones textuales.

Datos de entrenamiento: Los conjuntos de datos utilizados para ayudar a los modelos de IA a aprender, que incluyen texto, imágenes, código o datos.

Modelo Transformer: Una arquitectura de red neuronal y un modelo de aprendizaje profundo que aprende el contexto mediante el seguimiento de las relaciones en los datos, como en las oraciones o partes de las imágenes. En lugar de analizar una oración palabra por palabra, puede ver la oración completa y entender el contexto.

Prueba de Turing: Nombrada en honor al famoso matemático y científico de la computación Alan Turing, prueba la capacidad de una máquina para comportarse como un humano. La máquina pasa si un humano no puede distinguir la respuesta de la máquina de la de otro humano.

IA débil, también conocida como IA estrecha: IA enfocada en una tarea específica y que no puede aprender más allá de su conjunto de habilidades. La mayoría de las IA actuales son IA débil.

Aprendizaje sin ejemplos: Una prueba en la que un modelo debe completar una tarea sin que se le proporcionen los datos de entrenamiento necesarios. Un ejemplo sería reconocer a un león solo habiendo sido entrenado con tigres.

Nota de los editores: ENBLE está utilizando un motor de inteligencia artificial para ayudar a crear algunas historias. Para más información, consulta esta publicación.