Socio, ayudante o jefe? Se le pidió a ChatGPT que diseñara un robot y esto es lo que sucedió
Se le pidió a ChatGPT que diseñara un robot. ¿Socio, ayudante o jefe? Esto es lo que sucedió.
Con las alarmas sonando sobre la inteligencia artificial (IA) llevándonos hacia la extinción, podrías imaginarte el proceso de diseño de un robot por parte de una IA como algo similar a Frankenstein creando al Terminator, ¡o incluso al revés!
Pero ¿qué pasaría si, en algún momento del futuro, distópico o no, necesitamos colaborar con las máquinas para resolver problemas? ¿Cómo funcionaría esa colaboración? ¿Quién sería mandón y quién sería sumiso?
También: Cómo escribir mejores indicaciones para ChatGPT
Después de haber visto muchos episodios de la distópica serie de Netflix “Dark Mirror”, junto con un poco de “2001: Una odisea del espacio” de Arthur C. Clarke, apostaría a que la máquina sería mandona.
- Los nuevos algoritmos de Pinterest quieren que veas todos los tipos...
- Google Chrome está recibiendo un rediseño. Mira cómo va a cambiar.
- El regalo de cumpleaños número 15 de Chrome es un nuevo diseño y ca...
Sin embargo, un experimento real de este tipo llevado a cabo por investigadores europeos arrojó resultados distintivos que podrían tener un gran impacto en la colaboración entre máquinas y humanos.
El profesor asistente Cosimo Della Santina y el estudiante de doctorado Francesco Stella, ambos de la TU Delft, y Josie Hughes de la universidad técnica suiza EPFL, llevaron a cabo un experimento para diseñar un robot en colaboración con ChatGPT que resolviera un importante problema social.
“Queríamos que ChatGPT diseñara no solo un robot, sino uno que fuera realmente útil”, dijo Della Santina en un artículo publicado en Nature Machine Intelligence.
Y así comenzaron una serie de sesiones de preguntas y respuestas entre los investigadores y el bot para tratar de descubrir qué podrían crear juntos.
También: Los mejores chatbots de IA: ChatGPT y otras alternativas destacadas
Los grandes modelos de lenguaje (LLMs, por sus siglas en inglés) como ChatGPT son verdaderas bestias en cuanto a su capacidad para procesar grandes cantidades de texto y datos, y pueden generar respuestas coherentes a una velocidad impresionante.
El hecho de que ChatGPT pueda hacer esto con información técnicamente compleja lo hace aún más impresionante y una herramienta invaluable para aquellos que buscan un asistente de investigación supercargado.
Trabajando con máquinas
Cuando los investigadores europeos le pidieron a ChatGPT que identificara algunos de los desafíos que enfrenta la sociedad humana, la IA señaló el problema de garantizar un suministro estable de alimentos en el futuro.
Se produjo una conversación de ida y vuelta entre los investigadores y el bot, hasta que ChatGPT propuso los tomates como un cultivo que los robots podrían cultivar y cosechar, y así tener un impacto positivo significativo en la sociedad.
Esta es un área en la que el socio de IA pudo aportar un valor real, al realizar sugerencias en áreas como la agricultura, donde sus contrapartes humanas no tenían experiencia real. De lo contrario, los científicos tendrían que realizar una investigación que requeriría mucho tiempo para seleccionar un cultivo que tuviera el mayor valor económico para la automatización.
“Aunque Chat-GPT es un modelo de lenguaje y su generación de código se basa en texto, proporcionó ideas significativas e intuición para el diseño físico, y mostró un gran potencial como un foro de discusión para estimular la creatividad humana”, dijo Hughes de EPFL.
También: Estas son mis 5 herramientas de IA favoritas para el trabajo
Los humanos fueron responsables de seleccionar las direcciones más interesantes y adecuadas para perseguir sus objetivos, basándose en las opciones proporcionadas por ChatGPT.
Diseño inteligente
La verdadera brillantez de ChatGPT se manifestó al encontrar una manera de cosechar tomates. Los tomates y las frutas delicadas similares, sí, el tomate es una fruta y no una verdura, representan el mayor desafío cuando se trata de la cosecha.
Cuando se le preguntó cómo los humanos podrían cosechar tomates sin dañarlos, el bot no decepcionó y generó soluciones originales y útiles.
Al darse cuenta de que cualquier parte que entre en contacto con los tomates tendría que ser suave y flexible, ChatGPT sugirió opciones de materiales como silicona o goma. También señaló software CAD, moldes e impresoras 3D como formas de construir estas manos suaves, y sugirió opciones de diseño como una garra o una forma de cuchara.
También: 7 formas en las que no sabías que puedes utilizar Bing Chat y otros chatbots de IA
El resultado fue impresionante. Esta colaboración entre IA y humanos logró arquitectar y construir un robot funcional capaz de recoger tomates con destreza, lo cual no es tarea fácil considerando lo fácilmente que se magullan.
Los peligros de la asociación
Esta colaboración única también introdujo muchos problemas complejos que serán cada vez más relevantes en una asociación de diseño humano-máquina.
Una asociación con ChatGPT ofrece un enfoque verdaderamente interdisciplinario para resolver problemas. Sin embargo, dependiendo de cómo se estructure la asociación, podrían surgir resultados diferentes, cada uno con implicaciones sustanciales.
Por ejemplo, los LLM podrían proporcionar todos los detalles necesarios para el diseño de un robot en particular, mientras que el humano simplemente actúa como el ejecutor. En este enfoque, la IA se convierte en el inventor y permite que el no especialista participe en el diseño de robots.
También: Cómo utilizar ChatGPT
Esta relación es similar a la experiencia que tuvieron los investigadores con el robot recolector de tomates. Aunque quedaron asombrados por el éxito de la colaboración, se dieron cuenta de que la máquina estaba haciendo gran parte del trabajo creativo. “Descubrimos que nuestro papel como ingenieros cambió hacia la realización de tareas más técnicas”, dijo Stella.
También es importante considerar que esta falta de control por parte de los humanos es donde acechan los peligros. “En nuestro estudio, Chat-GPT identificó los tomates como el cultivo ‘más valioso’ para perseguir con un recolector robótico”, dijo Hughes de EPLF.
“Sin embargo, esto puede estar sesgado hacia los cultivos que están más cubiertos en la literatura, en lugar de aquellos donde realmente existe una necesidad real. Cuando se toman decisiones fuera del ámbito de conocimiento del ingeniero, esto puede llevar a errores significativos desde el punto de vista ético, de ingeniería o de hechos.”
También: Seguridad y sesgos de IA: Desenredando la compleja cadena de entrenamiento de IA
Y esta preocupación, en pocas palabras, es uno de los graves peligros de utilizar LLM. Sus respuestas aparentemente milagrosas a las preguntas solo son posibles porque se les ha proporcionado cierto tipo de contenido y se les ha pedido que regurgiten partes de él, al igual que un estilo clásico de educación en el que muchas sociedades todavía confían hoy en día.
Las respuestas esencialmente reflejarán el sesgo, tanto positivo como negativo, de las personas que han diseñado el sistema y de los datos que se le han proporcionado. Este sesgo significa que la marginación histórica de segmentos de la sociedad, como mujeres y personas de color, a menudo se replica en los LLM.
Luego está el molesto problema de las alucinaciones en LLM, como ChatGPT, donde la IA simplemente inventa cosas cuando se enfrenta a preguntas a las que no tiene respuestas fáciles.
También existe el cada vez más complicado problema del uso de información propietaria sin permiso, como se ha comenzado a revelar en varias demandas presentadas contra Open AI.
También: ChatGPT vs. Bing Chat: ¿Qué chatbot de IA deberías usar?
Sin embargo, un enfoque equilibrado, donde los LLM desempeñen más un papel de apoyo, puede ser enriquecedor y productivo, permitiendo forjar conexiones interdisciplinarias vitales que no podrían haberse logrado sin el bot.
Dicho esto, tendrás que interactuar con las IA de la misma manera en que lo haces con tus hijos: verificar minuciosamente toda la información relacionada con las tareas y el tiempo frente a la pantalla, especialmente cuando suenen demasiado confiados.