Un antropólogo lingüístico explica cómo los humanos son como ChatGPT
Un antropólogo lingüístico compara humanos con ChatGPT
ChatGPT es un tema candente en mi universidad, donde los miembros de la facultad están profundamente preocupados por la integridad académica, mientras que los administradores nos instan a “aprovechar los beneficios” de esta “nueva frontera”. Es un ejemplo clásico de lo que mi colega Punya Mishra llama el “ciclo de la condena-exageración” en torno a las nuevas tecnologías. Del mismo modo, la cobertura mediática de la interacción humano-IA, ya sea paranoica o ilusionada, tiende a enfatizar su novedad.
En cierto sentido, es innegablemente nuevo. Las interacciones con ChatGPT pueden sentirse sin precedentes, como cuando un periodista de tecnología no pudo hacer que un chatbot dejara de declararle su amor. Sin embargo, en mi opinión, la frontera entre los humanos y las máquinas, en términos de la forma en que interactuamos entre nosotros, es más difusa de lo que la mayoría de la gente estaría dispuesta a admitir, y esta ambigüedad explica gran parte del discurso que gira en torno a ChatGPT.
Cuando se me pide que marque una casilla para confirmar que no soy un robot, no lo pienso dos veces: por supuesto que no soy un robot. Por otro lado, cuando mi cliente de correo electrónico sugiere una palabra o frase para completar mi oración, o cuando mi teléfono adivina la siguiente palabra que voy a escribir, empiezo a dudar de mí mismo. ¿Eso es lo que quería decir? ¿Se me habría ocurrido si la aplicación no lo hubiera sugerido? ¿Soy parte robot? Estos grandes modelos de lenguaje han sido entrenados con cantidades masivas de lenguaje humano “natural”. ¿Hace esto que los robots sean parte humanos?
Los chatbots de IA son nuevos, pero los debates públicos sobre el cambio de lenguaje no lo son. Como antropólogo lingüístico, encuentro que la reacción humana hacia ChatGPT es lo más interesante de todo esto. Al analizar cuidadosamente estas reacciones, se revelan las creencias sobre el lenguaje que subyacen en la relación ambivalente, inquieta y aún en evolución de las personas con los interlocutores de IA.
- La fusión de Microsoft y Activision de $69B está en camino de recib...
- TikTok podría integrar los resultados de búsqueda de Google en la a...
- Revolut necesita poner su casa en orden
ChatGPT y otros similares reflejan el lenguaje humano. Los humanos son tanto altamente originales como no originales cuando se trata de lenguaje. Los chatbots reflejan esto, revelando tendencias y patrones que ya están presentes en las interacciones con otros humanos.
¿Creadores o imitadores?
Recientemente, el famoso lingüista Noam Chomsky y sus colegas argumentaron que los chatbots están “atascados en una fase prehumana o no humana de la evolución cognitiva” porque solo pueden describir y predecir, no explicar. En lugar de basarse en una capacidad infinita para generar nuevas frases, compensan con enormes cantidades de información, lo que les permite hacer predicciones sobre qué palabras usar con un alto grado de precisión.
Esto está en línea con el reconocimiento histórico de Chomsky de que el lenguaje humano no podría ser producido simplemente a través de la imitación de los niños de los hablantes adultos. La facultad del lenguaje humano tenía que ser generativa, ya que los niños no reciben suficiente información para explicar todas las formas que producen, muchas de las cuales no podrían haber escuchado antes. Esa es la única forma de explicar por qué los humanos, a diferencia de otros animales con sistemas sofisticados de comunicación, tienen una capacidad teóricamente infinita para generar nuevas frases.
Sin embargo, hay un problema con ese argumento. Aunque los humanos son infinitamente capaces de generar nuevas cadenas de lenguaje, generalmente no lo hacen. Los humanos constantemente reciclan fragmentos de lenguaje que han encontrado antes y moldean su discurso de formas que responden, consciente o inconscientemente, al discurso de los demás, presentes o ausentes.
Como Mikhail Bakhtin, una figura similar a Chomsky para los antropólogos lingüísticos, dijo: “nuestro pensamiento mismo”, junto con nuestro lenguaje, “nace y se moldea en el proceso de interacción y lucha con el pensamiento de los demás”. Nuestras palabras “saben” de los contextos donde nosotros y otros las hemos encontrado antes, por lo que constantemente luchamos por hacerlas nuestras.
Incluso el plagio es menos sencillo de lo que parece. El concepto de robar las palabras de otra persona asume que la comunicación siempre tiene lugar entre personas que independientemente generan sus propias ideas y frases originales. Las personas pueden gustar de pensar en sí mismas de esa manera, pero la realidad demuestra lo contrario en casi cada interacción: cuando repito un dicho de mi padre a mi hija; cuando el presidente pronuncia un discurso que otra persona redactó, expresando las opiniones de un grupo de interés externo; o cuando una terapeuta interactúa con su cliente según los principios que sus profesores le enseñaron a tener en cuenta.
En cualquier interacción dada, el marco de producción – hablando o escribiendo – y de recepción – escuchando o leyendo y entendiendo – varía en términos de lo que se dice, cómo se dice, quién lo dice y quién es responsable en cada caso.
Lo que la IA revela sobre los humanos
La concepción popular del lenguaje humano ve la comunicación principalmente como algo que ocurre entre personas que inventan nuevas frases desde cero. Sin embargo, esa suposición se desmorona cuando Woebot, una aplicación de terapia de IA, es entrenado para interactuar con clientes humanos por terapeutas humanos, utilizando conversaciones de sesiones de terapia de humano a humano. Se desmorona cuando uno de mis compositores favoritos, Colin Meloy de The Decemberists, le dice a ChatGPT que escriba letras y acordes en su propio estilo. Meloy encontró la canción resultante “notablemente mediocre” y carente de intuición, pero también extrañamente en la zona de una canción de The Decemberists.
Como señala Meloy, sin embargo, las progresiones de acordes, temas y rimas en las canciones pop escritas por humanos también tienden a reflejar otras canciones pop, al igual que los discursos políticos se inspiran libremente en generaciones pasadas de políticos y activistas, que ya estaban repletas de frases de la Biblia. Las canciones pop y los discursos políticos son especialmente ilustraciones vívidas de un fenómeno más general. Cuando alguien habla o escribe, ¿cuánto se genera de nuevo a la manera de Chomsky? ¿Cuánto se recicla a la manera de Bakhtin? ¿Somos parte robot? ¿Los robots son parte humanos?
Personas como Chomsky que dicen que los chatbots son diferentes de los hablantes humanos tienen razón. Sin embargo, también lo están aquellos como Bakhtin que señalan que nunca tenemos realmente el control de nuestras palabras, al menos no tanto como imaginamos. En ese sentido, ChatGPT nos obliga a reconsiderar una pregunta antigua: ¿Cuánto de nuestro lenguaje es realmente nuestro?
Brendan H. O’Connor, Profesor Asociado, Escuela de Estudios Transfronterizos, Universidad Estatal de Arizona
Este artículo se publica de nuevo desde The Conversation bajo una licencia Creative Commons. Lee el artículo original.