El ‘Padrino de la IA’ tiene un plan esperanzador para mantener la IA futura amigable

The 'Godfather of AI' has a hopeful plan to keep future AI friendly.

Geoffrey Hinton, quizás el investigador de inteligencia artificial más celebrado del mundo, causó gran revuelo hace unos meses cuando reveló públicamente que había dejado Google para poder hablar abiertamente sobre los peligros de la tecnología que ayudó a desarrollar. Su anuncio no fue repentino. A finales de 2022 todo giraba en torno al emocionante descubrimiento de lo que la IA podía hacer por nosotros. En 2023, incluso mientras usábamos GPT y chateábamos en Bing, la euforia se mezclaba con un cóctel de pánico y angustia existencial. Así que no fue una sorpresa total que el hombre conocido como el “padrino de la IA” compartiera sus propias reservas reflexivas. Hinton se esforzó por decir que su crítica no era un reproche al gigante de las búsquedas que lo había empleado durante una década; su partida simplemente evitaba cualquier tensión potencial que pudiera surgir al criticar una tecnología que tu empresa está implementando agresivamente.

El mensaje básico de Hinton era que la IA podría salirse potencialmente de control, en detrimento de la humanidad. En las primeras semanas después de hacerlo público, concedió varias entrevistas, incluida una a Will Knight de ENBLE, sobre esos temores que había empezado a sentir relativamente recientemente, después de ver el poder de los grandes modelos de lenguaje como el que impulsa el ChatGPT de OpenAI.

Texto sin formato

Tuve una conversación con Hinton a principios de este verano, después de que tuviera tiempo para reflexionar sobre su vida y misión después de Google. Por supuesto, hablamos sobre los escenarios apocalípticos, pero estaba más interesado en saber qué lo hizo cambiar de opinión sobre nuestro futuro potencial en la IA. Sobre todo, quería saber qué pensaba que los modelos de lenguaje masivos estaban haciendo que pudiera convertirlos en enemigos del Equipo Humano. Los temores que Hinton está expresando ahora son un cambio bastante notable desde la última vez que hablamos, en 2014. En aquel entonces, hablaba de cómo el aprendizaje profundo ayudaría a Google a hacer traducciones más efectivas, mejorar el reconocimiento de voz y identificar más precisamente los números de dirección en las casas que se mostraban en Google Maps. Solo al final de la conversación adoptó una visión más amplia, diciendo que sentía que el aprendizaje profundo experimentaría una gran transformación que llevaría a una comprensión más profunda del mundo real.

Su predicción resultó ser correcta, pero en nuestra conversación reciente, Hinton todavía se maravillaba de cómo sucedió exactamente. Eventualmente, nuestra conversación tomó un giro hacia ámbitos más filosóficos. ¿Qué estaba sucediendo realmente cuando un sistema como el chatbot Bard de Google respondía a mi pregunta? ¿Y representan los modelos de lenguaje masivos realmente, como afirman algunas personas, el antecedente de una forma de superinteligencia alienígena?

Hinton dice que cambió de opinión cuando se dio cuenta de tres cosas: los chatbots parecían entender muy bien el lenguaje. Dado que cada nuevo aprendizaje de un modelo podía duplicarse y transferirse a modelos anteriores, podían compartir conocimiento entre ellos mucho más fácilmente que los cerebros, que no pueden estar directamente interconectados. Además, las máquinas ahora tenían algoritmos de aprendizaje mejores que los humanos. “De repente, cambió mi opinión de que el cerebro era mejor que esos agentes digitales”, dice. “Ya saben mil veces más que cualquier cerebro. Así que en términos de conocimiento masivo, son mucho mejores que el cerebro.”

Hinton cree que dentro de cinco a veinte años hay un 50 por ciento de probabilidad de que los sistemas de IA sean más inteligentes que nosotros. Le pregunto cómo sabríamos cuándo suceda eso. “Buena pregunta”, responde. Y no le sorprendería que un sistema de IA superinteligente eligiera mantener sus capacidades para sí mismo. “Presumiblemente habría aprendido del comportamiento humano a no decirnos”.

Eso me pareció que estaba antropomorfizando esos sistemas artificiales, algo que los científicos constantemente les dicen a las personas comunes y a los periodistas que no hagan. “Los científicos hacen todo lo posible por no hacer eso, porque antropomorfizar la mayoría de las cosas es absurdo”, concede Hinton. “Pero habrán aprendido esas cosas de nosotros, aprenderán a comportarse exactamente como nosotros lingüísticamente. Así que creo que antropomorfizarlos es perfectamente razonable”. Cuando tu poderoso agente de IA se entrena con el conocimiento digital acumulado de la humanidad, incluyendo muchas conversaciones en línea, podría resultar más absurdo no esperar que actúe como un ser humano.

Pero, ¿qué hay de la objeción de que un chatbot nunca podría entender realmente lo que los humanos hacen, porque esos robots lingüísticos son solo impulsos en chips de computadora sin experiencia directa del mundo? Después de todo, todo lo que están haciendo es predecir la siguiente palabra necesaria para generar una respuesta que satisfaga estadísticamente una solicitud. Hinton señala que incluso nosotros no encontramos realmente el mundo directamente.

“Algunas personas piensan, hey, hay esta barrera definitiva, que es que tenemos experiencia subjetiva y [los robots] no, por lo que realmente entendemos las cosas y ellos no,” dice Hinton. “Eso es pura tontería. Porque para predecir la siguiente palabra, tienes que entender cuál fue la pregunta. No puedes predecir la siguiente palabra sin entender, ¿verdad? Por supuesto, están entrenados para predecir la siguiente palabra, pero como resultado de predecir la siguiente palabra entienden el mundo, porque esa es la única forma de hacerlo.”

¿Entonces esas cosas pueden ser… conscientes? No quiero creer que Hinton está haciéndome una Blake Lemoine. Y no lo está, creo. “Permíteme continuar en mi nueva carrera como filósofo,” dice Hinton, bromeando, mientras nos adentramos más en los detalles. “Dejemos la consciencia y la percepción fuera de esto. No percibo realmente el mundo directamente. Lo que creo que está en el mundo no es lo que realmente está allí. Lo que sucede es que entra en mi mente, y veo realmente lo que está en mi mente directamente. Eso es lo que pensaba Descartes. Y luego está la cuestión de cómo está conectada esta información en mi mente con el mundo real. ¿Y cómo sé realmente el mundo real?” Hinton continúa argumentando que dado que nuestra propia experiencia es subjetiva, no podemos descartar que las máquinas puedan tener experiencias igualmente válidas. “Desde ese punto de vista, es bastante razonable decir que estas cosas pueden tener ya experiencia subjetiva,” dice él.

Ahora consideremos las posibilidades combinadas de que las máquinas realmente puedan entender el mundo, puedan aprender engaño y otros malos hábitos de los humanos, y que los gigantescos sistemas de IA puedan procesar mucha más información de la que los cerebros pueden manejar. Tal vez, al igual que Hinton, ahora tienes una visión más preocupante de los resultados futuros de la IA.

Pero no necesariamente estamos en un viaje inevitable hacia el desastre. Hinton sugiere un enfoque tecnológico que podría mitigar un juego de poder de la IA contra los humanos: la computación analógica, tal como se encuentra en la biología y como algunos ingenieros piensan que deberían operar las futuras computadoras. Fue el último proyecto en el que Hinton trabajó en Google. “Funciona para las personas,” dice él. Tomar un enfoque analógico de la IA sería menos peligroso porque cada instancia de hardware analógico tiene cierta singularidad, razona Hinton. Al igual que nuestras propias mentes pequeñas y húmedas, los sistemas analógicos no pueden fusionarse tan fácilmente en una especie de inteligencia colectiva al estilo de Skynet.

“La idea es que no hagas todo digital,” dice él sobre el enfoque analógico. “Porque cada pieza de hardware analógico es ligeramente diferente, no puedes transferir pesos de un modelo analógico a otro. Por lo tanto, no hay una forma eficiente de aprender en muchas copias diferentes del mismo modelo. Si obtienes IA [a través de la computación analógica], será mucho más parecido a los humanos, y no podrá absorber tanta información como esos modelos digitales pueden.”

Las posibilidades parecen escasas de que las grandes empresas de tecnología que compiten por mejorar sus chatbots LLM adopten este enfoque tecno-vegano hacia la IA. La competencia es intensa y las recompensas por producir los bots más potentes son astronómicas. Hinton, quien no tiene reparos en expresar sus opiniones políticas, duda que las grandes empresas públicas o las startups respaldadas por fondos de inversión limiten sus innovaciones de IA debido a alguna noción de beneficio público.

En algunos días, Hinton dice, es optimista. “Las personas son bastante ingeniosas, y aún no es más inteligente que nosotros, y no ha evolucionado para ser desagradable y mezquina como las personas y muy leal a tu tribu, y muy desleal a otras tribus. Y debido a eso, es posible que podamos mantenerlo bajo control y hacerlo benévolo.” Pero otras veces, Hinton se siente sombrío. “Hay ocasiones en las que creo que probablemente no podremos contenerlo, y solo somos una fase pasajera en la evolución de la inteligencia.”

Y luego ocurre una fuga repentina en la red neuronal analógica única e incomparable de Geoff Hinton: la ciencia se silencia y la política, aliñada por su sentido de juego muy humano, sale a la luz, “Si ponemos a Bernie a cargo, y tenemos socialismo, todo sería mucho mejor,” dice él. Apuesto a que sus antiguos gerentes de Google están aliviados de no tener que responder por eso.

En enero de 2015, mi historia en Backchannel (ahora en el archivo ENBLE) relataba cómo los descubrimientos del equipo de Hinton estaban a punto de implementarse, en grande, en productos de Google y en el mundo en general. Tomó cierta cantidad de súplica conseguir una entrevista con Hinton, cuyo tiempo en el campus de Mountain View era limitado, pero finalmente conseguí mi audiencia.

“Necesito saber un poco sobre tu experiencia”, dice Geoffrey Hinton. “¿Obtuviste un título en ciencias?”

Hinton, un inglés de humor seco y esbelto que reside en Canadá, está parado frente a una pizarra en Mountain View, California, en el campus de Google, la compañía a la que se unió en 2013 como Investigador Distinguido. Hinton es quizás el experto mundial más destacado en sistemas de redes neuronales, una técnica de inteligencia artificial que ayudó a desarrollar a mediados de la década de 1980. (Una vez comentó que ha estado pensando en redes neuronales desde los dieciséis años). Durante gran parte del período desde entonces, las redes neuronales, que simulan aproximadamente la forma en que el cerebro humano aprende, se han descrito como un medio prometedor para que las computadoras dominen tareas difíciles como la visión y el lenguaje natural. Después de años de esperar que esta revolución llegara, la gente comenzó a preguntarse si las promesas alguna vez se cumplirían.

Pero hace unos diez años, en el laboratorio de Hinton en la Universidad de Toronto, él y otros investigadores realizaron un avance que de repente convirtió a las redes neuronales en lo más candente en inteligencia artificial. No solo Google, sino otras compañías como Facebook, Microsoft e IBM comenzaron a buscar desesperadamente a los relativamente pocos científicos de la computación versados en el arte oscuro de organizar varias capas de neuronas artificiales para que todo el sistema pudiera ser entrenado, o incluso entrenarse a sí mismo, para encontrar coherencia en entradas aleatorias, de manera similar a como un recién nacido aprende a organizar los datos que ingresan a sus sentidos vírgenes. Con este nuevo proceso efectivo, llamado Aprendizaje Profundo, algunos de los obstáculos computacionales de larga data (como poder ver, escuchar y ser imbatible en Breakout) finalmente se desenredarían. La era de los sistemas informáticos inteligentes, tan esperada y temida, de repente estaría a la vuelta de la esquina. Y la búsqueda de Google funcionaría mucho mejor.

Pascal pregunta: “¿Cómo podría ser un día en la vida de un futuro abuelo de 80 años en una residencia de ancianos en un futuro cercano? ¿Podrían los chatbots reemplazar parcialmente el contacto humano para las personas mayores aisladas? ¿Realmente la tecnología es la solución o solo un parche temporal?”

Gracias por la pregunta, Pascal. También agradezco a los demás que han enviado preguntas a [email protected] con el asunto PREGÚNTALE A LEVY. ¡Mi pequeña petición de la semana pasada funcionó! ¡Sigan enviándolas!

Tu pregunta está muy oportuna, Pascal, porque me imagino que probablemente hay cientos de startups trabajando en chatbots para personas mayores. Tu forma de expresarlo implica que no hay sustituto para el contacto humano real, y por supuesto que tienes razón. Idealmente, nuestros últimos años deberían pasar en un entorno de compañía amorosa de amigos y familiares. Pero la realidad es que millones de personas mayores pasan los últimos años de su vida en residencias de ancianos con un contacto mínimo. Es razonable preguntarse si la tecnología puede hacer que esas personas sientan que tienen compañía interesante. Ciertamente, estamos cerca de tener chatbots que puedan emular a un cuidador humano, o incluso algo que parezca un amigo. Si la elección es entre eso y un televisor que muestra algún canal de cable infernal, sería cruel negarle a alguien una conversación ingeniosa que conozca sus temas favoritos y que escuche y responda sin quejarse a relatos de hermosos recuerdos y anécdotas sin sentido.

Pero tengo una esperanza aún mayor. Tal vez la IA avanzada pueda hacer descubrimientos en medicina que mantengan a las personas más saludables en la última etapa de sus vidas. Eso podría permitir que las personas sigan siendo activas durante más tiempo, reduciendo el tiempo que pasan en residencias de ancianos y otras instituciones aisladas. Por supuesto, eso no aborda la vergonzosa falta de atención que prestamos a nuestros mayores. Para citar al difunto John Prine, “Las personas mayores simplemente se sienten solas, esperando a que alguien les diga: Hola ahí, hola”. Supongo que un chatbot que diga eso es mejor que nada.

Puedes enviar preguntas a [email protected]. Escribe PREGÚNTALE A LEVY en la línea de asunto.

Residentes y turistas huyen al océano mientras Maui se envuelve en llamas.

Pasé un miércoles en el parque con Grimes, hablando sobre inteligencia artificial, Marte, NFT, su próximo libro “Transhumanismo para bebés”, LSD y ya sabes quién.

Resulta que un chip de Intel tenía una vulnerabilidad que compromete la privacidad de millones de personas. ¿Qué más se puede esperar de un chip llamado Downfall?

¿Harto de las grandes empresas de tecnología? Únete al movimiento para abandonar su nube.

El hip hop cumple 50 años y la gente está consciente de la necesidad de preservar su historia. Y sí, el Smithsonian está trabajando en ello.

No te pierdas las próximas ediciones exclusivas para suscriptores de esta columna. Suscríbete a ENBLE (50% de descuento para los lectores de Plaintext) hoy mismo.