El mundo no está preparado para la próxima década de IA

Mundo no preparado para próxima década de IA

EN EL EPISODIO DE ESTA SEMANA de Have a Nice Future, Gideon Lichfield y Lauren Goode hablan con Mustafa Suleyman, cofundador de DeepMind e InflectionAI. Discuten su nuevo libro, The Coming Wave, que explica por qué nuestros sistemas no están preparados para enfrentar el próximo gran salto en la tecnología. Suleyman explica por qué no es una locura sugerir que los chatbots podrían derrocar gobiernos, y argumenta a favor de una mejor manera de evaluar la inteligencia artificial. (Pista: tiene que ver con hacer un millón de dólares.)

El libro de Mustafa Suleyman, The Coming Wave: Technology, Power, and the 21st Century’s Greatest Dilemma, se publicará el 5 de septiembre. Mientras tanto, puedes consultar la cobertura de ENBLE sobre DeepMind, Inflection AI y todo lo relacionado con la inteligencia artificial.

Lauren Goode es @LaurenGoode. Gideon Lichfield es @glichfield. Contacta a la línea directa principal en @ENBLE.

Siempre puedes escuchar el podcast de esta semana a través del reproductor de audio en esta página, pero si quieres suscribirte de forma gratuita para recibir cada episodio, aquí te explicamos cómo hacerlo:

Si estás en un iPhone o iPad, simplemente toca este enlace o abre la aplicación llamada Podcasts y busca Have a Nice Future. Si usas Android, puedes encontrarnos en la aplicación Google Podcasts simplemente tocando aquí. También puedes descargar una aplicación como Overcast o Pocket Casts y buscar Have a Nice Future. También estamos en Spotify.

Nota: Esta es una transcripción automatizada, que puede contener errores.

Gideon Lichfield: Oh Dios, no. Suena como un mal presentador de la BBC. Lo siento.

[Risas]

Lauren Goode: Me gusta la BBC.

[Música]

Gideon Lichfield: Hola, soy Gideon Lichfield.

Lauren Goode: Y yo soy Lauren Goode. Y esto es Have a Nice Future, un podcast sobre lo rápido y aterrador que todo está cambiando.

Gideon Lichfield: Cada semana hablamos con alguien que tiene ideas grandes, audaces y a veces inquietantes sobre el futuro, y les preguntamos cómo podemos prepararnos todos para vivir en él.

Lauren Goode: Nuestro invitado esta semana es Mustafa Suleyman, cofundador de la empresa de inteligencia artificial DeepMind y más recientemente, cofundador y CEO de Inflection AI.

Gideon Lichfield: También es el autor de un próximo libro sobre cómo la inteligencia artificial y otras tecnologías tomarán el control del mundo y posiblemente amenacen la estructura misma del estado-nación.

Mustafa Suleyman (fragmento de audio): Ahora vamos a tener acceso a IA de enseñanza altamente capaces y persuasivas que podrían ayudarnos a llevar a cabo cualquier intención oscura que tengamos. Y definitivamente acelerará los daños, sin ninguna duda al respecto. Y eso es lo que tenemos que enfrentar.

[Música]

Lauren Goode: Entonces, Gideon, Mustafa es un invitado que ambos queríamos traer al podcast, aunque creo que por razones ligeramente diferentes. Tú hablaste con él recientemente en la Collision Conference en Toronto, lo entrevistaste en el escenario. Yo hablé con él en otro congreso detrás del escenario; hablamos de su chatbot, Pi. Pero al traerlo a Have a Nice Future, realmente quería tener una idea de por qué está construyendo lo que está construyendo, ¿necesitamos otro chatbot? ¿Y cuál es la conexión entre un chatbot y mejorar la humanidad? Y creo que a ti te intrigan más algunos de los grandes temas amplios que presenta en su nuevo libro.

Gideon Lichfield: Simplemente creo que tiene un trasfondo muy interesante. Es sirio-británico, trabajó durante un tiempo en el gobierno y en la resolución de conflictos, luego cofundó DeepMind con un par de personas más, y su objetivo originalmente era resolver la inteligencia artificial general, que es para lo que también se creó OpenAI. Y resolvieron algunos problemas de IA realmente importantes, como básicamente resolver cómo ganar el juego del Go y varios otros juegos, y trabajaron en el plegamiento de proteínas, lo que está cambiando rápidamente la forma en que se realiza la biología y el desarrollo de medicamentos. Vendieron DeepMind a Google y trabajó allí durante algunos años. Y luego dejó Google, en parte porque dijo que era demasiado burocrático y se movía demasiado lento para él, y fundó Inflection, que está creando este chatbot, que como escucharemos, pretende ser mucho más que un simple chatbot, pero ya no es un intento de alcanzar la inteligencia artificial general, lo cual es intrigante. Y ahora está este libro, que dice que la IA y la biología sintética y otras tecnologías se están desarrollando tan rápido y se volverán tan generalizadas que socavarán la misma estructura de nuestra capacidad para gobernar nuestros países y nuestras sociedades. Me interesa mucho cómo se unen todas esas cosas.

Lauren Goode: Correcto. Hay una trayectoria de construir IA, construir IA, construir IA… Espera. ¿Qué tan preocupados deberíamos estar?

Gideon Lichfield: ¿Qué estamos construyendo?

Lauren Goode: Sí. Reunir todas esas ideas es más o menos la pregunta fundamental que tenía para él, especialmente porque ha estado promocionando las posibilidades de la IA y ahora advierte sobre su rápido avance y las amenazas que conlleva, y realmente quería profundizar en los detalles de eso. Pero le daré esto a Mustafa: él parece muy humano en esta conversación, lo cual tal vez no podemos decir de todos los emprendedores de IA con los que hemos hablado.

Gideon Lichfield: Sí, muchas personas que tenemos en el programa hablan sobre construir la tecnología y luego dejar que la sociedad resuelva los problemas y cómo regularla. Y, siendo justos, Mustafa también parece creer, como escucharán, que primero necesitas construir el objeto y luego determinar dónde podrían estar sus peligros. Pero creo que al menos tiene respuestas más reflexivas que algunos sobre cuáles podrían ser esos peligros y cómo tenemos que empezar a prepararnos.

Lauren Goode: Y todo eso está en la conversación que viene justo después del corte.

[Música]

Gideon Lichfield: Mustafa Suleyman, bienvenido a Have a Nice Future.

Mustafa Suleyman: Gideon, hola. Es genial estar aquí.

Lauren Goode: Es genial tenerte en el programa.

Mustafa Suleyman: Hola, Lauren, gracias por tenerme.

Lauren Goode: De hecho, le pregunté a Pi, abrí la aplicación cuando supe que vendrías, y le pregunté qué debería preguntarte en este podcast. Dijo: “Oh, eso es emocionante, signo de exclamación. Mustafa Suleyman es un pensador e innovador increíble…”

Mustafa Suleyman: Oh, Dios. [Risas]

Lauren Goode: “Y su libro seguramente estará lleno de ideas. ¿Puedo preguntarte qué tipo de podcast tienes y qué quieres lograr con la entrevista?”, etc., etc. Lo que entiendo de esto es que el conjunto de datos podría estar un poco sesgado. ¿Qué piensas?

[Risas]

Mustafa Suleyman: Deberías volver a preguntar y ver si es diferente. Podría venir con el mismo entusiasmo, pero ciertamente no ha sido escrito por nosotros, lo prometo. [Risas]

Lauren Goode: Pero hay muchos asistentes de chatbot con IA personalizados en este momento. Han sido la sensación desde que OpenAI lanzó su chatbot a fines de 2022. ¿Por qué decidiste ir con un chatbot?

Mustafa Suleyman: Creo que la conversación será la nueva interfaz. Si realmente das un paso atrás por un momento y miras tu computadora o incluso tu teléfono, verás una gran cantidad de botones e íconos en la navegación inferior, en un mundo de colores tecnológicos multicolores básicamente. Y en realidad es una experiencia bastante abrumadora. Eso se debe a que no ha sido diseñado con un principio de diseño limpio y unificado centrado en lo humano. Es el encuentro de estas dos necesidades, la traducción humana y las necesidades de la computadora. Y creo que la próxima ola será aquella en la que pases la mayor parte de tu tiempo conversando con tu IA, ese es el mecanismo de control principal.

Gideon Lichfield: Cofundaste DeepMind hace unos 12 años, y al igual que OpenAI, tenía la misión de desarrollar una inteligencia artificial general de manera ética y segura. Y 12 años después, comenzaste Inflection AI, y esta vez dijiste que no estás trabajando hacia la IA general. Entonces, ¿por qué no? ¿Qué ha cambiado y cuál es tu objetivo en cambio?

Mustafa Suleyman: Fundamos DeepMind en 2010, y el lema era construir una inteligencia artificial general segura y ética, un sistema capaz de desempeñarse bien en una amplia gama de entornos. Y esa era la misión de DeepMind, la creencia de que tenemos que aprender todo desde cero. Ahora, en Inflection, estamos desarrollando una IA llamada Pi, que significa Inteligencia Personal, y se enfoca de manera más estrecha en ser una IA personal. Bastante diferente a una IA que aprende cualquier habilidad profesional desafiante. Una IA personal, en nuestra opinión, es aquella que se acerca mucho a un asistente personal; es como un jefe de personal, un amigo, un confidente, un apoyo, y llamará al recurso adecuado en el momento adecuado según la tarea que le des. Así que tiene elementos de generalidad, pero no está diseñada con la generalidad como un primer principio, como un objetivo de diseño principal.

Gideon Lichfield: ¿Crees que la IA general (AGI) es peligrosa? ¿Es por eso que no lo estás haciendo, o simplemente no crees que sea posible?

Mustafa Suleyman: Hasta ahora, nadie ha propuesto ni siquiera un marco teórico convincente que me dé confianza de que sería posible contener una AGI que tenga capacidades significativas de automejora recursiva.

Lauren Goode: ¿Cómo han influido tus pensamientos sobre la AGI y cómo aún no ha habido un marco teórico real y comprobado para ella en el tipo de modelo que estás construyendo?

Mustafa Suleyman: Creo que esa es la forma correcta de pensar al respecto. Lo estrecho es más probable que sea seguro, aunque no está garantizado. Lo más general es más probable que sea autónomo y, por lo tanto, un poco menos seguro. Y nuestra IA es una IA personal, lo que significa que está diseñada principalmente para tener una buena conversación y, con el tiempo, aprenderá a hacer cosas por ti. Podrá utilizar APIs, pero eso no significa que puedas darle instrucciones de la misma manera que a otro modelo de lenguaje, porque esto no es un modelo de lenguaje, Pi es una IA. GPT es un modelo de lenguaje. Son cosas muy, muy diferentes.

Gideon Lichfield: ¿Cuál es la diferencia?

Mustafa Suleyman: La primera etapa para crear una IA es entrenar un gran modelo de lenguaje. El segundo paso es lo que se llama ajuste fino, donde intentas alinear o restringir las capacidades de tu modelo preentrenado muy ampliamente capaz para que realice una tarea específica. Para nosotros, esa tarea es la conversación, la enseñanza, el intercambio de conocimientos, el entretenimiento y la diversión, pero para otras empresas, en realidad quieren exponer eso como una API, para que tengas acceso al modelo preentrenado con todas estas otras capacidades. Y ahí es donde creo que el desafío de la seguridad se vuelve un poco más difícil.

Gideon Lichfield: En un futuro cercano, el futuro cercano que estás describiendo, todos tienen una especie de asistente de IA personal o jefe de personal, como lo llamaste, que puede hacer tareas por ellos, y tal vez pueda reservar viajes u organizar viajes o hacer algunas investigaciones por ellos.

Lauren Goode: Pronto estará hospedando nuestro podcast por nosotros, Gideon.

Gideon Lichfield: Bueno, sí, eso es una buena pregunta. ¿Nos va a reemplazar? ¿Va a reemplazar a nuestros productores? Pero más allá de eso, creo que en este mundo en el que todos tenemos estos asistentes de IA, has sugerido que esto ayuda a sacar a las personas de la pobreza, crea nuevas oportunidades económicas. Hace 20 años, nadie tenía teléfonos inteligentes y era difícil imaginar cómo el mundo cambiaría al tener teléfonos inteligentes, y hoy todos tenemos estas computadoras en nuestros bolsillos que nos permiten hacer cosas increíbles. Pero a un nivel estructural fundamental, el mundo no es diferente. Todavía existen las mismas desigualdades, los mismos conflictos. Entonces, ¿cómo se ve diferente un mundo en el que todos tienen un asistente de IA al mundo de hoy?

Mustafa Suleyman: Sí. No creo que esté de acuerdo en que no haya nada estructuralmente diferente en el mundo en los últimos 20 años. No iría tan lejos como para atribuir todos los beneficios a los teléfonos inteligentes, pero ciertamente creo que es justo decir que los teléfonos inteligentes nos han vuelto más inteligentes, más astutos, nos han dado acceso a información, nos han permitido conectarnos con nuevas personas y construir enormes negocios a partir de este hardware. Así que, claramente—

Gideon Lichfield: También nos ha dado un acceso masivo a información errónea y nos ha ayudado a perder mucho tiempo en todo tipo de distracciones que no son necesariamente buenas para nosotros. Así que creo que se pueden hacer algunos argumentos en contra.

[Conversación superpuesta]

Lauren Goode: Nos ha vuelto mucho peores conduciendo vehículos.

[Risas]

Mustafa Suleyman: Sí. Mira, definitivamente no soy un tecnólogo optimista ingenuo, así que sin duda hay inmensos inconvenientes y daños. Pero la forma en que pienso en una IA personal no es muy diferente a la llegada de un teléfono inteligente. Un teléfono inteligente básicamente ha puesto el dispositivo móvil más poderoso que nuestra especie es capaz de inventar en manos de más de mil millones de personas, por lo que no importa cuán rico seas, ya sea un multimillonario o ganes un salario regular, ahora todos tenemos acceso al mismo hardware de vanguardia. Creo que es importante afirmar desde el principio que esa es la trayectoria en la que nos encontramos y creo que es bastante increíble.

Gideon Lichfield: Creo que se puede argumentar igualmente que una nueva tecnología puede sacar a relucir nuestras peores tendencias, así como nuestras mejores. Y así, se podría decir plausiblemente: “Los asistentes de IA tendrán tantos aspectos negativos como positivos, de la misma manera que los teléfonos inteligentes lo tienen”.

Mustafa Suleyman: Esa es la otra cara de tener acceso a información en la web. Ahora vamos a tener acceso a IA de enseñanza altamente capaces y persuasivas que podrían ayudarnos a llevar a cabo cualquier tipo de intención oscura que tengamos. Y eso es lo que tenemos que enfrentar, eso va a ser oscuro, definitivamente acelerará los daños, sin lugar a dudas. Y eso es lo que tenemos que confrontar.

Lauren Goode: ¿Puedes trazar una línea entre esta idea de que aquí hay una IA personal que completa tareas para ti o te da un mayor acceso a información y “Esto va a ayudar a resolver la pobreza”? ¿Cómo funciona eso realmente? Que esta IA, Pi, aquí está tu chatbot, me acaba de dar una ocurrencia divertida para este podcast, ayuda a poner fin a la pobreza.

Mustafa Suleyman: Es una pregunta difícil. No uní esas dos cosas, no dije que iba a resolver la pobreza o acabar con el hambre en el mundo. [Risa] Eso no es para lo que está diseñado Pi. Pi es una IA personal que te ayudará como individuo a ser más productivo. Otras personas utilizarán el progreso en la inteligencia artificial para todo tipo de cosas, incluyendo potenciar la ciencia. En el ámbito científico, puedo ver perfectamente que esto sea una herramienta que te ayude a filtrar los documentos de manera más eficiente, que te ayude a sintetizar los últimos avances, que te ayude a almacenar y registrar todas tus ideas y te ayude a ser un investigador más eficiente. Quiero decir, mira, la forma de pensarlo es que estamos comprimiendo el conocimiento disponible en internet en fragmentos digeribles de forma personalizada. Ahora hay vastas cantidades de información que se pueden reproducir de manera altamente personalizada, lo cual creo que va a potenciar la inteligencia de las personas, y eso en sí mismo las hará mucho más productivas. Creo que en general, tener un asistente personal probablemente te hará una persona más inteligente y productiva.

Gideon Lichfield: Estás trabajando en Inflection en el futuro inmediato de la inteligencia artificial, pero tienes este libro que está por salir, que comienza hablando sobre ese futuro cercano de la IA y termina prediciendo el posible colapso del Estado-nación. ¿Quieres hacernos un resumen del argumento?

Mustafa Suleyman: Con la ola de IA, la escala de estos modelos ha crecido en un orden de magnitud, es decir, 10 veces cada año durante los últimos 10 años. Y estamos en una trayectoria en los próximos cinco años de aumentar 10 veces cada año en el futuro, y eso es muy, muy predecible y muy probable que suceda.

Lauren Goode: ¿Y la premisa de tu libro es que no estamos listos para esto?

Mustafa Suleyman: Definitivamente no estamos listos, porque ese tipo de poder se vuelve más pequeño y eficiente, y cada vez que algo es útil en la historia de la invención, tiende a volverse más barato, tiende a volverse más pequeño y, por lo tanto, se propaga. Entonces, la historia de la próxima década es la proliferación de poder, lo cual es lo que creo que va a suponer una amenaza genuina para el Estado-nación, como no hemos visto desde que nació el Estado-nación.

Lauren Goode: ¿Te consideras una persona con poder?

Mustafa Suleyman: Sí.

Lauren Goode: ¿Qué poder es ese?

Mustafa Suleyman: Bueno, soy rico, vendí mi empresa en 2014, y ahora tengo una nueva empresa. Estoy educado. Básicamente, me he convertido en una élite desde mi vida adulta. Crecí como un niño de clase trabajadora muy pobre de familias inmigrantes sin educación en mi familia, pero ahora definitivamente estoy en el grupo privilegiado. [Risa]

Lauren Goode: Entonces estás en una posición única, porque en tu libro, estás señalando este desequilibrio de poder que anticipas y que predices que llegará en la próxima ola.

Mustafa Suleyman: Así es.

Lauren Goode: Pero tú mismo eres una persona poderosa que en última instancia puede… es como si pudieras ajustar un poco los controles con la IA que tú mismo estás construyendo.

Mustafa Suleyman: Exactamente. Y creo que la contención es el tema, creo, de la próxima década.

Gideon Lichfield: Bueno, hablemos de esta idea de contención en el libro, porque es un término que tomas prestado de la Guerra Fría. En ese contexto, significaba contener un arma o un estado. Pero obviamente es muy diferente contener una tecnología que puede estar en manos de miles de millones de personas. ¿Cuál es la esencia de la contención tal como la concibes para estas tecnologías hoy en día?

Mustafa Suleyman: No hay un estado perfecto en el que el juego haya terminado y hayamos contenido completamente una tecnología, porque las tecnologías seguirán volviéndose más baratas y más fáciles de usar, seguirá habiendo una gran demanda de ellas. Y a diferencia de cualquier otra tecnología anterior, estas son tecnologías de uso general, son inherentemente generales, se pueden usar para todo y cualquier cosa en el medio. Y por lo tanto, tratar de demarcar y definir qué partes de la tecnología deben estar restringidas, en este momento, los gobiernos no tienen realmente la capacidad de hacer esa evaluación en tiempo real. Por eso he sido muy favorable y he participado en los compromisos voluntarios de la Casa Blanca. Y creo que este es un ejemplo de ser proactivo y precautorio y de fomentar restricciones autoimpuestas en el tipo de cosas que podemos hacer, en los modelos más grandes. Y por lo tanto, estamos atrapados por este umbral, un umbral autoimpuesto que los modelos más grandes deben ser extra deliberados, atentos y precautorios en la forma en que abordan el entrenamiento y la implementación.

Lauren Goode: Entonces, ¿cómo concilias eso? ¿Cómo dices: “Acabamos de firmar un compromiso, estamos buscando voluntariamente crear salvaguardias o límites, pero también este año estamos entrenando el modelo de lenguaje más grande del mundo”? Eso es un trabalenguas, el modelo de lenguaje más grande del mundo. ¿Qué significa eso realmente? Cuando empresas como la tuya han firmado un compromiso diciendo: “Vamos a investigar cosas como la procedencia y vamos a crear soluciones en torno a eso”. O “Vamos a asegurarnos de que nuestros conjuntos de entrenamiento no estén sesgados”. En el día a día, ¿qué significa eso que tu equipo, tus ingenieros están haciendo realmente para hacer esto más seguro?

Mustafa Suleyman: Nos gustaría saber qué datos de entrenamiento se han incluido en el modelo, cuál es el método y proceso para ajustar y restringir las capacidades de estos modelos. ¿Quién tiene la capacidad de auditar ese proceso? Entonces, el juego aquí es tratar de ejercitar el músculo del principio de precaución temprano, para que estemos en el hábito y la práctica de hacerlo a medida que las cosas cambien en los próximos cinco a diez años.

Gideon Lichfield: Si fuera un cínico, que por supuesto no lo soy en absoluto…

Mustafa Suleyman: [Risas] Para nada.

Lauren Goode: No, Gideon.

Gideon Lichfield: Podría decir que tú y las empresas de IA están creando un trato bastante bueno para ustedes mismos, porque pueden decirle al gobierno: “Mira, gobierno, no puedes entender lo suficiente esta tecnología como para regularla, así que vamos a establecer voluntariamente algunas barreras, vamos a impulsar la agenda, vamos a decidir cuán precautorio debe ser el principio de precaución”. Y creo que la pregunta que estoy haciendo es, ¿cuál es el incentivo del sector privado que lidera la conversación porque tiene el conocimiento necesario para establecer estándares que sean realmente buenos para la sociedad?

Mustafa Suleyman: Si pudiéramos lograr una regulación formal, creo que sería un buen comienzo. Pero tienes razón, una buena regulación, creo, es el resultado de grupos muy diversos de personas que expresan sus preocupaciones y participan en el proceso político. Y en este momento estamos un poco abrumados por la apatía, la ira y la polarización. Y sin embargo, este es el momento crítico, creo, en el que tenemos mucho tiempo, tenemos muchos años para tratar de hacer esto bien. Creo que tenemos una buena década en la que podemos tener la conversación popular, y eso es en parte lo que estoy tratando de hacer con el libro y en parte lo que otros están tratando de hacer con los compromisos voluntarios también.

Gideon Lichfield: ¿Cuáles son algunos de los escenarios que predices que la mayoría de las personas probablemente ni siquiera pueden imaginar que podrían suceder si no logramos mantener estas tecnologías bajo control?

Mustafa Suleyman: Bueno, creo que en unos 15 o 20 años se podrían imaginar actores no estatales muy poderosos. Así que piensen en carteles de drogas, milicias, criminales organizados, simplemente una organización con la intención y motivación de causar un daño grave. Y si la barrera de entrada para iniciar y llevar a cabo conflictos está disminuyendo rápidamente, entonces el estado tiene una pregunta desafiante, que es: ¿Cómo continúa protegiendo la integridad de sus propias fronteras y el funcionamiento de sus propios estados? Si grupos cada vez más pequeños de personas pueden ejercer un poder similar al de un estado, ese es esencialmente el riesgo de la próxima ola.

Lauren Goode: Estoy muy intrigada por lo que estás haciendo con Inflection, porque cuando pienso en tu trayectoria, has trabajado en política, has trabajado en el bien social, por supuesto, cofundaste DeepMind y luego trabajaste en Google. Pero también has escrito un libro y pareces tener estas intenciones diplomáticas, crees en la colaboración. ¿Por qué eres fundador de una startup?

Mustafa Suleyman: Soy más feliz cuando estoy creando cosas. Realmente lo que me encanta hacer es entender profundamente cómo funciona algo, y me gusta hacer eso a nivel micro. Me encanta pasar de lo micro a lo macro, pero no puedo quedarme solo en lo macro. Estoy obsesionado con hacer cosas a diario, y supongo que eso es parte de mi espíritu empresarial. Me encanta decir: “¿Qué vamos a lanzar mañana? ¿Qué vamos a hacer? ¿Qué vamos a construir?” Si tuviera que elegir entre los dos, eso es lo que me hace más feliz, y eso es lo que me gusta hacer la mayor parte del tiempo.

Lauren Goode: Y piensas que trabajar fuera del ámbito de las startups sería simplemente una tarea difícil, ¿verdad? No tendrías tanta gratificación—

Mustafa Suleyman: Es demasiado lento.

[Risas]

Lauren Goode: … al ver los efectos de tus esfuerzos.

Mustafa Suleyman: Necesito retroalimentación. Y necesito medición—

Lauren Goode: Necesitas retroalimentación. Podrías ser periodista. Nosotros tenemos que publicar cosas todo el tiempo, y recibimos muchos comentarios en línea. Podría leerte algunos de los comentarios.

[Risas]

Mustafa Suleyman: Lamento escuchar eso. Esperemos que nuestra IA pueda ser amable contigo y de apoyo, y luego responder a todos esos maleducados en Twitter. [Risas]

Lauren Goode: Y para dejar claro, no utilizamos IA en nuestro informe de ENBLE.

Mustafa Suleyman: Aún no.

Lauren Goode: Oh, vaya. Es todo un tema aparte.

[Risas]

Gideon Lichfield: Pero tal vez usemos Pi para protegernos de todas las personas desagradables en Twitter, como dijo Mustafa.

Lauren Goode: Tal vez. [Risas]

Gideon Lichfield: Lo siento. En X, en X. No en Twitter, ya no.

Lauren Goode: Así es.

Mustafa Suleyman: Oh, hombre.

Gideon Lichfield: Dejaste Google para fundar Inflection, y has hablado públicamente sobre cómo te frustraba la lenta movilidad en Google, la burocracia. Dijiste que podrían haber lanzado su propio modelo de lenguaje grande un año o más antes de que OpenAI lanzara ChatGPT. Parece estar un poco en desacuerdo con esta precaución que estás expresando en el libro al decir: “Por un lado, necesitábamos movernos más rápido en Google y quiero lanzar cosas todos los días, y por otro lado, necesitamos tener mucho cuidado al lanzar cosas porque el mundo no está listo para lidiar con ello”.

Mustafa Suleyman: Sí. Pude ver al interactuar con LaMDA todos los días que no estaba cerca de causar daño de ninguna manera significativa, al igual que GPT-4, creo que sería difícil afirmar que ha causado algún daño material en el mundo.

Gideon Lichfield: Aún no.

Lauren Goode: Bien jugado, Gideon.

Mustafa Suleyman: Posiblemente. Lo dudo. Ya ha sido utilizado por miles de millones de personas. Tal vez. Veremos. Supongo que tendremos que ver en unos años. Pero creo que modelos de este tamaño, bastante improbable, y eso fue bastante obvio para mí en ese momento. Y creo que la mejor manera de operar es simplemente poner las cosas de manera sensata. No significa que tengas que ser imprudente, pero tienes que obtener comentarios y medir el impacto y ser muy atento e iterativo, una vez que ves a las personas usarlo de ciertas maneras.

Gideon Lichfield: Quiero preguntarte sobre algo que propusiste llamado el Test de Turing Moderno. Has sugerido que necesitamos una nueva forma de evaluar la inteligencia en lugar de la idea obsoleta de algo que simplemente pueda sonar como un humano. Uno de los ejemplos que propusiste de una máquina que podría superar ese test de Turing o algo a lo que puedas decirle: “Hazme un millón de dólares comenzando con una suma menor”. Y lo hará. ¿Por qué fue ese tu punto de referencia?

Mustafa Suleyman: Una versión moderna del Test de Turing, en mi opinión, es aquella en la que puedes dar una meta bastante abstracta a una IA. Elegí “Ve y produce un producto, hazlo fabricar, márquelo y promuévelo, y luego intenta hacer un millón de dólares”. Creo que la primera ola del Test de Turing Moderno tendría una cantidad razonable de intervención humana, tal vez tres o cuatro o cinco momentos en los que un humano necesitaría hacer un contrato, abrir una cuenta bancaria, todos los tipos de aprobaciones legales y financieras que estarían involucradas. Pero creo que la mayoría de los otros elementos, enviar correos electrónicos a los fabricantes en China, envío directo, tratar de optimizar el marketing produciendo nuevo contenido de marketing, todas esas cosas como componentes individuales, casi estamos allí. El desafío será unirlos en una secuencia de acciones, dada esa meta amplia.

Lauren Goode: Es tan interesante, porque inicialmente pensé: “Oh, esto es solo una prueba de Turing, ¿puedes convertir una IA en un capitalista de riesgo en un corto período de tiempo?” Pero entiendo lo que estás diciendo, que debe haber ese tejido conectivo, y eso es lo que falta. Entonces, ¿qué te mantiene despierto por la noche?

Mustafa Suleyman: Creo que el mayor desafío de la próxima década será la proliferación de poder que amplificará la desigualdad y acelerará la polarización porque será más fácil difundir desinformación de lo que nunca ha sido. Y creo que simplemente va a… va a sacudir nuestro mundo actualmente inestable.

Gideon Lichfield: ¿Crees que la IA tiene algunas soluciones para esto además de ser la causa de algunos de los problemas?

Mustafa Suleyman: Curiosamente, creo que serán las plataformas tecnológicas las que jugarán un papel bastante importante aquí, porque en realidad desempeñan una función importante en la moderación de la web. Creo que deberíamos familiarizarnos mucho más con la idea de una moderación constante en tiempo real de las principales plataformas y de la propia web. Creo que será muy difícil saber quién ha producido qué contenido, y creo que la única forma real de controlar eso es que las plataformas tengan que hacerlo una regla.

Lauren Goode: Una pregunta final para ti. Después de que Pi, tu asistente personal, terminó de elogiarte, le pedí preguntas más difíciles para hacerte, y una de las cosas que dijo fue: “Si tuvieras que elegir una cosa que desearías que las personas dejaran de hacer hoy para que pudiéramos tener un futuro mejor, ¿cuál sería?”

Mustafa Suleyman: Creo que sería asumir que la otra persona tiene malas intenciones. Pasamos por alto a los demás y casi subconscientemente elegimos no escucharlos porque ya hemos etiquetado sus malas intenciones. Creo que si nos acercamos unos a otros intentando realmente ponernos en el lugar del otro, cuanto más hago eso, más humilde me siento al respecto. Es algo difícil de hacer. Pi definitivamente ha tenido éxito al hacerme una pregunta difícil allí.

Lauren Goode: Todos deberíamos encontrar nuestras propias formas de hacer un poco de trabajo de campo, es lo que estás diciendo.

Mustafa Suleyman: Sí, tienes que ir y tocar y oler y respirar y ser parte de un entorno diferente al que estás acostumbrado.

[Música]

Gideon Lichfield: Esto ha sido muy divertido, Mustafa, muchas gracias por unirte a nosotros en Have a Nice Future.

Mustafa Suleyman: Muchas gracias. Fue divertido.

[Música]

Lauren Goode: Gideon, estoy muy intrigada por lo que impulsa a Mustafa. Tiene un trasfondo interesante, no es el típico chico blanco, desertor de Stanford y creador de una aplicación tecnológica. Tiene una perspectiva global. Claramente quiere ser una especie de líder de pensamiento. Pero también creo que esto dice algo sobre nuestra sociedad capitalista y la increíble influencia de algunos de nuestros capitalistas más exitosos, que él ve al sector privado como el lugar donde puede crear cosas y tener influencia. ¿Qué impresión te dio hablar con él acerca de lo que lo impulsa?

Gideon Lichfield: Él dijo en la entrevista que le gusta construir cosas y le gusta enviar algo todos los días, le gusta tener esa motivación para hacer avanzar las cosas. Y parece que también cree que la forma de explorar estos problemas complejos sobre lo que la tecnología hará al mundo es construyendo la tecnología. Él dice en el libro que su experiencia en el gobierno y su trabajo en la resolución de conflictos es lo que ha inspirado algunas de las preguntas que se hace hoy en día, acerca de cómo dirigimos nuestras sociedades. Es difícil decir cuánto de eso es real y cuánto es construcción narrativa, como inevitablemente hacen las personas en su posición, pero definitivamente hay una mente preocupada por estos problemas, creo, y tratando de encontrar las respuestas correctas.

Lauren Goode: Sé que devoraste el libro, que debemos mencionar que Mustafa coescribió con alguien más. ¿Qué te pareció el libro?

Gideon Lichfield: Bueno, encontré el libro muy intrigante, porque plantea las mismas preguntas en las que estoy muy interesado en este momento, y planeo seguir trabajando en ellas después de dejar ENBLE a finales de este año. Básicamente, ¿cómo dirigimos nuestras sociedades en el siglo XXI cuando nuestras instituciones fueron diseñadas en el siglo XVIII? Y hoy en día tenemos un mundo donde la tecnología avanza mucho más rápido, estamos mucho más interconectados, todo es mucho más grande y complejo, y esas instituciones que creamos hace siglos no están a la altura de la tarea. Su extrapolación de cómo las tecnologías que tenemos hoy van a influir en el futuro realmente me impactó, y al mismo tiempo planteó algunas dudas, porque no estoy seguro de compartir su optimismo sobre cuán poderosos se volverán los modelos de IA. Obviamente él sabe más sobre IA que yo, así que tal vez debería creerle. Pero por otro lado, creo que hemos visto a muchos fundadores de tecnología hacer predicciones muy audaces sobre lo que la tecnología puede hacer, y luego quedarse cortos.

Lauren Goode: Tiendo a estar de acuerdo contigo, que la tasa exponencial a la que la IA va a seguir avanzando puede que no alcance necesariamente el objetivo, pero sí pensé que su punto sobre cómo esto reduce las barreras de acceso a estas herramientas para todos es importante. Porque lo admito, podemos ser un poco miope, experimentamos la tecnología a través de nuestra propia perspectiva, nuestra propia visión del mundo, nuestras propias experiencias. Incluso a veces, aunque tratemos de cubrir una amplia gama de temas tecnológicos, aún no vemos todos los ángulos. Y pensé que lo que dijo, por ejemplo, sobre las habilidades de actores no estatales para utilizar y manejar estas herramientas era interesante. Si la barrera de entrada para iniciar y llevar a cabo conflictos se reduce, entonces eso plantea una pregunta desafiante, como si las personas más pequeñas también pueden usar estas herramientas. De repente, estás hablando de problemas de IA potenciales que son mucho más grandes que simplemente “¿Mi chatbot puede brindarme terapia o procesar mi solicitud de renovación de pasaporte?”

Gideon Lichfield: Sí, creo que mi escepticismo se debe a que cuando miro el impacto que la tecnología ha tenido en la última década más o menos, veo más y menos impacto de lo que se podría esperar. Así que, miramos la Primavera Árabe y vemos lo efectivas que fueron las redes sociales para facilitar levantamientos y la caída de gobiernos y movimientos populares, pero 10 años después, Oriente Medio sigue luciendo prácticamente igual que antes, porque básicamente los autoritarios se pusieron al día con las mismas técnicas que estaban usando los revolucionarios, y las estructuras de poder y riqueza esenciales en la región no han cambiado realmente. No ha borrado la idea del estado-nación, no ha borrado la idea de las fronteras, no ha trastornado el mundo en un sentido macro. Y así, cuando pienso en las predicciones de Mustafa de que los actores no estatales utilizarán IA generativa para, de alguna manera, trastornar fundamentalmente la estructura política del mundo, puedo ver formas en las que podría suceder a nivel local, y sin embargo, creo que si ampliamos la perspectiva, el mundo no se verá muy diferente de lo que se ve hoy dentro de 20 o 30 años. Pero quién sabe, todavía puedo estar equivocado.

Lauren Goode: ¿De verdad? ¿No crees que el mundo ha cambiado de manera importante desde la llegada de internet?

Gideon Lichfield: Claro, creo que el mundo ha cambiado enormemente, y si observas nuestras vidas cotidianas, son inmensamente diferentes a lo que eran antes de tener internet. Pero luego, si amplío la perspectiva y miro la imagen más amplia, supongo que sigo viendo un mundo en el que un puñado de países dominan la política, un puñado de personas ricas dominan los negocios y la sociedad, esas desigualdades están aumentando, no disminuyendo, a pesar del supuesto efecto democratizador de la tecnología. Las formas en que los humanos intercambian poder e influencia siguen siendo fundamentalmente las mismas. Tal vez solo soy demasiado cínico, pero a cierto nivel, veo a la sociedad humana como algo muy similar a lo que siempre fue, independientemente de la tecnología que tengamos.

Lauren Goode: También me alegra que haya explicado su pensamiento detrás de la prueba de Turing reimaginada. [Risas]

Gideon Lichfield: Porque tú pensabas: “¿Por qué la prueba de Turing es una prueba de qué tan buen capitalista puede ser un robot?”

Lauren Goode: Más o menos, sí. Para mí, si un bot puede ganar un millón de dólares parecía una interpretación realmente grosera de la prueba de Turing, pero luego él explicó lo que quería decir, y ahora mismo, eso parece ser una de las brechas en el desarrollo de la IA. Incluso algunas de las herramientas de IA generativa más sofisticadas, hay una brecha en la ejecución. Puedes tener una sesión de lluvia de ideas realmente impresionante o incluso una sesión de terapia con un bot, pero en el momento en que dices: “De acuerdo, renuévame el pasaporte”, probablemente no pueda hacerlo. Todavía no están conectadas todas las piezas. Y supongo que él usó la idea de que pueda invertir dinero y ganar dinero por ti mientras duermes, como una forma de determinar si eso realmente está funcionando o no.

Gideon Lichfield: Sí. Y creo que una de las preguntas para mí es, ¿cuántas de esas barreras tienen que ver solo con el poder de los modelos? Los haces más poderosos y, eventualmente, descubren cómo hacer todas las cosas. Y cuánto de ello son problemas triviales realmente tontos que la computadora no puede resolver porque aún necesitas a un humano para conectarla a las API correctas o darle acceso a los datos correctos. En la misma conferencia donde entrevisté a Mustafa en el escenario, conocí a alguien que estaba jugando con un agente de IA rudimentario. Y lo que era básicamente era un gran modelo de lenguaje conectado a algunas API y servicios web. Y lo que había hecho era usarlo para extraer la lista de participantes de la conferencia, que ascendía a miles, y recomendarle 100 personas con las que debería intentar conectar. Y eso me pareció un caso realmente, realmente útil para una IA, si pudieras hacer que funcione. Y podría ver que donde podría fallar era, en primer lugar, tuvo que construir la cosa que le permitiera extraer los datos del sitio web de la conferencia, no pudo descubrir cómo hacerlo por sí misma. Y así, a menudo, debe haber un humano que haga estas conexiones entre diferentes servicios digitales para que realmente funcionen juntos. Pero luego, lo otro era, ¿qué tanto te conoce tu IA? ¿Y qué tan bien podrá hacer recomendaciones de personas con las que deberías hablar en la conferencia? Y la diferencia entre hacer recomendaciones que sean solo aceptables y las que sean realmente buenas podría depender de una gran cantidad de conocimiento sobre ti y datos sobre ti que es posible que no puedas proporcionar porque esos datos pueden no existir en una forma que pueda asimilar. Creo que en ese tipo de aplicaciones muy específicas es donde vamos a empezar a descubrir cuán poderosa es la IA o cuánto más se necesitará para que sea útil. Y en realidad, no creo que aún tengamos un buen entendimiento de cuán difícil será eso.

Lauren Goode: Y al final del día, aún tendrías que asistir a todas esas reuniones. Tú, Gideon.

Gideon Lichfield: Sí, aún tendría que asistir a todas esas reuniones. Supongo que el siguiente paso sería construir una IA que pueda asistir a las reuniones por mí, luego descargar los resultados en mi cerebro. Y eso no es algo que veremos en un futuro cercano.

[Música]

Lauren Goode: Eso es todo por hoy. Gracias por escuchar. Puedes leer el libro de Mustafa, “La ola venidera: Tecnología, poder y el dilema más grande del siglo XXI”, cuando salga a la venta el 5 de septiembre en las librerías.

Gideon Lichfield: Have a Nice Future es presentado por mí, Gideon Lichfield.

Lauren Goode: Y por mí, Lauren Goode. Si te gusta el programa, cuéntanos, déjanos una calificación y una reseña donde sea que escuches tus podcasts. Nos encanta leer tus comentarios. Y no olvides suscribirte para recibir nuevos episodios cada semana.

Gideon Lichfield: También puedes enviarnos un correo electrónico a [email protected].

Lauren Goode: Have a Nice Future es una producción de Condé Nast Entertainment. Danielle Hewitt de Prologue Projects produce el programa. Nuestra productora asistente es Arlene Arevalo.

Gideon Lichfield: Y estaremos de regreso aquí el próximo miércoles. Hasta entonces, ten un buen futuro.


Si compras algo utilizando los enlaces en nuestras historias, es posible que ganemos una comisión. Esto ayuda a apoyar nuestro periodismo. Obtén más información.