El mito de la IA de ‘código abierto

El mito de la IA de 'código abierto

ChatGPT ha hecho posible que cualquier persona juegue con una poderosa inteligencia artificial, pero el funcionamiento interno del famoso chatbot sigue siendo un secreto bien guardado.

En los últimos meses, sin embargo, los esfuerzos por hacer que la IA sea más “abierta” parecen haber ganado impulso. En mayo, alguien filtró un modelo de Meta llamado Llama, que dio a los externos acceso a su código subyacente, así como a los “pesos” que determinan su comportamiento. Luego, en julio, Meta decidió poner a disposición de cualquiera un modelo aún más poderoso llamado Llama 2 para descargar, modificar y reutilizar. Desde entonces, los modelos de Meta se han convertido en una base extremadamente popular para muchas empresas, investigadores y aficionados que desarrollan herramientas y aplicaciones con capacidades similares a las de ChatGPT.

“Tenemos una amplia gama de seguidores en todo el mundo que creen en nuestro enfoque abierto para la IA actual… investigadores comprometidos a investigar con el modelo y personas en el ámbito tecnológico, académico y político que ven los beneficios de Llama y una plataforma abierta como nosotros”, dijo Meta al anunciar Llama 2. Esta mañana, Meta lanzó otro modelo, Llama 2 Code, que está afinado para la programación.

Puede parecer que el enfoque de código abierto, que ha democratizado el acceso al software, garantizado la transparencia y mejorado la seguridad durante décadas, ahora está listo para tener un impacto similar en la IA.

No tan rápido, dice un grupo detrás de un artículo de investigación que examina la realidad de Llama 2 y otros modelos de IA que se describen, de una forma u otra, como “abiertos”. Los investigadores, de la Universidad Carnegie Mellon, el Instituto AI Now y la Fundación Signal, afirman que los modelos que se etiquetan como “abiertos” pueden tener condiciones.

Llama 2 se puede descargar, modificar e implementar de forma gratuita, pero no está cubierto por una licencia de código abierto convencional. La licencia de Meta prohíbe utilizar Llama 2 para entrenar otros modelos de lenguaje, y requiere una licencia especial si un desarrollador lo implementa en una aplicación o servicio con más de 700 millones de usuarios diarios.

Este nivel de control significa que Llama 2 puede proporcionar beneficios técnicos y estratégicos significativos para Meta, por ejemplo, al permitir que la empresa se beneficie de ajustes útiles realizados por desarrolladores externos cuando utiliza el modelo en sus propias aplicaciones.

Los modelos que se lanzan bajo licencias de código abierto normales, como GPT Neo de la organización sin fines de lucro EleutherAI, son más abiertos, según afirman los investigadores. Pero es difícil para dichos proyectos competir en igualdad de condiciones.

En primer lugar, los datos necesarios para entrenar modelos avanzados a menudo se mantienen en secreto. En segundo lugar, los marcos de software necesarios para construir estos modelos suelen estar controlados por grandes corporaciones. Los dos más populares, TensorFlow y Pytorch, son mantenidos por Google y Meta, respectivamente. En tercer lugar, la potencia informática necesaria para entrenar un modelo grande también está fuera del alcance de cualquier desarrollador o empresa normal, y generalmente requiere decenas o cientos de millones de dólares para una sola ejecución de entrenamiento. Y finalmente, el trabajo humano necesario para perfeccionar y mejorar estos modelos también es un recurso que en su mayoría solo está disponible para las grandes empresas con muchos recursos.

Si las cosas continúan así, una de las tecnologías más importantes de las últimas décadas podría terminar enriqueciendo y empoderando solo a unas pocas empresas, incluyendo OpenAI, Microsoft, Meta y Google. Si la IA es realmente una tecnología que cambia el mundo, los mayores beneficios podrían sentirse si se hiciera más ampliamente disponible y accesible.

“Lo que señala nuestro análisis es que la apertura no sólo no sirve para ‘democratizar’ la IA”, me dice Meredith Whittaker, presidenta de Signal y una de las investigadoras detrás del artículo. “De hecho, mostramos que las empresas e instituciones pueden y han aprovechado tecnologías ‘abiertas’ para afianzar y expandir el poder centralizado”.

Whittaker añade que el mito de la apertura debería ser un factor en las regulaciones de IA tan necesarias. “Realmente necesitamos alternativas significativas a la tecnología definida y dominada por grandes corporaciones monopolísticas, especialmente a medida que los sistemas de IA se integran en muchos ámbitos altamente sensibles con un impacto público particular, como la atención médica, las finanzas, la educación y el lugar de trabajo”, dice. “Crear las condiciones para que sean posibles tales alternativas es un proyecto que puede coexistir e incluso ser respaldado por movimientos regulatorios como las reformas antimonopolio”.

Más allá de controlar el poder de las grandes empresas, hacer que la IA sea más abierta podría ser crucial para aprovechar al máximo su potencial y evitar sus peores tendencias.

Si queremos comprender cuán capaces son los modelos de IA más avanzados y mitigar los riesgos que podrían surgir con su implementación y avance, sería mejor abrirlos a los científicos de todo el mundo.

Así como la seguridad a través de la oscuridad nunca garantiza realmente que el código se ejecute de manera segura, proteger el funcionamiento de los potentes modelos de IA puede que no sea la forma más inteligente de proceder.