Hace años que la industria tecnológica no experimentaba tiempos tan emocionantes. Desde las revoluciones de Internet, las redes sociales y las criptomonedas, solo por mencionar algunos ejemplos, que una tecnología no proyectaba tal expectación como la que está generando la inteligencia artificial. Y las razones son demasiadas. Se trata de una promesa cuyos avances recientes nos han dejado con la boca abierta.
Uno de los responsables de este fenómeno ha sido ChatGPT, el bot conversacional de OpenAI que rápidamente se hizo viral por su sorprendente capacidad para responder preguntas todo tipo y mantener conversaciones en lenguaje natural. Más tarde fue el turno del chat de Bing, que captó la atención de las personas con su curiosa personalidad, aunque Microsoft más tarde se encargó de limitarla.
La IA avanza a pasos agigantados (y el hardware es elemental)
Las cosas van muy rápido. Antes de noviembre de 2022, el acceso masivo a este tipo de herramientas basadas en inteligencia artificial no era una realidad. Estaban disponibles en entornos cerrados de laboratorio y versiones menos evolucionadas en aplicaciones como Jasper o Notion. Hoy cualquier persona con una conexión a Internet puede sacar provecho de ChatGPT o Bing sin necesidad de cumplir determinados requisitos.
Ahora bien, para que todo esto esté siendo posible en nuestros tiempos, los planetas han tenido que alinearse. En otras palabras, han tenido que confluir una enorme cantidad de factores que en su conjunto han sentado las bases de la IA generativa que hoy disfrutamos y están permitiendo su evolución. Centrándonos en los esfuerzos de OpenAI, una pieza clave ha sido el acceso a una enorme capacidad de cómputo.
Según cuenta a Bloomberg el jefe de Microsoft Azure, Scott Guthrie, la compañía dirigida por Sam Altman necesitaba en 2019 un supercomputador de alto rendimiento para entrenar su modelo de próxima generación. En aquel entonces, OpenAI ya había presentado GPT y su evolución GPT-2, por lo que se estaba preparando para dar un salto sustancial con sus modelos de próxima generación.
En un movimiento tremendamente inteligente, los liderados por Satya Nadella invirtieron 1.000 millones de dólares en esta pequeña pero prometedora startup de inteligencia artificial y definieron un punto clave: convertirían a Azure en su proveedor exclusivo de servicios en la nube. De esta forma, los proyectos de OpenAI se entrenarían, desarrollarían y ejecutarían en los servidores en la nube de Microsoft.
Hasta este punto todo estaba perfecto, pero la compañías tenían un gran problema. OpenAI no contaba los recursos económicos para montar sus propios superordenadores y Microsoft, que tenía el capital suficiente y se había comprometido a ofrecerlos, tampoco estaba en condiciones. ¿La solución? Crearlos. El desafío, no obstante, iba mucho más allá que juntar una enorme capacidad de cómputo y ponerla a trabajar al unísono.
Basta con recordar que poner en marcha ordenadores bestiales es una tarea sumamente compleja, y estos, aunque nos cueste creerlo, presentan fallos muy a menudo hasta su puesta a punto. Frontier, sin ir más lejos, que es el supercomputador más potente del mundo, se ha enfrentado varios problemas. En cualquier caso, los de Redmond tenían un importante asunto que resolver para cumplir con su palabra.
El corazón de ChatGPT tiene espíritu NVIDIA
Para dar forma a este ambicioso proyecto, Microsoft escogió las GPU para centros de datos más potentes que existían en ese momento, las NVIDIA A100 lanzadas a mediados de 2020. Se trataba de una gráficas con tecnología Ampere y núcleos Tensor Core de 3ª generación específicamente diseñadas para tareas de computación de alto rendimiento como entrenamiento de la IA y análisis de datos.
El superordenador también contaría con otra tecnología de NVIDIA que va de la mano de sus GPU. Como para alcanzar la potencia de cómputo deseada se necesitaban miles de tarjetas gráficas A100 (no se ha especificado cuántas), estas estaban interconectadas con el sistemas NVLink, dos soluciones que ofrecen comunicación directa entre la GPU que escala la entrada/salida (IO) de varias GPU dentro del servidor.
Durante el proceso, los ingenieros se encargaron de cumplir con un requisito elemental: que las capacidades del superordenador fueran escalables. Esto permitiría empezar a funcionar con una potencia determinada e ir aumentándola en caso de ser necesario actualizando los componentes de hardware. Precisamente, bajo esta base, cuyo coste alcanzó “varios cientos de millones de dólares”, OpenAI empezó a trabajar.
La compañía de IA dispuso de la enorme potencia de los sistemas de Azure para entrenar con enormes datasets y billones de parámetros uno de sus modelos de lenguaje autorregresivo más avanzados, GPT-3.5, el corazón del chatbot viral del que hoy todos hablamos. En este punto merece la pena hacer una mención especial a la arquitectura “Transformer” de Google, elemental para adaptar el mencionado modelo de OpenAI.
Pero la cosa no acaba ahí. Por un lado tenemos la infraestructura necesaria para el entrenamiento del modelo de ChatGPT y por otro la que permite que este funcione y soporte millones de usuarios interactuando con el programa de IA desde varias ubicaciones geográficas. Esto último, llamado técnicamente “Inferencia”, requiere de una configuración de hardware ligeramente diferente.
En este sentido, Microsoft distribuyó “cientos de miles” de GPU NVIDIA A100 en unos 60 centros de datos situados en diferentes partes del planeta. Precisamente, sobre estos pilares es que se ejecuta ChatGPT en todo el mundo. Y mantenerlo no es precisamente barato. De acuerdo a Forbes, mantener en funcionamiento todas las patas de este complejo sistema cuesta “millones de dólares al día”.
Lo cierto es que Microsoft y OpenAI están intentando capitalizar todo este esfuerzo sabiamente. Esta asociación, que se ha convertido en una de las más productivas del sector, está dando resultados muy interesantes. Después del éxito de ChatGPT, impulsado por GPT-3.5, OpenAI ha presentado GPT-4, un modelo multimodal cuyas capacidades se acercan dramáticamente al rendimiento humano en algunos campos.
Microsoft y OpenAI están intentando capitalizar todo este esfuerzo
GPT-4 ya se puede usar en la suscripción de pago ChatGPT Plus y hay una lista de espera abierta para que los desarrolladores puedan acceder a la API. Además, este modelo de última generación acaba de arribar a aplicaciones y servicios tan populares como Duolingo, Stripe, Dropbox y Be My Eyes. Y claro, el nuevo Bing con chatbot de búsqueda incorporado tiene este modelo desde el día cero, solo que no lo sabíamos oficialmente.
Evidentemente, en todo esto hay muchos secretos que las compañías prefieren no revelar. Durante las últimas semanas, Microsoft esquivaba las preguntas sobre qué modelo alimentaba a Bing, respondiendo que se trababa de un “modelo de próxima generación de OpenAI”. Algo similar sucede cuando la conversación gira en torno al hardware que permite el funcionamiento de GPT-4.
Un día antes de la presentación de GPT-4, Microsoft dijo que los nuevos modelos funcionarán en la nueva infraestructura de Azure que han estado preparando. Precisamente, los de Redmond se han embarcado en adoptar lo último de lo último de NVIDIA en sus sistemas, las GPU NVIDIA H100 con arquitectura Hopper y 80.000 millones de transistores presentadas hace aproximadamente un año.
Como decimos, Microsoft y OpenAI están aprovechando al máximo todo este fenómeno. Los primeros no solo han visto un resurgir del buscador Bing, sino que también han tomado toda la experiencia adquirida para crear los superordenadores para entrenar GPT-3.5 para fortalecer la propuesta en la nube de Azure. Y eso es un diferencial enorme de cara a otros competidores del sector, como AWS o Google Cloud.
Los clientes empresariales de Azure pueden utilizar, a través de entornos virtuales altamente optimizados, la infraestructura en la nube de Microsoft para desarrollar sus propios proyectos de IA. OpenAI, por su parte, está ganando dinero con las suscripciones a ChatGPT Plus y el acceso a la API de sus modelos de lenguaje avanzados.
Un ganador colateral en toda esta historia es indudablemente NVIDIA, la compañía detrás de los chips gráficos que dan vida a los superordenadores de las grandes compañías se involucran en estos proyectos. Lo que está pasando en el mundo tecnológico de la mano de la IA es realmente interesante y todo parece indicar que muchas noticias más están por aparecer es escena.