Mustafa Suleyman, actual consejero delegado de Microsoft IA y antiguo co-fundador de DeepMind, ha publicadoun análisis que ha generado un debate intenso en la comunidad tecnológica: la inteligencia artificial no está llegando a un muro, sino que se encuentra en medio de una fase de “explosión computacional” que defy toda intuición lineal sobre el progreso tecnológico. En un artículo de opinión publicado en MIT Technology Review, Suleyman sitúa el punto de partida en 2010 y traza una curva de crecimiento que resulta difícil de procesar sin recurrir a la notación científica: la capacidad de cálculo empleada para entrenar modelos frontera ha crecido un billón de veces, desde aproximadamente 10^14 operaciones en los primeros sistemas hasta más de 10^26 en los modelos actuales.
Los impulsores de este crecimiento, según el ejecutivo, son tres: velocidad del hardware, anchura de memoria y escala de redes. En el apartado de hardware, los chips de Nvidia han pasado de 312 teraflops en 2020 a 2.250 teraflops en la actualidad, lo que supone un incremento de más de siete veces en apenas seis años. Microsoft ha entrado en la guerra del silicio personalizado con su chip Maia 200, que ofrece un treinta por ciento mejor rendimiento por dólar que la generación anterior. La memoria de alta anchura de banda apila chips verticalmente para triplicar la velocidad de entrega de datos y evitar que los procesadores se queden inactivos. Tecnologías de conexión como NVLink e InfiniBand permiten que cientos de miles de unidades de procesamiento funcionen como una única entidad cognitiva.
Más allá del hardware, la eficiencia algorítmica está acelerando la curva. Investigadores de Epoch AI estiman que la capacidad de cálculo necesaria para alcanzar un nivel de rendimiento fijo se reduce a la mitad aproximadamente cada ocho meses, muy por delante del ritmo tradicional de duplicación cada dieciocho a veinticuatro meses predicho por la Ley de Moore. Los costes de servicio de algunos modelos recientes se han desplomado hasta en un noventa por ciento en términos anualizados. Si la tendencia se mantiene, Suleyman anticipa otra multiplicación por mil en la capacidad efectiva antes de que termine 2028.
La consequence más inmediata de esta escala de compute es la transición desde los chatbots actuales hacia lo que Suleyman denomina “equipos de agentes de inteligencia artificial”: sistemas semiautónomos capaces de escribir código durante días, ejecutar proyectos de meses de duración, negociar contratos y gestionar logística de forma autónoma, trabajando coordinados en equipos deliberativos. El ejecutivo también aborda la cuestión energética, señalando que si bien cada rack de inteligencia artificial consume actualmente el equivalente a cien hogares, la trayectoria de costes de solar y baterías ofrece un camino hacia una escalabilidad limpia. “El capital está desplegado. La ingeniería está deliverando. Los clusters de cien mil millones de dólares, las conexiones eléctricas de diez gigavatios, los superordenadores a escala de almacén… ya no son ciencia ficción”, concluye.
Lee la historia completa en MIT Technology Review.
Comentarios (0)
Sé el primero en comentar.