IBM ha lanzado la nueva familia de modelos Granite 4.1, una serie de modelos de lenguaje de 8.000 millones de parámetros que, según los benchmarks publicados por la compañía, igualan el rendimiento de sistemas MoE (mezcla de expertos) de hasta 32.000 millones de parámetros en tareas de codificación, razonamiento y comprensión general.

El logro radica en técnicas de destilación y entrenamiento en cascada que IBM ha desarrollado durante el último año. En lugar de simplemente escalar el número de parámetros, la firma optimizó la arquitectura del modelo para que cada componente opere con mayor eficiencia, extrayendo más capacidad por parámetro entrenado.

El modelo se distribuye como pesos abiertos bajo una licencia que permite uso comercial, lo que facilita su implementación en centros de datos propios sin depender de APIs externas. IBM espera que la combinación de rendimiento y eficiencia energética atraiga a empresas que buscan reducir costos de inferencia sin sacrificar calidad.

La disponibilidad de Granite 4.1 en formato abierto también amplía el acceso de investigadores académicos a modelos competitivos, un cambio respecto a la tendencia reciente de cerrar los modelos más capaces tras su lanzamiento.