Descomponiendo las Actualizaciones de Pesos

LoRA congela los pesos pre-entrenados e inyecta matrices de bajo rango entrenables, reduciendo los parámetros entrenables hasta 10.000 veces manteniendo el rendimiento del ajuste fino completo.