Cruxr.ai logo Cruxr.ai
EN ES
GitHub
Rutas

Contexto Largo y Memoria

  • 1 El Problema de la Longitud de Contexto
  • 2 Codificaciones de Posicion para Contexto Largo
  • 3 Patrones de Atención Eficientes
  • 4 Transformers con Memoria Aumentada
  • 5 Contexto Aumentado con Recuperación
  • 6 Modelos de Espacio de Estados: S4 y Mamba
  • 7 Arquitecturas Híbridas
  • 8 Uniéndolo Todo
Rutas › Contexto Largo y Memoria › Arquitecturas Híbridas

Arquitecturas Híbridas: Combinando Atención y SSMs

¿Te resultó útil este artículo?

← Anterior Modelos de Espacio de Estados: S4 y Mamba Siguiente → Uniéndolo Todo
Cruxr.ai logo Cruxr.ai · © 2026 Cruxr.ai. All rights reserved.
Política de Privacidad Términos de Uso
Preguntar sobre este artículo