Rutas de Aprendizaje

Artículos estructurados sobre LLMs, RAG, modelos multimodales y más. Elige un tema y empieza a explorar.

No se encontraron temas.

Matemáticas Esenciales

Las matemáticas fundamentales del deep learning — funciones de activación, softmax, funciones de pérdida, entropía, divergencia KL y distribuciones de probabilidad — explicadas visualmente con código y gráficos interactivos.

ReLU GELU SiLU SwiGLU Softmax Log-Softmax Temperatura Entropía Cruzada BCE MSE Divergencia KL Entropía PDF CDF Distribución Normal
+ Más

Cheatsheet de PyTorch

De tensores a transistores: disposición en memoria, autograd, la pila de compilación, torch.compile, y cómo tu código Python se convierte en microcódigo GPU.

Tensores Strides Autograd ATen torch.compile Triton JAX Flax Fusión de Kernels
+ Más

Arquitectura GPU y CUDA

De transistores a kernels: multiprocesadores de streaming, el modelo de programación CUDA, la pila de software y el modelo roofline para análisis de rendimiento.

GPU CUDA SM Tensor Core Roofline cuBLAS Warp SASS
+ Más

Transformers

Del mecanismo de atención a arquitecturas completas de encoder y decoder — cómo los transformers procesan secuencias, por qué existe cada componente, y cómo construir uno desde cero.

Atención Multi-Head Enmascaramiento Causal Atención Cruzada Encoder Decoder BERT GPT Codificación Posicional Layer Norm Pre-entrenamiento SFT
+ Más

NanoGPT Speedrun

Mejoras incrementales que llevan la eficiencia del pre-entrenamiento de GPT a sus límites, del punto de partida al estado del arte en horas.

GPT-2 Pre-entrenamiento Optimización CUDA

Fine-tuning

Del fine-tuning completo a LoRA y QLoRA — cómo adaptar modelos fundacionales a tu tarea, construir datasets de instrucciones, entrenar de forma distribuida, evaluar resultados y fusionar modelos.

LoRA QLoRA PEFT DoRA Adaptadores Prefix Tuning SFT Instrucciones DeepSpeed FSDP Fusión de Modelos SLERP TIES
+ Más

RLHF y Alineamiento

De la rigidez del SFT al aprendizaje por refuerzo — cómo PPO, DPO y GRPO alinean modelos de lenguaje con preferencias humanas, con fórmulas, implementaciones y el ecosistema TRL de HuggingFace.

SFT PPO RLHF DPO GRPO Modelo de Recompensa Alineamiento TRL
+ Más

Pipelines RAG

De TF-IDF y BM25 a bi-encoders densos, fusión híbrida, rerankers, indexado HNSW y fine-tuning con pérdidas contrastivas — todo lo necesario para construir sistemas RAG de producción.

TF-IDF BM25 SPLADE Recuperación Densa Bi-Encoder ColBERT RRF Reranking HNSW Chunking Embedding Pipeline
+ Más

Optimización de Inferencia

KV-cache, decodificación especulativa, cuantización (GPTQ, AWQ, GGUF), batching continuo y la ingeniería detrás de servir LLMs a escala con baja latencia.

KV-Cache GQA MQA FlashAttention GPTQ AWQ GGUF Decodificación Especulativa PagedAttention vLLM Batching Continuo Paralelismo Tensorial
+ Más

Modelos Visión-Lenguaje

De CLIP a LLaVA: pre-entrenamiento contrastivo, Vision Transformers, SigLIP, DINOv2, fusión multimodal y ajuste por instrucciones visuales.

CLIP SigLIP DINOv2 ViT LLaVA Aprendizaje Contrastivo Fusión Multimodal Ajuste de Instrucciones VQA
+ Más

Modelos Visión-Lenguaje-Acción

VLAs para robótica: anclar lenguaje y visión en políticas motoras, de OpenVLA a la predicción de acciones basada en difusión.

Robótica OpenVLA pi0 Política de Difusión Flow Matching Tokenización de Acciones IA Embodied Control Motor
+ Más

Audio y Modelos Omni

De ondas y transformadas de Fourier a códecs neuronales de audio, síntesis de voz y modelos omni-modales — cómo las máquinas escuchan, hablan y razonan sobre el sonido.

Fourier Espectrograma Mel Whisper wav2vec HuBERT EnCodec RVQ VALL-E TTS Moshi Qwen-Audio GPT-4o Omni
+ Más

Generación de Imagen y Vídeo

De DDPM a difusión latente, flow matching y Diffusion Transformers — cómo Stable Diffusion, Flux, DALL-E y Sora generan imágenes y vídeo a partir de texto.

DDPM Stable Diffusion SDXL Flux DiT MMDiT Flow Matching CFG VAE DALL-E Imagen ControlNet IP-Adapter Sora Generación de Vídeo
+ Más

Contexto Largo y Memoria

Del muro cuadrático de atención al escalado RoPE, atención dispersa y transformers con memoria — cómo los modelos manejan secuencias largas y recuerdan más allá de la ventana de contexto.

RoPE ALiBi YaRN Ventana Deslizante Titans Infini-Attention Atención Dispersa Contexto Largo
+ Más

Agentes y Uso de Herramientas

De llamadas a funciones y ReAct a MCP, uso de computadoras y orquestación multiagente — cómo los LLMs pasan de generar texto a ejecutar acciones en el mundo real.

ReAct Llamada a Funciones MCP Uso de Herramientas Uso de Computadora Claude Code Codex Devin Multiagente CrewAI SWE-bench Sandboxing
+ Más