Artículo

🚢 Validación cruzada y selección de hiperparámetros en el dataset Titanic (Kaggle)

Titanic_CV

Tras construir el primer baseline con Regresión Logística y regularización L1/L2, el siguiente paso natural es evaluar el modelo de forma más rigurosa.

En este nuevo notebook me he centrado en dos aspectos fundamentales del ciclo de modelado en machine learning:

  • Validación cruzada (Cross Validation)
  • Selección de hiperparámetros

El objetivo no es simplemente mejorar el score, sino entender cómo se comporta realmente el modelo cuando se enfrenta a distintos subconjuntos de datos.


1️⃣ Validación cruzada: medir la estabilidad del modelo

Cuando entrenamos un modelo con un único split train/test, el resultado puede depender demasiado del azar: qué muestras concretas han quedado en cada partición.

La *validación cruzada (k-fold) aborda este problema repitiendo el entrenamiento varias veces sobre distintos subconjuntos del dataset.

Esto permite observar dos cosas clave:

  • La media de rendimiento del modelo
  • La desviación típica entre folds

Esta segunda métrica es especialmente importante: un modelo con buena media pero alta variabilidad puede ser inestable y generalizar mal.


2️⃣ Curvas de aprendizaje: ¿tenemos suficientes datos?

En el notebook también analizo curvas de aprendizaje para entender cómo evoluciona el rendimiento del modelo a medida que aumentamos el tamaño del conjunto de entrenamiento.

Este tipo de gráfica permite detectar:

  • Sobreajuste (overfitting)
  • Sesgo alto (underfitting)
  • Saturación del aprendizaje

En el caso del Titanic, el modelo converge relativamente pronto: a partir de cierto número de muestras, añadir más datos no mejora significativamente el rendimiento.

Esto sugiere algo interesante: el límite del modelo no está en la cantidad de datos, sino en la capacidad del propio modelo o en las características utilizadas.


3️⃣ GridSearchCV: encontrar la mejor configuración

Una vez entendido el comportamiento del modelo, el siguiente paso es ajustar sus hiperparámetros.

Para ello utilizo GridSearchCV, que combina:

  • búsqueda sistemática de parámetros
  • validación cruzada interna

En este caso se exploran distintas configuraciones de:

  • tipo de penalización (L1, L2, ElasticNet)
  • intensidad de regularización (C)

De esta forma el modelo se evalúa bajo múltiples configuraciones antes de seleccionar la mejor.


4️⃣ Interpretación: sesgo, varianza y complejidad

Uno de los objetivos principales del ejercicio es visualizar cómo interactúan tres conceptos fundamentales en machine learning:

  • Sesgo (Bias)
  • Varianza
  • Complejidad del modelo

Las curvas de aprendizaje y los resultados de la validación cruzada permiten interpretar cuándo un modelo:

  • necesita más datos
  • necesita más características
  • o necesita un modelo más complejo

5️⃣ Aprendizaje clave

Este notebook refuerza una idea importante:

Evaluar bien un modelo es tan importante como entrenarlo.

La validación cruzada no solo sirve para medir rendimiento, sino para entender la estabilidad y la capacidad real de generalización del modelo.


🔗 Enlaces

Entrada Anterior