Artículo

🚢 Optimización de SVM en Titanic

Titanic optimización

Después del baseline, doy el siguiente paso natural: mejorar el modelo mediante optimización de hiperparámetros.

He publicado un nuevo cuaderno de computación donde trabajo uno de los datasets más conocidos en machine learning: el Titanic 🛳️.


🔍 Contexto rápido

Seguimos trabajando sobre el clásico problema del Titanic 🛳️, pero esta vez con un enfoque más avanzado: no se trata solo de entrenar un modelo, sino comprender de qué forma podemos mejorar y optimizar sus resultados, mediante el ajuste de sus hiper-parámetros.


⚙️ ¿Qué se explora en este cuaderno?

Partiendo del baseline con SVM, el foco está en cómo ajustar el modelo para mejorar su rendimiento:

  • 🎛️ Ajuste de hiperparámetros clave (C, gamma, kernels…)
  • 🔍 Búsqueda sistemática (Grid Search / Random Search)
  • 📈📉 Análisis con curvas de validación y aprendizaje
  • ⚖️ Evaluación comparativa de configuraciones
  • 🧪 Mejora progresiva sobre el baseline inicial

🧠 ¿Por qué es importante esto?

Un modelo como SVM puede cambiar radicalmente su comportamiento dependiendo de sus hiperparámetros.

Aquí es donde pasas de tener un modelo “correcto” a uno realmente optimizado:

  • mejor generalización
  • menor overfitting
  • decisiones más robustas

💡 Idea principal

Este cuaderno no introduce un modelo nuevo, sino algo más relevante:

  • 👉 cómo exprimir al máximo uno ya existente

Es el paso que muchas veces marca la diferencia entre un proyecto académico y uno aplicado.


📈 Evolución natural del proyecto

  • ✔️ Baseline simple (ya publicado)
  • 🔧 Optimización de hiperparámetros (este cuaderno)
  • 🚀 Base lista para iteraciones más avanzadas

Si te interesa ir más allá del “modelo básico” y entender cómo mejorar rendimiento de verdad 👇

👉 Ábrelo, ejecútalo y ajústalo a tu manera

Entrada Anterior