Artículo

Píldoras LLM #0 — Aprendiendo enseñando

transformers

“Homines dum docent discunt.”(Los hombres, mientras enseñan, aprenden.)
— Séneca, Epistulae Morales ad Lucilium

Durante los últimos meses he estado procesando el curso sobre Large Language Models (LLMs) publicado por Hugging Face. Un curso gratuito, sin anuncios, que enseña desde los fundamentos del procesamiento del lenguaje natural (NLP) hasta el uso práctico de herramientas como Transformers, Datasets, Tokenizers, Accelerate y Hugging Face Hub.

Aunque está orientado a modelos de lenguaje grande, mantiene los fundamentos clásicos del NLP, algo que considero esencial para entender el funcionamiento real de estos sistemas.


🎯 Por qué empiezo esta serie de "píldoras"

En los últimos meses he escrito mucha documentación: he probado, ampliado y actualizado código, revisado conceptos e intentado explicarlos para mí mismo. Y me he hecho una pregunta:

¿Todo ese trabajo debería quedarse guardado entre mis apuntes?

He decidido que NO. Por eso, inicio esta serie de artículos donde iré compartiendo “píldoras” de conocimiento —pequeñas unidades formativas— basadas en mi proceso de aprendizaje con los LLMs.


🤝 Cómo lo haremos

  • Publicaré artículos como este, conectando ideas, fragmentos de apuntes y ejemplos prácticos.
  • Compartiré también cuadernos en Google Colab con el código de cada tema.
  • Invito a quienes quieran participar a dejar comentarios, correcciones o aportaciones, en el espíritu del software colaborativo:

“If you want to go fast, go alone. If you want to go far, go together.”
— African proverb


🚀 Propósito

Mi objetivo no es “enseñar” sobre el fascinante mundo de los Transformers, sino aprender compartiendo mis notas sobre este curso.

Si tú también estás explorando este campo, me encantará conectar y construir conocimiento juntos. Entre todos, haremos camino.