Artículo

Se corresponde con el capítulo 1 del curso de Hugging Face
Antes de entrar en los ejemplos prácticos (no seas impaciente...), veamos qué sucede “bajo el capó” cuando pasamos un texto a una pipeline() de Hugging Face.
⚙️ Los tres pasos principales
1️⃣ Preprocesamiento: El texto se convierte en un formato numérico que el modelo puede entender.
2️⃣ Inferencia: El modelo procesa esa entrada y genera una predicción.
3️⃣ Posprocesamiento: Los resultados se traducen a un formato legible para humanos.
💡 En resumen: la pipeline automatiza toda la ruta del dato — del texto en bruto a la predicción comprensible.
feature-extraction → obtiene embeddings (representaciones vectoriales) de un texto; útil para búsqueda semántica o clustering.
fill-mask → predice la palabra que falta en una frase con el token [MASK].
ner (Named Entity Recognition) → detecta y clasifica entidades como personas, lugares u organizaciones.
question-answering → responde preguntas extrayendo la respuesta más probable del contexto.
sentiment-analysis → clasifica el sentimiento de un texto (positivo, negativo o neutro).
summarization → genera un resumen breve de un texto largo.
text-generation → genera texto automáticamente a partir de un prompt inicial.
translation → traduce texto entre idiomas (e.g., inglés → español).
zero-shot-classification → clasifica sin entrenamiento adicional, usando solo descripciones de etiquetas.
¡Veamos algunas de ellas!
📚 Consulta la lista completa en la documentación oficial de Hugging Face Pipelines.
En las siguientes píldoras exploraremos varios de estos tipos mediante ejemplos prácticos, mostrando cómo resolver tareas reales con apenas unas líneas de código.
💻 Construiremos un cuaderno Colab, donde podrás probar y modificar los casos tú mismo. Pero sino puedes esperar, te dejo el enlace al mío:
🔗 ✨ Ver cuaderno en 🟠 Google Colab
Non scholae sed vitae discimus — aprendemos para la vida, no solo para la teoría. "(Séneca)"