
Este curso práctico está enfocado en alinear modelos de lenguaje para casos de uso específicos. Es una forma accesible de empezar a trabajar con modelos de lenguaje, ya que puede ejecutarse en la mayoría de las máquinas locales con requisitos mínimos de GPU y sin necesidad de servicios pagos. El curso se basa en la serie de modelos SmolLM2, pero las habilidades que adquieras aquí son transferibles a modelos más grandes o otros modelos pequeños de lenguaje.
Este curso es abierto y revisado por la comunidad. Para participar, simplemente abre un pull request y envía tu trabajo para su revisión. Sigue estos pasos:
Este proceso te ayudará a aprender y a construir un curso dirigido por la comunidad que mejora constantemente.
Podemos discutir el proceso en este hilo de discusión.
Este curso ofrece un enfoque práctico para trabajar con modelos pequeños de lenguaje, desde el entrenamiento inicial hasta el despliegue en producción.
| Módulo | Descripción | Estado | Fecha de lanzamiento |
|---|---|---|---|
| Ajuste de Instrucciones | Aprende ajuste fino (fine-tuning) supervisado, plantillas de chat y seguimiento básico de instrucciones | ✅ Completo | 3 de diciembre de 2024 |
| Alineación de Preferencias | Explora las técnicas DPO y ORPO para alinear modelos con las preferencias humanas | ✅ Completo | 6 de diciembre de 2024 |
| Ajuste Fino (Fine-tuning) Eficiente en Parámetros | Aprende LoRA, ajuste de prompt y métodos de adaptación eficientes | 🚧 En Progreso | 9 de diciembre de 2024 |
| Evaluación | Usa benchmarks automáticos y crea evaluaciones personalizadas para dominios | 🚧 En Progreso | 13 de diciembre de 2024 |
| Modelos Visión-Lenguaje | Adapta modelos multimodales para tareas visión-lenguaje | 🚧 En Progreso | 16 de diciembre de 2024 |
| Conjuntos de Datos Sintéticos | Crea y valida conjuntos de datos sintéticos para el entrenamiento | 📝 Planificado | 20 de diciembre de 2024 |
| Inferencia | Inferencia eficiente con modelos | 📝 Planificado | 23 de diciembre de 2024 |
Si bien los modelos grandes de lenguaje han mostrado capacidades impresionantes, requieren recursos computacionales significativos y pueden ser excesivos para aplicaciones específicas. Los modelos pequeños de lenguaje ofrecen varias ventajas para aplicaciones de dominio:
Antes de comenzar, asegúrate de tener:
transformersMantenemos el curso como un paquete para facilitar la instalación de dependencias. Recomendamos usar uv, pero también puedes utilizar alternativas como pip o pdm.
Con uv instalado, puedes configurar el entorno del curso de esta manera:
uv venv --python 3.11.0
uv syncPara un entorno python 3.11, utiliza los siguientes comandos para instalar las dependencias:
# python -m venv .venv
# source .venv/bin/activate
pip install -r requirements.txtPara Google Colab, instala las dependencias de la siguiente manera:
pip install -r transformers trl datasets huggingface_hub
Compartamos este curso para que muchas personas puedan aprender a ajustar LLMs sin necesidad de hardware costoso.
Update on GitHub