smolcourse image

Un Pequeño (Smol) Curso

Este curso práctico está enfocado en alinear modelos de lenguaje para casos de uso específicos. Es una forma accesible de empezar a trabajar con modelos de lenguaje, ya que puede ejecutarse en la mayoría de las máquinas locales con requisitos mínimos de GPU y sin necesidad de servicios pagos. El curso se basa en la serie de modelos SmolLM2, pero las habilidades que adquieras aquí son transferibles a modelos más grandes o otros modelos pequeños de lenguaje.

¡La participación es abierta, gratuita y ahora!

Este curso es abierto y revisado por la comunidad. Para participar, simplemente abre un pull request y envía tu trabajo para su revisión. Sigue estos pasos:

  1. Haz un fork del repositorio aquí
  2. Lee el material, haz cambios, completa los ejercicios y agrega tus ejemplos.
  3. Abre un PR en la rama december_2024
  4. Haz que se revise y se fusione

Este proceso te ayudará a aprender y a construir un curso dirigido por la comunidad que mejora constantemente.

Podemos discutir el proceso en este hilo de discusión.

Estructura del Curso

Este curso ofrece un enfoque práctico para trabajar con modelos pequeños de lenguaje, desde el entrenamiento inicial hasta el despliegue en producción.

Módulo Descripción Estado Fecha de lanzamiento
Ajuste de Instrucciones Aprende ajuste fino (fine-tuning) supervisado, plantillas de chat y seguimiento básico de instrucciones ✅ Completo 3 de diciembre de 2024
Alineación de Preferencias Explora las técnicas DPO y ORPO para alinear modelos con las preferencias humanas ✅ Completo 6 de diciembre de 2024
Ajuste Fino (Fine-tuning) Eficiente en Parámetros Aprende LoRA, ajuste de prompt y métodos de adaptación eficientes 🚧 En Progreso 9 de diciembre de 2024
Evaluación Usa benchmarks automáticos y crea evaluaciones personalizadas para dominios 🚧 En Progreso 13 de diciembre de 2024
Modelos Visión-Lenguaje Adapta modelos multimodales para tareas visión-lenguaje 🚧 En Progreso 16 de diciembre de 2024
Conjuntos de Datos Sintéticos Crea y valida conjuntos de datos sintéticos para el entrenamiento 📝 Planificado 20 de diciembre de 2024
Inferencia Inferencia eficiente con modelos 📝 Planificado 23 de diciembre de 2024

¿Por qué Modelos Pequeños de Lenguaje?

Si bien los modelos grandes de lenguaje han mostrado capacidades impresionantes, requieren recursos computacionales significativos y pueden ser excesivos para aplicaciones específicas. Los modelos pequeños de lenguaje ofrecen varias ventajas para aplicaciones de dominio:

Requisitos Previos

Antes de comenzar, asegúrate de tener:

Instalación

Mantenemos el curso como un paquete para facilitar la instalación de dependencias. Recomendamos usar uv, pero también puedes utilizar alternativas como pip o pdm.

Usando uv

Con uv instalado, puedes configurar el entorno del curso de esta manera:

uv venv --python 3.11.0
uv sync

Usando pip

Para un entorno python 3.11, utiliza los siguientes comandos para instalar las dependencias:

# python -m venv .venv
# source .venv/bin/activate
pip install -r requirements.txt

Google Colab

Para Google Colab, instala las dependencias de la siguiente manera:

pip install -r transformers trl datasets huggingface_hub

Participación

Compartamos este curso para que muchas personas puedan aprender a ajustar LLMs sin necesidad de hardware costoso.

Star History Chart

Update on GitHub