Factores a tener en cuenta para elegir un modelo de GenAI

Written on April 3, 2024

”El secreto de ir hacia delante es empezar” - Mark Twain

Idioma:

  • Soporte oficial y no oficial
  • La mayoría de los modelos admiten varios idiomas
  • Mira la información en las tarjetas de modelos
  • Soporte para lenguajes de programación, scripts y archivos de configuración

Tamaño:

  • El número de parámetros del modelo es un indicador aproximado de las capacidades del modelo:
    • 1B -> Conocimiento básico del mundo y sabe buscar patrones.
      • Por ejemplo para crear un analizado de sentimientos.
    • 10B -> Tiene gran conocimiento del mundo y puede seguir instrucciones básicas.
      • Por ejemplo para crear un chatbot para un restaurante.
    • 100B+ -> Mucho más conocimiento del mundo y puede hacer razonamientos complejos.
      • Por ejemplo para crear un compañero para un Brainstorming
  • No es un indicador de rendimiento
  • Los proveedores pueden indicar el tamaño relativo (“Pequeño”, “Mediano”, “Grande”, etc.)

Tamaño del Contexto:

  • Varía de 4K a 100K
  • Los tamaños de contexto de entrada suelen ser más grandes que los tamaños de contexto de salida
  • Tamaños de contexto grandes pueden simplificar el procesamiento de documentos (100K ~300 páginas de texto)
  • Tamaños de contexto de entrada grandes permiten la ingeniería de consultas complejas
  • No es una métrica de rendimiento ni de precisión

Opciones de Personalización:

  • Comienza con prompt engineering
  • Opciones de ajuste fino (PEFT, LoRA, Ajuste fino completo)
  • Puedes hacer ajustr fino varias veces
  • Normalmente requiere un conjunto de entrenamiento de 1000 registros
  • Soporte a técnicas creadas por la comunidad para modelos de código abierto

Rendimiento:

  • Rendimiento del modelo (token/s)
  • Latencia (ms/token)
  • Precisión del modelo
  • Precio vs Rendimiento:
    • Más lento pero más barato
    • Caro pero preciso

Tipo de Entrenamiento:

  • Pre-entrenado (“Raw”)
  • Ajustado a instrucciones (“Instruct”)
  • Ajustado a diálogo (“Chat”)
  • Preferencias humanas (RLHF, DPO)

Arquitectura:

  • Detalles del pre-entrenamiento
  • Componentes principales (Embeddings, transformers, layers)
  • Estrategia de alineación
  • Orientado a investigadores
Written on April 3, 2024