Ensamble de Modelos (Ensemble Learning)
El ensamble de modelos es una técnica que combina las predicciones de múltiples modelos para obtener una predicción final más robusta y precisa que la que podría lograrse con un solo modelo. La idea principal es que al promediar o combinar las "opiniones" de varios modelos, se puede reducir el sesgo y la varianza, mejorando la generalización.
Los Modelos individuales que se ensamblan Suelen ser modelos entrenados para resolver la misma tarea. La combinación de predicciones puede hacerse de distintos modos. De modo general se elige la predicción de la mayoría de los modelos o se promedian las predicciones. Como promediar y qué modelos se eligen para se promediados es un asunto ya más elaborado. La clave está en promediar modelos previamente entrenados.
Bagging (Bootstrap Aggregating): Entrena múltiples modelos sobre diferentes subconjuntos de datos de entrenamiento (con reemplazo) y luego promedia sus predicciones
Boosting: Entrena modelos de forma secuencial, donde cada nuevo modelo se enfoca en corregir los errores de los modelos anteriores (ej. AdaBoost, Gradient Boosting, XGBoost).
Stacking (Apilamiento): Entrena un "meta-modelo" para aprender a combinar óptimamente las predicciones de los modelos base.
Encadenamiento de Modelos (Model Chaining o Prompt Chaining en LLMs)
El encadenamiento de modelos se refiere a la secuenciación de múltiples modelos, donde la salida de un modelo se convierte en la entrada del siguiente modelo. Esto permite descomponer una tarea compleja en subtareas más pequeñas y manejables, cada una abordada por un modelo especializado.
No hay comentarios:
Publicar un comentario