miércoles, 30 de julio de 2025

EL USO DE CONJUNTOS DE MODELOS (ENSAMBLE) Y DE ENCADENAMIENTO DE MODELOS EXPLICA POR QUÉ ES TAN DIFICIL PREDECIR EL CAMBIO CLIMÁTICO.


Ensamble de Modelos (Ensemble Learning)

El ensamble de modelos es una técnica que combina las predicciones de múltiples modelos para obtener una predicción final más robusta y precisa que la que podría lograrse con un solo modelo. La idea principal es que al promediar o combinar las "opiniones" de varios modelos, se puede reducir el sesgo y la varianza, mejorando la generalización. 

Los Modelos individuales que se ensamblan Suelen ser modelos entrenados para resolver la misma tarea. La combinación de predicciones puede hacerse de distintos modos. De modo general se elige la predicción de la mayoría de los modelos o se promedian las predicciones. Como promediar y qué modelos se eligen para se promediados es un asunto ya más elaborado. La clave está en promediar modelos previamente entrenados. 

    • Bagging (Bootstrap Aggregating): Entrena múltiples modelos sobre diferentes subconjuntos de datos de entrenamiento (con reemplazo) y luego promedia sus predicciones 

    • Boosting: Entrena modelos de forma secuencial, donde cada nuevo modelo se enfoca en corregir los errores de los modelos anteriores (ej. AdaBoost, Gradient Boosting, XGBoost).

    • Stacking (Apilamiento): Entrena un "meta-modelo" para aprender a combinar óptimamente las predicciones de los modelos base.

Encadenamiento de Modelos (Model Chaining o Prompt Chaining en LLMs)

El encadenamiento de modelos se refiere a la secuenciación de múltiples modelos, donde la salida de un modelo se convierte en la entrada del siguiente modelo. Esto permite descomponer una tarea compleja en subtareas más pequeñas y manejables, cada una abordada por un modelo especializado. 

------------------------------------------------------------------------------------------------------------------------------

En problemas como la predicción de la evolución del clima futuro es evidente la dificultad que se deriva del uso del ensamble y del encadenamiento. 

En el caso del ensamble nos encontramos con modelos confeccionados por diferentes equipos, en universidades o centros de investigación que trabajan de un modo independiente. No hay realmente una revisión por pares realmente efectiva, puesto que ello implicaría una revisión absolutamente exhaustiva. línea a línea, de todos los modelos, de los supuestos implicados, de la calibración realizada, etc. Esto no parece posible en la práctica. Así las cosas, se tiene que establecer estrategias para lidiar con los resultados de los distintos modelos, y de ahí vienen técnicas sencillas como las de promediar las predicciones; o más complejas, como construir un meta-modelo para promediar los modelos base.

La confianza de los promedios obtenidos depende desde luego de las desviaciones respecto de la media que nos den estos modelos. Por otra parte, hay que ver el peso que damos a cada predicción. Qué peso damos a cada equipo de trabajo. ¿Necesariamente un equipo reconocido construye un modelo mejor? ¿Qué aspectos externos están influyendo?¿ Qué sesgos operan? Todo ello es aun más decisivo en el peso de que se da en el ensamble. ¿Quiénes hacen el descarte de modelos, quiénes dan los pesos?

Un problema que tiene entidad por si mismo es el de los conjuntos de datos de entrada del modelos. ¿Qué subconjunto de datos utiliza cada modelo? 

El encadenamiento de modelos nos da problemas un poco diferentes pero no menores. 

¿Qué confianza nos da el resultado que estamos utilizando con entrada de datos de nuestro modelo? Eso se vuelve más problemático cuanto más larga es la cadena de modelos y cuanto más al final de ella estamos. 

------------------------------------------------------------------------------------------------------------------------------







No hay comentarios:

Publicar un comentario

EROS Y CIVILIZACIÓN DE MARCUSE EN MAYO DEL 68. ARQUEOLOGÍA WOKE

Eros y Civilización, de Herbert Marcuse, se había publicado más de diez años antes de mayo del 68. No era un texto reciente y ya estaba asim...