Presentacion de Modelado Predictivo para Reducción de Retiro de Asignaturas.pptx

RobertRodriguez834301 5 views 11 slides Sep 06, 2025
Slide 1
Slide 1 of 11
Slide 1
1
Slide 2
2
Slide 3
3
Slide 4
4
Slide 5
5
Slide 6
6
Slide 7
7
Slide 8
8
Slide 9
9
Slide 10
10
Slide 11
11

About This Presentation

modelo predictivo para la reduccion de retiro de asignatura utesa mao
, Base datos, no sql


Slide Content

Modelado Predictivo para Reducción de Retiro de Asignaturas en UTESA Comparativa de algoritmos supervisados y no supervisados Robert Rodriguez

Introducción Desarrollar 2 modelos supervisados avanzados ( XGBoost y Red Neuronal). Evaluar métricas y seleccionar el mejor modelo. Implementar un modelo no supervisado (K- Means ). Extraer conclusiones estratégicas . Datos: Histórico académico de estudiantes UTESA (asistencia, índice académico, retiros previos). Enfoque: Modelado predictivo + segmentación.

Algoritmos Supervisados Evaluados

Modelo 1: XGBoost (Árbol de Decisión Optimizado) Manejo de desbalanceo, interpretabilidad, eficiencia. Hiperparámetros : XGBClassifier ( scale_pos_weight =5.67, max_depth =5, learning_rate =0.1)

Modelo 2: Red Neuronal ( TensorFlow / Keras ) Arquitectura Sequential ([ Dense(64, activation='relu'), Dropout(0.3), Dense(32, activation='relu'), Dense(1, activation=' sigmoid ') ])

Métricas Comparativas Métrica XGBoost Red Neuronal Precisión 0.85 0.83 Recall 0.89 0.87 F1-Score 0.87 0.85 ROC-AUC 0.92 0.90 Tiempo Ejecución 12s 45s

Selección Final: XGBoost  (Mayor rendimiento global + velocidad).

Modelo No Supervisado (K- Means ) Identificar patrones ocultos sin usar la variable objetivo. Proceso : Preprocesamiento: Estandarización de features numéricos. Determinación de clusters : Método del codo (k=3). Resultados:

Cluster Asistencia Índice Retiros Previos Interpretación 92% 3.2 0.1 Excelente rendimiento 1 58% 1.8 1.8 Alto riesgo 2 75% 2.5 0.5 Riesgo moderado Validación: Silhouette Score = 0.62 (Estructura robusta).

Conclusiones

Recomendaciones