Apuntes sobre regresión lineal múltiple para ingeniería y ciencias.pptx

contrerc1 7 views 24 slides Oct 29, 2025
Slide 1
Slide 1 of 24
Slide 1
1
Slide 2
2
Slide 3
3
Slide 4
4
Slide 5
5
Slide 6
6
Slide 7
7
Slide 8
8
Slide 9
9
Slide 10
10
Slide 11
11
Slide 12
12
Slide 13
13
Slide 14
14
Slide 15
15
Slide 16
16
Slide 17
17
Slide 18
18
Slide 19
19
Slide 20
20
Slide 21
21
Slide 22
22
Slide 23
23
Slide 24
24

About This Presentation

Apuntes sobre sobre el análisis de regresión lineal múltiple para programas de estudio de ingeniería


Slide Content

La unidad uno, introduce al estudiante al análisis de las relaciones entre variables, la aplicación de la teoría de mínimos cuadrados y el modelo matemático resultante del caso de estudio y sus límites de validez. COMPETENCIA ESPECIFICA A DESARROLLAR: Identificar y aplicar los conceptos básicos del modelo de regresión lineal simple. Establecer las condiciones para distinguir entre una regresión y un correlación. Identificar y aplicar los conceptos básicos del modelo de regresión múltiple. Identificar y aplicar los conceptos básicos del modelo de regresión no lineal. UNIDAD 1: REGRESION LINEAL SIMPLE Y MULTIPLE

ACTIVIDADES DE APRENDIZAJE: Utilizar correctamente un modelo de regresión para propósitos de estimación y predicción. Comprender la importancia del análisis de regresión lineal simple y múltiple, y explique los conceptos generales. Aplicar las pruebas de hipótesis para evaluar su calidad de ajuste. Diferenciar entre regresión lineal simple y múltiple para tomar decisiones acerca de cuál modelo usar en determinada circunstancia. de los modelos.

ACTIVIDADES DE APRENDIZAJE: Comprender la importancia del análisis de regresión no lineal y explique los conceptos generales. Aplicar las pruebas de hipótesis para evaluar su calidad de ajuste. Utilizar software, para obtener una respuesta rápida y precisa en la generación de los parámetros

UNIDAD 1: REGRESION LINEAL SIMPLE Y MULTIPLE 1.1. Regresión Lineal simple 1.1.1. Prueba de hipótesis en la regresión lineal simple. 1.1.2. Calidad del ajuste en regresión lineal simple 1.1.3. Estimación y predicción por intervalo en regresión lineal simple. 1.1.4. Uso de software estadístico 1.2. Regresión lineal múltiple 1.2.1.Pruebas de hipótesis en regresión lineal múltiple 1.2.2.Intervalos de confianza y predicción en regresión múltiple. 1.2.3.Uso de un software estadístico 1.3. Regresión no lineal

REGRESION LINEAL SIMPLE El análisis de regresión es una técnica usada para relacionar a través de un modelo, una o más variables independientes con una variable dependiente (respuesta). Sus usos incluyen: Descripción.- Representar el comportamiento de un proceso. Predicción y estimación.- Predicción es con base en un valor de x desconocido. Estimación es con base en un valor conocido de x. Control.- Para obtener cierta respuesta deseada del proceso.

Enfocaremos nuestra atención en un modelo de regresión simple: uno que utiliza una sola variable numérica independiente que se mide con un error insignificante y con frecuencia se controla en el experimento, para predecir la variable numérica dependiente o respuesta, que no se controla en el experimento. El análisis del diagrama de dispersión indica que, si bien una curva no pasa exactamente por todos los puntos, existe una evidencia fuerte de que los puntos están dispersos de manera aleatoria alrededor de una línea recta. Por consiguiente, es razonable suponer que la media de la variable aleatoria Y está relacionada con por la siguiente relación lineal:

Donde la pendiente y la ordenada al origen de la recta reciben el nombre de coeficientes de regresión . Si bien la media de Y es una función lineal de x , el valor real observado de y no cae de manera exacta sobre la recta. El caso de la regresión lineal simple considera sólo un regresor o predictor x , y una variable dependiente y o respuesta . Supóngase que la verdadera relación entre Y y x es una línea recta, y que la observación Y en cada nivel x es una variable aleatoria. Tal como ya se indico, el valor esperado de para cada valor de x es:

Donde la ordenada al origen y la pendiente son los coeficientes desconocidos de la regresión. Se supone que cada observación, puede describirse por el modelo: Donde es un error aleatorio con media cero y varianza . También se supone que los errores aleatorios que corresponden a las observaciones diferentes son variables aleatorias no correlacionadas. .

Supóngase que se tienen n pares de observaciones La figura 1 contiene una representativa grafica de dispersión de los datos observados y un candidato para la recta de regresión. Las estimaciones de y deben dar como resultado una línea que (en algún sentido) se “ajuste mejor” a los datos. Recta de regresión estimada Valor observado (y) FIG. 1

El criterio para estimar los coeficientes de regresión se conoce como método de los mínimos cuadrados. Las estimaciones de mínimos cuadrados de la ordenada al origen y la pendiente del modelo de regresión lineal simple son:

Por lo tanto la l í nea de regresi ó n estimada o ajustada es: Cada par de observaciones satisface la relación: Donde recibe el nombre de residuo. El residuo describe el error en el ajuste del modelo en la i- ésima observación . .

Desde el punto de vista de la notación, en ocasiones es conveniente dar símbolos especiales al numerador y al denominador de las ecuaciones para determinar los coeficientes y :

EJEMPLO: En un diseño de experimentos anterior para un proceso de fabricación de múltiples de admisión, las variables significativas fueron la temperatura de precalentamiento y el tiempo de solidificación. Determinar el tipo y grado de relación entre la dureza y el tiempo de solidificación para los datos de la siguiente tabla: TIEMPO DE SOLID. DUREZA 10 4.5 11 4.2 12 3.8 13 3.6 14 3.4 15 3.0 16 2.9 17 2.4 18 2.2 19 2.1 20 1.8

Coeficiente de Determinación Un asunto importante en el análisis de regresión es la valoración de que tan bien la ecuación explica la relación entre la variable dependiente y la independiente. El índice que cuantifica esta relación es el coeficiente de determinación r 2 . El coeficiente de determinación expresa la proporción de la variación total en Y , “ explicada” por la línea de regresión. La variación “ no explicada” por la línea de regresión se denomina residuales ( e i ). Variación Total = Variación Explicada + Variación No Explicada

PRUEBAS DE HIPOTESIS EN LA REG. LINEAL SIMPLE PRUEBA PARA LA SIGNIFICANCIA DE LA REGRESION La prueba del significado de la regresión determina de manera estadística si “vale la pena” obtener un modelo de regresión o simplemente la media de la variable de respuesta (y) es suficiente. Las hipótesis son: (no existe relación lineal entre (x, y). La regresión no tiene sentido. (x es valiosa para explicar la variación en y )

ANALISIS DE VARIANZA PARA LA PRUEBA DE SIGNIFICANCIA FUENTE DE VARIACION SS g l MS F Regresión SS R 1 MS R = SS R / 1 MS R / MS E Error SS E n - 2 MS E = SS E / (n - 2) Total SST n – 1

Las pruebas de hipótesis e intervalos de confianza sirven para evaluar la significación de los parámetros del modelo; dichos parámetros del modelo son las β s : β y β 1 . PRUEBAS DE HIPOTESIS ( Uso de Pruebas t) Prueba t para para la pendiente β 1 las hipótesis serían: El estadístico de prueba es: Se rechaza si:

La falla al no rechazar es equivalente a concluir que no hay ninguna relación lineal entre x y y . La figura siguiente ilustra esta situación:

Como alternativa, si se rechaza, significa que x tiene importancia al explicar la variabilidad en y . El rechazo también puede significar que el modelo de línea recta es adecuado (fig. 3a), o que, aunque existe un efecto lineal de x , pueden obtenerse mejores resultados con la adición de términos polinomiales de mayor grado en x . Como se muestra en las figuras siguientes:

Prueba t para para la intersección β las hipótesis serían: El estadístico de prueba es: Se rechaza si: El rechazo de H significa que el termino de la intersección debe formar parte del modelo. Si no se rechaza que la intersección es cero, indica que el ajuste puede mejorarse usando el modelo sin dicho término (regresión a través del origen). Se debe comparar MS E de ambos modelos para ver cual es menor y considerar si es factible o real que el modelo pase por el punto (0,0).

INTERVALOS DE CONFIANZA PARA LA PENDIENTE Y LA ORDENADA AL ORIGEN Bajo la hipótesis de que las observaciones están distribuidas de manera normal e independiente, el intervalo de confianza para la pendiente del 100 por ciento en una regresión lineal simple es:

De manera similar, el intervalo de confianza para la ordenada al origen es: INTERVALO DE CONFIANZA PARA LA RESPUESTA MEDIA Un intervalo de confianza alrededor de la respuesta media para el valor de esta dado por:

Donde se calcula a partir del modelo de regresión ajustado . PREDICCION DE NUEVAS OBSERVACIONES Una aplicación importante de un modelo de regresión es la predicción de observaciones nuevas o futuras de Y correspondientes a un nivel especificado de la variable de regresión X . Si X es el valor del regresor de interés, entonces: es el estimador puntual del valor nuevo o futuro de la respuesta Y . Un intervalo de predicción para una observación futura es:
Tags