Se utiliza para predecir el valor promedio de la variable dependiente (respuesta), basada en una variable independiente (factor)
- Los cambios de X son causados por cambios en Y.
- Una variable independiente X.
- Relacion entre X e Y se describie por funcion lineal.
- Regresion lineal se puede usar interpolacion.
- Se encarga de predecir el valor promedio de una variable dependiente basado en el valor de al menos una variable independiente.
- Explica el impacto de cambios en una variable independiente sobre el promedio de la variable dependiente.
- Se analiza variables relacionadas en el tiempo.
- Relacion matematica entre variable dependiente o independiente.
- Variable dependiente: la variable que queremos explicar o predecir.
- Variable independiente: la variable usada para explicar a la variable dependiente.
A) Los valores de Y tienden a aumentar de forma lineal conforme aumenta X
B) Es un ejemplo de una relación lineal negativa. A medida que aumente X los valores de Y tienden a disminuir.
C) Muestra una relación curvilínea positiva entre X e Y. Los valores de Y aumentan conforme aumenta X; pero este incremento se reduce a partir de ciertos valores de X.
D) Muestra una relación en forma de U entre X e Y. A medida que aumenta X, al principio Y tiende a disminuir, pero conforme X continúa aumentando, Y no solo deja de disminuir, sino que aumenta por arriba de su valor mínimo.
E) Presenta una relación exponencial entre X e Y. En este caso Y disminuye con rapidez a medida que, en un inicio, aumenta X, pero luego disminuye con menor rapidez a medida que Sigue aumentando.
F) Muestra un conjunto de datos en el que hay una relación mínima o nula entre X e Y, para cada valor de X se observan valores altos y bajos de Y.
-La ecuación de regresión lineal simple proviene de una estimación de la recta de regresión poblacional.
-Podemos utilizar la intersección muestral 𝒃𝟎,y la pendiente muestral 𝒃𝟏, como estimadores de los parámetros de la población respectivos de 𝜷𝟎 y 𝜷𝟏.
-Para hallar los valores de 𝑏0 y 𝑏1 se utiliza el método de los mínimos cuadrados.
-El método de los mínimos cuadrados reduce al mínimo la suma de las diferencia entre los valores reales (𝒀𝒊) y los valores estimados (𝒀̂𝒊)
-Cuando se utiliza el método de mínimos cuadrados para determinar los coeficientes de regresión de un conjunto de datos es necesario calcular tres
medidas de variación.
-La variacion total se particiona en tres partes:
• SCT: es una medida de variación de los valores 𝒀𝒊 alrededor de la media,𝒀 ̅ . La variación total, se subdivide en variación explicada y variación no explicada.
• SCR: representa la variación que se explica por la relación entre X e Y.
• SCE: Representa la variación debida a otros factores que no son la relación entre X e Y.
Coeficiente de determinación:
Mide la proporción de la variación total en Y que se explica por la variación en la variable independiente X en el modelo de regresión.
Error estándar de la estimación:
Representa una medida de la variación alrededor de la línea de predicción, se mide en las mismas
unidades que la variable dependiente Y. (es la desviación estándar alrededor de la línea de predicción)
Supuestos-LINI
• Linealidad: La relación entre variables es lineal
• Independencia de los errores: Los valores del error son estadísticamente independientes
• Normalidad del error: los valores de 𝜀𝑖 se distribuyen normalmente para un valor dado de X. siempre que la distribución de los errores en cada nivel de
X no sea demasiado diferente de una distribución normal, las inferencias acerca de 𝛽0 y 𝛽1 no se ven gravemente afectadas
• Igualdad de la varianza (homocedasticidad): requiere que la varianza de los errores (𝜀𝑖 ) sea constante para todos los valores de X. si las cosas se desvían
mucho de este supuesto, se pueden utilizar transformaciones de datos o métodos ponderados de mínimos cuadrados.