> summary(reg_lin)
Call:
lm(formula = asimetría ~ longitud)
Residuals:
Min 1Q Median 3Q Max
-0.087912 -0.072795 -0.009889 0.048489 0.247311
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 0.119847 0.178754 0.670 0.514
longitud -0.000875 0.006044 -0.145 0.887
Residual standard error: 0.09187 on 13 degrees of freedom
Multiple R-squared: 0.001609, Adjusted R-squared: -0.07519
F-statistic: 0.02096 on 1 and 13 DF, p-value: 0.8871
Esta salida contiene una información más completa sobre el análisis. Así, por ejemplo,
encontramos información sobre los residuos (en el apartado Residuals), que se definen
como la diferencia entre el verdadero valor de la variable dependiente y el valor que
pronostica el modelo de regresión. Cuanto más pequeños sean estos residuos mejor será
el ajuste del modelo a los datos y más acertadas serán las predicciones que se realicen a
partir de dicho modelo.
En la tabla Coefficients encontramos los valores de los parámetros que aparecían en la
salida por defecto junto a su error estándar. Cada parámetro aparece acompañado del
valor de un estadístico t de Student y un p-valor que sirven para contrastar la significación
del parámetro en cuestión, es decir, para resolver los siguientes contrastes de hipótesis:
Lo que se pretende mediante estos contrastes es determinar si los efectos de la constante
y de la variable independiente son realmente importantes para de explicar la variable
dependiente o si, por el contario, pueden considerarse nulos.
En nuestro ejemplo, los p-valores que nos ayudan a resolver estos contrastes son 0.514 y
0.887, ambos mayores que 0.05. Así, considerando un nivel del significación del 5%, no
rechazamos la hipótesis nula en ambos contrastes, de manera que podemos suponer
ambos parámetros no son significativamente distintos de 0. Por lo tanto que concluimos
que longitud no es válida para predecir la asimetría según un modelo lineal.
Por último, en la parte final de la salida, encontramos el valor de R² (Multiple R-squared)
y de R² ajustado (Adjusted R-squared), que son indicadores de la bondad del ajuste de
nuestro modelo a los datos. R² oscila entre 0 y 1, de manera que, valores de R² próximos
a 1 indican un buen ajuste del modelo lineal a los datos. Por otro lado, R² ajustado es
similar a R², pero penaliza la introducción en el modelo de variables independientes poco
relevantes a la hora de explicar la variable dependiente. Por tanto, R² ajustado <= R². En
nuestro ejemplo, R² = 0.001609 y R² ajustado = -0.07519, por lo que podemos concluir