CAPITULO 14, 15

ANÁLISIS DE REGRESIÓN Y CORRELACIÓN MÚLTIPLE Para analizar el análisis de regresión y correlación múltiple entiendo que primeramente es necesario examinar la influencia de dos o más variables múltiples, para lo cual primeramente es necesario tomar en cuenta el análisis de correlación múltiple, así mismo se tomará el error estándar de estimación múltiple; una ves desarrollado este método se  medirá la intensidad de la relación entre las variables dependientes y así mismo entre las variables independientes.Debemos  tener siempre presente que en el caso de la regresión múltiple la ecuación se amplía y esta a su  ves puede tener más variables independientes adicionales.Así mismo es importante tener presente que generalmente una ecuación de regresión no se puede utilizar fuera del intervalo de los valores muéstrales. Establezco que además se puede  aumentar el número de variables independientes, ya que esto se podrá ampliarse a cualquier número (k) de variables independientes.Además entiendo que al análisis de la regresión múltiple esta empieza con la con la descripción de una situación en la cual se tiene tres variables independientes.Hay que tener en cuenta que para medir el error estándar múltiple de estimación este se denota por S. Ya que un error estándar pequeño indica que los puntos estaban cercanos a la recta de regresión, mientras que si tenemos un valor muy grande este nos señala que los puntos estaban esparcidos alrededor de la recta de regresión, no olvidemos que a este mismo concepto lo podemos utilizar en la regresión múltiple pero si se tiene dos variables independientes esto puede pensarse en la variación respecto a un plano de  regresión.Dentro de las hipótesis para la regresión múltiple y al correlación  es necesario identificar estas hipótesis por que  caso contrario  se satisfacen íntegramente los resultados podrían presentar un sesgo por ejemplo si seleccionamos una muestra se supondrá que todos los elementos de la población tendrán una posibilidad de ser seleccionados.De tal manera para entender con más claridad las hipótesis es necesario analizar que las variables independientes y las variables dependientes tienen una relación lineal.Así mismo la variable dependiente  es continua y por lo menos de nivel de intervalo.Un  Autocorrelación se presenta cuando se recopilan datos sucesivamente de intervalos de tiempo y la variables dependientes no están en autocorrelación.Para entender como funciona la tabla ANOVA  concluyo que esta es la que comprende  la ecuación de regresión, el error estándar de estimación, el coeficiente de determinación y el análisis de una tabla de varianza.Así mismo una varianza es aquella que se divide en dos componentes, tenemos la componente debida a los tratamientos y la componente producida  por el error aleatorio.Igualmente el total se lo divide en dos componentes; el explicado por la regresión, es decir, las variables independientes y el error o variación no explicada.  De igual manera una matriz de correlación es aquella en la cual contiene los coeficientes de correlación entre todos los pares de variables. Una prueba global es aquella que se encarga de investigar básicamente si es posible que todas las variables independientes tengan coeficiente de regresión neta iguales a cero. Para probar la hipótesis nula de que todos los coeficientes de regresión múltiple valen cero se emplea la distribución F. Es necesario tener en cuenta que a las variables cuantitativas independientes se les denomina variables cualitativas en el que una de las dos condiciones se codifica como 0 y la otra como 1       MÉTOS NO PARAMÉTRICOS, APLICACIONES DE JI CUADRADA. Entiendo que los  métodos no Parametritos son, aplicaciones de ji cuadrada  así mismo son aquellos que  nos servirán para poder realizar una prueba de hipótesis todo esto  comparando un conjunto observado de frecuencias y una distribución esperada.Igualmente son aquellos que  nos ayudara a efectuar una prueba de hipótesis de normalidad aplicando la distribución ji cuadrada. También entiendo que usan el nivel nominal y ordinal las  pruebas de hipótesis no parametricas o libres de distribución; ya que  los datos del nivel nominal son el tipo de datos más bajo o más primitivo,  y los datos se clasifican  en categorías en las que no hay un orden natural. Así mismo un nivel de medición ordinal supone que una categoría tiene un rango más alto que la siguiente categoría es decir que los libres de distribución implican que en tales pruebas no intervienen suposiciones con respecto a la distribución de la población  de origen Para tener una idea más clara y mas concreta de que son en si los Paramétricos y los no Paraméntricos voy a explicar cada uno de estos: Los Paramétricos: entiendo que  son aquellos cuyo uso depende de manera considerable de las características de la población. Las principales razones para escoger las pruebas paramétricas es que  son mas potentes y versátiles. De la misma manera puedo comprender que los métodos Paramétricos son aquellos  procedimientos inferenciales que presentan estimaciones con respecto a los parámetros de la población de interés. También son los que precisan especificación de una distribución para la población de interés y  también son las observaciones de la mayoría de métodos tienen carácter cuantitativo. Las no Paramétricas: Entiendo que son todas las pruebas de inferencia dependen de cierta medida de las características de la población, así mismo los requisitos de las pruebas no paraméntricas son mínimos.  Para tener claro  lo que es una prueba de Bondad de ajuste nos dice  que es  una de las pruebas no parametricas más utilizadas, así mismo es una de las distribuciones de probabilidad bien conocida es la distribución ji cuadradaLa distribución x2 tiene amplias aplicaciones y se acerca a la distribución normal en cuanto a su utilidad general, las aplicaciones de la distribución x2 es el contraste de bondad de ajuste que esta a su vez es el contraste de una hipótesis que se refiere a la distribución entre la frecuencia observada de una muestra  y las correspondientes frecuencias esperadas basándose en una distribución teórica Así mismo la ji cuadrada tiene algunas características que son: El valor cuadrado de ji nunca es negativo, porque la diferencia entre fo y fe se eleva al cuadrado.Existe una familia de distribuciones ji cuadrada, para un grado de libertadLa distribución ji cuadrada tiene sesgo positivo  También tenemos las Limitaciones de la ji cuadrada que son las que puede llevar a conclusiones erróneas cuando en una celda (o en varias) se tiene una frecuencia esperada demasiado pequeña.  Todo esto puede ocurrir porque las frecuencia esperadas aparecen en el denominador de la fórmula, y al dividir entre un número muy pequeño se obtiene un cociente muy grande  Para entender con mayor claridad el  Análisis de Tabla de contingencia  pienso  que son  las pruebas de bondad y ajuste, que  se analizan  únicamente con  una variable y un rasgo.  Pero sin embargo, la prueba de ji cuadrada también se puede utilizar cuando se analizan dos rasgos a ala vez.  

Tags:

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s


%d bloggers like this: