Investigación de Estadistica Regresion y Correlacion

February 29, 2024 | Author: Anonymous | Category: N/A
Share Embed Donate


Short Description

Download Investigación de Estadistica Regresion y Correlacion...

Description

REGRESIÓN Y CORRELACIÓN PARABÓLICA En estadística, la regresión no lineal es un problema de inferencia para un modelo tipo: basado en datos multidimensionales  , , donde   es alguna función no lineal respecto a algunos parámetros desconocidos θ. Como mínimo, se pretende obtener los valores de los parámetros asociados con la mejor curva de ajuste (habitualmente, con el método de los mínimos cuadrados). Con el fin de determinar si el modelo es adecuado, puede ser necesario utilizar conceptos de inferencia estadística tales como intervalos de confianza para los parámetros, así como pruebas de bondad de ajuste. El objetivo de la regresión no lineal se puede clarificar al considerar el caso de la regresión polinomial, la cual es mejor no tratar como un caso de regresión no lineal. Cuando la función   toma la forma: la función   es no lineal en función de   pero lineal en función de los parámetros desconocidos  ,  , y Este es el sentido del término "lineal" en el contexto de la regresión estadística. Los procedimientos computacionales para la regresión polinomial son procedimientos de regresión lineal (múltiple), en este caso con dos variables predictoras   y  . Sin embargo, en ocasiones se sugiere que la regresión no lineal es necesaria para ajustar polinomios. Las consecuencias prácticas de esta mala interpretación conducen a que un procedimiento de optimización no lineal sea usado cuando en realidad hay una solución disponible en términos de regresión lineal. Paquetes (software) estadísticos consideran, por lo general, más alternativas de regresión lineal que de regresión no lineal en sus procedimientos. La regresión trata de ajustar a una nube de puntos una función de tipo matemático que se aproxime lo máximo posible a los datos. Dada cualquier nube de puntos, siempre existirá una función que se pueda ajustar sobre esos datos, aunque, evidentemente, en el caso de dependencia estadística, este ajuste no será perfecto. OBJETIVO EL objetivo de la regresión es ajustar una función a los datos con el fin de realizar predicciones, de tal manera que se denomina: y Variable dependiente: a la variable que se quiere predecir, también se conoce como variable explicada (y). y Variable(s) independiente(s): a la(s) que usaremos para predecir, puede haber una o varias. También son llamadas variables explicativas (x

1 , . . . , xn CORRELACION PARABOLICA Entre las diferentes aplicaciones de las regresiones encontramos al estudio de mercado, la cual consiste en la identificación, acopio, análisis y aprovechamiento de información. Es un proceso sistemático y objetivo diseñado para identificar y resolver problemas de marketing. FÓRMULAS Si la serie tiene una curva parabólica cuyo comportamiento matemáticamente por una ecuación de segundo grado (parábola).

se

describe

APLICACION DE REGRESIONES Dadas dos variables, x e y, se dice que existe: Dependencia funcional: Si y solamente si entre ellas existe una función matemática que las relaciona perfectamente, por ejemplo, entre todas las que se puede expresar su relación mediante una ecuación E = mc 2 o F = ma. y Dependencia estadística: Cuando entre ellas existe una relación pero que no es expresable mediante un modelo matemático, por ejemplo, entre oferta y demanda o peso y altura. http://estadistidicadelaprobabilidadachury.blogspot.com/2016/05/unidad-2-regresion-ycorrelacion.html https://prezi.com/cngemfvnrmzq/correlacion-parabolica/

REGRESIÓN PARCIAL Es una técnica de predicción alternativa a la regresión de mínimos cuadrados ordinarios (OLS), a la correlación canónica o al modelado de ecuaciones estructurales, y resulta particularmente útil cuando las variables predictoras están muy correlacionadas o cuando el número de predictores es superior al número de casos, combina las características del análisis de componentes principales y la regresión múltiple. En primer lugar, extrae un conjunto de factores latentes que explica en la mayor medida posible la covarianza entre las variables dependientes e independientes. La regresión de mínimos cuadrados parciales (PLS) es una técnica que reduce los predictores a un conjunto más pequeño de componentes no correlacionados y realiza una regresión de mínimos cuadrados sobre estos componentes, en lugar de hacerlo sobre los datos originales. La regresión PLS resulta especialmente útil cuando los predictores son muy colineales o cuando se tiene más predictores que observaciones y la regresión de mínimos cuadrados ordinarios produce coeficientes con altos errores estándar o falla por completo. La regresión PLS se utiliza principalmente en las industrias químicas, de medicamentos, de alimentos y de plásticos. A diferencia de la regresión de mínimos cuadrados, PLS puede ajustarse a múltiples variables de respuesta en un solo modelo. Puesto que en la regresión PLS modela variables de respuesta de una forma multivariada, los resultados podrían diferir significativamente de los calculados para las variables de respuesta de manera individual. CORRELACIONES PARCIALES El procedimiento Correlaciones parciales calcula los coeficientes de correlación parcial, los cuales describen la relación lineal existente entre dos variables mientras se controlan los efectos de una o más variables adicionales. Las correlaciones son medidas de asociación lineal. Dos variables pueden estar perfectamente relacionadas, pero si la relación no es lineal, el coeficiente de correlación no es un estadístico adecuado para medir su asociación. La correlación parcial mide la variación conjunta que se da entre una variable independiente y una variable dependiente, controlando o los efectos que sobre esa variación pudiera ejercer otra independiente. La correlación parcial se expresa en términos de coeficiente de correlación de Pearson, y en la fórmula se separa con un punto la variable controlada de las variables dependiente e independiente. Su fórmula para tres variables —máximo que permite el software bajo el cual se desarrolla este manual, BarbWin— es la siguiente:

La correlación parcial se define como la correlación entre dos variables si las demás variables no varían, es decir, los valores de las demás variables son fijos. Por ejemplo, el coeficiente de correlación parcial ρ12.3, es la correlación entre la variable 1 y 2 siendo constante el valor de la variable 3; o el coeficiente de correlación parcial ρ23.1 es la correlación entre la variable 2 y 3 siendo constante el valor de la variable 1. El mantener constante una variable puede hacerse experimentalmente o estadísticamente, debiendo dar en ambos casos resultados equivalentes. Para ver claro por qué se necesita hallar una correlación haciendo constante el valor de otra u otras variables supóngase que se está interesado en conocer la correlación entre la longitud del brazo y de la pierna cuando el tamaño total del organismo permanece constante. Está claro que la longitud del brazo y de la pierna estarán altamente correlacionados debido al tamaño general; así, un individuo alto tendrá brazos y piernas largos, mientras que un individuo bajo tendrá extremidades cortas. Sin embargo, si este estudio se seleccionan individuos del mismo tamaño se puede esperar que exista alguna correlación residual entre la longitud del brazo y de la pierna. Esto es muy probable en vertebrados, debido a que ambas extremidades están determinadas embriológicamente con mecanismos homólogos responsables de la diferenciación y determinación. Por tanto, existirá alguna correlación entre éstas dos longitudes, incluso en ausencia de una causa común como es el tamaño del individuo. Si una correlación significativa entre dos variables se convierte en correlación parcial no significativa cuando una tercera variable permanece constante, esto sugiere, aunque no prueba, que la variable que permanece constante es la causa común de la correlación de las otras dos. Correlación parcial / correlación de lo residuos. - La correlación parcial r12.3, sería la correlación lineal entre la variable 1 y 2 dejando como constante la variable 3. Esto quiere decir que hay que medir la correlación entre la variable 1 y 2 que no sea un reflejo de sus relaciones con la variable 3. Por tanto, se puede obtener una estima muestral r12.3 calculando la desviación o residuo e13, de la regresión de la variable 1 sobre la variable 3, y la desviación o residuo e23, de la regresión de la variable 2 sobre la variable 3. Y r12.3 es el coeficiente de correlación simple entre e13 y e23. https://www.ibm.com/docs/es/spss-statistics/25.0.0?topic=features-partialcorrelations http://www.uco.es/zootecniaygestion/img/pictorex/ 06_19_26_8_correlacion_multiple.pdf

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF