Solucionario Lista 1 de Ejercicios

September 22, 2022 | Author: Anonymous | Category: N/A
Share Embed Donate


Short Description

Download Solucionario Lista 1 de Ejercicios...

Description

 

Maestría de Estadística

Curso: Estadística Computacional Profesor: Jorge Luis Bazán Pontificia Universidad Católica del Perú

Solucionario Lista 1 de Ejercicios Alumnos: César Correa

Genaro Requena

[email protected] 

[email protected] 

26 de abril de 2008

I. 

Capítulo 2

  Una v.a. en toda la recta, se distribuyen en forma logística con parámetro de localización µ y



escala    si:

 −    () =  −     1 +    (

)

2

1.   Derive la función de distribución distribución acumulad acumulada a para la Logística. Logística. 2.   Escriba una función función que pueda calcular calcular la función de densidad densidad de la Logística para vvalores alores dados del dominio de x. 3.   Escriba una función que pueda calcular la función de distribución acumulada para la  Logística. 4.  Grafique la función de densidad y la acumulada para valores deµ = -1; 0; 1 y    = 1; 2.

Solución: La función de distribución acumulada para la distribución Logística es la siguiente:

 =

1

−    − 1+ 

Desarrollando la función de densidad y la función de distribución acumulada para la Logística en R tenemos: #1,2,3 x=seq(-10,10,0.01) u=0 s=1

 

z=(x-u)/s pdfx=exp(z)/(s*(1+exp(z))^2) cdfx=1/(1+exp(-z)) par(mfrow=c(1,2)) plot(x,pdfx,type="l",xlab="X",ylab="f(x)",col="blue") title('Probability Density Function u=0,s=1') plot(x,cdfx,type="l",xlab="X",ylab="F(x)",col="red") title('Cumulative Distribution Function u=0,s=1')

Graficando en R la función de densidad y la distribución acumulada de la Logística tenemos: #(1.4) x=seq(-10,10,0.01) u=-1;s1=1;s2=2 z1=(x-u)/s1;z2=(x-u)/s2 pdfx1=exp(z1)/(s1*(1+exp(z1))^2) cdfx1=1/(1+exp(-z1)) pdfx2=exp(z2)/(s2*(1+exp(z2))^2) cdfx2=1/(1+exp(-z2)) par(mfrow=c(3,2)) plot(x,pdfx1,type="l",xlab="X",ylab="f(x)",col="blue",lwd=2) lines(x,pdfx2,type="l",xlab="X",ylab="f(x)",col="cyan",lwd=2) title('Probability Density Function u=-1,s=1,2') plot(x,cdfx1,type="l",xlab="X",ylab="F(x)",col="red",lwd=2) lines(x,cdfx2,type="l",xlab="X",ylab="F(x)",col="orange",lwd=2) title('Cumulative Distribution Function u=-1,s=1,2') u=0;s1=1;s2=2 z1=(x-u)/s1;z2=(x-u)/s2 pdfx1=exp(z1)/(s1*(1+exp(z1))^2) cdfx1=1/(1+exp(-z1)) pdfx2=exp(z2)/(s2*(1+exp(z2))^2) cdfx2=1/(1+exp(-z2)) #par(mfrow=c(1,2)) plot(x,pdfx1,type="l",xlab="X",ylab="f(x)",col="blue",lwd=2) lines(x,pdfx2,type="l",xlab="X",ylab="f(x)",col="cyan",lwd=2) title('Probability Density Function u=0,s=1,2') plot(x,cdfx1,type="l",xlab="X",ylab="F(x)",col="red",lwd=2) lines(x,cdfx2,type="l",xlab="X",ylab="F(x)",col="orange",lwd=2) title('Cumulative Distribution Function u=0,s=1,2') u=1;s1=1;s2=2 z1=(x-u)/s1;z2=(x-u)/s2 pdfx1=exp(z1)/(s1*(1+exp(z1))^2) cdfx1=1/(1+exp(-z1))

 

pdfx2=exp(z2)/(s2*(1+exp(z2))^2) cdfx2=1/(1+exp(-z2)) #par(mfrow=c(1,2)) plot(x,pdfx1,type="l",xlab="X",ylab="f(x)",col="blue",lwd=2) lines(x,pdfx2,type="l",xlab="X",ylab="f(x)",col="cyan",lwd=2) title('Probability Density Function u=1,s=1,2') plot(x,cdfx1,type="l",xlab="X",ylab="F(x)",col="red",lwd=2) lines(x,cdfx2,type="l",xlab="X",ylab="F(x)",col="orange",lwd=2) title('Cumulative Distribution Function u=1,s=1,2')

Obtenemos el siguiente gráfico

Observamos que se trata de una distribución simétrica. Asimismo, notamos que el parámetro µ nos indica la posición de la función Logística; y el parámetro  determina la forma de la curva, a medida que aumenta la función se ensancha para los costados y se achata en el centro.

  Suponga que existe 50 % de chance de que un adulto americano sufra de un desorden



 psiquiátrico. Elegimos aleatoriamente  psiquiátrico. aleatoriamente una muestra de 6 adultos americanos. Si X representa el número de personas que tienen un desorden psiquiátrico, entonces X es una variable aleatoria  Binomial con con parámetros parámetros (6,0.5).  Estamos interesados en la probabilidad de que a lo más 3 de las personas seleccionadas seleccionadas tengan algún desorden.. Cuál es la forma de la Distribución?. Elabore gráficos.

 

  Solución: Podemos usar la función pbinom de R para determinar P(X ≤ 3) prob = pbinom(3,6,0.5) > prob [1] 0.65625 

Por lo tanto la probabilidad de que a lo más 3 de las personas seleccionadas tengan algún desorden es del 65.6%. Para graficar usamos la siguiente secuencia de comandos: #Graficando la Distribución de Probabilidad x=0:6 pdfx=dbinom(x,6,0.5) cdfx=pbinom(x,6,0.5) par(mfrow=c(1,2)) plot(x,pdfx,type="h",xlab="X",ylab="P(x)",col="blue",lwd=10) title('Probability Density Function n=6,p=0.5') plot(x,cdfx,type="h",xlab="X",ylab="PA(x)",col="red",lwd=10) title('Cumulative Distribution Function n=6,p=0.5')

Observamos que la distribución binomial con parámetros n=6 y p=0.5 se distribuye de forma simétrica con respecto a la media. Y el valor esperado de personas con algún desorden  psiquiátrico  psiquiátri co es 3.

   Encuentre la altura de la curva curva para la función de de densidad nsidad normal en x = µ, para    = 0.5; 1; 2.



Qué sucede para la altura de la curva cuando valores de µ?. Elabore gráficos.

Solución:

  crece?. Las alturas cambian para diferentes

  

 

  Graficamos la función de densidad normal en R mediante la ejecución de los comandos siguientes: x=seq(-5,5,0.1) u=-1 s1=0.5;s2=1;s3=2 pdfx1=dnorm(x,u,s1);pdfx2=dnorm(x,u,s2);pdfx3=dnorm(x,u,s3) h1=dnorm(u,u,s1);h1 h2=dnorm(u,u,s2);h2 h3=dnorm(u,u,s3);h3 par(mfrow=c(1,3)) plot(x,pdfx1,type="l",xlab="X",ylab="f(x)",col="blue",lwd=2) lines(x,pdfx2,type="l",xlab="X",ylab="f(x)",col="red",lwd=2) lines(x,pdfx3,type="l",xlab="X",ylab="f(x)",col="orange",lwd=2) title('Probability Density Function u=-1,s=0.5,1,2') u=0 pdfx1=dnorm(x,u,s1);pdfx2=dnorm(x,u,s2);pdfx3=dnorm(x,u,s3) h1=dnorm(u,u,s1);h1 h2=dnorm(u,u,s2);h2 h3=dnorm(u,u,s3);h3 plot(x,pdfx1,type="l",xlab="X",ylab="f(x)",col="blue",lwd=2) lines(x,pdfx2,type="l",xlab="X",ylab="f(x)",col="red",lwd=2) lines(x,pdfx3,type="l",xlab="X",ylab="f(x)",col="orange",lwd=2) title('Probability Density Function u=0,s=0.5,1,2') u=1 pdfx1=dnorm(x,u,s1);pdfx2=dnorm(x,u,s2);pdfx3=dnorm(x,u,s3) h1=dnorm(u,u,s1);h1 h2=dnorm(u,u,s2);h2 h3=dnorm(u,u,s3);h3 plot(x,pdfx1,type="l",xlab="X",ylab="f(x)",col="blue",lwd=2) lines(x,pdfx2,type="l",xlab="X",ylab="f(x)",col="red",lwd=2) lines(x,pdfx3,type="l",xlab="X",ylab="f(x)",col="orange",lwd=2) title('Probability Density Function u=1,s=0.5,1,2')

De esta forma obtenemos el gráfico siguiente:

Para µ = -1, =0.5,1,2

Para µ = 0, =0.5,1,2

Para µ = 1, =0.5,1,2

> h1 (=0.5) [1] 0.7978846 > h2 (=1) [1] 0.3989423 > h3 (=2) [1] 0.1994711

> h1 (=0.5) [1] 0.7978846 > h2 (=1) [1] 0.3989423 > h3 (=2) [1] 0.1994711

> h1 (=0.5) [1] 0.7978846 > h2 (=1) [1] 0.3989423 > h3 (=2) [1] 0.1994711

 

En donde podemos observar que a medida que   crece la altura de x en µ disminuye. Mientras que si varía la media µ y se mantiene constante   la altura de x en µ sigue siendo siempre la misma. Por lo tanto las alturas no cambian para los diferentes valores de µ.

  Cree una secuencia de función de densidad de la t de student para diferentes grados de libertad



 gl = 5; 15; 25; 35 usando las funciones correspondientes correspondientes del programa que use. Compare entonces con la distribución normal estándar. Use gráficos y medidas estadísticas. Solución: x=seq(-5,5,0.1) gl1=5;gl2=15;gl3=25;gl4=35 pdftx1=dt(x,gl1);pdftx2=dt(x,gl2);pdftx3=dt(x,gl3);pdftx4=dt(x,gl4) pdfzx=dnorm(x,0,1) par(mfrow=c(2,2)) plot(x,pdftx1,type="l",xlab="X",ylab="f(x)",col="blue",lwd=2) lines(x,pdfzx ,type="l",col="red" ,type="l",col="red",lwd=2) ,lwd=2) title('Probability Density Function t(5),z(0,1)') plot(x,pdftx2,type="l",xlab="X",ylab="f(x)",col="blue",lwd=2) lines(x,pdfzx ,type="l",col="red" ,type="l",col="red",lwd=2) ,lwd=2) title('Probability Density Function t(15),z(0,1)') plot(x,pdftx3,type="l",xlab="X",ylab="f(x)",col="blue",lwd=2) lines(x,pdfzx ,type="l",col="red" ,type="l",col="red",lwd=2) ,lwd=2) title('Probability Density Function t(25),z(0,1)') plot(x,pdftx4,type="l",xlab="X",ylab="f(x)",col="blue",lwd=2) lines(x,pdfzx ,type="l",col="red" ,type="l",col="red",lwd=2) ,lwd=2) title('Probability Density Function t(35),z(0,1)')

 

Observamos que a medida que aumentan los grados de libertad de la función de densidad de  probabilidades de la  probabilidades la T de Student se asemeja más más a la distribución distribución normal estándar. estándar. II. 

Capítulo 3

  Generate 500 random samples from the standard normal distribution for sample sizes of n = 2,



15, and 45. At each sample size, calculate the sample mean for all 500 samples. How are the means distributed as n gets and large? Look at histogram of the for sample to help this question. What is the mean variance of athe sample means each means n? Is this whatanswer you would expect from the Central Limit Theorem?

Solución:

Construimos una función en R para tomar gran cantidad de muestras y almacenar sus resultados. zsamples=function(n) { i=1 xhats=seq(1:500) for (i in 1:500) { x=rnorm(n,0,1) xhats[i]=mean(x) i=i+1} return(xhats) } n1=2;n2=15;n3=45 xhat1=mean(zsamples(n1));xhat1 xhat2=mean(zsamples(n2));xhat2 xhat3=mean(zsamples(n3));xhat3 par(mfrow=c(1,3)) hist(zsamples(n1),xlab="Xbar hist(zsamples(n1),xlab="X bar (n=2)",col="red", main="Histograma de medias, 500 muestras") hist(zsamples(n2),xlab="Xbar hist(zsamples(n2),xlab="X bar (n=15)",col="orange", main="Histograma de medias, 500 muestras") hist(zsamples(n3),xlab="Xbar hist(zsamples(n3),xlab="X bar (n=45)",col="skyblue", main="Histograma de medias, 500 muestras")

Obtenemos el siguiente gráfico en R:

Media=0.02604 Var=0.504511/2

Media=0.02065 Var=0.064971/15

Media=0.00609 Var=0.025331/45

 

Se observa claramente que a medida que el tamaño de las muestras se incrementa el valor del  promedio de todas todas las medias muestrales muestrales se aproxima más a cero. De igual form forma, a, la variancia se 2 aproxima al valor teórico  /n según el Teorema del Límite Central.

   En este ejemplo, generamos una muestra aleatoria de una distribución normal estándar. Use la



 función correspondiente correspondiente para para generar sus muestras. muestras. Que sucede sucede con el coeficiente coeficiente de asimetría asimetría y curtosis cuando el tamaño de muestra crece?. Solución:

Extraemos las muestras en R y calculamos el coeficiente de asimetría y curtosis: #Cambiar los valores de n=50,500,2500 n=50 x=rnorm(n) u=mean(x) # Cálculo de la Asimetría num= (1/n)*sum((x-u)^3) den = (1/n)*sum((x-u)^2) gam1 = num/den^(3/2) gam1 # Cálculo de la curtosis num=(1/n)*sum((x-u)^4) den = (1/n)*sum((x-u)^2) gam2 = num/den^2 gam2

Para n = 50

Para n = 500

Para n = 2500

> gam1 (Asimetría) [1] 0.03878445 > gam2 (Curtosis) [1] 2.779587

> gam1 (Asimetría) [1] -0.01942143 > gam2 (Curtosis) [1] 2.915729

> gam1 (Asimetría) [1] 0.03381787 > gam2 (Curtosis) [1] 3.010912

Según la teoría de la distribución normal estándar, la simetría debe ser cero y la curtosis igual a 3. En este ejercicio se puede notar que a medida que aumenta el tamaño de muestra, los valores de la asimetría y la curtosis se aproximan mejor a los valores teóricos.

  Compare los valores obtenidos para los cuartiles estimados en el ejemplo 3.6 con las cantidades



teóricas. Incremente el tamaño de muestra a n = 1000. Los estimados mejoran?. Solución:

Requerimos de las siguientes sentencias en R: require(signal) x=rnorm(500) xs=sort(x) # Now get the observed values for the abscissa (X_obs). n=length(x) phat=((1:n)-0.5)/n # We want to get the quartiles. p=c(0.25, 0.5, 0.75) # The following provides the estimates of the quartiles

 

# using linear interpolation. qhat1=interp1(phat,xs,p,method qhat1=interp1(phat,xs,p,m ethod qhat2=interp1(phat,xs,p,method qhat2=interp1(phat,xs,p,m ethod qhat3=interp1(phat,xs,p,method qhat3=interp1(phat,xs,p,m ethod qhat4=interp1(phat,xs,p,method qhat4=interp1(phat,xs,p,m ethod qhat5=interp1(phat,xs,p,method qhat5=interp1(phat,xs,p,m ethod qhat6=interp1(phat,xs,p,method qhat6=interp1(phat,xs,p,m ethod #Cuartiles Teóricos qhat=qnorm(p,0,1);qhat

= = = = = =

"linear");qhat1 "nearest");qhat2 "pchip");qhat3 "pchip");qhat4 "cubic");qhat5 "spline");qhat6

> qhat1=interp1(phat,xs,p,method = "linear");qhat1 [1] -0.68217757 -0.03240299 0.55007140 > qhat2=interp1(phat,xs,p,method = "nearest");qhat2 [1] -0.68703510 -0.03506697 0.54945158 > qhat3=interp1(phat,xs,p,method = "pchip");qhat3 [1] -0.68194682 -0.03178649 0.54991874 > qhat4=interp1(phat,xs,p,method = "pchip");qhat4 [1] -0.68194682 -0.03178649 0.54991874 > qhat5=interp1(phat,xs,p,method = "cubic");qhat5 [1] -0.68207137 -0.03208029 0.54965416 > qhat6=interp1(phat,xs,p,method = "spline");qhat6 [1] -0.68187931 -0.03186702 0.54909862 > #Cuartiles Teóricos > qhat=qnorm(p,0,1);q qhat=qnorm(p,0,1);qhat hat [1] -0.6744898 0.0000000 0.6744898

Para una muestra de n=1000

> qhat1=interp1(phat,xs,p,method = "linear");qhat1 [1] -0.662325751 0.004279495 0.657811465 > qhat2=interp1(phat,xs,p,method = "nearest");qhat2 [1] -0.662428880 0.004273785 0.657521812 > qhat3=interp1(phat,xs,p,method = "pchip");qhat3 [1] -0.662324627 0.004278377 0.657748923 > qhat4=interp1(phat,xs,p,method = "pchip");qhat4 [1] -0.662324627 0.004278377 0.657748923 > qhat5=interp1(phat,xs,p,method = "cubic");qhat5 [1] -0.66232310 0.00424571 0.65776904 > qhat6=interp1(phat,xs,p,method = "spline");qhat6 [1] -0.662324499 0.004222492 0.657745997 > #Cuartiles Teóricos > qhat=qnorm(p,0,1);q qhat=qnorm(p,0,1);qhat hat [1] -0.6744898 0.0000000 0.6744898

Podemos apreciar que la estimación de los cuartiles cuando n=1000 es la que más se aproxima a los valores teóricos, por lo tanto se vuelven más precisos a medida que aumenta el tamaño de muestra.

   Investigate the bias in the maximum likelihood estimate estimate of the variance variance that is given in Equation



2

3.28. Generate a random sample from the standard normal distribution. Calculate      using  Equation 3.28 and record the value in a vector vector.. Repeat this process (generate a random sample  from the standard normal distribution, distribution, estimate the variance, save the value) many times. Once  you are done with this this procedure, procedure, you should should have many estimates estimates for the variance. variance. Take the mean of these estimates to get an estimate of the expected value of   2 . How does this compare with the known value of   2=1? Does this indicate that the maximum likelihood estimate  for the variance variance is biased? biased? What is the estimated estimated bias from from this procedure? procedure?

 

Solución:

El estimador de máxima verosimilitud para la variancia es como sigue:



 =  ( −  )    2

1

 2

=1

Escribimos un programa en R para tomar varias muestras de tamaño n=300: #creando una función para tomar n muestras #de la Distribución Normal Estándar zsamples=function(n) { i=1 shats=seq(1:300) for (i in 1:500) { x=rnorm(n,0,1) shats[i]=(sum((x-mean(x))^2)/n) i=i+1 } return(shats) } n=100 shat=mean(zsamples(n)) shat bias=1-shat bias

Salida del R: > shat=mean(zsamples( shat=mean(zsamples(n)) n)) > shat [1] 0.9880203 > bias=1-shat > bias [1] 0.01197965

Lo que nos indica que existe un sesgo de 0.01198 para dicho estimador de la variancia, obtenido  por el método método de máxima máxima verosimilitud verosimilitud..

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF