Actividad2 Sanchez Campoy CM

August 17, 2022 | Author: Anonymous | Category: N/A
Share Embed Donate


Short Description

Download Actividad2 Sanchez Campoy CM...

Description

 

󰁄󰁉󰁓󰁅󰃑󰁏 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁏 󰁅󰁘󰁐󰁅󰁒󰁉󰁍󰁅󰁎󰁔󰁁󰁌 󰁙 󰁃󰁏󰁎󰁔󰁒󰁏󰁌 󰁄󰁅 󰁃󰁁󰁌󰁉󰁄󰁁󰁄󰀮 󰁁󰁐󰁌󰁉󰁃󰁁󰁃󰁉󰁏󰁎󰁅󰁓 󰁅󰁎 󰁂󰁉󰁏󰁃󰁉󰁅󰁎󰁃󰁉󰁁󰁓 󰁅 󰁉󰁎󰁇󰁅󰁎󰁉󰁅󰁒󰃍󰁁 󰀭 󰁍󰁁󰁓󰁔󰁅󰁒 󰁅󰁎 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁁 󰁁󰁐󰁌󰁉󰁃󰁁󰁄󰁁 󰀭 󰁁󰁕󰁔󰁏󰁒󰁁󰀺

󰁃󰁁󰁒󰁍󰁅󰁎 󰁍󰁁󰁒󰃍󰁁 󰁓󰃁󰁎󰁃󰁈󰁅󰁚 󰁃󰁁󰁍󰁐󰁏󰁙

Actividad  2 2  T ema2

 

TRABAJO REALIZADO POR: CARMEN Mª SÁNCHEZ CAMPOY  PROFESORES:

RAMÓN GUTIÉRREZ SÁNCHEZ MARIA DOLORES RUIZ MEDINA

CURSO: DISEÑO ESTADÍSTICO EXPERIMENTAL Y CONTROL DE CALIDAD. APLICACIONES EN BIOCIENCIAS E INGENIERÍA

- MASTER ESTADÍSTICA APLICADA 󰀱

 

󰁄󰁉󰁓󰁅󰃑󰁏 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁏 󰁅󰁘󰁐󰁅󰁒󰁉󰁍󰁅󰁎󰁔󰁁󰁌 󰁙 󰁃󰁏󰁎󰁔󰁒󰁏󰁌 󰁄󰁅 󰁃󰁁󰁌󰁉󰁄󰁁󰁄󰀮 󰁁󰁐󰁌󰁉󰁃󰁁󰁃󰁉󰁏󰁎󰁅󰁓 󰁅󰁎 󰁂󰁉󰁏󰁃󰁉󰁅󰁎󰁃󰁉󰁁󰁓 󰁅 󰁉󰁎󰁇󰁅󰁎󰁉󰁅󰁒󰃍󰁁 󰀭 󰁍󰁁󰁓󰁔󰁅󰁒 󰁅󰁎 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁁 󰁁󰁐󰁌󰁉󰁃󰁁󰁄󰁁 󰀭 󰁁󰁕󰁔󰁏󰁒󰁁󰀺

󰁃󰁁󰁒󰁍󰁅󰁎 󰁍󰁁󰁒󰃍󰁁 󰁓󰃁󰁎󰁃󰁈󰁅󰁚 󰁃󰁁󰁍󰁐󰁏󰁙

A1. CUESTIONES TEÓRICAS Resolver tres actividades teóricas. 1.- Deducir los valores esperado de las sumas de cuadrados medios entre tratamientos y dentro de cada tratamiento para el modelo de efectos fijos y efectos aleatorios. Está realizado para tamaño muestrales iguales, de forma análoga se realizaría para tamaños muestrales desiguales. La suma total de cuadrados, k

SCT

=

n

∑∑(y

ij −

y .. ) 2  

i =1 j =1

en la que hemos desglosado la variabilidad total de los datos, podemos expresarla en dos partes: - La suma de cuadrados de las desviaciones de las medias de los tratamientos respecto de la media general, denominada suma de cuadrados entre tratamientos o variabilidad explicada: k 

SCTr

=

n

∑(y

i. −

2

y .. )  

i =1

- La suma de cuadrados de las desviaciones de las observaciones de cada nivel respecto de su media, denominada suma de cuadrados dentro de los tratamientos, variabilidad variabilidad no-explicada no-explicada o residual: k

SCR =

n

∑∑(y

ij − 

y i. ) 2  

i =1 j =1

A partir de las sumas de cuadrados anteriores se pueden construir los denominados cuadrados medios, definidos como los cocientes entre dichas sumas de cuadrados y sus correspondientes grados de libertad.   Cuadrado medio total:



k

∑ ∑ ( y

ij −

2

S T  ɵ

n

y .. )

2

i =1 j =1

=

 

 N  − 1   Cuadrado medio entre tratamientos:





n

2

∑(y

i. −

y.. ) 2

i =1

S Tr  = ɵ

 

k  − 1

  Cuadrado medio residual:



k

∑ ∑ ( y

ij

2

S  R ɵ

n

=



i =1 j =1

 N − k 

y i. ) 2  

MODELO DE EFECTOS FIJOS:  Teniendo en cuenta que: 󰀲

 

󰁄󰁉󰁓󰁅󰃑󰁏 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁏 󰁅󰁘󰁐󰁅󰁒󰁉󰁍󰁅󰁎󰁔󰁁󰁌 󰁙 󰁃󰁏󰁎󰁔󰁒󰁏󰁌 󰁄󰁅 󰁃󰁁󰁌󰁉󰁄󰁁󰁄󰀮 󰁁󰁐󰁌󰁉󰁃󰁁󰁃󰁉󰁏󰁎󰁅󰁓 󰁅󰁎 󰁂󰁉󰁏󰁃󰁉󰁅󰁎󰁃󰁉󰁁󰁓 󰁅 󰁉󰁎󰁇󰁅󰁎󰁉󰁅󰁒󰃍󰁁 󰀭 󰁍󰁁󰁓󰁔󰁅󰁒 󰁅󰁎 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁁 󰁁󰁐󰁌󰁉󰁃󰁁󰁄󰁁 󰀭 󰁁󰁕󰁔󰁏󰁒󰁁󰀺

󰁃󰁁󰁒󰁍󰁅󰁎 󰁍󰁁󰁒󰃍󰁁 󰁓󰃁󰁎󰁃󰁈󰁅󰁚 󰁃󰁁󰁍󰁐󰁏󰁙 k 

 yij  = µ + τ i

ε ij  

+

 yi.

=

n µ + nτ i

+

ε i .  

 y..

=

N µ + n

∑τ

i +

ε ..  

i =1



 y i.

=

 

τ

+  i +

ε i.  

 y

 

=

∑ n τ 

ε ..  

+

i i =



i =1

Se tiene: k

n

2





( y i. − y.. )2

n

i =1

S Tr  = ɵ

∑ (τ

i

k −1 n

∑τ i =1

=

n

i

+



k  − 1 k

2

ε .. ))2

i =1

=

k

ε

+ ( i. −

∑ (ε



i. −

ε .. )

2

2n

i =1

k −1

∑τ (ε i

i. −

ε .. )  

i =1

+

k −1

 

k  − 1

Tomando esperanzas: k   k 2  k   2  ( ) 2 ( ) n n − n − τ ε ε τ ε ε . . . . . . i i  ∑ i   ∑   ∑ i   2 +E i 1  + E  i 1    E  S Tr   = E  i 1     k − 1  k −1 k  − 1                 =

ɵ

=

=

Ahora bien, puesto que: a) El modelo es de efectos fijos ,  E  [τ i ] = τ i  entonces k   k 2 2  n∑τ i  n ∑τ i  = i 1  E  i 1 k  − 1  k −1    =

b) Como  E τ i



ɵ



E τ i   ɵ

=

2

= Var 

 

τ    i ɵ

  =

=

n k−



=

=

k

 E τ ∑  1 i =1

ɵ

i −

E τ i   ɵ

 

2

=

n k−

k

2

( N − n)σ 

 n∑ (ε i. − ε .. ) 2  n∑ E (ε i. − ε .. )2      i 1   i 1  =  E  k −1 k −1     k

 

 Nn

=

k  −

Var τ ∑  1 i =1

n

ɵ

 y  N

kn  se tiene que:

2



E ( y ∑  1

i.



y .. ) − τ i 



i =1

n

i

=



=  k −1 ∑ i 1 =

( N − n)σ 2 Nn

=

=

 

n k −1

k (kn − n)σ 2 kn

2

  c) Como  E  ε i . − ε .. 

=

0 , entonces

󰀳

=

σ2

 

󰁄󰁉󰁓󰁅󰃑󰁏 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁏 󰁅󰁘󰁐󰁅󰁒󰁉󰁍󰁅󰁎󰁔󰁁󰁌 󰁙 󰁃󰁏󰁎󰁔󰁒󰁏󰁌 󰁄󰁅 󰁃󰁁󰁌󰁉󰁄󰁁󰁄󰀮 󰁁󰁐󰁌󰁉󰁃󰁁󰁃󰁉󰁏󰁎󰁅󰁓 󰁅󰁎 󰁂󰁉󰁏󰁃󰁉󰁅󰁎󰁃󰁉󰁁󰁓 󰁅 󰁉󰁎󰁇󰁅󰁎󰁉󰁅󰁒󰃍󰁁 󰀭 󰁍󰁁󰁓󰁔󰁅󰁒 󰁅󰁎 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁁 󰁁󰁐󰁌󰁉󰁃󰁁󰁄󰁁 󰀭 󰁁󰁕󰁔󰁏󰁒󰁁󰀺

󰁃󰁁󰁒󰁍󰁅󰁎 󰁍󰁁󰁒󰃍󰁁 󰁓󰃁󰁎󰁃󰁈󰁅󰁚 󰁃󰁁󰁍󰁐󰁏󰁙

k k    2n∑ τ i E (ε i. − ε .. )    2n∑τ i (ε i. − ε .. )  2    = E  S Tr   = i 1 =0   E  i 1     1 1 − − k k      =

=

ɵ



2 2 n i 1 τ   E  S Tr   = ∑     k  − 1



i

de donde:

=

ɵ

+

2

σ   

 E [ SCTr ] = n

y

∑τ

2 i

+

σ 2 ( k  − 1)  

i =1

Por otro lado como:

 E  S  R   = σ 2   y 2



ɵ

2

( N − 1) S T ɵ



2

=

(k − 1 1)) S Tr ɵ

+

(N

2

k ) S R  



ɵ

Se tiene que:

( N − 1) E  S T  = ( k − 1) E  S Tr  + ( N − k ) E  S R    2



ɵ

2





ɵ

2





ɵ



 k  2   n∑ τ i    2 1 2 i + σ  + ( N − k )σ 2 ( N − 1) E  S T   = ( k  − 1)       k  − 1     



=

ɵ

=

n



τ i 2 + ( N  − 1)σ 2  

 

i =1

Luego: k 

n

∑τ 

2

i



2   E S T   = i 1      N  − 1 =

ɵ

+

2

σ   

 E [ SCT ] = n

y

∑τ

2 i

+

σ 2 ( N  − 1)  

i =1

MODELO DE EFECTOS ALEATORIOS:  Teniendo en cuenta que:  yij  = µ + τ i

+

ε ij  

 yi.

=

n µ + nτ i

+

ε i .  

 y..

=

N µ + n

∑τ k 

i +

ε ..  

i =1

 y i.

=

 

τ

+  i +

 y

ε i.  

=

+

1   k  k 

∑τ

i

ε   

+ ..

i =1

Se tiene:

  1 k   2 − + − n ( ) τ τ ε ε . .. i n ∑ ( y i . − y .. )   ∑   i   ∑ t   k   i 1  t  1  i 1 k



2

S Tr  = ɵ

=

=

k −1

k  − 1

1 k   n∑  τ i − ∑ τ t  k t1  i 1  k

=

=

=

=

2

n

∑ (ε

 

1 k     2n∑ τ i − ∑ τ t  (ε i. − ε  .. ) k  t 1    i 1 

i. −

ε .. )

2

i =1

+

=

k



=

k −1

2

=

k −1

+

 

=

k  − 1

 

󰀴

 

󰁄󰁉󰁓󰁅󰃑󰁏 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁏 󰁅󰁘󰁐󰁅󰁒󰁉󰁍󰁅󰁎󰁔󰁁󰁌 󰁙 󰁃󰁏󰁎󰁔󰁒󰁏󰁌 󰁄󰁅 󰁃󰁁󰁌󰁉󰁄󰁁󰁄󰀮 󰁁󰁐󰁌󰁉󰁃󰁁󰁃󰁉󰁏󰁎󰁅󰁓 󰁅󰁎 󰁂󰁉󰁏󰁃󰁉󰁅󰁎󰁃󰁉󰁁󰁓 󰁅 󰁉󰁎󰁇󰁅󰁎󰁉󰁅󰁒󰃍󰁁 󰀭 󰁍󰁁󰁓󰁔󰁅󰁒 󰁅󰁎 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁁 󰁁󰁐󰁌󰁉󰁃󰁁󰁄󰁁 󰀭 󰁁󰁕󰁔󰁏󰁒󰁁󰀺

󰁃󰁁󰁒󰁍󰁅󰁎 󰁍󰁁󰁒󰃍󰁁 󰁓󰃁󰁎󰁃󰁈󰁅󰁚 󰁃󰁁󰁍󰁐󰁏󰁙

Tomando esperanzas: 2 k    k       1 k 1 k   k    2  n τ τ ε ε   2 ( ) − − . .. i  n∑  τ i − ∑ τ t   n  ∑ (ε i . − ε .. ) ∑ ∑ t       i k    2 k 1 1 1 1 i t t       + E  i 1    + E  i   E  S Tr   = E        k −1 k− k  − 1         1         =

ɵ

=

=

=

=

  Ahora bien, puesto que: a) Las variables aleatorias τ i  son independientes independientes con media cero, entonces,





∑ 

 E    τ iτ t   = 0  



i ≠ t 

además, como  E τ i

2

   = σ τ 2 , se tiene que:  k   2  E τ i τ t   = σ τ    t  1  ∑  =

Entonces: 2 k  k   2  1 k 2    1 k 1 k    E  n∑ τ i − ∑τ t   = n ∑ E  τ i +  ∑τ t  − 2τ i ∑ τ t  =      k t 1   k  t 1    i 1 k t 1   i 1   =

=

=

=

=

1 2 1 2  2 1 k  2 2 = n∑ σ τ + − = − N  2 σ σ σ στ     τ  τ  2 ∑ τ k k k   i 1  t  1 k

=

 

=

k 1 n  1 k n  k 2 ε b)  E  n∑ (ε i. − ε .. )  = ∑ nE  ∑ ε ij − ∑ ∑ th  n N 



=

=

=

i 1

i 1

j 1

=

2

 



=

t 1 h 1

   2   2 1  n k n   k n 1  1  n   ε ε = ∑ nE   + −2  ∑ ε ij   ∑ ∑ ε tthh   =    2  ∑ ij  2  ∑ ∑ th  n N N n   j 1  i 1 t1h1   j 1   t 1 h 1   k

=

1 = ∑n 2 i 1 n k

=

=

=

n

∑σ j =1

2

+

1 N2

k

=

n

∑ ∑σ t =1 h =1

2

−2

=

1 Nn

n



j =1



=

=

∑ σ 2  =  

k  1 2  2 1 2  2 1 2 2 σ σ   − 1)   =∑ σ + −2 σ =∑ σ − = σ ( k      k k k  i 1 i 1 k

=

=

c) Puesto que Como  τ i  y ε ij  son independientes entre sí y tienen media cero entonces:

󰀵

 

󰁄󰁉󰁓󰁅󰃑󰁏 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁏 󰁅󰁘󰁐󰁅󰁒󰁉󰁍󰁅󰁎󰁔󰁁󰁌 󰁙 󰁃󰁏󰁎󰁔󰁒󰁏󰁌 󰁄󰁅 󰁃󰁁󰁌󰁉󰁄󰁁󰁄󰀮 󰁁󰁐󰁌󰁉󰁃󰁁󰁃󰁉󰁏󰁎󰁅󰁓 󰁅󰁎 󰁂󰁉󰁏󰁃󰁉󰁅󰁎󰁃󰁉󰁁󰁓 󰁅 󰁉󰁎󰁇󰁅󰁎󰁉󰁅󰁒󰃍󰁁 󰀭 󰁍󰁁󰁓󰁔󰁅󰁒 󰁅󰁎 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁁 󰁁󰁐󰁌󰁉󰁃󰁁󰁄󰁁 󰀭 󰁁󰁕󰁔󰁏󰁒󰁁󰀺

󰁃󰁁󰁒󰁍󰁅󰁎 󰁍󰁁󰁒󰃍󰁁 󰁓󰃁󰁎󰁃󰁈󰁅󰁚 󰁃󰁁󰁍󰁐󰁏󰁙

 k   1 k    E  n∑ τ i − ∑τ t   (ε i. − ε .. )   = 0   k  t  1   i 1  =

 2 Luego: E S Tr  =    

 N σ τ

ɵ

 

2



σ τ 2

2

k  ( k − 1) 2

 E [ SCTr  ] =

1

=

 N σ τ

2

+



nσ τ 

2

σ

=

 N σ τ

2



nσ τ 

2

+

N (k  − 1)

σ 2   ⇒ 

2

+

 N 

σ 2 ( k  − 1)  

Por otro lado como:

 E  S  R   = σ 2   y   2

2

( N − 1) S T

ɵ



ɵ



2

=

(k − 1 1)) S Tr ɵ

2

+ ( N − k ) S R

 

ɵ

Se tiene que:

( N − 1) E  S T  = ( k − 1) E  S Tr  + ( N − k ) E  S R    2



ɵ

2





2

ɵ

2



2

2  N σ τ − nσ τ ( N − 1) E  S T   = ( k − 1)     N (k − 1)   ɵ

2



ɵ



2  + σ  + ( N − k )σ  2

=

N 2σ τ 2 − nσ τ 2 N 

 

σ 2

  + ( N  − 1)

  Luego: 2

2

2  N σ τ − nσ τ    E S T   =     ( N  − 1)  N ɵ

2

2

+

2

σ   

⇒ 

 E [ SCT ] =

 N σ τ

2

σ τ 2

−n

 N 

σ 2  

+ ( N  − 1)

2.- Cuál de los cuatro métodos estudiados para realizar comparaciones múltiples entre niveles medios de tratamientos por pares posee mejores propiedades. Razona la respuesta.  En primer lugar comentamos cada método razonando ciertas características para acabar comparando cada uno de ellos e indicando cuales son los más apropiados en cada caso:   Test LSD de Fisher  (Least Significant Difference), este procedimiento fué sugerido por Fisher en 1935, dicho procedimiento consiste en una prueba de hipótesis por parejas basada en la distribución t de student, es sencillo de utilizar; se puede aplicar tanto en modelos equilibrados como no-equilibrados. Además proporciona también intervalos de confianza para diferencias de medias. •

Un problema que presenta la aplicación de este procedimiento, para un número relativamente grande de tratamientos, es que el número de posibles falsos rechazos de la hipótesis nula puede ser elevado aunque no existan diferencias reales.

󰀶

 

󰁄󰁉󰁓󰁅󰃑󰁏 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁏 󰁅󰁘󰁐󰁅󰁒󰁉󰁍󰁅󰁎󰁔󰁁󰁌 󰁙 󰁃󰁏󰁎󰁔󰁒󰁏󰁌 󰁄󰁅 󰁃󰁁󰁌󰁉󰁄󰁁󰁄󰀮 󰁁󰁐󰁌󰁉󰁃󰁁󰁃󰁉󰁏󰁎󰁅󰁓 󰁅󰁎 󰁂󰁉󰁏󰁃󰁉󰁅󰁎󰁃󰁉󰁁󰁓 󰁅 󰁉󰁎󰁇󰁅󰁎󰁉󰁅󰁒󰃍󰁁 󰀭 󰁍󰁁󰁓󰁔󰁅󰁒 󰁅󰁎 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁁 󰁁󰁐󰁌󰁉󰁃󰁁󰁄󰁁 󰀭 󰁁󰁕󰁔󰁏󰁒󰁁󰀺

󰁃󰁁󰁒󰁍󰁅󰁎 󰁍󰁁󰁒󰃍󰁁 󰁓󰃁󰁎󰁃󰁈󰁅󰁚 󰁃󰁁󰁍󰁐󰁏󰁙

Es un test válido para la comparación planificada y tratamientos pareados, y más apropiado aún cuando el número de medias es pequeño. Específicamente Específicamente,, no es conveniente cuando tenemos más de 3 medias, porque al aumentar el número de tratamientos el error de tipo I también t ambién se incrementa. Debe utilizarse solo para comparaciones independientes y comparaciones entre medias que están adyacentes en el rango. Además, cuando todas las medias se comparan entre sí, el poder del test disminuye porque las comparaciones que se realizarán,, no son independientes. realizarán independientes. Puede suceder que el método LSD falle al aceptar que todas las parejas son iguales, a pesar de que el estadístico F del análisis de la varianza resulte significativo; ésto es debido a que la prueba F considera simultáneamente todas las posibles comparaciones entre las medias de los tratamientos y no sólo las comparaciones por parejas.   Test HSD de Tukey, (Honestly-significant-difference). Utiliza la distribución del rango estandarizado para fijar el valor crítico con el cual se comparan las diferencias entre las medias. El método de Tukey se aplica generalmente a comparaciones por pares dando lugar a un valor crítico menor que otros métodos. En este modelo se puede construir intervalos de confianza con coeficiente de confianza para todas las posibles comparaciones por parejas.



Es apropiado para todas las comparaciones pareadas, compara todos los pares individuales de medias aplicando un test de ANOVA significativo. Asume igual número de observaciones por población. utiliza, como el HSD de Tukey,  Test MRT de Duncan. El contraste de Duncan utiliza, la distribución del recorrido estudentizado. Se diferencia de ese test en que su aplicación es secuencial, en el sentido de no utilizar un único valor crítico para todas las diferencias de medias, como el de Tukey, sino un valor crítico que depende del número de medias comprendido entre las dos medias que se comparan, habiendo ordenado previamente las medias en orden creciente. •

 Test Newman-Keuls. Este contraste fué desarrollado por Newman en 1939 y ampliado por Keuls en 1952, es un procedimiento iterativo y similar al método de Duncan. Es más conservador que el de Duncan en el sentido de que el error de tipo I es menor, la potencia de la prueba de Newman-Keuls es menor que la del procedimiento de Duncan, es “más difícil” declarar que dos medias son significativamente significativame nte diferentes al utilizar la prueba de Newman-Keu Newman-Keuls ls que cuando se usa el procedimiento de Duncan. •

Podemos encontrar muchos comentarios sobre las comparaciones entre los distintos métodos, de los que podemos concluir los siguientes:   Cuando sólo se hacen comparaciones por parejas, el método de Tukey  conduce a límites de confianza más estrechos que los otros métodos, por lo cual el método de Tukey  encontrará más diferencias significativas, siendo en este caso el método preferido. En cambio cuando los contrastes son más complicados que la diferencia de medias, será mejor opción la elección de otro método. •



 Cuando el número de comparaciones por parejas es muy grande los tests de rangos múltiples como Tukey, Newman-Keuls  y Duncan  ofrecen una solución de 󰀷

 

󰁄󰁉󰁓󰁅󰃑󰁏 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁏 󰁅󰁘󰁐󰁅󰁒󰁉󰁍󰁅󰁎󰁔󰁁󰁌 󰁙 󰁃󰁏󰁎󰁔󰁒󰁏󰁌 󰁄󰁅 󰁃󰁁󰁌󰁉󰁄󰁁󰁄󰀮 󰁁󰁐󰁌󰁉󰁃󰁁󰁃󰁉󰁏󰁎󰁅󰁓 󰁅󰁎 󰁂󰁉󰁏󰁃󰁉󰁅󰁎󰁃󰁉󰁁󰁓 󰁅 󰁉󰁎󰁇󰁅󰁎󰁉󰁅󰁒󰃍󰁁 󰀭 󰁍󰁁󰁓󰁔󰁅󰁒 󰁅󰁎 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁁 󰁁󰁐󰁌󰁉󰁃󰁁󰁄󰁁 󰀭 󰁁󰁕󰁔󰁏󰁒󰁁󰀺

󰁃󰁁󰁒󰁍󰁅󰁎 󰁍󰁁󰁒󰃍󰁁 󰁓󰃁󰁎󰁃󰁈󰁅󰁚 󰁃󰁁󰁍󰁐󰁏󰁙

compromiso entre la tasa de error global deseada y una tasa de error individual demasiado pequeña y por tanto inaceptable. Estos métodos son preferidos en el sentido de producir intervalos de confianza más estrechos.   El método LSD de Fisher  es el que proporciona más diferencias significativas; a continuación, le siguen los métodos de Duncan  y Tukey. Eligiremos uno u otro dependiendo del riesgo que estemos dispuestos a correr al aceptar más o menos diferencias significativas. significativas. LSD es una prueba muy eficiente para detectar diferencias verdaderas entre las medias si se aplica después que la prueba F del análisis de la varianza resultó significativa. El procedimiento de intervalos múltiples de Duncan  es un buen método para detectar diferencias reales. •

  El procedimiento de Tukey  tiene un error tipo I menor que los correspondientes errores de los tests de Newman-Keuls  y de Duncan; es decir, es un test más conservador. En consecuencia, el procedimiento de Tukey tiene menos potencia que los procedimientos de Newman-Keuls o de Duncan. •

  Si se desea controlar la tasa de error individual, los métodos LSD de Fisher  y de Duncan resultan apropiados. Facilitan más protección de los errores de Tipo I que los otros métodos y son menos conservadores que los procedimientos basados en la •

elección de la tasa de global. • Si se desea controlar la tasa de error global, el método más útil es el procedimiento de Tukey.

3.- Cómo afecta la violación de la hipótesis de normalidad a la prueba F en los modelos de efectos fijos y aleatorios. Incluye de forma distinta en diseños con tamaños muestrales fijos y variables. Para validar un modelo propuesto se estudia si las hipótesis básicas del modelo están o no en contradicción con los datos observados. Es decir, si se satisfacen los supuestos del modelo: Normalidad, Independencia y Homocedasticidad. Para ello utilizamos procedimientos procedimientos gráficos y analíticos. Para el estudio de la Normalidad, podemos utilizar como métodos gráficos el estudio de histogramas o un gráfico probabilístico normal también denominado gráfico gaussiano o representación en papel probabilístico normal (Gráficos Q-Q), diagrama de puntos, que nos darán una idea de si se cumple o no y en que medida la hipótesis de normalidad. Como métodos analíticos podemos aplicar el contraste de KolmogorovSmirnov ó de Shapiro-Wilk entre otros, que a un nivel de significación rechazaremos o no la normalidad del modelo. En algunos casos, el supuesto de normalidad puede ser violado sin afectar la estimación asociadas con la elección del modelo. En estas situaciones, con tamaños muestrales iguales y homogeneidad de varianza, el test-F utilizado en el ANOVA es bastante robusto a errores que no presenten distribución normal normal.. Para el modelo de efectos fijos, los contrastes resultantes son más robustos, es decir, más insensibles al incumplimiento de las hipótesis de normalidad. Las desviaciones moderadas de la normalidad en el análisis de la varianza para el modelo de efectos fijos no son excesivamente importantes puesto que el test F de 󰀸

 

󰁄󰁉󰁓󰁅󰃑󰁏 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁏 󰁅󰁘󰁐󰁅󰁒󰁉󰁍󰁅󰁎󰁔󰁁󰁌 󰁙 󰁃󰁏󰁎󰁔󰁒󰁏󰁌 󰁄󰁅 󰁃󰁁󰁌󰁉󰁄󰁁󰁄󰀮 󰁁󰁐󰁌󰁉󰁃󰁁󰁃󰁉󰁏󰁎󰁅󰁓 󰁅󰁎 󰁂󰁉󰁏󰁃󰁉󰁅󰁎󰁃󰁉󰁁󰁓 󰁅 󰁉󰁎󰁇󰁅󰁎󰁉󰁅󰁒󰃍󰁁 󰀭 󰁍󰁁󰁓󰁔󰁅󰁒 󰁅󰁎 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁁 󰁁󰁐󰁌󰁉󰁃󰁁󰁄󰁁 󰀭 󰁁󰁕󰁔󰁏󰁒󰁁󰀺

󰁃󰁁󰁒󰁍󰁅󰁎 󰁍󰁁󰁒󰃍󰁁 󰁓󰃁󰁎󰁃󰁈󰁅󰁚 󰁃󰁁󰁍󰁐󰁏󰁙

comparación (y los test de comparaciones múltiples) se ven poco afectados por dichas desviaciones. Sin embargo, es importante notar que esto no se cumple si se presentan colas empíricas más pesadas para los errores. Por otro lado, el modelo de efectos aleatorios  se ve bastante más afectado por la violación de dicha hipótesis, especialmente en la estimación por intervalos de confianza de las componentes de la varianza. Desafortunadamente, cuando las muestras son pequeñas con frecuencia aparecen fluctuaciones considerables, por lo que la apariencia de no normalidad moderada no indica necesariamente la violación de la hipótesis de normalidad. Cuando hay grandes desviaciones se debe hacer un análisis más profundo y si es posible, realizar algunas transformaciones para corregir dichas desviaciones. desviaciones. Frecuentemente la transformación no sólo estabiliza la varianza sino que normaliza los datos, cuando estos no se distribuyen como una normal. Las formas de discrepancias más frecuentes que se observan sobre todo en los métodos gráficos ocurren cuando algunos residuos tienen un valor muy distanciado de los demás. Estos valores suelen corresponder a datos anómalos. La presencia de uno o más residuos anómalos puede afectar “gravemente” el análisis de la varianza, en tales circunstancias es recomendable realizar una investigación minuciosa. Cuando aplicamos los métodos descritos y obtenemos que no se cumple la hipótesis de normalidad podemos optar por la realización del Contraste de Kruskal-Wallis. Si establecemos una distinción entre los dos tipos de inferencias que se realizan sobre un modelo de análisis de la varianza, tenemos que: a) Inferencias sobre las medias: presente en los modelos de efectos fijos y que concierne únicamente a los efectos del factor (estimación puntual o por intervalos para medias, contraste de igualdad de medias, contrastes múltiples de medias, etc.) b) Inferencias sobre las varianzas: presente tanto en el modelo de efectos fijos como en el de efectos aleatorios y que incluye, entre otras, la estimación puntual o por intervalos de la varianza o de componentes de la varianza e inferencia sobre cociente de varianzas. varianzas. El efecto de la desviación de la normalidad afecta de manera desigual a estos tipos de inferencias. En general, si la desviación de la normalidad no es muy grave, es poco importante en la inferencia sobre medias y más grave en la inferencia sobre varianzas. Además, en ambos casos, las estimaciones puntuales continúan siendo insesgadas y en los contrastes de hipótesis se alteran el error de tipo I y su potencia. Generalmente, dicho error es ligeramente mayor que el nominal y la potencia menor que la teórica La no-normalidad tiene efecto pequeño en las inferencias sobre las medias pero efectos graves en las inferencias sobre varianza varianzas. s.

󰀹

 

󰁄󰁉󰁓󰁅󰃑󰁏 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁏 󰁅󰁘󰁐󰁅󰁒󰁉󰁍󰁅󰁎󰁔󰁁󰁌 󰁙 󰁃󰁏󰁎󰁔󰁒󰁏󰁌 󰁄󰁅 󰁃󰁁󰁌󰁉󰁄󰁁󰁄󰀮 󰁁󰁐󰁌󰁉󰁃󰁁󰁃󰁉󰁏󰁎󰁅󰁓 󰁅󰁎 󰁂󰁉󰁏󰁃󰁉󰁅󰁎󰁃󰁉󰁁󰁓 󰁅 󰁉󰁎󰁇󰁅󰁎󰁉󰁅󰁒󰃍󰁁 󰀭 󰁍󰁁󰁓󰁔󰁅󰁒 󰁅󰁎 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁁 󰁁󰁐󰁌󰁉󰁃󰁁󰁄󰁁 󰀭 󰁁󰁕󰁔󰁏󰁒󰁁󰀺

󰁃󰁁󰁒󰁍󰁅󰁎 󰁍󰁁󰁒󰃍󰁁 󰁓󰃁󰁎󰁃󰁈󰁅󰁚 󰁃󰁁󰁍󰁐󰁏󰁙

A2. TRABAJO Elaborar un resumen sobre los métodos no paramétricos usuales en el análisis de la varianza: • Contraste de Kruskal-Wallis • Transformación por rangos • Mediciones repetidas Consultar los libros señalados en la guía docente de este curso expuesta en la Página Web del master. 1.- CONTRASTE DE KRUSKAL-WALLIS Cuando no está justificado asumir normalidad, se puede utilizar la metodología no paramétrica. El test de Kruskal-Wallis propone como hipótesis nula que los k tratamientos son iguales, frente a la hipótesis alternativa de que algunas observaciones observacione s son mayores que otras entre los tratamientos. Se puede considerar que este test es adecuado para contrastar la igualdad entre las medias. La prueba de Kruskal-Wallis es una alternativa no paramétrica del análisis de varianza usual.

Procedimiento. ij   de manera creciente y se Se calculan rangos de cada una delalas observaciones  Rij  , donde menor observación ytendría el valor 1. reemplaza  por su rango En caso de empates,  se asigna a todas las observaciones empatadas el valor medio de sus correspondientes rangos. 

Se denota como  Ri .   la suma de los rangos del i-ésimo tratamiento de modo que el estadístico es:

1 



 Ri.   N ( N  + 1) 2  2

∑ S  i 1   ni

 H  =



2

4

=

 

 

Se puede observar que S2 es simplemente la varianza de los rangos, que viene dado por:

 k  n 2  N ( N  + 1) 2  S =  ∑ ∑ Rij −  4  N  − 1  i 1 j 1  1

2

i

 

2

Si no hay empates, entonces S 

=

=

 

=

 N   ( N  + 1)

12

 y el test se simplifica, quedando el

estadístico:  H

=

12  N ( N



2

 Ri.

∑n

+ 1) i =1  

− 3( N  + 1)  

i

Para valores ni  > 5, H se distribuye aproximadamente como una chi cuadrado de k-1 grados de libertad si la hipótesis nula es cierta. Por tanto, si: 2

 H  >  χ k  1,α   se rechaza la hipótesis nula a un nivel α. −

󰀱󰀰

 

󰁄󰁉󰁓󰁅󰃑󰁏 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁏 󰁅󰁘󰁐󰁅󰁒󰁉󰁍󰁅󰁎󰁔󰁁󰁌 󰁙 󰁃󰁏󰁎󰁔󰁒󰁏󰁌 󰁄󰁅 󰁃󰁁󰁌󰁉󰁄󰁁󰁄󰀮 󰁁󰁐󰁌󰁉󰁃󰁁󰁃󰁉󰁏󰁎󰁅󰁓 󰁅󰁎 󰁂󰁉󰁏󰁃󰁉󰁅󰁎󰁃󰁉󰁁󰁓 󰁅 󰁉󰁎󰁇󰁅󰁎󰁉󰁅󰁒󰃍󰁁 󰀭 󰁍󰁁󰁓󰁔󰁅󰁒 󰁅󰁎 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁁 󰁁󰁐󰁌󰁉󰁃󰁁󰁄󰁁 󰀭 󰁁󰁕󰁔󰁏󰁒󰁁󰀺

󰁃󰁁󰁒󰁍󰁅󰁎 󰁍󰁁󰁒󰃍󰁁 󰁓󰃁󰁎󰁃󰁈󰁅󰁚 󰁃󰁁󰁍󰁐󰁏󰁙

2.- TRANSFORMACIÓN POR RANGOS La técnica consiste en aplicar la prueba F a los rangos correspondientes a las observaciones, en lugar de aplicarlos a los datos originales, se obtiene un estadístico que es equivalente al usual de análisis de varianza:  H  / (k  − 1) F 0 =   −





( N 1 H ) / ( N k ) Siendo H el estadístico de Kruskal-Wallis, se observa que cuando H se incrementa o disminuye, F0, también aumenta o disminuye, por lo que la prueba de Kruskal-Wallis es equivalente a aplicar el análisis de varianza común a los rangos. Cuando existe preocupación acerca del supuesto de normalidad o por el efecto de puntos atípicos o valores "absurdos", se recomienda que el análisis de varianza común se realice tanto en los datos originales como en los rangos. Cuando se obtienen resultados similares en ambos procedimientos, probablemente las suposiciones del análisis de varianza se satisfacen razonablemente bien y el análisis estándar resulta adecuado, si existen diferencias entre ambos resultados, se opta por el análisis de rangos, ya que es menos posible que sea distorsionada por una condición de no normalidad o la presencia de observaciones inusuales.

1.- MEDICIONES REPETIDAS En los diseños de investigación con medidas repetidas, denominados también “intrasujetos”, a diferencia de los diseños que se han visto, cada uno de los sujetos o participantes en la investigación es sometido a todos los niveles de las variables independientes. independi entes. Por tanto, cada sujeto tendrá t endrá tantas puntuaciones como niveles tenga la variable independiente del estudio, en el caso de un diseño básico o unifactorial, o como condiciones experimentales se hayan generado, en el caso de un diseño factorial. Es decir, tendremos t endremos más puntuaciones que sujetos participantes en el estudio en cuestión. Cuando nos encontramos ante casos donde la variabilidad entre observaciones es muy alta, ésta variabilidad puede llegar a ser parte del error experimental e incluso incrementar la media de cuadrados del error, dificultando la detección de diferencias reales entre los tratamientos. Para controlar la alta variabilidad entre unidades experimentales usando el diseño de mediciones repetidas, donde cada uno de los tratamientos se aplica a cada unidad experimental. El diseño del modelo es: Y ij =   µ +τ i

+

β i + ε ij  

donde τ i  es el i-ésimo tratamiento y es un parámetro asociado con el j-ésimo sujeto. Se supone que los tratamientos son fijos y que los sujetos empleados corresponden a una muestra aleatoria de una población mayor de sujetos potenciales (efecto aleatorio). Se va a estudiar la no existencia de efectos de tratamientos, el contraste de hipótesis a probar es:

 H 0 : τ 1 = ⋯ = τ k  = 0 al menos unτ i  H 1 : al





󰀱󰀱

 

󰁄󰁉󰁓󰁅󰃑󰁏 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁏 󰁅󰁘󰁐󰁅󰁒󰁉󰁍󰁅󰁎󰁔󰁁󰁌 󰁙 󰁃󰁏󰁎󰁔󰁒󰁏󰁌 󰁄󰁅 󰁃󰁁󰁌󰁉󰁄󰁁󰁄󰀮 󰁁󰁐󰁌󰁉󰁃󰁁󰁃󰁉󰁏󰁎󰁅󰁓 󰁅󰁎 󰁂󰁉󰁏󰁃󰁉󰁅󰁎󰁃󰁉󰁁󰁓 󰁅 󰁉󰁎󰁇󰁅󰁎󰁉󰁅󰁒󰃍󰁁 󰀭 󰁍󰁁󰁓󰁔󰁅󰁒 󰁅󰁎 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁁 󰁁󰁐󰁌󰁉󰁃󰁁󰁄󰁁 󰀭 󰁁󰁕󰁔󰁏󰁒󰁁󰀺

󰁃󰁁󰁒󰁍󰁅󰁎 󰁍󰁁󰁒󰃍󰁁 󰁓󰃁󰁎󰁃󰁈󰁅󰁚 󰁃󰁁󰁍󰁐󰁏󰁙

El estadístico del contraste es: SStrat aammien toto s F 0 = SS error  / ( n − 1)

=

MStrat amient ooss MSerr or

 

 

Si los errores en el modelo están distribuidos normalmente, entonces el estadístico Fo tiene distribución Fk-1,(k-1)(n-1), si la hipótesis nula es verdadera. La hipótesis nula será rechazada si: F0 > F α ,( k  

−1), ( k −1)( n −1)

 

A3. ANÁLISIS DE DATOS Para realizar los ejercicios voy a utilizar el software SPSS.

Comenzamos con un estudio descriptivo de los datos:

󰀱󰀲

 

󰁄󰁉󰁓󰁅󰃑󰁏 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁏 󰁅󰁘󰁐󰁅󰁒󰁉󰁍󰁅󰁎󰁔󰁁󰁌 󰁙 󰁃󰁏󰁎󰁔󰁒󰁏󰁌 󰁄󰁅 󰁃󰁁󰁌󰁉󰁄󰁁󰁄󰀮 󰁁󰁐󰁌󰁉󰁃󰁁󰁃󰁉󰁏󰁎󰁅󰁓 󰁅󰁎 󰁂󰁉󰁏󰁃󰁉󰁅󰁎󰁃󰁉󰁁󰁓 󰁅 󰁉󰁎󰁇󰁅󰁎󰁉󰁅󰁒󰃍󰁁 󰀭 󰁍󰁁󰁓󰁔󰁅󰁒 󰁅󰁎 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁁 󰁁󰁐󰁌󰁉󰁃󰁁󰁄󰁁 󰀭 󰁁󰁕󰁔󰁏󰁒󰁁󰀺

󰁃󰁁󰁒󰁍󰁅󰁎 󰁍󰁁󰁒󰃍󰁁 󰁓󰃁󰁎󰁃󰁈󰁅󰁚 󰁃󰁁󰁍󰁐󰁏󰁙

En un primer momento a simple vista se puede observar que el valor medio de estos grupos es numéricamente distinto, de hecho la media de la dosis 30 tiene un valor medio más del doble de la media de la dosis 15. Por tanto, nuestra hipótesis se centra en comprobar si los niveles de toxicidad hepática es significativamente distinta en los cinco grupos. Para responder a esta hipótesis recurrimos al Análisis de la Varianza de un factor y realizamos el contraste de igualdad de medias. Esto también se puede comprobar comprobar con un gráfico de cajas:

Modelo de efectos fijos:   H 0 : µ1 = ⋯ = µ5 = µ     : ≠ µ j para algún i ≠ j  H  µ 1 i  Aplicando el modelo en SPSS se obtiene la siguiente tabla de ANOVA

Donde:

Inter-grupos: Representa la Suma de cuadrados debida a los tratamientos (SCTr) Intra-grupos: Representa la suma de cuadrados residual (SCR) Total: Representa la suma de cuadrados total (SCT). Si el valor de F es mayor que uno quiere decir que hay un efecto positivo del factor DOSIS. Se observa que el P-valor (Sig.) tiene un valor de 0.000, que es menor que el nivel de significación 0.05. Por lo tanto, hemos comprobado estadísticamente que estos cinco grupos son distintos. Es decir, no se puede rechazar la hipótesis 󰀱󰀳

 

󰁄󰁉󰁓󰁅󰃑󰁏 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁏 󰁅󰁘󰁐󰁅󰁒󰁉󰁍󰁅󰁎󰁔󰁁󰁌 󰁙 󰁃󰁏󰁎󰁔󰁒󰁏󰁌 󰁄󰁅 󰁃󰁁󰁌󰁉󰁄󰁁󰁄󰀮 󰁁󰁐󰁌󰁉󰁃󰁁󰁃󰁉󰁏󰁎󰁅󰁓 󰁅󰁎 󰁂󰁉󰁏󰁃󰁉󰁅󰁎󰁃󰁉󰁁󰁓 󰁅 󰁉󰁎󰁇󰁅󰁎󰁉󰁅󰁒󰃍󰁁 󰀭 󰁍󰁁󰁓󰁔󰁅󰁒 󰁅󰁎 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁁 󰁁󰁐󰁌󰁉󰁃󰁁󰁄󰁁 󰀭 󰁁󰁕󰁔󰁏󰁒󰁁󰀺

󰁃󰁁󰁒󰁍󰁅󰁎 󰁍󰁁󰁒󰃍󰁁 󰁓󰃁󰁎󰁃󰁈󰁅󰁚 󰁃󰁁󰁍󰁐󰁏󰁙

alternativa que dice que al menos dos grupos son diferentes, pero ¿Cuáles son esos grupos? ¿Los cinco grupos son distintos o sólo alguno de ellos? Pregunta que resolveremos mediante los contrastes de comparaciones múltiples que tienen las siguientes salidas en SPSS:

Esta salida nos muestra los intervalos de confianza simultáneos construidos por el método de Tukey. En la tabla se muestra un resumen de las comparaciones de cada tratamiento con los restantes. Es decir, aparecen comparadas dos a dos las cinco medias de los tratamientos. En el primer bloque de la tabla se muestran comparadas la media de la dosis 15 con la media de las otras cuatro dosis. En los siguientes bloques se muestran comparadas las restantes medias entre sí. En la columna Diferencias de medias (I-J) se muestran las diferencias entre las medias que se comparan. En la columna Sig. aparecen los p-valores de los contrastes, que permiten conocer si la diferencia entre cada pareja de medias es significativa al nivel de significación considerado (en este caso 0.05) y la última columna proporciona los intervalos de confianza al 95% para cada diferencia. Así por ejemplo, si comparamos el nivel de toxicidad de la dosis 15 con la 20, tenemos una diferencia entre ambas medias de -5,6, un error típico de 1,796 (igual en todas las comparaciones), que es un error típico para la diferencia de estas medias, un P-valor (Sig.) de 0.039 significativo 󰀱󰀴

 

󰁄󰁉󰁓󰁅󰃑󰁏 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁏 󰁅󰁘󰁐󰁅󰁒󰁉󰁍󰁅󰁎󰁔󰁁󰁌 󰁙 󰁃󰁏󰁎󰁔󰁒󰁏󰁌 󰁄󰁅 󰁃󰁁󰁌󰁉󰁄󰁁󰁄󰀮 󰁁󰁐󰁌󰁉󰁃󰁁󰁃󰁉󰁏󰁎󰁅󰁓 󰁅󰁎 󰁂󰁉󰁏󰁃󰁉󰁅󰁎󰁃󰁉󰁁󰁓 󰁅 󰁉󰁎󰁇󰁅󰁎󰁉󰁅󰁒󰃍󰁁 󰀭 󰁍󰁁󰁓󰁔󰁅󰁒 󰁅󰁎 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁁 󰁁󰁐󰁌󰁉󰁃󰁁󰁄󰁁 󰀭 󰁁󰁕󰁔󰁏󰁒󰁁󰀺

󰁃󰁁󰁒󰁍󰁅󰁎 󰁍󰁁󰁒󰃍󰁁 󰁓󰃁󰁎󰁃󰁈󰁅󰁚 󰁃󰁁󰁍󰁐󰁏󰁙

con lo cual los niveles de toxicidad difiere significativamente en la dosis 15 a la 20 y un intervalo de confianza con límites negativos. Podemos concluir que la media de la dosis 15 difiere significativamente con el resto de dosis salvo con la 35, la dosis 20 con todas salvo con la 25 y 35, y la 25 con la 30.

Idoneidad del modelo: •

 NORMALIDAD: Para estudiar la normalidad en SPSS, realizamos el contraste de Kolmogorov-Smirnov y el contraste de Shapiro-Wilk obteniéndose los siguientes resultados:

No todos los p-valores son mayores de 0.05 nivel de significación pero si consideramos un nivel de significación de 0.01 podemos aceptar que en todos los casos las muestras de las concentraciones se distribuyen de forma normal en cada dosis. Para analizar la hipótesis de normalidad de los residuos, se debe comenzar salvando los residuos, una vez hecho esto en SPSS, realizamos el estudio de la normalidad, para ello podemos realizar de forma analítica el contraste de Kolmogorov-Smirnov o gráficamente el gráfico Q-Q de normalidad, normalidad, obteniéndose lo siguiente:

󰀱󰀵

 

󰁄󰁉󰁓󰁅󰃑󰁏 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁏 󰁅󰁘󰁐󰁅󰁒󰁉󰁍󰁅󰁎󰁔󰁁󰁌 󰁙 󰁃󰁏󰁎󰁔󰁒󰁏󰁌 󰁄󰁅 󰁃󰁁󰁌󰁉󰁄󰁁󰁄󰀮 󰁁󰁐󰁌󰁉󰁃󰁁󰁃󰁉󰁏󰁎󰁅󰁓 󰁅󰁎 󰁂󰁉󰁏󰁃󰁉󰁅󰁎󰁃󰁉󰁁󰁓 󰁅 󰁉󰁎󰁇󰁅󰁎󰁉󰁅󰁒󰃍󰁁 󰀭 󰁍󰁁󰁓󰁔󰁅󰁒 󰁅󰁎 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁁 󰁁󰁐󰁌󰁉󰁃󰁁󰁄󰁁 󰀭 󰁁󰁕󰁔󰁏󰁒󰁁󰀺

󰁃󰁁󰁒󰁍󰁅󰁎 󰁍󰁁󰁒󰃍󰁁 󰁓󰃁󰁎󰁃󰁈󰁅󰁚 󰁃󰁁󰁍󰁐󰁏󰁙

Podemos apreciar en este gráfico que los puntos aparecen próximos a la línea diagonal. Esta gráfica no muestra una desviación marcada de la normalidad 󰀮 

El valor del p-valor es mayor que el nivel de significación 0.05, no rechazándose la hipótesis de normalidad. normalidad. •

 INDEPENDENCIA:

Para comprobar que se satisface el supuesto de independencia entre los residuos analizamos el gráfico de los residuos frente a los valores pronosticados o predichos por el modelo. El empleo de este gráfico es útil puesto que la presencia de alguna tendencia en el mismo puede ser indicio de una violación de dicha hipótesis.

En esta figura, interpretamos el gráfico que aparece en la fila 3 columna 2, es decir aquel gráfico que se representan los residuos en el eje de ordenadas y los valores pronosticados en el eje de abscisas. No observamos, en dicho gráfico, ninguna

󰀱󰀶

 

󰁄󰁉󰁓󰁅󰃑󰁏 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁏 󰁅󰁘󰁐󰁅󰁒󰁉󰁍󰁅󰁎󰁔󰁁󰁌 󰁙 󰁃󰁏󰁎󰁔󰁒󰁏󰁌 󰁄󰁅 󰁃󰁁󰁌󰁉󰁄󰁁󰁄󰀮 󰁁󰁐󰁌󰁉󰁃󰁁󰁃󰁉󰁏󰁎󰁅󰁓 󰁅󰁎 󰁂󰁉󰁏󰁃󰁉󰁅󰁎󰁃󰁉󰁁󰁓 󰁅 󰁉󰁎󰁇󰁅󰁎󰁉󰁅󰁒󰃍󰁁 󰀭 󰁍󰁁󰁓󰁔󰁅󰁒 󰁅󰁎 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁁 󰁁󰁐󰁌󰁉󰁃󰁁󰁄󰁁 󰀭 󰁁󰁕󰁔󰁏󰁒󰁁󰀺

󰁃󰁁󰁒󰁍󰁅󰁎 󰁍󰁁󰁒󰃍󰁁 󰁓󰃁󰁎󰁃󰁈󰁅󰁚 󰁃󰁁󰁍󰁐󰁏󰁙

tendencia sistemática que haga sospechar del incumplimiento de la suposición de independencia. Luego podemos suponer su independencia.

 HOMOCEDASTICIDAD:



Para comprobar que se satisface el supuesto de homocedasticidad, realizamos el test de Levene mediante SPSS:

El p-valor es 0.637 por lo tanto no se puede rechazar la hipótesis de homogeneidad de las varianzas y se concluye que los cinco grupos tienen varianzas homogéneas.

Modelo de efectos aleatorios: 2 =

 H 0 :  σ τ  2  H 1 : σ τ 

0  >0

Aplicando el modelo en SPSS se obtiene la siguiente tabla:

Esta tabla muestra los resultados del contraste planteado. El valor del estadístico de contraste es igual a 14,757 que deja a la derecha un p-valor de 0.000, luego, no podemos afirmar la existencia de alguna variabilidad entre los niveles de toxicidad de las diferentes dosis. En el modelo de efectos aleatorios no se necesitan llevar a cabo más contrastes incluso aunque la hipótesis nula sea rechazada. Es decir, en el caso de rechazar H0 no hay que realizar comparaciones múltiples para comprobar que medias son distintas, ya que el propósito del experimento es hacer un planteamiento general relativo a las poblaciones de las que se extraen las muestras. La tabla siguiente muestra la media cuadrática esperada, de esta tabla se deducen las expresiones de las esperanzas de los cuadrados medios del factor y del error:

󰀱󰀷

 

󰁄󰁉󰁓󰁅󰃑󰁏 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁏 󰁅󰁘󰁐󰁅󰁒󰁉󰁍󰁅󰁎󰁔󰁁󰁌 󰁙 󰁃󰁏󰁎󰁔󰁒󰁏󰁌 󰁄󰁅 󰁃󰁁󰁌󰁉󰁄󰁁󰁄󰀮 󰁁󰁐󰁌󰁉󰁃󰁁󰁃󰁉󰁏󰁎󰁅󰁓 󰁅󰁎 󰁂󰁉󰁏󰁃󰁉󰁅󰁎󰁃󰁉󰁁󰁓 󰁅 󰁉󰁎󰁇󰁅󰁎󰁉󰁅󰁒󰃍󰁁 󰀭 󰁍󰁁󰁓󰁔󰁅󰁒 󰁅󰁎 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁁 󰁁󰁐󰁌󰁉󰁃󰁁󰁄󰁁 󰀭 󰁁󰁕󰁔󰁏󰁒󰁁󰀺

󰁃󰁁󰁒󰁍󰁅󰁎 󰁍󰁁󰁒󰃍󰁁 󰁓󰃁󰁎󰁃󰁈󰁅󰁚 󰁃󰁁󰁍󰁐󰁏󰁙

Por lo tanto, la varianza total (30,236) se descompone en una parte atribuible a la diferencia entre las dosis (22,176) y otra procedente de la variabilidad existente dentro de ellos (8,06). Comprobamos que en dicha varianza tiene mayor peso la variación dentro de las dosis, en porcentaje un 73.34 % frente a la variación entre fabricantes, que representa el 26.66 % del total. Luego: Después de la realización de este estudio, podemos concluir que el análisis de efectos fijos parece ser la aproximación más apropiada para el análisis de varianza de los datos. Hemos rechazamos la hipótesis de igualdad de medias entre los tratamientos, por tanto, el tratamiento con diferentes dosis de paracetamol parece generar diferencias en el nivel medio de toxicidad hepática.

󰀱󰀸

 

󰁄󰁉󰁓󰁅󰃑󰁏 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁏 󰁅󰁘󰁐󰁅󰁒󰁉󰁍󰁅󰁎󰁔󰁁󰁌 󰁙 󰁃󰁏󰁎󰁔󰁒󰁏󰁌 󰁄󰁅 󰁃󰁁󰁌󰁉󰁄󰁁󰁄󰀮 󰁁󰁐󰁌󰁉󰁃󰁁󰁃󰁉󰁏󰁎󰁅󰁓 󰁅󰁎 󰁂󰁉󰁏󰁃󰁉󰁅󰁎󰁃󰁉󰁁󰁓 󰁅 󰁉󰁎󰁇󰁅󰁎󰁉󰁅󰁒󰃍󰁁 󰀭 󰁍󰁁󰁓󰁔󰁅󰁒 󰁅󰁎 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁁 󰁁󰁐󰁌󰁉󰁃󰁁󰁄󰁁 󰀭 󰁁󰁕󰁔󰁏󰁒󰁁󰀺

󰁃󰁁󰁒󰁍󰁅󰁎 󰁍󰁁󰁒󰃍󰁁 󰁓󰃁󰁎󰁃󰁈󰁅󰁚 󰁃󰁁󰁍󰁐󰁏󰁙

Comenzamos con un estudio descriptivo de los datos:

En un primer momento a simple vista se puede observar que el valor medio de estos grupos es numéricamente similar. Esto también se puede comprobar con un gráfico g ráfico de cajas:

󰀱󰀹

 

󰁄󰁉󰁓󰁅󰃑󰁏 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁏 󰁅󰁘󰁐󰁅󰁒󰁉󰁍󰁅󰁎󰁔󰁁󰁌 󰁙 󰁃󰁏󰁎󰁔󰁒󰁏󰁌 󰁄󰁅 󰁃󰁁󰁌󰁉󰁄󰁁󰁄󰀮 󰁁󰁐󰁌󰁉󰁃󰁁󰁃󰁉󰁏󰁎󰁅󰁓 󰁅󰁎 󰁂󰁉󰁏󰁃󰁉󰁅󰁎󰁃󰁉󰁁󰁓 󰁅 󰁉󰁎󰁇󰁅󰁎󰁉󰁅󰁒󰃍󰁁 󰀭 󰁍󰁁󰁓󰁔󰁅󰁒 󰁅󰁎 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁁 󰁁󰁐󰁌󰁉󰁃󰁁󰁄󰁁 󰀭 󰁁󰁕󰁔󰁏󰁒󰁁󰀺

󰁃󰁁󰁒󰁍󰁅󰁎 󰁍󰁁󰁒󰃍󰁁 󰁓󰃁󰁎󰁃󰁈󰁅󰁚 󰁃󰁁󰁍󰁐󰁏󰁙

Modelo de efectos fijos:   H 0 : µ1 = ⋯ = µ3 = µ     ≠ µ j para algún i ≠ j :  H  µ 1 i  Aplicando el modelo en SPSS se obtiene la siguiente tabla de ANOVA

Donde:

Inter-grupos: Representa la Suma de cuadrados debida a los tratamientos (SCTr) Intra-grupos: Representa la suma de cuadrados residual (SCR) Total: Representa la suma de cuadrados total (SCT). Si el valor F es mayor uno(Sig.) quiere decir hay efecto del que factor DOSIS. Se de observa que el que P-valor tiene unque valor deun 0.826, quepositivo es mayor el nivel de significación 0.05. Por lo tanto, no rechazamos la hipótesis nula de igualdad de medias.

Realizamos un contrastes de comparaciones múltiples que tienen las siguientes salidas en SPSS:

Esta salida nos muestra los intervalos de confianza simultáneos construidos por el método de Tukey. En la tabla se muestra un resumen de las comparaciones de cada tratamiento con los restantes. Es decir, aparecen comparadas dos a dos los tres procedimientos. Todos los P-valor (Sig.) son mayores de 0.05 con lo cual la calidad del producto no difiere significativamente significativamente entre los los procedimientos procedimientos A, B y C. Podemos concluir que la media de los procedimientos no difieren de uno a otro.

󰀲󰀰

 

󰁄󰁉󰁓󰁅󰃑󰁏 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁏 󰁅󰁘󰁐󰁅󰁒󰁉󰁍󰁅󰁎󰁔󰁁󰁌 󰁙 󰁃󰁏󰁎󰁔󰁒󰁏󰁌 󰁄󰁅 󰁃󰁁󰁌󰁉󰁄󰁁󰁄󰀮 󰁁󰁐󰁌󰁉󰁃󰁁󰁃󰁉󰁏󰁎󰁅󰁓 󰁅󰁎 󰁂󰁉󰁏󰁃󰁉󰁅󰁎󰁃󰁉󰁁󰁓 󰁅 󰁉󰁎󰁇󰁅󰁎󰁉󰁅󰁒󰃍󰁁 󰀭 󰁍󰁁󰁓󰁔󰁅󰁒 󰁅󰁎 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁁 󰁁󰁐󰁌󰁉󰁃󰁁󰁄󰁁 󰀭 󰁁󰁕󰁔󰁏󰁒󰁁󰀺

󰁃󰁁󰁒󰁍󰁅󰁎 󰁍󰁁󰁒󰃍󰁁 󰁓󰃁󰁎󰁃󰁈󰁅󰁚 󰁃󰁁󰁍󰁐󰁏󰁙

Idoneidad del modelo:  NORMALIDAD:



Para estudiar la normalidad en SPSS, realizamos el contraste de Kolmogorov-Smirnov y el contraste de Shapiro-Wilk obteniéndose los siguientes resultados:

Todos los p-valores son mayores de 0.05 nivel de significación luego podemos aceptar que en todos los casos las muestras de las concentraciones se distribuyen de forma normal. Para analizar la hipótesis de normalidad de los residuos, se debe comenzar salvando los residuos, una vez hecho esto en SPSS, realizamos el estudio de la normalidad, para ello podemos realizar de forma analítica el contraste de Kolmogorov-Smirnov o gráficamente el gráfico Q-Q de normalidad, normalidad, obteniéndose lo siguiente:

Podemos apreciar en este gráfico que los puntos aparecen próximos a la línea diagonal. Esta gráfica no muestra una desviación marcada de la normalidad 󰀮 

󰀲󰀱

 

󰁄󰁉󰁓󰁅󰃑󰁏 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁏 󰁅󰁘󰁐󰁅󰁒󰁉󰁍󰁅󰁎󰁔󰁁󰁌 󰁙 󰁃󰁏󰁎󰁔󰁒󰁏󰁌 󰁄󰁅 󰁃󰁁󰁌󰁉󰁄󰁁󰁄󰀮 󰁁󰁐󰁌󰁉󰁃󰁁󰁃󰁉󰁏󰁎󰁅󰁓 󰁅󰁎 󰁂󰁉󰁏󰁃󰁉󰁅󰁎󰁃󰁉󰁁󰁓 󰁅 󰁉󰁎󰁇󰁅󰁎󰁉󰁅󰁒󰃍󰁁 󰀭 󰁍󰁁󰁓󰁔󰁅󰁒 󰁅󰁎 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁁 󰁁󰁐󰁌󰁉󰁃󰁁󰁄󰁁 󰀭 󰁁󰁕󰁔󰁏󰁒󰁁󰀺

󰁃󰁁󰁒󰁍󰁅󰁎 󰁍󰁁󰁒󰃍󰁁 󰁓󰃁󰁎󰁃󰁈󰁅󰁚 󰁃󰁁󰁍󰁐󰁏󰁙

El valor del p-valor es mayor que el nivel de significación 0.05, no rechazándose la hipótesis de normalidad. normalidad.

 INDEPENDENCIA:



Para comprobar que se satisface el supuesto de independencia entre los residuos analizamos el gráfico de los residuos frente a los valores pronosticados o predichos por el modelo. El empleo de este gráfico es útil puesto que la presencia de alguna tendencia en el mismo puede ser indicio de una violación de dicha hipótesis.

En esta figura, interpretamos el gráfico que aparece en la fila 3 columna 2, es decir aquel gráfico que se representan los residuos en el eje de ordenadas y los valores pronosticados en el eje de abscisas. No observamos, en dicho gráfico, ninguna tendencia sistemática que haga sospechar del incumplimiento de la suposición de independencia. Luego podemos suponer su independencia.

󰀲󰀲

 

󰁄󰁉󰁓󰁅󰃑󰁏 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁏 󰁅󰁘󰁐󰁅󰁒󰁉󰁍󰁅󰁎󰁔󰁁󰁌 󰁙 󰁃󰁏󰁎󰁔󰁒󰁏󰁌 󰁄󰁅 󰁃󰁁󰁌󰁉󰁄󰁁󰁄󰀮 󰁁󰁐󰁌󰁉󰁃󰁁󰁃󰁉󰁏󰁎󰁅󰁓 󰁅󰁎 󰁂󰁉󰁏󰁃󰁉󰁅󰁎󰁃󰁉󰁁󰁓 󰁅 󰁉󰁎󰁇󰁅󰁎󰁉󰁅󰁒󰃍󰁁 󰀭 󰁍󰁁󰁓󰁔󰁅󰁒 󰁅󰁎 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁁 󰁁󰁐󰁌󰁉󰁃󰁁󰁄󰁁 󰀭 󰁁󰁕󰁔󰁏󰁒󰁁󰀺

󰁃󰁁󰁒󰁍󰁅󰁎 󰁍󰁁󰁒󰃍󰁁 󰁓󰃁󰁎󰁃󰁈󰁅󰁚 󰁃󰁁󰁍󰁐󰁏󰁙

 HOMOCEDASTICIDAD:



Para comprobar que se satisface el supuesto de homocedasticidad, realizamos el test de Levene mediante SPSS:

El p-valor es 0.6 por lo tanto no se puede rechazar la hipótesis de homogeneidad de las varianzas y se concluye que los tres grupos ttienen ienen varianzas varianzas homogéneas.

Comenzamos con un estudio descriptivo de los datos:

En un primer momento a simple vista se puede observar pequeñas diferencias en los valores medios, se necesita de un estudio estadístico que decida. Esto también se puede comprobar con un gráfico de cajas:

󰀲󰀳

 

󰁄󰁉󰁓󰁅󰃑󰁏 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁏 󰁅󰁘󰁐󰁅󰁒󰁉󰁍󰁅󰁎󰁔󰁁󰁌 󰁙 󰁃󰁏󰁎󰁔󰁒󰁏󰁌 󰁄󰁅 󰁃󰁁󰁌󰁉󰁄󰁁󰁄󰀮 󰁁󰁐󰁌󰁉󰁃󰁁󰁃󰁉󰁏󰁎󰁅󰁓 󰁅󰁎 󰁂󰁉󰁏󰁃󰁉󰁅󰁎󰁃󰁉󰁁󰁓 󰁅 󰁉󰁎󰁇󰁅󰁎󰁉󰁅󰁒󰃍󰁁 󰀭 󰁍󰁁󰁓󰁔󰁅󰁒 󰁅󰁎 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁁 󰁁󰁐󰁌󰁉󰁃󰁁󰁄󰁁 󰀭 󰁁󰁕󰁔󰁏󰁒󰁁󰀺

󰁃󰁁󰁒󰁍󰁅󰁎 󰁍󰁁󰁒󰃍󰁁 󰁓󰃁󰁎󰁃󰁈󰁅󰁚 󰁃󰁁󰁍󰁐󰁏󰁙

Modelo de efectos fijos:   H 0 : µ1 = ⋯ = µ3 = µ     ≠ ≠ 1 i j  H : µ µ  para algún i j Aplicando el modelo en SPSS se obtiene la siguiente tabla de ANOVA

Donde:

Inter-grupos: Representa la Suma de cuadrados debida a los tratamientos (SCTr) Intra-grupos: Representa la suma de cuadrados residual (SCR) Total: Representa la suma de cuadrados total (SCT). Si el valor de F es mayor que uno quiere decir que hay un efecto positivo del factor DOSIS. Se observa que el P-valor (Sig.) tiene un valor de 0.471, que es mayor que el nivel de significación 0.05. Por lo tanto, no rechazamos la hipótesis nula de igualdad de medias.

Realizamos un contrastes de comparaciones múltiples que tienen las siguientes salidas en SPSS:

󰀲󰀴

 

󰁄󰁉󰁓󰁅󰃑󰁏 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁏 󰁅󰁘󰁐󰁅󰁒󰁉󰁍󰁅󰁎󰁔󰁁󰁌 󰁙 󰁃󰁏󰁎󰁔󰁒󰁏󰁌 󰁄󰁅 󰁃󰁁󰁌󰁉󰁄󰁁󰁄󰀮 󰁁󰁐󰁌󰁉󰁃󰁁󰁃󰁉󰁏󰁎󰁅󰁓 󰁅󰁎 󰁂󰁉󰁏󰁃󰁉󰁅󰁎󰁃󰁉󰁁󰁓 󰁅 󰁉󰁎󰁇󰁅󰁎󰁉󰁅󰁒󰃍󰁁 󰀭 󰁍󰁁󰁓󰁔󰁅󰁒 󰁅󰁎 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁁 󰁁󰁐󰁌󰁉󰁃󰁁󰁄󰁁 󰀭 󰁁󰁕󰁔󰁏󰁒󰁁󰀺

󰁃󰁁󰁒󰁍󰁅󰁎 󰁍󰁁󰁒󰃍󰁁 󰁓󰃁󰁎󰁃󰁈󰁅󰁚 󰁃󰁁󰁍󰁐󰁏󰁙

Esta salida nos muestra los intervalos de confianza simultáneos construidos por el método de Tukey. En la tabla se muestra un resumen de las comparaciones de cada tratamiento con los restantes. Es decir, aparecen comparadas dos a dos los tres procedimientos. Todos los P-valor (Sig.) son mayores de 0.05 con lo cual la calidad del producto no difiere significativamente significativamente entre los los procedimientos procedimientos A, B y C. Podemos concluir que la media de los procedimientos no difieren de uno a otro.

Idoneidad del modelo:  NORMALIDAD:



Para estudiar la normalidad en SPSS, realizamos el contraste de Kolmogorov-Smirnov y el contraste de Shapiro-Wilk obteniéndose los siguientes resultados:

Al tener un estacio muestral muy pequeño es normal estos resultados, aun asi podemos aceptar normalidad a un nivel de significacion de 0.01. Para analizar la hipótesis de normalidad de los residuos, se debe comenzar salvando los residuos, una vez hecho esto en SPSS, realizamos el estudio de la normalidad, para ello podemos realizar de forma analítica el contraste de Kolmogorov-Smirnov o gráficamente el gráfico Q-Q de normalidad, normalidad, obteniéndose lo siguiente:

󰀲󰀵

 

󰁄󰁉󰁓󰁅󰃑󰁏 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁏 󰁅󰁘󰁐󰁅󰁒󰁉󰁍󰁅󰁎󰁔󰁁󰁌 󰁙 󰁃󰁏󰁎󰁔󰁒󰁏󰁌 󰁄󰁅 󰁃󰁁󰁌󰁉󰁄󰁁󰁄󰀮 󰁁󰁐󰁌󰁉󰁃󰁁󰁃󰁉󰁏󰁎󰁅󰁓 󰁅󰁎 󰁂󰁉󰁏󰁃󰁉󰁅󰁎󰁃󰁉󰁁󰁓 󰁅 󰁉󰁎󰁇󰁅󰁎󰁉󰁅󰁒󰃍󰁁 󰀭 󰁍󰁁󰁓󰁔󰁅󰁒 󰁅󰁎 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁁 󰁁󰁐󰁌󰁉󰁃󰁁󰁄󰁁 󰀭 󰁁󰁕󰁔󰁏󰁒󰁁󰀺

󰁃󰁁󰁒󰁍󰁅󰁎 󰁍󰁁󰁒󰃍󰁁 󰁓󰃁󰁎󰁃󰁈󰁅󰁚 󰁃󰁁󰁍󰁐󰁏󰁙

Podemos apreciar en este gráfico que los puntos aparecen próximos a la línea diagonal. Esta gráfica no muestra una desviación marcada de la normalidad 󰀮 

El valor del p-valor es mayor que el nivel de significación 0.05, no rechazándose la hipótesis de normalidad. normalidad.

 INDEPENDENCIA:



Para comprobar que se satisface el supuesto de independencia entre los residuos analizamos el gráfico de los residuos frente a los valores pronosticados o predichos por el modelo. El empleo de este gráfico es útil puesto que la presencia de alguna tendencia en el mismo puede ser indicio de una violación de dicha hipótesis.

󰀲󰀶

 

󰁄󰁉󰁓󰁅󰃑󰁏 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁏 󰁅󰁘󰁐󰁅󰁒󰁉󰁍󰁅󰁎󰁔󰁁󰁌 󰁙 󰁃󰁏󰁎󰁔󰁒󰁏󰁌 󰁄󰁅 󰁃󰁁󰁌󰁉󰁄󰁁󰁄󰀮 󰁁󰁐󰁌󰁉󰁃󰁁󰁃󰁉󰁏󰁎󰁅󰁓 󰁅󰁎 󰁂󰁉󰁏󰁃󰁉󰁅󰁎󰁃󰁉󰁁󰁓 󰁅 󰁉󰁎󰁇󰁅󰁎󰁉󰁅󰁒󰃍󰁁 󰀭 󰁍󰁁󰁓󰁔󰁅󰁒 󰁅󰁎 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁁 󰁁󰁐󰁌󰁉󰁃󰁁󰁄󰁁 󰀭 󰁁󰁕󰁔󰁏󰁒󰁁󰀺

󰁃󰁁󰁒󰁍󰁅󰁎 󰁍󰁁󰁒󰃍󰁁 󰁓󰃁󰁎󰁃󰁈󰁅󰁚 󰁃󰁁󰁍󰁐󰁏󰁙

En esta figura, interpretamos el gráfico que aparece en la fila 3 columna 2, es decir aquel gráfico que se representan los residuos en el eje de ordenadas y los valores pronosticados en el eje de abscisas. No observamos, en dicho gráfico, ninguna tendencia sistemática que haga sospechar del incumplimiento de la suposición de independencia. Luego podemos suponer su independencia.

 HOMOCEDASTICIDAD:



Para comprobar que se satisface el supuesto de homocedasticidad, realizamos el test de Levene mediante SPSS:

El p-valor es 0.013 por lo tanto no se puede rechazar la hipótesis de homogeneidad de las varianzas y se concluye que los tres grupos ttienen ienen varianzas varianzas homogéneas.

󰀲󰀷

 

󰁄󰁉󰁓󰁅󰃑󰁏 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁏 󰁅󰁘󰁐󰁅󰁒󰁉󰁍󰁅󰁎󰁔󰁁󰁌 󰁙 󰁃󰁏󰁎󰁔󰁒󰁏󰁌 󰁄󰁅 󰁃󰁁󰁌󰁉󰁄󰁁󰁄󰀮 󰁁󰁐󰁌󰁉󰁃󰁁󰁃󰁉󰁏󰁎󰁅󰁓 󰁅󰁎 󰁂󰁉󰁏󰁃󰁉󰁅󰁎󰁃󰁉󰁁󰁓 󰁅 󰁉󰁎󰁇󰁅󰁎󰁉󰁅󰁒󰃍󰁁 󰀭 󰁍󰁁󰁓󰁔󰁅󰁒 󰁅󰁎 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁁 󰁁󰁐󰁌󰁉󰁃󰁁󰁄󰁁 󰀭 󰁁󰁕󰁔󰁏󰁒󰁁󰀺

󰁃󰁁󰁒󰁍󰁅󰁎 󰁍󰁁󰁒󰃍󰁁 󰁓󰃁󰁎󰁃󰁈󰁅󰁚 󰁃󰁁󰁍󰁐󰁏󰁙

Comenzamos con un estudio descriptivo de los datos:

En un primer momento a simple vista se puede observar que el valor medio de estos grupos es numéricamente diferente. Esto también se puede comprobar con un gráfico de cajas:

󰀲󰀸

 

󰁄󰁉󰁓󰁅󰃑󰁏 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁏 󰁅󰁘󰁐󰁅󰁒󰁉󰁍󰁅󰁎󰁔󰁁󰁌 󰁙 󰁃󰁏󰁎󰁔󰁒󰁏󰁌 󰁄󰁅 󰁃󰁁󰁌󰁉󰁄󰁁󰁄󰀮 󰁁󰁐󰁌󰁉󰁃󰁁󰁃󰁉󰁏󰁎󰁅󰁓 󰁅󰁎 󰁂󰁉󰁏󰁃󰁉󰁅󰁎󰁃󰁉󰁁󰁓 󰁅 󰁉󰁎󰁇󰁅󰁎󰁉󰁅󰁒󰃍󰁁 󰀭 󰁍󰁁󰁓󰁔󰁅󰁒 󰁅󰁎 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁁 󰁁󰁐󰁌󰁉󰁃󰁁󰁄󰁁 󰀭 󰁁󰁕󰁔󰁏󰁒󰁁󰀺

󰁃󰁁󰁒󰁍󰁅󰁎 󰁍󰁁󰁒󰃍󰁁 󰁓󰃁󰁎󰁃󰁈󰁅󰁚 󰁃󰁁󰁍󰁐󰁏󰁙

Modelo de efectos fijos:   H 0 : µ1 = ⋯ = µ4 = µ     ≠ ≠ : p a r a a l g ú n  H  µ µ  i j j  1 i Aplicando el modelo en SPSS se obtiene la siguiente tabla de ANOVA

Donde:

Inter-grupos: Representa la Suma de cuadrados debida a los tratamientos (SCTr) Intra-grupos: Representa la suma de cuadrados residual (SCR) Total: Representa la suma de cuadrados total (SCT). Si el valor de F es mayor que uno quiere decir que hay un efecto positivo del factor DOSIS. Se observa que el P-valor (Sig.) tiene un valor de 0.218, que es mayor que el nivel de significación 0.05. Por lo tanto, no rechazamos la hipótesis nula de igualdad de medias.

Realizamos un contrastes de comparaciones múltiples que tienen las siguientes salidas en SPSS:

Esta salida nos muestra los intervalos de confianza simultáneos construidos por el método de Tukey. En la tabla se muestra un resumen de las comparaciones de cada tratamiento con los restantes. Es decir, aparecen comparadas dos a dos los tres 󰀲󰀹

 

󰁄󰁉󰁓󰁅󰃑󰁏 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁏 󰁅󰁘󰁐󰁅󰁒󰁉󰁍󰁅󰁎󰁔󰁁󰁌 󰁙 󰁃󰁏󰁎󰁔󰁒󰁏󰁌 󰁄󰁅 󰁃󰁁󰁌󰁉󰁄󰁁󰁄󰀮 󰁁󰁐󰁌󰁉󰁃󰁁󰁃󰁉󰁏󰁎󰁅󰁓 󰁅󰁎 󰁂󰁉󰁏󰁃󰁉󰁅󰁎󰁃󰁉󰁁󰁓 󰁅 󰁉󰁎󰁇󰁅󰁎󰁉󰁅󰁒󰃍󰁁 󰀭 󰁍󰁁󰁓󰁔󰁅󰁒 󰁅󰁎 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁁 󰁁󰁐󰁌󰁉󰁃󰁁󰁄󰁁 󰀭 󰁁󰁕󰁔󰁏󰁒󰁁󰀺

󰁃󰁁󰁒󰁍󰁅󰁎 󰁍󰁁󰁒󰃍󰁁 󰁓󰃁󰁎󰁃󰁈󰁅󰁚 󰁃󰁁󰁍󰁐󰁏󰁙

procedimientos. Todos los P-valor (Sig.) son mayores de 0.05 con lo cual la calidad del producto no difiere significativamente significativamente entre las las empresas. Podemos concluir que la media de los procedimientos no difieren de uno a otro.

Idoneidad del modelo: •

 NORMALIDAD: Para estudiar la normalidad en SPSS, realizamos el contraste de Kolmogorov-Smirnov y el contraste de Shapiro-Wilk obteniéndose los siguientes resultados:

Todos los p-valores son mayores de 0.05 nivel de significación luego podemos aceptar que en todos los casos las muestras de las concentraciones se distribuyen de forma normal. Para analizar la hipótesis de normalidad de los residuos, se debe comenzar salvando los residuos, una vez hecho esto en SPSS, realizamos el estudio de la normalidad, para ello podemos realizar de forma analítica el contraste de Kolmogorov-Smirnov o gráficamente el gráfico Q-Q de normalidad, normalidad, obteniéndose lo siguiente:

󰀳󰀰

 

󰁄󰁉󰁓󰁅󰃑󰁏 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁏 󰁅󰁘󰁐󰁅󰁒󰁉󰁍󰁅󰁎󰁔󰁁󰁌 󰁙 󰁃󰁏󰁎󰁔󰁒󰁏󰁌 󰁄󰁅 󰁃󰁁󰁌󰁉󰁄󰁁󰁄󰀮 󰁁󰁐󰁌󰁉󰁃󰁁󰁃󰁉󰁏󰁎󰁅󰁓 󰁅󰁎 󰁂󰁉󰁏󰁃󰁉󰁅󰁎󰁃󰁉󰁁󰁓 󰁅 󰁉󰁎󰁇󰁅󰁎󰁉󰁅󰁒󰃍󰁁 󰀭 󰁍󰁁󰁓󰁔󰁅󰁒 󰁅󰁎 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁁 󰁁󰁐󰁌󰁉󰁃󰁁󰁄󰁁 󰀭 󰁁󰁕󰁔󰁏󰁒󰁁󰀺

󰁃󰁁󰁒󰁍󰁅󰁎 󰁍󰁁󰁒󰃍󰁁 󰁓󰃁󰁎󰁃󰁈󰁅󰁚 󰁃󰁁󰁍󰁐󰁏󰁙

Podemos apreciar en este gráfico que los puntos aparecen próximos a la línea diagonal. Esta gráfica no muestra una desviación marcada de la normalidad 󰀮 

El valor del p-valor es mayor que el nivel de significación 0.05, no rechazándose la hipótesis de normalidad. normalidad.

 INDEPENDENCIA:



Para comprobar que se satisface el supuesto de independencia entre los residuos analizamos el gráfico de los residuos frente a los valores pronosticados o predichos por el modelo. El empleo de este gráfico es útil puesto que la presencia de alguna tendencia en el mismo puede ser indicio de una violación de dicha hipótesis.

En esta figura, interpretamos el gráfico que aparece en la fila 3 columna 2, es decir aquel gráfico que se representan los residuos en el eje de ordenadas y los valores pronosticados en el eje de abscisas. No observamos, en dicho gráfico, ninguna

󰀳󰀱

 

󰁄󰁉󰁓󰁅󰃑󰁏 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁏 󰁅󰁘󰁐󰁅󰁒󰁉󰁍󰁅󰁎󰁔󰁁󰁌 󰁙 󰁃󰁏󰁎󰁔󰁒󰁏󰁌 󰁄󰁅 󰁃󰁁󰁌󰁉󰁄󰁁󰁄󰀮 󰁁󰁐󰁌󰁉󰁃󰁁󰁃󰁉󰁏󰁎󰁅󰁓 󰁅󰁎 󰁂󰁉󰁏󰁃󰁉󰁅󰁎󰁃󰁉󰁁󰁓 󰁅 󰁉󰁎󰁇󰁅󰁎󰁉󰁅󰁒󰃍󰁁 󰀭 󰁍󰁁󰁓󰁔󰁅󰁒 󰁅󰁎 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁁 󰁁󰁐󰁌󰁉󰁃󰁁󰁄󰁁 󰀭 󰁁󰁕󰁔󰁏󰁒󰁁󰀺

󰁃󰁁󰁒󰁍󰁅󰁎 󰁍󰁁󰁒󰃍󰁁 󰁓󰃁󰁎󰁃󰁈󰁅󰁚 󰁃󰁁󰁍󰁐󰁏󰁙

tendencia sistemática que haga sospechar del incumplimiento de la suposición de independencia. Luego podemos suponer su independencia.

 HOMOCEDASTICIDAD:



Para comprobar que se satisface el supuesto de homocedasticidad, realizamos el test de Levene mediante SPSS:

El p-valor es 0.292 por lo tanto no se puede rechazar la hipótesis de homogeneidad de las varianzas y se concluye que los tres grupos ttienen ienen varianzas varianzas homogéneas.

Comenzamos con un estudio descriptivo de los datos:

󰀳󰀲

 

󰁄󰁉󰁓󰁅󰃑󰁏 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁏 󰁅󰁘󰁐󰁅󰁒󰁉󰁍󰁅󰁎󰁔󰁁󰁌 󰁙 󰁃󰁏󰁎󰁔󰁒󰁏󰁌 󰁄󰁅 󰁃󰁁󰁌󰁉󰁄󰁁󰁄󰀮 󰁁󰁐󰁌󰁉󰁃󰁁󰁃󰁉󰁏󰁎󰁅󰁓 󰁅󰁎 󰁂󰁉󰁏󰁃󰁉󰁅󰁎󰁃󰁉󰁁󰁓 󰁅 󰁉󰁎󰁇󰁅󰁎󰁉󰁅󰁒󰃍󰁁 󰀭 󰁍󰁁󰁓󰁔󰁅󰁒 󰁅󰁎 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁁 󰁁󰁐󰁌󰁉󰁃󰁁󰁄󰁁 󰀭 󰁁󰁕󰁔󰁏󰁒󰁁󰀺

󰁃󰁁󰁒󰁍󰁅󰁎 󰁍󰁁󰁒󰃍󰁁 󰁓󰃁󰁎󰁃󰁈󰁅󰁚 󰁃󰁁󰁍󰁐󰁏󰁙

En un primer momento a simple vista se puede observar que el valor medio de estos grupos es numéricamente diferente. Esto también se puede comprobar con un gráfico de cajas:

Modelo de efectos fijos:   H 0 : µ1 = ⋯ = µ4 = µ   H : µ µ  para algún i 1

i ≠

j



j

 

 Aplicando el modelo en SPSS se obtiene la siguiente tabla de ANOVA

Donde:

Inter-grupos: Representa la Suma de cuadrados debida a los tratamientos (SCTr) Intra-grupos: Representa la suma de cuadrados residual (SCR) Total: Representa la suma de cuadrados total (SCT).

󰀳󰀳

 

󰁄󰁉󰁓󰁅󰃑󰁏 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁏 󰁅󰁘󰁐󰁅󰁒󰁉󰁍󰁅󰁎󰁔󰁁󰁌 󰁙 󰁃󰁏󰁎󰁔󰁒󰁏󰁌 󰁄󰁅 󰁃󰁁󰁌󰁉󰁄󰁁󰁄󰀮 󰁁󰁐󰁌󰁉󰁃󰁁󰁃󰁉󰁏󰁎󰁅󰁓 󰁅󰁎 󰁂󰁉󰁏󰁃󰁉󰁅󰁎󰁃󰁉󰁁󰁓 󰁅 󰁉󰁎󰁇󰁅󰁎󰁉󰁅󰁒󰃍󰁁 󰀭 󰁍󰁁󰁓󰁔󰁅󰁒 󰁅󰁎 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁁 󰁁󰁐󰁌󰁉󰁃󰁁󰁄󰁁 󰀭 󰁁󰁕󰁔󰁏󰁒󰁁󰀺

󰁃󰁁󰁒󰁍󰁅󰁎 󰁍󰁁󰁒󰃍󰁁 󰁓󰃁󰁎󰁃󰁈󰁅󰁚 󰁃󰁁󰁍󰁐󰁏󰁙

Si el valor de F es mayor que uno quiere decir que hay un efecto positivo del factor DOSIS. Se observa que el P-valor (Sig.) tiene un valor de 0.000, que es menor que el nivel de significación 0.05. Por lo tanto, hemos comprobado estadísticamente que estos cuatro grupos son distintos. Es decir, no se puede rechazar la hipótesis alternativa que dice que al menos dos grupos son diferentes, pero ¿Cuáles son esos grupos? Pregunta que resolveremos mediante los contrastes de comparaciones

múltiples que tienen las siguientes salidas en SPSS :

En la tabla se muestra un resumen de las comparaciones de cada tratamiento con los restantes. Es decir, aparecen comparadas dos a dos los 4 telares. Podemos concluir: - El primer telar presenta diferencias de medias significativas con los telares tres y cuatro. - El segundo telar no presenta diferencias significativas significativas con el resto de telares. t elares. - El tercer t ercer telar presenta diferencias significativas significativas con el primer y cuarto telar. - Consecuentemente, el cuarto telar presenta diferencis significativas con el primer y tercer telar.

Idoneidad del modelo:  NORMALIDAD:



Para estudiar la normalidad en SPSS, realizamos el contraste de Kolmogorov-Smirnov y el contraste de Shapiro-Wilk obteniéndose los siguientes resultados:

󰀳󰀴

 

󰁄󰁉󰁓󰁅󰃑󰁏 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁏 󰁅󰁘󰁐󰁅󰁒󰁉󰁍󰁅󰁎󰁔󰁁󰁌 󰁙 󰁃󰁏󰁎󰁔󰁒󰁏󰁌 󰁄󰁅 󰁃󰁁󰁌󰁉󰁄󰁁󰁄󰀮 󰁁󰁐󰁌󰁉󰁃󰁁󰁃󰁉󰁏󰁎󰁅󰁓 󰁅󰁎 󰁂󰁉󰁏󰁃󰁉󰁅󰁎󰁃󰁉󰁁󰁓 󰁅 󰁉󰁎󰁇󰁅󰁎󰁉󰁅󰁒󰃍󰁁 󰀭 󰁍󰁁󰁓󰁔󰁅󰁒 󰁅󰁎 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁁 󰁁󰁐󰁌󰁉󰁃󰁁󰁄󰁁 󰀭 󰁁󰁕󰁔󰁏󰁒󰁁󰀺

󰁃󰁁󰁒󰁍󰁅󰁎 󰁍󰁁󰁒󰃍󰁁 󰁓󰃁󰁎󰁃󰁈󰁅󰁚 󰁃󰁁󰁍󰁐󰁏󰁙

Todos los p-valores son mayores de 0.05 nivel de significación luego podemos aceptar que en todos los casos las muestras de las concentraciones se distribuyen de forma normal. Para analizar la hipótesis de normalidad de los residuos, se debe comenzar salvando los residuos, una vez hecho esto en SPSS, realizamos el estudio de la normalidad, para ello podemos realizar de forma analítica el contraste de Kolmogorov-Smirnov o gráficamente el gráfico Q-Q de normalidad, normalidad, obteniéndose lo siguiente:

Podemos apreciar en este gráfico que los puntos aparecen próximos a la línea diagonal. Esta gráfica no muestra una desviación marcada de la normalidad 󰀮 

󰀳󰀵

 

󰁄󰁉󰁓󰁅󰃑󰁏 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁏 󰁅󰁘󰁐󰁅󰁒󰁉󰁍󰁅󰁎󰁔󰁁󰁌 󰁙 󰁃󰁏󰁎󰁔󰁒󰁏󰁌 󰁄󰁅 󰁃󰁁󰁌󰁉󰁄󰁁󰁄󰀮 󰁁󰁐󰁌󰁉󰁃󰁁󰁃󰁉󰁏󰁎󰁅󰁓 󰁅󰁎 󰁂󰁉󰁏󰁃󰁉󰁅󰁎󰁃󰁉󰁁󰁓 󰁅 󰁉󰁎󰁇󰁅󰁎󰁉󰁅󰁒󰃍󰁁 󰀭 󰁍󰁁󰁓󰁔󰁅󰁒 󰁅󰁎 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁁 󰁁󰁐󰁌󰁉󰁃󰁁󰁄󰁁 󰀭 󰁁󰁕󰁔󰁏󰁒󰁁󰀺

󰁃󰁁󰁒󰁍󰁅󰁎 󰁍󰁁󰁒󰃍󰁁 󰁓󰃁󰁎󰁃󰁈󰁅󰁚 󰁃󰁁󰁍󰁐󰁏󰁙

El valor del p-valor es mayor que el nivel de significación 0.05, no rechazándose la hipótesis de normalidad. normalidad.

 INDEPENDENCIA:



Para comprobar que se satisface el supuesto de independencia entre los residuos analizamos el gráfico de los residuos frente a los valores pronosticados o predichos por el modelo. El empleo de este gráfico es útil puesto que la presencia de alguna tendencia en el mismo puede ser indicio de una violación de dicha hipótesis.

En esta figura, interpretamos el gráfico que aparece en la fila 3 columna 2, es decir aquel gráfico que se representan los residuos en el eje de ordenadas y los valores pronosticados en el eje de abscisas. No observamos, en dicho gráfico, ninguna tendencia sistemática que haga sospechar del incumplimiento de la suposición de independencia. Luego podemos suponer su independencia.

󰀳󰀶

 

󰁄󰁉󰁓󰁅󰃑󰁏 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁏 󰁅󰁘󰁐󰁅󰁒󰁉󰁍󰁅󰁎󰁔󰁁󰁌 󰁙 󰁃󰁏󰁎󰁔󰁒󰁏󰁌 󰁄󰁅 󰁃󰁁󰁌󰁉󰁄󰁁󰁄󰀮 󰁁󰁐󰁌󰁉󰁃󰁁󰁃󰁉󰁏󰁎󰁅󰁓 󰁅󰁎 󰁂󰁉󰁏󰁃󰁉󰁅󰁎󰁃󰁉󰁁󰁓 󰁅 󰁉󰁎󰁇󰁅󰁎󰁉󰁅󰁒󰃍󰁁 󰀭 󰁍󰁁󰁓󰁔󰁅󰁒 󰁅󰁎 󰁅󰁓󰁔󰁁󰁄󰃍󰁓󰁔󰁉󰁃󰁁 󰁁󰁐󰁌󰁉󰁃󰁁󰁄󰁁 󰀭 󰁁󰁕󰁔󰁏󰁒󰁁󰀺

󰁃󰁁󰁒󰁍󰁅󰁎 󰁍󰁁󰁒󰃍󰁁 󰁓󰃁󰁎󰁃󰁈󰁅󰁚 󰁃󰁁󰁍󰁐󰁏󰁙

 HOMOCEDASTICIDAD:



Para comprobar que se satisface el supuesto de homocedasticidad, realizamos el test de Levene mediante SPSS:

El p-valor es 0.303 por lo tanto no se puede rechazar la hipótesis de homogeneidad de las varianzas y se concluye que los tres grupos ttienen ienen varianzas varianzas homogéneas.

󰀳󰀷

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF