Download 1-Simulacion, Algunos Metodos y Aplicaciones...
´ ´ SIMULACION, ALGUNOS METODOS Y APLICACIONES Hugo Carrasco *
Resumen
La palabra palabra simulaci´ on on, actualmente, es de uso corriente y cotidiano; su significado es, seg´ un un la Real Academia, representar una cosa, fingiendo o imitando lo que no es . En estad´ e stad´ıstica, ıstica, simular es esencialme ese ncialmente nte una t´ecnica ecnica de muestreo mues treo controlada, controla da, que es usada en conjunto con un modelo, para obtener respuestas aproximadas a preguntas respecto resp ecto de complicados problemas probabil´ probabil´ısticos. Esto es muy usado cuando las t´ecnicas ecnicas anal´ anal´ıticas y num´ ericas ericas no son capaces de dar respuestas. Cuando los modelos tienen una formulaci´on on matem´atica, atica, pero las predicciones anal´ anal´ıticas no son posibles, entonces es frecuente que simular se transforme en una poderosa herramienta, no solo para describir el modelo en si mismo, sino para investigar como puede cambiar el comportamiento ante cambios de los par´ametros ametros del modelo. Analizaremos el m´ Analizaremos etodo etodo Monte Monte Carlo, desarrollado desarrollado por John von Neumann Neumann y S. M. Ulam, durante el proyecto Manhattan A partir del m´etodo etodo Monte Carlo desarrollaremos algunos algor´ algor´ıtmos particulares para variables aleatorias no uniformes, primeramente, y dada la importancia, traba jaremos con variables aleatorias con distribuci´on on Normal, luego, nos concentraremos en algunas otras variables absolutamente continuas (por ejemplo Exponencial, Gamma, Chi-cuadrado), y por ultimo, u ´ ltimo, veremos algunas a lgunas t´ecnicas ecnicas para algunas variables aleatorias aleator ias discretas discretas (por ejemplo ejemplo Bernoulli, Bernoulli, Binom Binomial, ial, Poisson). Poisson). Para casos m´as as generales generales desarrollarem desarrollaremos os algunos de los m´ etodos etodos de transformatransformaci´on on de variables ariables uniformes. uniformes. Por ultimo u ´ ltimo analizaremos analizaremos algunas implementa implementaciones ciones inform´ aticas aticas en R y las potencialidade tencia lidadess de d e estos e stos m´etodos. etod os.
on, Palabras Palabr as clave clave: simulaci´
*
m´ etodo etodo Monte Mont e C Carlo, arlo, variabl variables es aleatorias
Departamento Departa mento de M´etodos etod os Matem´aaticos-Cuantitativos, ticos-Cuantitativos, email:
[email protected]
1
1.
M´ etodo etodo de Mon Monte te Carlo Carlo
El m´eetodo todo de Monte Carlo o simulaci´ oon n cruda, es la generaci´oon n de n´ u umeros meros aleatorios u observaciones de una variable aleatoria uniforme, en general lo haremos en el intervalo [0,1]. Estos n´u umeros meros son seleccionados de manera que cada uno de ellos tenga igual probabilidad de salir, sin tener en cuenta cuantas veces ya haya salido. Se pueden generar de diversas maneras, utilizando tablas, bolilleros, computadoras, etc.. En libros, relativamente antiguos, se hace referencia a tablas de n´u umeros meros aleatorios, que eran usadas en selecci´oon n de muestras o para establecer dise˜ n nos os experimentales; actualmente es muy raro ver a un Estad Estad´´ıstico usando una tabla impresa de n´u umeros meros aleatori aleatorios, os, ocasionalmente ocasionalm ente tendr´ a acceso a alguna de esas tablas por medio de su computador, aunque en general su computador es usado para generar n´ umeros aleatorios . Las computadoras no pueden generar n´ u umeros meros aleatorios, y esto no es conveniente para conectar la computadora con eventos aleatorios externos. Para la mayor parte de las aplicaciones estad estad´´ısticas, esto no es un problema ya que existen muchos m´eetodos todos de generaci´oon n de n´ u umeros meros pseudo-aleatorios, cuyas muestras se comportan como si fueran aleatorios. Existen infinidad de eestos stos m´eetodos, todos, en ge general neral aplican f´oormulas rmulas recurrentes recurrentes bas´ andose andose en un valor inicia inicial, l, est estos os m´eetodos to dos n noo ser ser´´aan n tratados en el presente trabajo, solo supondremos que tenemos la posibilidad de obtener los n´ u umeros meros aleatori aleatorios. os. En general, no se hacen distin distinciones ciones precisas respecto a los t´erminos erminos simulaci´ on, Monte Carlo y remuestreo.
2.
M´ etodos etodos particulares para variables variables aleatorias aleatorias no uniformes
En este cap cap´´ıtulo trat tratar´ ar´eemos mos algun algunos os m´eetodos to dos de simulaci simulaci´´oon n para algunas distribuciones particulares, para nada es exhaustivo, pues solo veremos los que nos resultaron de mayor inte inter´ r´eess y simp si mpat´ at´ıa. ıa .
2.1.. 2.1
Variabl ariables es aleat aleatori orias as con con distri distribuc buci´ i´ on on Normal
Dada la importancia para la estad estad´´ıstica de las varialb arialbles les aleatori aleatorias as con distrib distribuci´ uci´ oon n normal es que haremos un desarrol desarrollo lo de varias t´eecnicas cnicas para la simulaci´ simulaci´ oon n de este tipo de variables aleatorias. Sabemos que si X ∼ N ( N (µ, σ 2 ) podemos decir que X X = σZ + µ, µ , donde Z ∼ N (0 N (0,, 1). Por esta simple relaci´oon n es suficiente ver m´eetodos todos para generar variables aleatorias aleator ias normales est´aandar, ndar, N (0 N (0,, 1)
2
2.1.1.
Usando teorema central del ll´ ´ımite
Usando teorema central del l´ımite frec frecuentemente uentemente encontramos la distr distribuci´ ibuci´oon n normal, y esto es la base de mucha de la teor teor´´ıa estad estad´´ıstica; la idea ser´a usar estos resultados para simular variables aleatorias normales [3] [4]. Por ejem ejemplo plo,, podemos sim simula ularr n v variable ariabless aleatori aleatorias as independi independientes, entes, con distri distribuci´ buci´ oon n n
U [0 U [0,, 1], U 1 , U 2 , · · · , U n, y sea S S =
U i , por el teorema centra centrall del l´ımite, cuando
i=1
n → ∞, la distribuci´oon n de de S tiende tiende a una normal. En la pr´actica actica podemos establecer que para valores finitos de n, se tiene que S S tiene una distribuci´on on aproximadamente normal. El problema que surge es ¿cu´al al ser´ıa ıa un n m´ınimo desd desdee el cual p podamos odamos decir que la aproximaci´ oon n es aceptable? Si n = 2 es inaceptable, pues S S tiene tiene distribuci´on on triangular. Desde Desde n = 3 en adelante tiene una agradable forma de campana, el resultado para el valor n = 12 es de una S S tiene aproximaci´oon n aceptable, y como E (U i ) = 1/2 y V ar ar((U i ) = 1/12, tenemos que S S tiene distribuci´oon n aproximadamente aproximadamente N (6, (6, 1), de donde donde Z = S − 6 tendr´a distribuci´on on N N (0 (0,, 1). Una implementaci´on on en R de este m´etodo etodo para generar generar m observaciones de Z de Z es: norm tcl ← function(m) z ← rep(0,m) for(i in 1:m) { u ← runif(12); z[i] ← sum(u)-6; } return(z) Clara mente este m´eetodo, Claramente to do, adem´aass de ser aproximado, es un tanto lento, ya que para cada simulaci´ oon n de de N necesitaremos N necesitaremos simular doce uniformes.
2.1.2.
M´ e etodos todos de transformaciones polares
En estos m´eetodos todos utilizaremos notaci´oon n en coordenadas polares para llegar a los resultados requeridos. Cualquier punto del plano, de R2 , se puede escribir en sus coordenadas cartesianas (x, (x, y ) o en sus coordenadas polares (r, (r, θ), donde r =
x2 + y2
θ = arc arc tg
y x
En forma an´aaloga loga se puede transformar un punto en coordenadas polares ((r, r, θ), en sus coordenadas cartesianas (x, (x, y), como como x = r = r cos θ , y = r = r sen θ (ver la figura 1)
3
Figura 1 : Transformaci´oon n a coordenadas polares
M´ e etodo to do direc directo to Sean X X y Y Y variables aleatorias independientes con distribuci´oon n N ((0, 0, 1). El par (X, Y Y )) define un punto en el plano. La densidad bivariada de normales independientes se obtiene ccomo omo el producto de densida densidades, des, as as´´ı, tenemos 1 f X,Y e X,Y (x, y ) = 2π
−
x2 y2 2
ahora escrito en sus coordenadas polares X = R cosΘ Y Y = R senΘ podemos po demos ha hacer cer el cambio de variable, a tr trav´ av´ eess d del el c´aalculo lculo del jacobiano J
1
−
=
cos θ −r sen θ sen θ r cos θ
1 re ⇒ f R (r, θ) = R,Θ ,Θ (r, 2π
−
r2 2
= r
= f Θ ( (θθ) f R ( (rr )
f Θ
f R
As´ı ten As´ tenemo emoss que R y Θ son variables aleatorias independientes, Θ es es U [0 U [0,, 2π] y R tiene una distribuci´oon n exponencial de par´aametro metro 11//2 (esto u ultimo ´ ltimo se puede obtener 1 ( T /2) 2 f´acilmente acilmente haciendo un cambio de variable T = R , obteniendo que f T ) T (t) = 2 e . −
M´ e etodo to do de Box-M Box-Mull uller er Sean U 1 y U 2 variables aleatorias independientes con distribuci´on Sean U on uniforme en [0, [0, 1], entonces Box y Muller (1958) [3] [4] mostraron que X = Y Y =
)cos(2πU −2L (U 1 )cos(2 πU 2 ) )sen(2πU πU 2) −2L (U 1 )sen(2
4
son variable ariabless aleatori aleatorias as independi independientes entes con distri distribuci´ buci´ oon n N (0 N (0,, 1). Para demostrar esto debemos partir de que f UU ,U (u (u1 , u2 ) = 1
2
por otra parte: parte: u1 = e = e
J
1
−
−
1 2
(x
=
2
+y 2 )
1 si 0 ≤ u1 ≤ 1, 0 ≤ u2 ≤ 1 0 en ot otro ro ca caso so
, u2 =
∂u 1 ∂x
∂u 1 ∂y
∂u 2 ∂x
∂u 2 ∂y
y 1 arctg x 2π
=
−xu1 −yu 1 y 2π (x2 +y2 )
x 2π (x2 +y 2 ) −
x2 u1 y 2 u1 u1 1 = + = = e 2π (x2 + y 2 ) 2π (x2 + y2 ) 2π 2π
−
1 2
(x
=
2
+y 2 )
con lo que queda probado. Entonces para simular dos variables aleatorias independientes independientes N (0 N (0,, 1), alcanza con generar dos variables aleatorias independientes U independientes U [0 [0,, 1] y hacer la transformaci´oon n correspondiente. Una implementaci´on on en R de este m´eetodo todo para generar generar m observaciones de de X e Y es: norm BM ← function(m) { z ← matrix(data=0,nr=m,nc=2) for(i in 1:m) { u ← runif(2); z[i,1] ← sqrt(-2*log(u[1]))*cos(2*pi*u[2]) z[i,2] ← sqrt(-2*log(u[1]))*sin(2*pi*u[2]) } return(z) }
M´ e etodo to do de Mars Marsagl aglia ia La idea de este m´eetodo, todo, propuesto por Marsagli Marsaglia, a, Bray y MacLauren (1964) [3] [4], es nuevamente a partir de dos variables uniformes, ahora en [ −1, 1], seg´ u un n los valores simulados de la unifor uniforme me se seguir´a adelante o se rechazar´a. a. Sea U ∼ U [0 Sea U [0,, 1], enton entonces ces V V = 2U − 1 ser´a uniforme en [−1, 1]. Consideremos V 1 y V 2 dos variables aleatorias independientes uniformes en [−1, 1], Consideremos entonces queda definido un punto en el plano de coordenadas (V ( V 1 , V 2 ), con coorde ˜ nadas polares (R, Θ), que se obtienen como: ˜ 2 = V 2 + V 2 , tg Θ = V 2 R 2 1 V 1 5
Cada punto generado aleatoriam aleatoriamente ente estar´a dentro del cuadrado de lado 2, el punto ser´a rechazado si cae fuera del c´ırculo de radio 1, inscripto dentro del cuadrado (ver la figura 2).
Figura 2 : Aceptaci´oon n y rechazo en el m´eetodo todo de Marsaglia ˜ y Θ son independientes, y Es clar claro, o, desp despu´ u´ es es de todo lo que hem hemos os vis visto, to, que R ˜ ∼ U [0 ˜ Θ) adem´aass que Θ ∼ U U [0 [0,, 2π] y que R U [0,, 1]. Tambi´ een n es claro que la pareja (R, son los requerid requeridos os por el m´eetodo todo de Box Box-Mulle -Muller, r, y podemos simpl simplement ementee escribi escribirr que: sen θ =
V 2 = V 2 V 12 + V 22 ˜ R
−
1 2
cos θ =
V 1 = V 1 V 12 + V 22 ˜ R
−
1 2
As´ı que X e Y Y son variables aleatorias aleatorias N (0 N (0,, 1) independi independientes entes 1 2
X = (−2L (V 12 + V 22 )) V 2 ( (V V 12 + V 22 ) 1
Y Y =
(−2L (V 12 +
V 22 )) 2
V 1 ( (V V 12 +
V 22 )
−
−
1 2 1 2
Ahora si llamamos W llamamos W = V 12 + V 22 , podemos resumir en X = V 2 Y Y = V 1
2L(W W )) W
−
2L(W W )) W
−
1 2
1 2
Claramente la proporci´ Claramente oon n de rechazos es igual a la porci´oon n de ´aarea rea del cuadrado que no est´a dentro del c´ırculo respecto al ´aarea rea total del cuadrado, y esto es 1 − π/ π/4. 4. Una implementaci´on on en R de este m´eetodo todo para generar generar m observaciones de de X e Y es: 6
norm Mars ← function(m) { z ← matrix(data=0,nr=m,nc=2) for(i in 1:m) { u ← runif(2); v ← u v[1] ← 2*u[1] -1 v[2] ← 2*u[2] -1 w ← v[1]2 +v[2]2 if (w (w p [4].
Variables aleatori aleatorias as con distri distribuci´ buci´ o on n Binomial Binomi al Una variable aleatoria aleatoria X ∼ Bin Bin((n, p) , puede escribirse como n
X =
Bi
i=1
donde B1 , B2 , · · · , Bn son variables aleatorias Ber Ber(( p) p) independientes. De esta forma y utilizando el punto anterior se puede simular simular X , simulando simulando n variables aleatorias U [0 U [0,, 1] independientes [4].
Variables aleatori aleatorias as con distri distribuci´ buci´ o on n Poisson Las variables aleatorias con distribuci´oon n Poisson de par´aametro metro λ pueden ser generadas como consecuencia del siguiente resultado [4]: Supongamos que que E i , con con i ≥ 1 es una sucesi´oon nd dee variables aleatorias independientes, con distribuci´on on exponencial y funci´oon n de densidad f E E i (x) =
si x ≥ 0 λe λx si 0 si si x < 0 −
k
Sea S 0 = 0 y S k =
E i para para k ≥ 1, como ya vimos S k ∼ Γ( Γ(k, k, λ). Entonces la
i=a
variable aleatoria aleatoria K , definida implicitamente por las inecuaciones S 1 < S K ≤ K + +1 1 tiene distri distribuci´ buci´ oon n Poisson con par´aametro λ metro λ.. Entonces para simular simular K , debemos simular simular S k , hasta alcanzar o rebasar el valor 1, recordamos que k k 1 1 S k = − L (U i ) = − L U i λ i=1 λ i=1
donde las U las U 1 , U 2 , · · · , U k son variables aleatorias uniformes en [0, [0, 1] e independientes. La comparaci´oon n S k > 1, la podemos escribir como 1 − L λ
k
U i
i=1
k
> 1 ⇔ L
U i
i=1
9
k
< −λ ⇔
i=1
U i < e
λ
−
3.
M´ etodos etodos generales de tran transformaci´ sformaci´ o on n de variables uniformes
Existen una gr gran an variedad de m´eetodos todos para obtener observaciones simuladas de distintas distribuciones a partir de transformaciones deu variables uniformes, describiremos a continuaci´oon n un par de ellas, que tienen en com´ un n una descripci´ oon n simple y aplicabilidad directa.
3.1.. 3.1
Transfo ransforma rmaci´ ci´ o on n en probabilidad
La Transformacci´oon n en probabilidad [1] es la utilizaci´oon n de la preimagen de la funci´oon n de distri distribuci´ buci´ oon n de una variables aleatorias cualquiera. Luego a partir de observaciones de una variable con distribuci´oon n uniforme en [0 [0,, 1], obtendremos, mediante las preimagenes, observaciones de la variable que deseamos.
3.1.1. 3.1. 1.
Cas Caso o Abs Absolu olutam tamen ente te Co Cont ntin inuo uo
Dada una variable aleatoria X aleatoria X con con funci´oon n de distribuci´oon n F X si F X X , si X es continua, y definimos la variable aleatoria aleatoria U como U como resultado de la transformaci´oon n U = F X ), tenemos X (X ), que la variable variable U U tiene tiene distribuci´on on uniforme en el intervalo [0, [0, 1] [2]. [2]. Claramente U es Claramente n de una funci´oon n con una U es una variable aleatoria, por ser la composici´oon variable aleatoria, tambi´ een n por esto el rrecorrido ecorrido de de U es U es el intervalo [0, [0, 1], por otra parte la funci´oon n de distribuci´oon n de de U la U la obtenemos de
(X ( u) = P (U ( U ≤ u) = P (F ( F X ( X ) ≤ u) = P F X 1 (F X X )))) ≤ F X 1 (u) = F UU (u X ( X (X
= P X ≤
F X 1 −
−
−
1 (u) = F X X F X (u) = u −
De esta forma partiendo de valores de una uniforme en [0, [0 , 1], obtenemos valores de una variable absolutamente continua cualquiera, solo conociendo su funci´oon nd dee dist distribuci´ ribuci´oon. n. (ver figura 3)
Figura 3 : Transformaci´oon n en probabilidad, caso absolutamente continuo 10
3.1.2. 3.1. 2.
Cas Caso o Dis Discre creto to ((rec recorr orrido ido fi finit nito) o)
Si X X es una variable aleatoria discreta (de recorrid recorridoo finito), tambi´ een n podemos usar el m´eetodo todo [3], claro est´a que no pasar´a por la obtenci´oon n de la inversa de la funci´oon n de distribuci´on, on, ya que no existe. Supongamos que la variable tiene por recorrido Rec((X ) = {x1 , x2 , x3 , · · · , xn }, con x1 < x2 < x3 < · · · < xn Rec y que su funci´oon n de cua cuant nt´´ıa es pX (x (x) =
( X = x) P (X x ) si x ∈ Rec Rec((X ) 0 en otro caso
Con funci´oon n de distribuci´oon n
F X (x) = X (x
pX ( (x x)
xi ∈ Rec Rec((X ) xi ≤ x Para la aplicaci´oon nd del el m´eetodo, to do, prime primero ro oobten btenemos emos u u la la observaci´oon n de la variable aleatoria U , U , con distribuci´on on uniforme en [0, [0, 1], entonces, seg´ u un n la distribuci´on, on, diremos que la preimagen es es x, si si x satisface
F X X x
−
< u ≤ F X (x x) X (
Esta u ultima ´ltima relaci´oon n hace que el valor encontado pertenezca al al Rec Rec((X ) (ver figura 4).
Figura 4 : Transformaci´oon n en probabilidad, caso discreto
3.2.
M´ etodo etodo de Aceptaci´ on on y Rechazo
Supongamos que tenemos una variable aleatoria X X con funci´oon n de densidad f X X (x), y supongamos que la funci´on on es distinta de cero solo en un intervalo finito [3] [4], supongamos 11
[α, β ], ], entonces es f´aacil cil construir un rect´aangulo ngulo con base en dicho intervalo y altura igual al m´aaximo ximo de la funci´oon n de densidad, supongamos supongamos δ . Ahora usando dos variables uniformes en [0, [0, 1] e independientes, U independientes, U 1 y y U U 2 , podemos obtener puntos al azar en el rect´aangulo, ngulo, a partir de sus coordenadas cartesianas (α ( α+( +(β β −αU 1), δU 2). Los puntos que caen por encima de f de f X X (x) son rechazados, mientras que para los que caen por debajo, sus abscisas abscisas α + (β ( β − α)U 1 , se toman como una realizaci´oon n de de X X (ver (ver figura 5).
Figura 5 : M´eetodo todo de aceptaci´oon n y rechazo Como el ´aarea rea del rect´aangulo ngulo es es δ δ (β − α), y el area ´area debajo de la curva es 1, la probabilidad 1 , y esta es grande, cuando δ es es muy peque˜n no, o, de de aceptaci´oon n de un punto es δ (β − α) igual manera si si δ es es grande el m´eetodo todo es p poco oco eficien eficiente te y no se sugiere usar. Una forma alternativa del m´eetodo todo que soluciona este problema, y tambi´ een n la limitaci´oon n de que el rango de la variable aleatoria sea finito se describe a conti continuaci nuaci´´oon. n. Consideremos una funci´oon n de desidad hW (x), con el mismo rango de f X X (x), pero para la cual sea relativamente m´aass f´aacil cil simular, sea W W una variable aleatoria con densidad hW (x), y sea sea Y Y una una variable aleatoria con densidad condicionada a a W W = x, x , uniforme en [0, [0, g (x)], donde donde g (x) = k · hW (x), con con k > 1, llamado factor de separaci´oon. n. Ahora simulamos la variable variable W W ,, obtenemos la observaci´on on x, ahora simulamos simulamos Y Y ,, que ser´a U · g (x), donde U donde U es es una variable aleatoria independiente uniforme en [0, [0, 1], aceptaremos la observaci´oon n X = x como una realizaci´oon n de la variable aleatoria con densidad f X X (x) si y solo si si Y < f X X (x) (ver figura 6).
12
Figura 6 : M´eetodo todo de aceptaci´oon n y rechazo mejorado En el siguiente ejemplo vemos como se puede elegir k, el factor se separaci´oon. n. Sea X una Sea una variable aleatoria con funci´oon n de densidad 2
2 − x2 e π
f X X (x) =
0
y sea
g (x) = k · e
si si x ≥ 0 en otro caso
x
−
para x ≥ 0
Un camino para elegir k es conside considerar rar la condici condici´´oon n de que las funcion funciones es tengan alg´ u un n punto de contacto π 2 x x = e x ⇒ k· k·e x = e 2 π −
2
−
2
⇒ x2 − 2 x + 2 L k ·
π 2
2
−
2
=0
Para que esta ecuaci´oon n tenga una sola ra´ ra´ız debe ser π π = 1 ⇒ k2 · = e 2L k · 2 2
2e y el punto de contacto se da en x = 1, que es el punto de inflecci´oon n π de la densidad (ver figura 7).
de donde donde k =
13
Figura 7 : Ej Ejemplo emplo del m´etodo etodo de aceptaci´oon n y rechazo mejorado
3.2.1.
M´ e etodo todo de Aceptaci´ o on n y Rechazo para variables aleatorias discretas
Hay varias formas fo rmas p para ara q que ue el m´eetodo to do de acep aceptaci´ taci´oon n y rechazo rechazo pueda ser usado para distribuciones discretas [3]. Una de las ventajas de estos m´eetodos todos es que pueden ser f´aacilmente cilmente adaptables a cambios en la distribuci´oon. n. Consideremos Conside remos la variable aleatoria aleatoria X s con recorrido Rec((X s ) = {x1, x2, x3, · · · , xn }, con x1 < x2 < x3 < · · · < xn Rec tal que su funci´oon n de cua cuant nt´´ıa es psi = P = P (X ( X s = x i ) =
asi as1 + as2 + · · · + asn
para i = 1, · · · , n
n
Si
asi = 1, el numerador numerador asi es la probabilidad probabilidad psi , la l a cu cuant´ ant´ııaa de de xi .
i=1
n
Supongamos que existe un a un ai tal que a que ai ≤ asi , y y b b > 0 tal que ∗
con s s = = 1, 2, . . .. .. asi ≥ b con
∗
i=1
asi Sea a = m´aax Sea x ai , y sea sea P si , para para i = 1, · · · , n. si = a Generamos u Generamos u desde desde una distribuci´oon n uniforme en [0 [0,, 1], y sea i sea i = = [n · u] (es la parte entera de de k k · u) y r = i = i − n · u; si si r ≤ P si entonces i es aceptada como una realizaci´on on de X de X s , de si entonces otra forma es rechazada. ∗
∗
∗
14
4.
Algu Alguna nass co conc nclu lusi sion ones es
En las secciones 2 y 3 hicimos una aproximaci´oon n respecto de algunos de los m´eetodos todos de simulaci´ on, on, y analizamos algunas implementaciones en R . Vimos que en general llevar a la programaci´oon n las diferentes rutinas no es un proceso de gran complejidad. Las implementaciones siempre fueron para la obtenci´oon n de de m observaciones independientes de la variable aleatoria en cuesti´oon, n, pensando en la construcci´oon n de la funci´oon n de distribuci´oon n emp´´ırica de la variable aleatoria. Esto toma may emp mayor or importancia importancia cuando no conocemos totalmente la distribuci´on on de la o las variables aleatorias implicadas en un problema de estudio, estu dio, all´ all´ı, la pos posibilida ibilidad d de ´eexito xito de la implem implementaci´ entaci´oon n estar´a en tener una buena aproximaci´oon n al problema a travez del modelo matem´aatico tico que explica la din´amica amica entre sus distintos componentes.
15
Referencias [1] Catedra de Estad Estad´´ıstica I, Probabilid Probabilidad, ad, fundamentos fundam entos de teor´ teor´ıa , Facultad de Ciencias Econ´ oomicas micas y de Administraci´oon, n, 1992. [2] Gibbons Jean Dic Dickinson kinson,, Nonparametric statistical inference , pp. 22–23, Marcel Dekker, Inc., New York, 1985. [3] Gentl Gentlee James E., Random number generation and monte carlo methods , Springer, New York, 1998. [4] Morg Morgan an Byro Byron n J. T., Elements of simulation , Chapman & Hall, London, 1984.
16