Historia de La Probabilidad
July 7, 2022 | Author: Anonymous | Category: N/A
Short Description
Download Historia de La Probabilidad...
Description
HISTORIA DE LA PROBABILIDAD
ÍNDICE GENERAL: 1.CONTEXTO HISTÓRICO Y PRECURSORES……………………. 3 Pacioli, Cardano y Tartaglia……………………………………………………….. 3
2.NACIMIENTO Y EVOLUCIÓN DE LA TEORÍA DE LA PROBABILIDAD……………………………………………………....5 El problema del caballero de Meré. Nacimiento de la probabilidad……………..5 Primeras definiciones y teoremas básicos…………………………………………7 La ley de los Grandes Números……………………………………………………10 El Teorema Central del Límite………………………………………………….....11 Problemas importantes de la historia……………………………………………..12
3.LA TEORÍA MODERNA DE LA PROBABILIDAD………………15 La probabilidad en el siglo si glo XIX……………………………………………………15 Perfeccionamiento de la ley de los Grandes Números y el TCL………………...16 Escuelas del siglo XX………………………………………………………………17 Kolmogorov y la axiomatización de la probabilidad………………………….....18
TRATAMIENTO Y COMENTARIO DE TEXTO ORIGINAL…….20
BIBLIOGRAFÍA…………………………………………………….....28
2
1.CONTEXTO HISTÓRICO Y PRECURSORES La Edad media termina históricamente en el año1453 con la caída de Constantinopla por parte de los otomanes, dando paso a la etapa conocida como Renacimiento, la cual se destacó por la actividad mercantil, industrial, artística, arquitectónica, intelectual y científica, entre otras. En esta época surge una nueva relación del hombre con la naturaleza, que va unida a una concepción ideal y realista de la ciencia. La matemática se va a convertir en la principal ayuda de un arte y una sociedad que se preocupan incesantemente en fundamentar racionalmente su ideal de belleza. A partir de esta etapa con el avance en las matemáticas y la filosofía, se empieza a dar una explicación coherente a muchos fenómenos que no seguían un patrón determinístico, sino aleatorio. Es el caso de todos los fenómenos relativos a la probabilidad de los sucesos, concretados en este tiempo fundamentalmente en los juegos de azar. En este periodo del Renacimiento es cuando empiezan a surgir de manera más seria inquietudes entorno a contabilizar el número de posibles resultados de un dado lanzado varias veces, o problemas más prácticos sobre cómo repartir las ganancias de los jugadores cuando el más juego se interrumpe de finalizar. Como vemos estas inquietudes surgían como intentos deantes resolver problemas “cotidianos” con el fin de ser justos en las apuestas y repartos o incluso de conocer las respuestas para obtener ventajas y en consecuencia mayores ganancias respecto a otros jugado jugadores res y mucho menos de inquietudes matemáticas verdaderas. De hecho la idea de modelizar el azar mediante las matemáticas aún no estaba plenamente presente en los intelectuales de la época.
Pacioli, Cardano y Tartaglia: Uno de los primeros problemas dedicados a contabilizar el número de posibles resultados al lanzar un dado varias veces podemos encontrarlo aún en la Edad Media, en el poema De Vetula de Richard de Fournival (1200-1250) donde afirma correctamente que si se lanzan tres dados hay 216 combinaciones posibles y calcula acertadamente los diferentes valores para la suma de los tres dados. Aunque ahora puede parecer una cuestión trivial, en aquella época no lo era, y otros autores se equivocaron al intentar resolverla, generalmente porque no tenían en cuenta las posibles permutaciones de una misma combinación. Pero el problema más importante relativo a los juegos de azar era el conocido como “problema del reparto de apuestas” que distribuía las ganancias entre jugadores cuando la partida se interrumpía antes de finalizar. Este problema fue abordado por Luca 1487 propuso estos dos dos problemas particulares: un juego Pacioli (1445-1517) quien en 1487 en el que el premio es de 22 ducados que consiste consist e en alcanzar 60 puntos se interrumpe cuando un equipo lleva 50 puntos y el otro 30; y tres arqueros que compiten por un premio de 6 ducados lanzan flechas hasta que uno de ellos haga 6 dianas, dianas, siendo interrumpidos cuando el primero de ellos lleva 4 dianas, el segundo 3 y el tercero 2. ¿Cómo deben repartirse los premios entre los contendientes? Pacioli propuso que el premio ser problema repartido se en dividía funciónen de60×5/8 las victorias obtenidas premio debería del primer ducados para el anteriormente: primer equipo yasí, en el
3
60×3/8 para el segundo; para el problema de los arqueros, el premio se dividía en la proporción 4/9, 3/9 y 2/9. Como más tarde se pondría de manifiesto, esta solución obtenida por Pacioli es incorrecta. Fue Girolamo Cardano (1501-1576) quien escribió la primera obra importante relacionada con el cálculo de probabilidades en los juegos de azar. Fue en 1565 y se llamaba Libro de los los juegos de azar. Además Cardano se había ocupado anteriormente del problema del reparto de apuestas y en 1539 llegó a la conclusión de que la solución de Pacioli era incorrecta porque al considerar tan sólo el número de juegos ganados por cada equipo, no contaba cuántos juegos debían ganar para hacerse con el premio. Cardano propuso como solución del problema que si n es el número de juegos totales y a y b los juegos ganados por cada equipo, el premio debía repartirse de la siguiente manera: [1+2+…+(n-b)]: [1+2+…(n-a)]. Esta solución es, en general, incorrecta y sólo da resultados válidos en casos particulares. Niccolo Tartaglia (1499–1557), también intentó resolver este problema y en 1556 publicó un libro en el que descartaba la solución dada por Pacioli y daba su propio solución: si un equipo ha ganado a puntos y el otro b, se juega a n puntos y el premio total es P, las ganancias deberían repartirse de la forma: (P/2)±P[(a-b)/n]
siendo la cantidad mayor para el
equipo que tenga más victorias. Sin embargo, Tartaglia fue consciente de que su solución no era la correcta y en su libro dejaba claro que era buena para impartir justicia y equilibrio a un reparto, pero no era exacta desde el punto de vista matemático. Además de estos tres nombres importantes, entre los precursores de la probabilidad destacó también un hombre mucho más conocido en otros campos de las matemáticas y la física como fue Galileo Galilei, que durante su vida también resolvió problemas sobre dados, hasta tal punto que escribió un libro llamado Sobre la puntuación en tiradas de dados. Sin embargo, la mayor aportación de Galileo a los inicios de la probabilidad fue la invención de su teoría de la medida de errores. Clasificó los errores en dos tipos: “sistemáticos” y “aleatorios”, clasificación que se mantiene aún en la actualidad y estableció cuidadosamente las propiedades de los errores aleatorios. Con esto contribuyó sin saberlo a la creación de ramas fundamentales de la estadística y la probabilidad posterior.
4
2.NACIMIENTO Y EVOLUCIÓN DE LA TEORIA DE LA PROBABILIDAD El problema del Caballero Caballero de Meré: Nacimiento de la probabilidad probabilidad Cierto día del año 1654, Blaise Pascal (1623 - 1662) matemático francés, hacía un viaje en compañía de un jugador más o menos profesional conocido como el caballero de Meré, quien era una persona apasionada por todo lo relacionado con el juego de los dados y las cartas, siendo además un hombre noble e ilustrado. Este caballero creía que había encontrado una "falsedad" en los números al analizar el juego de los dados, observando que el comportamiento de los dados era diferente cuando se utilizaba un dado que cuando se empleaban dos dados. La "falsedad" partía simplemente de una comparación errónea entre las probabilidades de sacar un seis con un solo dado o de sacar un seis con dos dados. Para el caballero debía existir una relación proporcional entre el número de jugadas necesarias para conseguir el efecto deseado en uno y otro caso. El problema estaba en que el citado caballero no tuvo en cuenta que en el segundo caso estaba analizando una probabilidad compuesta en donde las distintas probabilidades se deben calcular multiplicativamente. Este y otros problemas planteados por el caballero a Pascal sobre cuestiones relacionadas con diferentes juegos de azar, dieron origen a una correspondencia entre el propio Pascal y algunos de sus amigos matemáticos, sobre todo con Pierre de Fermat (1601-1665) de Toulouse, abogado de profesión, pero gran amante de las matemáticas. Esta correspondencia constituye el origen de la teoria moderna de la probabilidad. En una carta de Pascal a Fermat, en la que narraba la anécdota anteriormente mencionada, concluía que "el caballero de Meré tiene mucho talento, pero no es geómetra; ésto es, como sabéis un gran defecto" (carta del 29 de julio de 1654). Otro de los problemas famosos planteados por el caballero a Pascal fue resuelto por éste y Fermat tras el carteo de manera independiente, llegando ambos a la misma solución : En una partida de dados intervienen dos jugadores y apuestan 32 doblones de oro cada uno, eligiendo un número diferente, gana el juego el primero que obtenga tres veces el número que eligió. Después de un rato de juego, el número elegido por el primer apostador ha salido dos veces mientras el otro jugador sólo una vez ha acertado, en este instante la partida debe suspenderse. ¿Cómo dividir los 64 doblones de oro apostados? ¿en qué proporción ha de ser compensado cada jugador?. En la correspondencia que siguió a este problema, tanto Pascal como Fermat estuvieron de acuerdo en que el primer jugador tiene derecho a 48 doblones de oro. Veamos también el último de los problemas históricos ( al ser su solución parte del inicio de la probabilidad actual) que propuso Meré y resolvieron Pascal y Fermat: El juego consistía en lanzar 24 veces un par de dados y el problema era decidir si es lo mismo apostar a favor o en contra de la aparición de por lo menos un seis doble. Solución: A= {No sacar un seis doble en una tirada de dos dados} dados} , P(A)=35/36 24 P(A y A y A………24 veces….y A)= (35 / 36) Este número vale 0´508596121 y por tanto la probabilidad del suceso contrario será 1- P(A y A….24 veces…y A)= 1- 0´508596121 = 0´491
5
Luego es más probable obtener una vez un seis doble en 24 tiradas que obtenerlo al menos una vez. En cambio para 25 tiradas cambian las cosas pues 1- (35 / 36) 25 = 0´505
Pascal y Fermat resolvieron este problema y otros muchos y fueron los que empezaron a formalizar la teoría de las probabilidades, probando el desacuerdo con el caballero de Meré, este se debía a que era erróneo el cálculo que había efectuado, ya que se en considerar equiprobables no lolaeran, y sólodada cuando losequivocó casos posibles son equiprobables tienesucesos sentidoque aplicar definición por Meré de probabilidad. Sin embargo, Pascal erró al intentar extender algunos de los resultados de los problemas del caballero al caso en el que hubiera tres o más jugadores. Ni Pascal ni Fermat expusieron sus resultados por escrito y fue el físico-matemático holandés Christian Huygens (1629-1695) quien en 1657 publicó un breve tratado tra tado titulado ” De Ratiocinnis Ratiocinnis in ludo ludo aleae” (sobre los razonamientos relativos a los juegos de dados) inspirado en la correspondencia sostenida entre los dos creadores de la teoría de la probabilidad. Además Además Huygens extendió algunos resultados de Pascal y aclaró varios problemas para tres o más jugadores. En 1665, Pascal publicaba Tratado sobre el triángulo aritmético , la más importante contribución realizada hasta la fecha en el ámbito de la combinatoria. El libro se basa en la construcción y propiedades combinatorias del posteriormente llamado triángulo de Pascal, que es de la siguiente forma:
Fila /Columna 0
0 1 2 3 4 5 6 7 8
1 1 1 1 1 1 1 1 1
1
2
1 2 3 4 5 6 7 8
1 3 6 10 15 21 28
3
4
5
6
7
8
1 4 1 10 5 1 20 15 6 1 35 35 21 7 56 70 56 28
1 8
1
Con esta construcción Pascal demostró que el valor de la k-ésima entrada de la ⎛ n ⎞ n-ésima columna era el número combinatorio ⎜⎜ ⎟⎟ y enunció algunas propiedades ⎝ k ⎠ importantes del triángulo como que cada elemento es la suma de todos los elementos de la columna anterior hasta la fila anterior o como que la suma de todos los elementos de la fila fila n-és n-ésim imaa es es 2 n . Las aportaciones de Pascal se extienden a muchos campos como el de la filosofía e incluso al de la teología, intentando argumentar la existencia de Dios en términos probabilísticas y gananciales ( probabilísticamente es mejor creer que no creer, es decir, es mejor actuar como si existiera, por si acaso existe).
6
Primeras definiciones y teoremas básicos: El primero en dar la definición clásica de probabilidad fue Jacob Bernoulli (1654– 1705), matemático suizo que trabajó en la universidad de Basilea en 1687, en su obra”Ars conjectandi” ( El El arte de la conjetura conjetura) que fue publicada algunos años después de la muerte del autor. En esta obra encontramos entre otras cosas la importante proposición conocida como el Teorema de Bernoulli Bernoulli mediante el cual la teoría de la probabilidad fue elevada por primera vez del nivel elemental de conjunto de soluciones soluciones de problemas particulares a un resultado de importancia general. Bernoulli siempre detacó la importancia de que los fenómenos aleatorios dejaran de enfocarse como casos particulares y se intentara ver los conceptos generales que habías detrás de ellos, sólo así se avanzaría y profundizaría en el entendimiento de esta materia. Más adelante, el matemático francés exiliado en Inglaterra Abraham De Moivre (1667–1754) aceptó la definición dada por Bernoulli y la reformuló en términos más modernos para la época: «una fracción en la que el numerador es igual al número de apariciones del suceso y el denominador es igual al número total de casos en los que es suceso pueda o no pueda ocurrir. Tal fracción expresa la probabilidad de que ocurra el suceso». La definición clásica de la probabilidad, en su forma actual, está basada en el concepto de equiprobabilidad de los resultados, basado a su vez en la simetría. Se supone que un experimento se puede descomponer en n sucesos equiprobables y mutuam mut uament entee excluy excluyent entes es B1 ,…., ,…., Bn llamado llamadoss suceso sucesoss básico básicoss o ‘elemen ‘elementale tales’. s’. Así, Así, la probabilidad de suceso A es el número del intervalo [0,1] que expresa expresa el cociente entre los m sucesos elementales que componen A y el número total n de posibles sucesos elementales. La traba fundamental que encuentra esta interpretación de la probabilidad es la dificultad de descomponer un un suceso en sucesos elementales equiprobab equiprobables; les; lo que es fácil para problemas sencillos ( cartas, dados, etc…), pero es de gran dificultad dificultad en problemas más complicados. Además otro de los descubrimientos importantes de Bernoulli fue el saber obtener la probabilidad de ocurrencia de un suceso sin necesidad de contar los casos favorables (bien por omisión de datos o bien por la imposibilidad de contarlos). Para ello inventó la probabilidad a posteriori, es decir: “mediante la observación múltiple de los resultados de pruebas similares…” Deprobabilidad esta manera, de introdujo el concepto de probabilidad ‘estadística’: asignar como un suceso el resultado que se obtendría si el proceso se repitiera en condiciones similares un número grande de veces. Sin embargo, estas condiciones no eran muy concretas y con ellas no se podía dar lugar a una definición seria y rigurosa de todos los conceptos q manejaba Bernoulli. En primer lugar, se habla de un ‘número grande’ de veces, pero no se da ninguna indicación sobre cuál es ese número o lo suficientemente grande que debe ser, no se especifica tampoco que significa condiciones similares y tampoco se establece cuál es el error admitido respecto al resultado teórico. Precisamente, fueron la necesidad de precisar con exactitud qué se entiende por un ‘número grande’ de repeticiones y de calcular el error del resultado ob obtenido tenido respecto del resultado teórico, lo que llevaron a Jacob Bernoulli a idear, en su forma más intuitiva y básica, la Ley de los Grandes Números.
7
A continuación expondremos los tres teoremas más importantes de la probabilidad clásica. Estos teoremas los idearon Bernoulli (Teorema de la suma, formalizado por Bayes) , De Moivre (Teorema de la multiplicación) y Bayes (Teorema de la probabilidad condicionada), aunque todos todos los conceptos que se manejan en estos teoremas aparecen ya de forma implícita y muy frecuente en los diferentes trabajos de Pascal, Fermat y Huygens. -Teorema de la Suma: Pascal dio a entender implícitamente que sabía cómo calcular los casos favorables de un suceso A si conocía los casos favorables de unos Aj disjuntos cuya unión es A (es decir, si los Aj son una partición de A). Jacob Bernoulli también fue consciente de ello, y fue más lejos al darse cuenta de que la probabilidad de la unión no es la suma de las probabilidades si los sucesos no son disjuntos, aunque no supo dar la razón. No fue ninguno de ellos quien formuló formuló finalmente el teorema de la suma de la probabilidades, sino el reverendo inglés Thomas Bayes (1702–1761), cuyo trabajo fue leído póstumamente, en 1763. En esta obra, Bayes da la primera definición rigurosa y explícita de sucesos disjuntos y enunció la fórmula ahora conocida: P(A ∪ B) = P (A) + P(B)− P(A∩B)
-Teorema de la Multiplicación:
Al igual que el teorema anterior, el teorema de la multiplicación de probabilidades era conocido por casi todos los matemáticos anteriores a través de resultados particulares. No obstante, fue Abraham De Moivre el primero que lo enunció rigurosamente. De Moivre fue un hugonote francés que debido a su religión se ausentó de Francia y vivió como refugiado en Inglaterra. Allí publicó su obra The doctrine of chances ( Doctrina Doctrina de las Probabilidade Probabilidades) s) en 1711. De Moivre presentó el importante concepto de independencia de sucesos aleatorios; así, escribió: “Diremos que dos sucesos son independientes, si el primero de ellos no tiene ninguna relación con el otro” y procedió a definir los sucesos dependientes: “Dos sucesos son dependientes si están ligados el uno al otro y la probabilidad de ocurrencia de uno de ellos influye en la probabilidad de ocurrencia del otro”. Una vez hecho esto, De Moivre Moivre lo aplicó al cálculo de probabilidades: «la probabilidad de ocurrencia de dos sucesos dependientes es igual a la probabilidad de ocurrencia de uno de ellos dividida por la probabilidad de que el otro ocurra si el primero ya ha ocurrido. Esta regla puede generalizarse para varios sucesos ». El caso de varios sucesos lo describía así: “Se necesita elegir uno de ellos como el primero, otro como el segundo, y así. Luego, la ocurrencia del primero debe considerarse independiente de todas las demás; el segundo debe considerarse con la condición de que el primero ha ocurrido: el tercero con la condición de que tanto el primero como el segundo han ocurrido, y así. De aquí, la probabilidad de las ocurrencias de todos los sucesos es igual al producto de todas las probabilidades” Esto es: P( A1 ∩ A2 ∩ ..... ∩ An ) = P( A1 ) P( A2 | A1 )…….P( An | A1 ∩ .... ∩ An −1 ) La obra de De Moivre contó con tres ediciones, lo que da una idea del gran interés que despertó esta materia en aquella época. En las dos últimas ediciones de la obra el autor también da las primeras indicaciones acerca de la distribución normal de las
8
probabilidades, que más tarde desarrollaría un papel sumamente importante en el desarrollo la teoría de la probabilidad. -Teorema de Bayes:
El trabajo de De Moivre fue seguido y difundido en la mayoría de los círculos científicos importantes de Europa y fue el británico Thomas Bayes, probablemente alumno de De Moivre en Londres, quien extendió el trabajo del francés y expresó la probabilidad condicional en función de la probabilidad probabilidad de la intersección:
P(A/B)= [P(B/A) P(A)] / P(B) Además, el teorema que lleva su nombre no es sólo suyo, ya que Bayes no estaba en condiciones de formular con probabilidades totales. Fue Pierre–Simon Laplace (1749–1827) quien mejoró y desarrolló la mayor parte del teorema de Bayes en su Théorie analytique des probabilités (Experiencia en la Filosofía de la Teoría de la Probabilidad) en 1812. Sea A un suceso que ocurre en conjunción con uno y sólo uno de los n sucesos disjuntos B1 ..... Bn . Si se sabe que el suceso A ha ocurrido, ¿cuál es la probabilidad de que el suceso B j también? Laplace respondió de la siguiente manera: “La probabilidad de existencia de una de esas causas es igual a una fracción con un numerador igual a la probabilidad del suceso que se sigue de esta causa y un denominador que que es la suma de las probabilidades relativas a todas las posibles causas. Si estas diferentes causas a priori no son equiprobables, entonces en lugar de tomar tomar la probabilidad del suceso que sigue a cada causa, se toma el producto de esta probabilidad por tantas veces la probabilidad de la causa”. Esta fórmula se escribe en notación más actual de la siguiente manera: P( Bi | A ) =
P ( Bi ) ⋅ P( A | Bi ) ∞
∑ P( A | B ) ⋅ P( B ) i
i
i =1
Aparte de esta revisión importantísima del teorema de Bayes, Laplace incluye en su obra una exposición sistemática muy completa de la teoría matemática de los juegos de azar con aplicaciones a una gran variedad de cuestiones científicas y prácticas. En su libro citado anteriormente dedica una extensa introducción escrita para los lectores no matemáticos a explicar sus puntos de vista generales sobre todas las cuestiones y apreciaciones de los resultados alcanzados con la ayuda de la teoría de la probabilidad. El estudio de esta introducción es muy famoso y se recomienda a todos los interesados en la historia de la ciencia.
9
La ley de los Grandes Números: Jacob Bernoulli descubrió que las frecuencias observadas se acercaban al verdadero valor previo de su probabilidad al hacer crecer el número de repeticiones del experimento. Pero él quería encontrar una prueba científica que no sólo probara que al aumentar el número de observaciones de la muestra se podía estimar la probabilidad auténtica con el grado de precisión deseado en cada ocasión, sino que permitiera calcular explícitamente cuántas observaciones eran necesarias para garantizar esa precisión de que el resultado resultado queda queda dentro de un intervalo intervalo predetermina predeterminado do alrededor alrededor de la verdadera solución. El experimento que consiste repetir una prueba con la misma probabilidad de éxito un número grande de veces recibió el nombre de “experimento de Bernoulli” y, más adelante, tras la creación del concepto de variable aleatoria, la variable que contabiliza el número de éxitos en N pruebas se llamó llamó ‘Bernoulli’ ‘Bernoulli’ o ‘binomial’. ‘binomial’. Bernoulli era consciente de que, en situaciones reales y cotidianas, la certeza absoluta, es decir, la probabilidad 1, es imposible de alcanzar. Por eso introdujo la idea de la “certeza moral”: para que un resultado fuese moralmente cierto, debía tener una probabilidad probabilid ad no menor menor que 0.999, mientras mientras que que un resultado resultado con probabilidad probabilidad no no mayor que 0.001 se consideraría “moralmente imposible”. Fue para determinar la certeza moral de un suceso para lo que Bernoulli formuló su teorema, la ley de los Grandes Números. Números. Para tener una idea intuitiva de este concepto, Bernoulli propuso el siguiente ejemplo: una urna con 30.000 bolas blancas y 20.000 negras, aunque el observador no lo sabe, pues lo que quiere es determinar la proporción entre bolas blancas y negras, sacando una de cada vez, anotando el resultado (éxito si es blanca y fracaso si es negra) y volviéndola a introducir en la urna. Sea N el número de observaciones, X el número de éxitos y p = r/(r+s) la probabilidad de éxito en cada prueba, siendo r el número de bolas blancas blancas y s el de bolas negras. negras. El teorema teorema de Bernoulli Bernoulli afirma afirma que que dada cualquier cualquier pequeña fracción fracción ε (que su descubridor siempre escribía en la forma 1/(r+s)) y dado cualquier número entero positivo grande c, se puede hallar un número N = N(c) tal que la probabilidad de que X/N difiera de p no más de ε es mayor que c veces la probabilidad probabili dad de que X/N X/N difiera difiera de p más más de ε. Veamos todo esto con notación matemática:
⎫⎪ ⎫⎪ ⎧ X − p ≤ ε ⎬ > c ⋅ P ⎨ − p > ε ⎬ ⎪⎭ ⎪⎭ ⎩ N ⎩ N ⎧ X
P⎨
O en notación más actual:
⎧ X 1 ⎪⎫ ∀ε > 0 ∀c ∈ Z + ∃ N tal que P ⎨ − p > ε ⎬ < ⎪⎭ c + 1 ⎩ N
10
Bernoulli tomó como ejemplo para aclarar este problema c=1.000 y obtuvo como resultado que eran necesarias 25.550 observaciones. La intuición le decía que no hacían falta tantas y, por ello, lo intentó con otros valores de c. Desilusionado por sentir que había fracasado en su intento de cuantificar la certeza moral, Bernoulli no incluyó en su libro las aplicaciones prometidas. El que sí lo hizo fue su sobrino Niklaus Bernoulli(1687–1759), que aplicó el resultado de su tío a registros de 14.000 nacimientos y llegó a la inesperada conclusión de que la frecuencia de nacimientos de niños es mayor que la de niñas, en la proporción de 18:17. Los resultados tanto de Bernoulli Bernoulli como de su sobrino fueron confirmados años después por Laplace. De esta manera, manera, gracias a Bernoulli, se introdujo en la teoría de la probabilidad la ley de los Grandes Números, uno de los conceptos más importantes en calculo de probabilidades, probabilid ades, muestreos, muestreos, etc… etc… y con amplias amplias aplicaciones aplicaciones en muchos campos campos de la estadística y de las matemáticas y la ciencia en general. Esta ley además será objeto de conversaciones entre matemáticos en los siglos venideros, estando sujeta a constantes estudios, mejoras y ampliaciones hasta prácticamente nuestros días.
El Teorema central del Límite:
A raíz del descubrimiento de la Ley de los Grandes Números, se planteó el problema de estimar estimar la suma suma de un subconjunto subconjunto de elementos elementos de de una expresión expresión de carácter binomial. La dificultad era calcular una probabilidad que Bernoulli ya había dejado indicada y demostrada y era la probabilidad de que el número de éxitos de un suceso de probabilidad p y n pruebas estuviera entre A y B. ⎛ m ⎞ k ⎜⎜ ⎟⎟ ⋅ p ⋅ (1 − p ) m −k y la dificultad que Según Bernoulli esta probabilidad era: A< k 0 P ⎨ − ⎯ → 0 < ε ⎬ ⎯ ⎯ n→∞ n ⎪⎭ ⎩ n
Posteriormente, en 1843 Chebyshev criticó el teorema de Poisson y enunció su propia versión. versión. No obstante, obstante, era muy muy similar similar a ésta y ninguna de las dos superaban superaban cualitativamente la idea original de Jacob Bernoulli. No fue hasta 1867, época en la que Chebyshev empezó a trabajar con variables aleatorias, cuando se produjo ese avance en las investigaciones. Ya en 1909, Émile Borel (1871-1956) se dio cuenta de que el trabajo de Bernoulli llevaba a una afirmación más importante que simplemente la ley de los Grandes Números para p = 0´5 y el matemático matemático italiano italiano Francesco Cantelli (1875-1966) descubrió lo que se denomina ley Fuerte de los Grandes Números añadiendo el hecho ⎫ ⎧ α de que para cualquier valor de p: P ⎨ L n = p ⎬ = 1 . A lo largo del siglo XX otros ⎩ n →∞ n ⎭ matemáticos como Kolmogorov y Khinchine trabajaron también aportando detalles y generalizaciones de este problema.
Hablemos ahora del perfeccionamiento del Teorema Central del Límite. Los esfuerzos realizados por lograr una generalización del teorema planteado por De Moivre fueron arduos y complicados y, aunque Laplace ya aportó estudios nuevos alrededor de 1809, matemáticos de renombre como Poisson o Bessel intentaron dar sus propias versiones de un teorema local del límite y erraron. No sería hasta hasta el año 1887, cuando Chebyshev demostró demostró un teorema teorema acerca de la acotación de la suma de una variable aleatoria con esperanza 0. Para demostrar esto, inventó el Método de los momentos, pieza fundamental de la teoría estadística actual. A.Markov (1856-1922), discípulo de Chebyshev, se dio cuenta posteriormente de algunos errores de su maestro y revisó la fórmula. Esta es la versión del teorema de Chebyshev que revisó Markov en 1898:
16
Sea S n la sucesión de las sumas c1 + c 2 + .... + c n y ∞
∫
de cn . Si ∀k se cumple que x d ϕ n ( x) → k
−∞ b ⎫ ⎧ S n 1 < b⎬ → P ⎨a < ⋅ ∫ e − x ⎭ 2π a ⎩ Var (S n )
2
/2
1 2π
n
( x) la función de distribución
∞
⋅ ∫ x k e − x
2
/2
dx , entonces ∀a, b
−∞
dx .
En 1900, Liapunov siguió perfeccionando el teorema y demostró que si las variables aleatorias tenían momento de orden tres finito, las funciones de distribución de S n convergían a una distribución normal. Además esta demostración no necesitaba el Método de momentos ideado por Chebyshev para ser resuelta. El matemático finlandés Lindeberg fue más allá que Liapunov en 1922, al no pedir la existencia de ningún momento salvo el de orden dos. Asi vio que la distribución de una suma de variables aleatorias, centradas en sus esperanzas y normadas por la raíz cuadrada de la suma de sus varianzas converge a una distribución normal estándar si se 1 cumple ∀t > 0 L ⋅ − >τ ( x − a k ) 2 dF ( x) = 0 . Más tarde en 1942, William x ak Bn n → x B 1≤ k ≤ n Feller se dio cuenta de que la condición de Lindeberg era necesaria además de suficiente, resultado al que también llegó de manera independiente Paul Levy (1886-1971).
∑ ∫
Escuelas del siglo XX : Durante la última parte del siglo XIX y ya sobre todo en el siglo XX, tuvo lugar la creación de diferentes escuelas y tendencias dedicadas al estudio de la matemática en el campo de la peoría de la probabilidad en particular. Las más importantes fueron: -La escuela rusa: Los matemáticos rusos dominaron todas las áreas relativas al cálculo de probabilidades y a la estadística probabilidades estadística durante la segunda mitad del del siglo XIX XIX y ya en el siglo XX formaron una escuela dirigida principalmente por Andrei N.Kolmogorov (19031987) y Khinchine. Los precursores de esta escuela de conocimiento fueron Chebyshev, Markov y Liapunov entre otros, pero fue Kolmogorov el máximo exponente de este movimiento. Kolmogorov nació en Tambor. Su madre murió en el parto y su padre era un cualificado agrónomo y estadístico. Realizó su primer trabajo evaluando los estudios sobre probabilidades efectuados entre los siglos XV y XVI, apoyándose en los trabajos de Bayes. En 1924 comenzó su interés en la teoría de la probabilidad, la cual lo consagró. En 1927 había completado sus investigaciones sobre suficiencia y condiciones necesarias de la ley débil de los grandes números, comenzada por J. Bernoulli. En 1930 se hace eco de la ley Fuerte de los Grandes Números de Cantelli, y trabaja para mejorarla y generalizarla. El año anterior había publicado "La Teoría General de la Medida y el Cálculo de Probabilidades". En 1950 completó uno de los trabajos más importantes en Estadística "Estimadores Insesgados". Kolmogorov dio solución a una parte del sexto problema de Hilbert, en el que se pedía un fundamento 17
axiomático de la teoría de probabilidades, utilizando la medida de Lebesgue. Este fue el comienzo del aporte más importante que Kolmogorov hizo a la teoría del cálculo de probabilidades, probabili dades, o al menos menos por el que más se le conoce conoce y del que hablaremos hablaremos posteriormente: posteriorm ente: la axiomatiz axiomatización ación de la probabilidad. probabilidad. -La escuela estadounidense: Los principales exponentes de la escuela estadounidense especializada en la rama de la probabilidad son Feller y Doob, aunque el iniciador de este movimiento fue Nortber Wiener (1894-1964) quien desarrolló una medida de las probabilidades para conjuntos de trayectorias que no son diferenciables en ningún punto, asociando una probabilidad a cada conjunto de trayectorias. Construyó así una probabilidad que permitía describir el fenómeno en términos matemáticos en lo que se refería a la trayectoria y posición de las partículass a través del partícula del tiempo. tiempo. Aportó ejemplos ejemplos de cómo aplicar aplicar el estudio estudio de las probabilidades probabilid ades al desarrollo desarrollo y progresos de de la ciencia. ciencia. Por otra parte William Feller se hizo conocido por sus numerosos estudios acerca del Teorema Central del Limite y por su impecable demostración de que la condición de Lindeberg era necesaria además de suficiente. -La escuela francesa: Esta escuela se formó con Meyer y su grupo de Estrasburgo y también con Nevev y Fortret de París, aunque sin duda resalta por encima de todos la figura de Paul Levy. Los estudios más importantes referidos a este movimiento se llevaron a cabo en la universidad de París, en la que por ejemplo un grupo de matemáticos encabezados por Laurent Schuwartz generalizaron el concepto de diferenciación utilizando la teoría de distribuciones.Esta aportación fue de vital importancia, ya que en la actualidad no es posible dar dar explicaciones explicaciones rigurosas rigurosas de probabilidad probabilidad sin utilizar utilizar estos conceptos. conceptos. La innovación y métodos de la escuela francesa influyó de manera decisiva en las dos escuelas anteriores.
Kolmogorov y la axiomatización de la probabilidad: Alrededor de 1909, Borel ya consideró la importancia de la teoría general de la medida para la construcción de ciertos pilares y fundamentos de la teoría de la probabilidad, probabili dad, pero no fue hasta el el año 1933 cuando cuando Kolmogorov Kolmogorov se propuso construir construir una teoría de la probabilidad totalmente rigurosa basada en axiomas fundamentales. La construcción axiomática de la teoría de la probabilidad procede de las propiedadess fundamentales propiedade fundamentales de la la probabilidad probabilidad observadas observadas en los los ejemplos ejemplos que ilustran ilustran las definiciones clásica y frecuentista. Así, la definición axiomática las incluye como casos particulares y supera las carencias de ambas. De esta manera, la probabilidad pudo desarrollarse como un teoría completamente lógica al mismo tiempo que siguió permitiendo resolver los problemas aplicados de la ciencias modernas y la tecnología. La definición axiomática da una equivalencia entre los conceptos de la teoría de la medida y los de la teoría de la probabilidad. Se toma un conjunto de medida 1, Ω, cuyos elementos son sucesos elementales y se considera una σ –álgebra A, un subconjunto de Ω que satisface que incluye a Ω y a Ø, que es cerrado por
18
complementación y por uniones numerables. Luego se define una función P que asigna a un suceso un número entre 0 y 1 (su medida). Así, la terna ( Ω, A, P) se convierte en un espacio de probabilidades. No obstante, la teoría de la probabilidad y la de la medida permanecen permanec en perfectamente perfectamente diferenciada diferenciadas, s, ya que la segunda carece carece de algo algo necesario necesario en la primera; la independencia de variables aleatorias. Los axiomas de Kolmogorov que definen la probabilidad son los siguientes: 1. Para cada suceso aleatorio B hay asociado un número no–negativo P(B) que se llama su probabilidad. 2. P(Ω)=1 3. Si los sucesos B1 , B2 ,...., Bn son mutuamente excluyentes dos a dos, entonces, P ( B1 + B2 + .... + Bn ) = P( B1 ) + P( B2 ) + .... + P ( Bn )
Del hecho de que Ω = Ø ∪ Ω y el axioma 3 se deduce que P(Ω) = P(Ø) ∪ P(Ω) , y de esto se deduce la siguiente serie de resultados destacados: P(Ø) = 0
∀ B , P( B c )= 1 − P( B B) ≤
≤
B) 1 ∀ B, 0 P( B B ⊆ C ⇒ P( B B) ≤ P(C ) P ( B ∪ C ) = P ( B ) + P (C ) − P ( B ∩ C )
P( B1 ∪ .... ∪ Bn ) ≤
n
∑ P( B ) j
j =1
Vemos que de los tres axiomas fundamentales de Kolmogorov se deducen la mayoría de las propiedades fundamentales de la probabilidad que conocemos y manejamos hoy en día. Además estos axiomas tienen la ventaja de que son consistentes, ya que existen objetos reales que los satisfacen y, por lo tanto, concretan la matemática en el nuestra vida.
19
TRATAMIENTO Y COMENTARIO DE UN TEXTO ORIGINAL
20
LA PROBABILIDAD EN LAPLACE 1. Introducción: El texto comentado a continuación es un fragmento de la obra Essai philosophique philosophi que sur les probabilités probabilités del matemático Pierre Simon Laplace (1749-1827). Este francés fue conocido por su curiosidad universal universal que le llevó a indagar en casi todas las áreas del conocimiento, logrando sus más exitosos resultados tanto en mecánica celeste como en la teoría de las probabilidades, probabilid ades, de la que trata este ensayo. Gracias a sus trabajos, la teoría anterior sobre los juegos de azar se convirtió en la rama del análisis conocido con el nombre de cálculo o teoría de las probabilidades, que incorporó a su dominio temas pertenecientes pertenecie ntes a diferentes diferentes campos campos como astronomía, demografía y filosofía. Este libro es el desarrollo de unas clases dadas en 1795 en las Escuelas Normales de París y se propone situar situar al alcance de los no matemáticos los principios y resultados generales de la teoría de la probabilidad. probabilid ad. En la imagen podemos observar la portada original del libro del que, a continuación pasaremoss a comentar pasaremo comentar algunos fragmentos. fragmentos.
2. Metodología La parte seleccionada corresponde a la introducción del libro, en la que Laplace presenta los los principios principios y fundamentos fundamentos de la probabilidad probabilidad y el cómo cómo y el por qué qué se interesa por esta rama de las matemáticas. El texto original se sitúa en la columna de la izquierda y la traducción simultánea a la derecha para facilitar la lectura. Antes de cada fragmento e intercaladamente se irán haciendo comentarios acerca del contenido y el trasfondo del texto.
21
3. Traducción y comentario del texto seleccionado -Justificación de la Laplace sobre por qué escribe el Essai philosophique philosophique sur les probabilités probabilit és:
En este primer fragmento, Pierre Simon Laplace realiza una breve explicación de cómo se le ocurrió la idea de hacer un ensayo para hablar acerca de la probabilidad. Explica que ha publicado otra obra ( Theorie analytique des Probabilités) en la que expone un amplio curso de probabilidad, pero que en este libro no se servirá de resultados matemáticos sino que intentará acercarnos la probabilidad aplicándola a los problemass de la vida. problema vida. Laplace muestra, sorprendentemente y desde el principio, una concepción probabilística probabilís tica del entendimie entendimiento nto frente a su ya conocido conocido determinism determinismo, o, que quedará quedará totalmente plasmada en los próximos párrafos.
Este Ensayo filosófico del desarrollo de una lección que di en 1795 sobre las probabilidades en las Escuelas Normales, de las que fui designado profesor y que apareció en el Journal de las sesiones de dichas escuelas. Poco después he publicado sobre este mismo tema una obra que lleva por titulo Théorie analytique des Probabilités. Lo que aquí voy a hacer es exponer, sin el auxilio del análisis, los principios y resultados generales de esta teoría, aplicándolos a los problemas más importantes de la vida, la mayor parte de los cuales no son sino problemas de probabilidad. Se verá, no sin interés, que aun cuando los principios eternos de la razón, la justicia y la humanidad, sólo se consideren las probabilidades favorables que constantemente les acompañan, tiene una gran ventaja el seguirlos y graves inconvenientes en apartarse de ellos por la razón de que dichas probabilidades, lo mismo que las que resultan agraciadas en las loterías, acaban siempre por prevalecer en medio de las oscilaciones del azar. Me gustaría que las reflexiones diseminadas por este Ensayo fuesen merecedoras de la atención de los filósofos y lograran dirigirla hacia un objeto tan digno de sus desvelos .
22
- Determinismo e interés por la probabilidad en Laplace:
Entre estas líneas se encuentra quizás una de las más célebres frases de Laplace: “Una inteligencia que, en un momento determinado, conociera todas la fuerzas que animan la naturaleza, así como la situación respectiva de los seres que la componen, si además fuera lo suficientemente amplia como para someter a análisis tales datos, podría abarcar en una sola fórmula los movimientos de los cuerpos más grandes del universo y los del átomo más ligero; nada le resultaría incierto y tanto el futuro como el pasado estarían presentes a sus ojos”. Este bellísimo pasaje muestra el claro carácter determinista de Laplace, que extrapola a todos los fenómenos naturales el determinismo de la mecánica clásica. Por tanto la pregunta que nos hacemos es: ¿cómo un científico de la época ilustrada con marcadas tendencias deterministas se interesa por una rama tan “antideterminista” y aleatoria como la probabilidad? La respuesta podemos encontrarla justo a continuación, en el siguiente párrafo: “El espíritu humano ofrece, en la perfección que ha sabido dar a la astronomía, un débil esbozo de esta inteligencia. Sus descubrimientos en mecánica y geometría le han puesto en condiciones condiciones de abarcar en las mismas mismas expresiones expresiones analíticas analíticas los los estados pasados y futuros futuros del sistema sistema del del mundo…Todos mundo…Todos los esfuerzos esfuerzos por por buscar la la verdad tienden a aproximarlo continuamente a la inteligencia que acabamos de imaginar, pero de la que siempre permanecerá infinitamente alejado”. He aquí, por tanto, la razón que lleva a Laplace a interesarse tan profundamente por la probabilidad. Y es que él, al lado de una firme concepción determinista acerca de la naturaleza humana, conocida por todos los que le rodeaban y por nosotros en la actualidad, mantuvo la convicción de que la posibilidad del hombre de alcanzar la certeza absoluta está completamente cerrada, y que lo más que puede aspirar a alcanzar es el conocimiento meramente probable. Este firme pensamiento es el que le lleva a emprender sus estudios sobre probabilidad.
23
De la Probabilidad
Todos los acontecimientos, incluso aquellos que por su insignificancia parecen no atenerse a las grandes leyes de la naturaleza, no son sino una secuencia tan necesaria como las revoluciones del sol. Al ignorar los lazos que los unen al sistema total del universo, se los ha hecho depender
de causas ofinales o del azar, según que ocurrieran se sucedieran con regularidad o sin orden aparente, pero estas causas imaginarias han ido siendo descartadas a medida que se han ido ampliando las fronteras de nuestro conocimiento, y desaparecen por completo ante la sana filosofía que no ve en ellas más que una expresión de nuestra ignorancia de las verdaderas causas. Los acontecimientos actuales mantienen con los que les preceden una relación basada en el principio evidente de que una cosa no puede comenzar a existir sin una causa que la produzca. Este axioma, conocido con el nombre de principio de razón suficiente, se extiende incluso a las acciones más indiferentes. La voluntad más libre no puede producirlas sin un motivo determinante, pues si, siendo absolutamente iguales todas las circunstancias de dos situaciones, actuara en una y dejara de hacerlo en la otra, su elección sería un efecto sin causa y ella sería entonces, como dice Leibniz, el azar ciego de los epicúreos. La opinión contraria es una ilusión del espíritu que, perdiendo de vista las fugaces razones de la elección de la voluntad en las cosas indiferentes, se persuade de que ella se ha determinado por sí misma, y sin estar motivada por nada. Así pues, hemos de considerar el estado actual del universo como el efecto de su estado anterior y como la causa del que ha de seguirle. Una inteligencia que, en un momento determinado, conociera todas la fuerzas que animan la naturaleza, así como la situación respectiva de los seres que la componen, si además fuera lo suficientemente amplia como para someter a análisis tales datos, podría abarcar en una sola fórmula los movimientos de los cuerpos más grandes del universo y los del átomo más ligero; nada le resultaría incierto y tanto el futuro como el pasado estarían presentes a sus ojos. El espíritu humano ofrece, en la perfección que ha sabido dar a
24
la astronomía, un débil esbozo de esta inteligencia. Sus descubrimientos en mecánica y geometría le han puesto en condiciones de abarcar en las mismas expresiones analíticas los estados pasados y futuros del sistema del mundo. Aplicando el mismo método a algunos otros objetos de su conocimiento, ha logrado reducir a leyes generales los fenómenos observados y a prever aquellos otros que deben producirse en ciertas circunstancias. Todos los esfuerzos por buscar la verdad tienden a aproximarlo continuamente a la inteligencia que acabamos de imaginar, pero de la que siempre permanecerá infinitamente alejado. Esta tendencia, propia de la especie humana, es la que la hace superior a los animales, y sus progresos en este ámbito, lo que distingue a las naciones y los siglos y cimenta su verdadera gloria.
- Definición de probabilidad:
En el siguiente fragmento del texto es donde tenemos una clara formulación de la definición de probabilidad: “La teoría del azar consiste en (…) determinar el número de casos favorables al acontecimiento cuya probabilidad de busca. La proporción entre este número y el de todos los casos posibles es la medida de esta probabilidad, que no es, pues, más que una fracción cuyo numerador es el número de casos favorables y cuyo denominador el de todos los posibles” Esta definición ha sido fundamental para el desarrollo de la probabilidad durante más de dos siglos, hasta que en la primera mitad del siglo XX, Kolmogorov extendió el concepto introduciendo la probabilidad axiomática. La vigencia de este y otros conceptos formulados por Laplace dan una idea de la universalidad de los estudios realizados por el francés y su importancia a lo largo de la historia.
25
La probabilidad es relativa en parte a esta ignorancia y en parte a nuestros conocimientos. Sabemos que de tres o más acontecimientos sólo debe ocurrir uno, pero nada induce a creer que ocurrirá uno de ellos más bien que los otros. En este estado de indecisión nos resulta imposible pronunciarnos con certeza sobre su
acaecimiento. Sin embargo, es probable que uno de estos acontecimientos, tomado arbitrariamente, no acaezca, pues vemos varios casos iguales de posibles que excluyen su acaecimiento, mientras que sólo uno lo favorece. La teoría del azar consiste en reducir todos los acontecimientos del mismo tipo a un cierto número de casos igualmente posibles, es decir, tales que estemos igual de indecisos respecto a su existencia, y en determinar el número de casos favorables al acontecimiento cuya probabilidad se busca. La proporción entre este número y el de todos los casos posibles es la medida de esta probabilidad, que no es, pues, más que una fracción cuyo numerador es el número de casos favorables y cuyo denominador el de todos los posibles.
- Crítica a la astrología y elogio a las ideas ilustradas:
Por último, en estos párrafos Laplace critica la manera de pensar de la época, sus fuentes de conocimiento y la educación. Pone el ejemplo de la astrología, contra la que a lo largo de toda su vida arremete duramente, y critica que tanto ésta como otras enseñanzas son inculcadas desde la infancia en base únicamente a creencias universales arraigadas entre la población y sin ningún fundamento científico. También cree que con la llegada de las nuevas ideas ilustradas eso va a cambiar y comenta que la tarea de educar al pueblo debe reservarse a gente instruida, imparcial y crítica con la realidad que les rodea. Una vez aclarado este punto pasa a enumerar los principios generales del cálculo de probabilidades, probabilid ades, ya conocidos conocidos por todos nosotros. nosotros.
La propagación de estos errores que, en tiempos de ignorancia, han cubierto la faz de la tierra, se debe a la influencia de la opinión de aquellos que la muchedumbre considera más preparados y en quienes suele depositar su confianza en lo que se refiere a los asuntos más importantes de la vida. La astrología nos ofrece un buen
ejemplo. Estos errores, inculcados en la infancia, adoptados sin examen y sin otra base que la creencia universal, se han mantenido durante mucho tiempo, hasta que por fin el progreso de las ciencias los ha erradicado del espíritu de los hombres ilustrados, cuya opinión los ha hecho desaparecer después del pueblo mismo gracias al poder de la imitación y de la costumbre que con tanta generosidad los había difundido. Este poder, el resorte más potente del mundo moral, establece y preserva en toda una nación ideas enteramente contrarias a las que, con igual dominio, mantiene en otro sitio. ¡Qué tolerancia no habrá que tener hacia las opiniones distintas de las nuestras, cuando esta diferencia no depende generalmente de otra cosa que los diferentes puntos de vista en que las circunstancias nos han colocado! Enseñemos a los que no consideramos suficientemente instruidos, pero no sin antes examinar rigurosamente nuestras propias opiniones y sopesar con imparcialidad sus probabilidades respectivas.
27
BIBLIOGRAFÍA HISTORIA DE LA PROBABILIDAD: LIBROS: -De Groot, Morris H., Probabilidad y estadística, Addison-Wesley Iberoam. 1988 -Cooke, Roger, The History of Mathematics.A brief course. John Wiley & Sons,1997 -Cramer, Elementos de de la Teoría de probabilidades probabilidades y algunas algunas de sus aplicaciones aplicaciones (traducción de Anselmo Calleja), Aguilar 1960 -Todhunter, Isaac, History of the theory of probability probability, Chelsea, 1965 -Gnedenko, Boris, Theory of probability. Gordon & Breach science publications,1997 -Gillispie, Dictionary of scientific scientific biography, biography, Charles Scribner's Sons, 1981
INTERNET: - http://www-groups.dcs.st-and.ac.uk http://www-groups.dc s.st-and.ac.uk/-history/ /-history/ (McTutor history of mathematics) - http://www.arrakis.es/~mcj/prb019.ht http://www.arrakis. es/~mcj/prb019.htm m (Solución del problema del c.de Meré) - http://www.sectormatematica.cl/biografias http://www.sectormatematic a.cl/biografias.htm .htm (Breves apuntes biográficos) - http://kogi.udea.edu.co/revista/16/16-111.pdf#search=%22historia%20de%20la%20probabilidad%22 (Ponencia breve acerca de la probabilidad) - http://www.monografias.com/trabajos/renacim/renacim.shtml ( texto sobre el renacimiento, usado para conocer la época y contexto histórico)
TRATAMIENTO DE TEXTO ORIGINAL: -Laplace, Pierre-Simon, Ensayo filosófico filosófico sobre sobre las probabilidade probabilidadess, traducción de Pilar Castillo, Alianza editorial, 1985 - http://www.google.es/books?hl=es http://www.google.e s/books?hl=es (Búsqueda de libros de google) http://www.google.es/books?vid=OCLC01450686&id=kquzFVmtQ04C&pg=PA1&lpg =PA1&dq=essai+laplace#PPP3,M1 =PA1&dq=essai+lapla ce#PPP3,M1 (dirección exacta del libro)
29
30
31
32
View more...
Comments