Con infinitas monedas, no es tan fácil

Pablo Groisman
Abrazar el azar
Published in
12 min readNov 4, 2023

No podemos asignarle probabilidad a todo. Así es la vida. Y lo más fantástico es que eso no es un problema. O mejor dicho: sí es un problema, pero tiene solución.

[Este texto es parte del libro Abrazar el azar]

Podés conseguirlo acá.

La primera vez que me crucé con una pregunta sobre el azar estaba en medio de un apasionado juego de generala en donde los ánimos estaban bastante caldeados. En determinado momento me encontré ante la difícil situación de tener que tachar la escalera o el full y me costaba tomar un decisión. Ni siquiera tenía clara cuál era la pregunta que quería responderme, pero intuía que entender las probabilidades de los distintos posibles eventos era relevante.

Diez años después, me encontré estudiando matemática en la Facultad de Ciencias Exactas y Naturales de la Universidad de Buenos Aires, sentado en un asiento del aula 7 para la primera clase de la materia Probabilidad y Estadística, dictada por el gran Victor Yohai, un héroe de la estadística y la matemática argentina e internacional. Estaba ansioso por enterarme qué tenía para decir la matemática acerca del azar.

Después de varias discusiones motivacionales, llegó el momento de las definiciones rigurosas, los teoremas y sus demostraciones.

Y entonces Victor empezó con…

Un espacio de probabilidad es un conjunto Ω de posibles resultados elementales de un experimento, equipado con una familia de conjuntos que llamamos “eventos” y una “probabilidad” P que le asigna un número entre 0 y 1 a cada evento, y que además verifica algunas propiedades muy naturales como que

  1. La probabilidad de que ocurra alguno de todos los posibles resultados del experimento, es uno. Es decir, siempre hay un resultado del experimento.

2. Para cualquier evento A, la probabilidad de que no pase A es 1-P(A).

Bastante razonable.

3. Si dos eventos no pueden ocurrir simultáneamente, la probabilidad de que ocurra alguno de los dos es la suma de sus probabilidades. Y no solo para dos, pueden ser tres, cuatro, o incluso infinitos (si es que los podemos enumerar).

Un ejemplo! Un ejemplo!

Claro. Empecemos por el más simple de todos. Si nuestro experimento consiste en lanzar una moneda (una vez) y ver el resultado, podemos elegir

Ω = {cara, ceca},

los eventos son ‘sale cara’, ‘sale ceca’ y ‘sale o bien cara o bien ceca’. La probabilidad de cada uno de los dos primeros es 1/2 y la probabilidad de que salga cara o salga ceca (alguno de todos los posibles resultados) es 1. Suena raro, tautológico. Un poco lo es, pero nos sirve explicitarlo.

Si en lugar de una, tiramos dos veces la moneda, podríamos elegir
Ω = {(cara, cara), (cara, ceca), (ceca, cara), (ceca, ceca)}. Para el experimento de tirar un dado podríamos tomar Ω = {1, 2, 3, 4, 5, 6}, etc. Entonces podemos identificar cualquier cosa en la que estemos interesados con un conjunto. Por ejemplo, el evento “sale par” al arrojar un dado es el conjunto {2, 4, 6}.

Si tiramos 10 veces la moneda, se complica un poco, pero las y los invito a imaginarse quién es Ω y cuál es la probabilidad de algunos posibles eventos. No todas son fáciles de calcular. Por ejemplo la probabilidad de que salgan todas caras (las 10 veces), creo que me van a coincidir en que es

(1/2)x(1/2)x….x(1/2) (10 veces),

pero hay otras que se complican un poco más. Por ejemplo la probabilidad de que salgan más caras que cecas. No es fácil hacer la cuenta, pero es un poco más fácil confiar en que hay una posible cuenta que se puede hacer. Attenti con lo que acabo de decir. Hay una posible cuenta que se puede hacer (más allá de que a nosotros nos salga hacerla).

Esta observación es muy importante porque lo que vengo a contarles es que si tiramos infinitas monedas, hay cosas a las que no podemos asignarle una probabilidad. No es que no podamos o no sepamos hacer la cuenta. No hay cuenta posible. No hay forma de asignarle probabilidad.

Si lanzamos infinitas monedas, hay cosas a las que no podemos asignarle una probabilidad. No es que no podamos o no sepamos hacer la cuenta. No hay cuenta posible. No hay forma de asignarle probabilidad.

Eso es lo que demostró Giuseppe Vitali en 1905, mientras repartía su tiempo entre las clases que dictaba en escuelas secundarias de Sassari, Voghera y Génova y su militancia en el partido socialista italiano. Y a eso vamos.

Vamos a considerar entonces el experimento de lanzar infinitas monedas. No 100, no 10.000 no 10 mil millones de millones. Vamos a tirar la moneda infinitas veces.

Una pregunta atinada es ¿y por qué uno querría considerar ese experimento?

La intuición más clara, concisa (¡y correcta!) que tenemos en relación a la probabilidad es lo que se conoce como ley de los grandes números. Es la que dice que si tiramos muchas veces una moneda equilibrada, la proporción de caras (y de cecas) que obtendremos será aproximadamente 1/2. Una forma un poco más precisa de decir esto es afirmar que a medida que tiramos más y más veces la moneda, la proporción de caras se irá acercando más y más a 1/2. Cualquier marco teórico que uno utilice no debería entrar en contradicción con este hecho. No solo eso, deberíamos poder deducirlo (demostrarlo) a partir de los axiomas. El teorema en cuestión, la ley de los grandes números, dice exactamente eso. Que la proporción de caras tiende a 1/2 con probabilidad uno. Eso quiere decir que podemos hacer que se acerque tanto como queramos a 1/2, y que se quede ahí para siempre, si tiramos la moneda suficientes veces.

Ahora, para poder enunciar la ley de los grandes números (ni que hablar de demostrarla), debemos poder considerar como Ω un conjunto que represente el experimento de tirar infinitas veces la moneda*. No alcanza con 100, no alcanza con 10.000, no alcanza con 10 mil millones de millones.

Que no, que no ¡Que no se puede!

Vamos a tomar como Ω el conjunto de sucesiones de unos y ceros. Una sucesión de unos y ceros, representa (según nuestra convención) una sucesión infinita de lanzamientos de moneda. Un elemento típico de Ω es algo así

000011000101000110110110000001010100011000100101001101010000…

Los puntos suspensivos están para indicar que la secuencia de ceros y unos sigue infinitamente. No podemos escribirla, solo podemos imaginarla. Todo bien con Ω entonces. Nuestro problema será P, la probabilidad. Queremos construir una P que cumpla con algunas cuestiones mínimas que sabemos que deben ocurrir en nuestro experimento. Construir P significa poder decir, de alguna manera, cuánto vale P(A) para cualquier subconjunto A de Ω. Uno de esos posibles conjuntos (eventos) es A = “en el primer lanzamiento sale cara”, que está formado por todas las sucesiones infinitas de ceros y unos que tienen un 1 en el primer lugar. Tenemos que tener definida P(A) para este evento y creo que todos vamos a estar de acuerdo en que para este A, P(A) debería valer 1/2. O, como dijimos arriba, la probabilidad de que salgan n caras seguidas en la primeras n tiradas, debería ser (1/2)^n. Lo mismo si miramos n tiradas de moneda pero en lugar de las primeras n, en cualquier lugar de la sucesión. Por ejemplo entre la 100 y la 110. Y lo mismo si en lugar de preguntarnos por n caras seguidas, nos preguntamos por una sucesión en particular. Por ejemplo 1010101010. La probabilidad de observar cara-ceca-cara-ceca-cara-ceca-cara-ceca-cara-ceca entre la tirada 100 y la 110, queremos que sea (1/2)^10. Hay una forma muy linda y concisa de pedirle a P todo esto: queremos que P sea tal que si cambiamos “cara” por “ceca” en uno de los lanzamientos, P no cambie. Eso tiene un nombre y es pedirle a P que sea “invariante por flips” (en inglés flip-invariant). A veces decimos solamente invariante. Por ejemplo, P(cara) tiene que ser igual a P(ceca), y la única forma de que esto pase es que ambas sean 1/2. De la misma forma, P(cara,cara) tiene que ser igual a P(ceca, cara) a P(cara, ceca) y a P(ceca, ceca) porque todas esas combinaciones se obtienen cambiando cara por ceca (o al revés de a un solo lugar). Y la única forma de que eso pase es que todas valgan 1/4. Los invito a pensar en el hecho de que a partir de suponer que P es invariante, podemos demostrar que a P le tiene que pasar todo lo que dijimos arriba.

Giuseppe Vitali demostró que no puede existir una P así. Más precisamente, probó que no se podía cumplir el axioma 2, el axioma 3 y la “invarianza” al mismo tiempo.

Teorema. No se puede definir una P en Ω que sea invariante por flips y que cumpla con los axiomas 1, 2 y 3.

Demostración. La demostración a continuación está basada en la que aparece en [1], que invitamos a consultar para quienes gusten de mayor precisión y rigor matemático. Vamos a empezar partiendo al conjunto Ω en varios subconjuntos. Todas las sucesiones que coinciden en todos los lugares, salvo una cantidad finita de ellos, van en un mismo grupo. Otra forma de decirlo es que todas las sucesiones que terminan igual (a partir de un momento son iguales) van en el mismo grupo.

Por ejemplo, 01011111111111…, 01001111111111…, 00001111111111… y 11111111111111…, están en el mismo grupo, junto con muchas otras. El grupo de todas las sucesiones que a partir de un momento tienen todos 1. Ese momento puede ser el lugar 10, el 1000 o el 1058, pero a partir de un momento tiene que tener todos 1.

Ahora vamos a construir un conjunto que llamaremos A, en donde pondremos exactamente un elemento de cada uno de estos grupos. De las cuatro sucesiones de arriba, vamos a quedarnos con una sola y pondremos una por cada posible “final” de la sucesión de lanzamientos de moneda. Habrá una que represente a todas las sucesiones que terminan en 0, otra que represente a todas las que terminan con …010101010101… y también otras que representen a otros posibles finales, que no podemos siquiera escribirlos.

Dos elementos cualesquiera de este conjunto A deben diferir necesariamente en infinitos lugares. Lo que vamos a demostrar es que no hay forma de definir P(A) si queremos que todo funcione. Es decir, que se cumplan los axiomas de Kolmogorov y que, además, nuestra probabilidad sea invariante por flips.

Antes de seguir, los invito a pensar cuánto creen que debería valer la probabilidad del conjunto A.

En el Capítulo 3, calculamos varias probabilidades. Vimos que si, por ejemplo, consideramos el conjunto de todas las sucesiones que empiezan con 1010, que corresponde al evento “el primer lanzamiento sale cara, luego ceca, luego cara y luego ceca”, y no nos preocupamos por lo que pueda pasar después, ese evento tiene que tener probabilidad 1/16 y, de forma similar, calculamos la probabilidad que deberían tener un montón de conjuntos. ¿Qué opinan del conjunto que les acabo de describir? No parece nada fácil decidirse. Vamos a ver que ese conjunto necesariamente tiene que tener probabilidad cero, pero, por otro lado, veremos también que ese conjunto no puede tener probabilidad cero.

Conjuntos de probabilidad cero no son necesariamente un problema. De hecho, la probabilidad de que saquemos cara en los infinitos lanzamientos de la moneda es cero. Los invito a pensar por qué. Eso no representa ningún inconveniente. Vamos a ver, entonces, cuál es el problema con nuestro conjunto A.

Como vamos a explotar la invarianza por flips, vamos a introducir algunas notaciones que nos van a ayudar. Usaremos la letra s para denotar una sucesión de caras y cecas. Puede ser una cualquiera. La escribimos s = (s_1, s_2, s_3, …), y cada s_1, s_2, etc. vale 1 o 0. Si tenemos una sucesión s y queremos referirnos a la sucesión que es casi igual a s, pero en donde cambiamos lo que tiene en el lugar 4, es decir, si había un 1 ponemos un 0 y si había un 0 ponemos un 1, lo vamos a hacer escribiendo T_4(s).

Entonces, por ejemplo:

De la misma forma, podemos definir T_7(s), T_43(s) o T_n(s) para cualquier otro número n. También vamos a usar expresiones como T_{2,3,7}(s), que significa cambiar lo que tiene s en los lugares 2, 3 y 7. Por ejemplo,

Vamos a usar en general la letra S para representar un conjunto finito de lugares en la sucesión que estamos interesados. En el ejemplo anterior, S = {2, 3, 7}. Vale la pena notar que:

y que T_4(T_4(s)) = s, al igual que con cualquier S, T_S (T_S(s)) = s. Si cambiamos dos veces lo que hay en un lugar, o en varios, es como no haber hecho nada. Una cosita más. A veces, vamos a querer agarrar un conjunto y hacer T_4(A) (o T_S(A)). Eso significa hacerle T_4 a todos los elementos de A (o hacerle T_S todos los elementos de A, es decir, cambiar lo que tienen todos los elementos de A en todos los lugares que indica S). Vamos a juntar tres cosas.

  1. La condición de invarianza por flips podemos escribirla ahora como que para cualquier conjunto finito S

Si cambiamos caras por cecas en una cantidad finita de lugares, no cambian las probabilidades.

2. Otra observación importante es que cualquier sucesión posible de lanzamientos de moneda está en T_S(A) para algún S. Eso es porque en A pusimos a un representante de cada grupo. Entonces, para cualquier sucesión que se nos ocurra, tiene que haber en A una sucesión que termina igual que la que se nos ocurrió y, entonces, cambiando los lugares en que son distintas (que son finitos) logramos recuperarla.

3. La última observación es que, si agarramos dos conjuntos distintos S y S’, ninguna sucesión puede estar a la vez en T_S(A) y en T_S’(A). Eso pasa porque si una sucesión s estuviera ahí, tendría que pasar que T_S(s) está en A y que T_S’(s) también está en A. Pero eso quiere decir que hay dos sucesiones en A que difieren solo en una cantidad finita de lugares y eso no puede ser porque elegimos exactamente una sucesión de cada grupo. Dos sucesiones distintas de A tienen que ser distintas en infinitos lugares necesariamente.

Con todo esto, podemos ponernos a cocinar nuestra demostración. Si juntamos las observaciones 2. y 3. con el axioma 3, nos dice que si sumamos los P(T_S(A)) de todos los posibles S nos tiene que dar P(Ω)*, que por el axioma 1 vale 1.

Por otra parte, la observación 1. nos dice que todos los P(T_S(A)) valen lo mismo que P(A). Pero fíjense que los posibles S son infinitos. Entonces, llegamos a la conclusión de que sumando infinitas veces P(A) nos tiene que dar uno. Eso es imposible porque si P(A) es cero, sumar infinitas veces cero da
cero y, si P(A) es positivo, sumar infinitas veces una cantidad positiva tiene que dar más grande que cualquier número. Esto contradice al axioma 1, que dice que esa suma tiene que dar uno.

La conclusión es que no es posible definir P(A) y, por lo tanto, no es posible definir P para cualquier subconjunto de Ω. A lo sumo, solo para algunos.

Con esto terminamos la demostración. Tal vez aquellos con conocimientos avanzados de matemática notaron que hemos usado el Axioma de Elección. Si sabés qué es el Axioma de Elección y no lo notaste, te invito a revisitar la prueba a ver si lo notás. Si no sabés qué es el Axioma de Elección, podés saltear este párrafo. El uso del Axioma de Elección es fundamental para la construcción de este tipo de conjuntos.

  • Quienes hayan leído el capítulo 3 completo antes de venir acá, seguramente tendrán ganas de reclamar que necesitamos saber si podemos hacer una lista con todos los posibles S o no, porque si no es posible hacer esa lista, no hay nada contradictorio en todo esto. Pero resulta que sí es posible hacer esa lista. Podemos armarla, por ejemplo, ordenando por el número más grande que aparece en S. Ponemos primero a todos los S en los que el número más grande que aparece es el 1. El único que cumple con eso es S = {1}. Luego ponemos a todos en los que el número más grande que aparece es el 2 (y que no hayamos puesto ya antes). Eso son S = {2} y S = {1, 2} y así siguiendo. Cada etapa la vamos a ir terminando porque tenemos que poner solo una cantidad finita de conjuntos S y al terminar este proceso infinito tendremos una lista (infinita) con todos los posibles S.

*Esto no es exactamente así, pero sí que es lindo poder definir ese evento, ¿no?

[1] Georgii, Hans-Otto: Stochastics. Introduction to probability and statistics. Translated by Marcel Ortgiese, Ellen Baake, and the author. Berlín: de Gruyter, 2013. Disponible en: http://dx.doi.org/10.1515/9783110293609

--

--

Pablo Groisman
Abrazar el azar

Math. Probability. CONICET. Exactas at University of Buenos Aires. #TeRegaloUnTeorema