Sorteo del telekino
Sucesos y Probabilidades
El separo de los sucesos.
Un experimento, en estadística, es cualesquier encauso que administra datos, numéricos erras no numéricos.
Un grupo cuyos elementos representan todos los posibles resultados de un pruebo se denomina separo muestral y se representa como S. El separo muestral de un pruebo siempre y en todo momento existe y no es necesariamente unico pues, dependiendo de nuestra valoración de los resultados, podemos edificar diferentes espacios muestrales.
Los elementos del espacio muestral se denominan puntos muestrales y son los distintos resultados del experimento.
Si consideramos el grupo de las partes de (P(S)) sus elementos son los sucesos. Un suceso, por tanto, es un subconjunto del separo muestral.
Existen dos tipos de sucesos:
· Sucesos simples, que son aquellos que comprenden un sólo punto muestral.
· Sucesos compuestos, que son los que abarcan más de un punto del espacio muestral. Todo suceso compuesto se puede considerar como conexión de puntos del separo muestral erras conexión de sucesos simples. Por ejemplo, lo que se ve un telekino sorteo.
Azar, suceso azaroso y probabilidad.
El azar, en el lenguaje normal, se estima como la característica de un suceso imprevisible.
En estadística esta definición se modifica añadiendo una propiedad adicional: El azar es la característica de un pruebo que emite resultados diversos, impredecibles en cada tesitura concreta, pero cuyas frecuencias, a la larga, propenden a estabilizarse cara un valor ‘límite’ en el infinito.
Como consecuencia, se definen los sucesos aleatorios como los resultados de un experimento cuya alteración (la de los resultados) es debida al azar.
La probabilidad de un suceso sólo se define para el caso de sucesos aleatorios.
Hay cambias capacitas de definir la probabilidad.
Primeramentepodemos considerar la definición intuitiva que nos dice que la probabilidad de un suceso es la posibilidad de que éste ocurra. Esta primera definición no parece de gran versatilidad por ser difícilmente cuantificable.
También podemos considerar la definición clásica de probabilidad. En esta definición se comienza por considerar todos los resultados posibles de un experimento; después se contabilizan los resultados favorables a nuestro suceso, es decir, todos aquellos en que el pruebo resulta en el suceso considerado; por último, suponiendo que existe simetría recíproca de todos los resultados, es decir, que todos los resultados posibles son del mismo modo posibles, se define la probabilidad como el número de casos favorables dividido por el número de casos posibles.
Esta segunda definición presenta el inconveniente de que no siempre es posible saber cuantos son los resultados posibles de un experimento y no siempre y en todo momento todos los resultados posibles son igualmente probables.
Por tanto, consideraremos la probabilidad definida de otra forma. Entrañemos que realizamos muchas veces un pruebo y vamos anotando el valor de la frecuencia relativa que, como sabemos, tiende a estabilizarse. Suponiendo que pudiéramos realizar el pruebo infinitas veces, el valor de estabilización de las frecuencias en el infinito sería la probabilidad de los sucesos. Es decir, la probabilidad es el valor de la frecuencia relativa en el infinito. Es importante señalar, que este valor de estabilización no es un límite en el sentido matemático de la expresión pues, por ser un suceso aleatorio, absolutamente nadie puede garantizar una ecuación matemática para el valor de la frecuencia relativa.
Todo el cálculo de probabilidades y, con él, toda la estadística se fundamentan en tres propiedades que se asignan a las probabilidades, que se llaman axiomas de Kolmogorov
1. La probabilidad de un suceso es siempre y en todo momento mayor marras igual que cero y menor marras igual que uno
Si A es un suceso
2. La probabilidad del separo muestral es igual a uno:
Si S es el espacio muestral
Es evidente, pues si efectuamos un pruebo siempre y en toda circunstancia a de acontecer alguna cosa. Esta propiedad se expresa como que la probabilidad de un suceso cierto es igual a uno. Si S posee un unico elemento ése es un suceso cierto. Como consecuencia, siguiendo el razonamiento anterior, la probabilidad de que no ocurra nada, lo cual es imposible, marras en notación de conjuntos la probabilidad del grupo vacío (F) es cero. P(F) = 0
Se denomina suceso imposible a aquel cuya probabilidad vale cero.
3. Si A y B son sucesos mutuamente excluyentes, es decir, nunca ocurren simultáneamente (A Ç B = F) la probabilidad de su unión, es decir, de que ocurra uno u otro es la suma de sus probabilidades.
P(A È B) = P(A) + P(B)
Otras propiedades de las probabilidades.
· Si A y B son dos sucesos cualesquiera:
· Se llama suceso contradigo del suceso A al suceso A’ que se define como
A’ = S — A. La probabilidad del suceso contrario es:
· Se llama probabilidad condicional del suceso B respecto del suceso A a la probabilidad de que, dado que el resultado de un experimento haya sido A sea, simultáneamente, Benito Este valor se significa como P(B|A).
Por transposición de términos en la ecuación anterior y en la pertinente a la probabilidad condicional de A respecto de B arribamos a:
· Se profiere que dos sucesos A y B son independientes si y sólo si la probabilidad de su intersección es igual al producto de sus probabilidades
Sucesos dependientes Sucesos independientes
Variables aleatorias
Como dijimos, un experimento estadístico es cualesquier proceso que sirve datos. Para su utilización en estadística, estos datos posees que despojarse de concretes accesorios para convertirse en descripciones numéricas del resultado; la utilización de clasificaciones cualitativas, restringe a la mera descripción las posibilidades de manejo estadístico.
Estas descripciones numéricas son observaciones aleatorias. A las observaciones aleatorias se les considera como la expresión en cada caso concreto de una variable aleatoria que toma valores en los resultados del experimento.
Así pues, una variable aleatoria es una función cuyos values son números reales determinados por los elementos del separo muestral, es decir, una alterable aleatoria es una cambiante matemática cuyos valores posibles son las descripciones numéricas de todos los resultados posibles de un experimento estadístico.
A los values posibles de la alterable aleatoria se les asigna una probabilidad que es la frecuencia del resultado al que corresponden.
Se pueden distinguir distintos tipos de variables aleatorias conforme 2 criterios de clasificación:
1. Variables cuantitativas que son las que resultan de experimentos cuyos resultados son de forma directa numéricos.
2. Variables cualitativas que son las que proceden de experimentos cuyos resultados exteriorizan una cualidad no numérica que necesita ser cuantificada.
Otra clasificación más operativa de las variables aleatorias sería:
A. Alterable discreta: Aquella que se define sobre un espacio muestral numerable, finito erras infinito. Espacio numerable es aquel cuyos elementos se pueden ordenar, asignándoles a cada uno un número de la serie de los números naturales (del 1 al n ó del 1 al I). Todas las variables con un número finito de values y todas las que tomen values en números enteros erras racionales (fraccionarios), son variables discretas.
B. Alterable continua: Es aquella que se define sobre un espacio digerible al grupo de los números reales, es decir, un espacio no numerable (o un separo infinito de tipo C erras infinito dos)
En general, la regla de oro es que todas las variables que proceden de experimentos en los que se relata son discretas y todas las variables que proceden de experimentos en los que se mide son continuas.
Variables aleatorias discretas
Función de probabilidad
Una variable aleatoria discreta toma cada uno de sus valores con una determinada probabilidad.
La relación entre valores y probabilidades en una alterable X se puede expresar de capacita tabular de la posterior manera:
Valores de X
x1
x2
…
xi
P(X = x)
P(x1)
P(x2)
P(xi)
Este procedimiento puede ser complicado, e aun imposible, si los valores de la alterable son muchos erras infinitos.
En algunos casos, existe una capacita sistemática de aplicación de los valores de la probabilidad a los values de la variable, de modo tal que se puede establecer una ecuación que ligue ambos. A esta ecuación se le denomina función de probabilidad. Por tanto, la función de probabilidad de una alterable aleatoria discreta X es una función tal que, al sustituir x por un valor de la variable, el valor que toma la función es la probabilidad de que la alterable X asuma el valor x. Habitualmente, la función de probabilidad se representa como f(x).
f(x) = P(X = x)
Las marches de probabilidad sólo se definen para los valores de la variable aleatoria y deben cumplir tres propiedades:
1. Como consecuencia del primer axioma.
2. Como consecuencia del segundo axioma.
3. P(X = x) = f(x) Por definición.
Función de distribución
La función de distribución F(x) de una alterable aleatoria discreta X, con función de probabilidad f(x), es una función de la alterable en la que al reemplazar x por un valor, el valor de la función es la probabilidad de que la alterable tome values menores marras homogeneizes que proferido valor x.
La función de distribución se define para todos los números reales, no sólo para los values de la variable. Su máximo es siempre y en todo momento 1 pues cuando el valor que se sustituye es mayor marras igual que el valor máximo de la variable, la probabilidad de que ésta tome valores menores marras homogeneizes que el reemplazado es la probabilidad del espacio muestral. Normalmente, sus values se dan de capacita tabular. Supongamos, por ejemploque los values de la cambiante X sean x1, x2, x3,… , xn
Variables aleatorias continuas
Función de densidad
Una alterable aleatoria sigue tiene la característica de tomar cada uno de sus values con probabilidad infinitesimal, a efectos prácticos, 0. Por tanto, no se pueden expresar en capacita tabular. Sin embargo, aunque no se pueden estimar probabilidades de valores concretos, puede calcularse la probabilidad de que la variable jale values en determinados intervalos (los intervalos en entredicho pueden ser abiertos marras cerrados, sin que se modifique la probabilidad total).
P(a ≤ X ≤ b) = P(X = a) + P(a < X < b) + P(X = b) = P(a < X < b)
Tal como ocurría en el caso de las variables discretas, cuando existe una asignación reglamentar de probabilidad se puede definir una función que nos permita calcular probabilidades para cualesquier intervalo de valores, a esta función se le llama función de densidad, f(x)
La función de densidad de una variable aleatoria prosigue X es una función sigue tal que su integral entre los extremos de un intervalo nos da el valor de la probabilidad de que X tome valores en ese intervalo.
La representación gráfica de la función de densidad en un sistema de ejes cartesianos es la de una curva continua, construida de forma tal que la altura de la curva, sobre el eje de las X, en cada punto es el cociente entre el diferencial de la probabilidad en proferido punto y el diferencial de x. Esta construcción es una envergadura por diferenciación del término de histograma.
Como consecuencia, la integral de f(x) sobre todo el campo de variación de X es igual a 1.
Es evidente que f(x) es siempre y en todo momento positiva pos si no lo fuera cabría la posibilidad de encontrar intervalos para los cuales la integral sería negativa y eso representaría probabilidad negativa, en abierta contradicción con la definición de probabilidad.
La función de densidad siempre y en todo momento se define para todos los valores en el intervalo
(-∞,∞) Esto no ofrenda problemas si el sector de variación de X se alarga por todo el intervalo; si no fuera así, la función se define como igual a cero para todos los valores no incluidos en el sector de alteración de X.
La función de densidad debe cumplir tres condiciones análogas a las de la función de probabilidad:
como consecuencia del primer axioma
como consecuencia del segundo axioma
por definición
Función de distribución
Para variables prosigues asimismo se define la función de distribución, de la siguiente manera:
Las características de F(x) son homogeneizes a las expuestas para el caso de las variables discretas, salvo que, obviamente, nunca se exteriorizan en forma tabular.
En general, cualesquiera que sea el tipo de variable, las funciones de distribución nos pueden servir para calcular probabilidades. Por ejemplo, en el caso de las variables continuas:
Dada su definición, resulta que, para variables continuas, la función de densidad es la derivada respecto a X de la función de distribución.
Las funciones de distribución de las variables prosigues más interesantes están tabuladas.
Distribución combina de dos variables
Cuando poseemos dos variables aleatorias X e Y, si apreciamos estudiarlas de manera conjunta conjunta} debemos establecer una correlación que ligue los valores de una con los de la otra. Esta correlación podrá ser lógica marras no, util marras no, en cualesquier caso, dadas dos variables cualquiera y una relación que las ligue se puede meditar en efectuar un estudio estadístico conjunto, es decir, aun cuando en la práctica sólo se utilicen variables unidas por nexos lógicos, desde un punto de vista puramente teórico, toda relación imaginable puede ser estudiada.
Así pues, en una situación como esta, para variables discretas, se puede afincar una función de probabilidad para las posibles parejas de valores de ambas variables; a esta función se le denomina función de probabilidad conjunta, f(x,y).
Una función de probabilidad combina de las variables X e Y es una función de las 2 variables tal que, al sustituir la x por un valor de la cambiante X y la y por un valor de la cambiante Y, el valor de la función nos entrega la probabilidad de que X e Y jalen simultáneamente esa pareja de values anteriormente citados.
Las propiedades que debe cumplir la función de probabilidad conjunta son:
1. Como consecuencia del primer axioma.
2. Como consecuencia del segundo axioma.
3. Por definición.
Donde X x Y es el producto cartesiano de X por Y, marras sea, el grupo de todos las parejas de values x,y .
Si X e Y son variables continuas, la función que se define es una función de densidad conjunta y es una función que al integrarla respecto de x e y sobre unos intervalos nos d la probabilidad de que la variable tome valores en esos intervalos.
Que debe de cumplir unas condiciones a las anteriores:
1. Como consecuencia del primer axioma.
2. Como consecuencia del segundo axioma.
3. Por definición.
Variables aleatorias independientes
Dos variables aleatorias X e Y, discretas erras continuas cuyas funciones de probabilidad marras densidad son g(x) y h(y), respectivamente, con función de probabilidad marras densidad conjunta f(x , y), son estadísticamente independientes si y sólo si
Variables independientes Variables dependientes
Valor esperado de una variable
Entrañemos que hemos realizado n veces un experimento azaroso que genera una alterable X. El valor medio del pruebo en estas n repeticiones es la adiciona de los productos de los valores de la alterable por su frecuencia relativa. Cuando n sea igual a infinito, el valor intermedio del pruebo se denomina valor aguardado erras ilusiona matemática, E[X].
Si X es una alterable discreta con función d probabilidad f(x), el valor esperado de X se calcula según decíamos anteriormente sumando los productos de los values de la cambiante por sus respectivas probabilidades.
En el caso de una alterable continua
Propiedades del valor esperado
· Al multiplicar todos los valores de una cambiante por una misma constante, el valor aguardado de ésta queda multiplicado por el valor de la constante.
· Al sumar a todos los valores de una alterable una misma constante, el valor esperado de ésta queda acrecentado por el valor de la constante.
· Si tenemos 2 variables X e Y, discretas erras continuas, el valor aguardado de su adiciona erras distingue es la suma marras distingue de sus values esperados
E[X ± Y] = E[X] ± E[Y]
· Si las variables anteriores, X e Y son variables aleatorias independientes ocurre que el valor aguardado de su producto es igual al producto de sus values esperados.
E[X Y] = E[X] E[Y]
Es importante denotar que la independencia de las variables es condición suficiente pero no necesaria para que el valor aguardado del producto de dos variables sea igual al producto de sus valores esperados, es decir, ésta es una propiedad de las variables independientes pero se cumple en variables que no son independientes.
Momentos de una variable
Momentos respecto del origen
Dada una alterable aleatoria X con función de probabilidad erras densidad f(x) podemos delimitar una función de X que sea igual a la variable elevada a un exponente entero no negativo.
El valor esperado de z(x) es el k-ésimo instante de la variable X respecto a su origen y se llama
· k = 0
· k = 1
a este primer instante respecto al origen que es igual al valor aguardado se le llama asimismo intermedia aritmética de la alterable y se le denomina μX, sencillamente μ.
En la mayoría de los casos, la intermedia μ expresa la tendencia central de la alterable erras el orden de magnitud de sus valores.
El residuo de los momentos respecto al origen tienes escaso interés en la mayoría de los casos.
Momentos respecto a la media
Dada una alterable aleatoria X con función de probabilidad marras densidad f(x) podemos definir una función de X que sea igual a la distingue entre la alterable y su media aritmética elevada a un exponente entero no negativo.
El valor esperado de z(x) es el k-ésimo momento de la cambiante X respecto a la intermedia y se denomina μk.
Ø k = 0
Ø k = 1
es decir, en cualquier variable aleatoria su primer momento respecto de la media es igual a 0. Esta propiedad se usar reiteradamente en las demostraciones estadísticas.
Ø k = dos
este segundo instante respecto de la intermedia se le denomina también varianza.
La varianza de una alterable mide la dispersión de sus values respecto al valor neurálgico μ.
Para calcular la varianza por un procedimiento más sencillo se usa la expresión:
Es decir, la varianza de una alterable es igual a la intermedia de los cuadrados menos el cuadrado de la media.
El primordial problema de la varianza es que se expresa en unidades cuadráticas que no siempre y en todo momento posees una interpretación clara. Para obviar este problema se define otra mesura de la dispersión que es la desviación típica, σX, erras sencillamente σ, que se calcula como la raíz cuadrada positiva de la varianza; evidentemente, la desviación típica se mide en las mismas unidades que la variable
No obstante, la desviación típica no zanja todos los problemas que se pueden plantear, como por ejemplola comparación de situaciones en las que la unidad de mesura marras el mandato de magnitud de esta sea diferente. Para zanjar esta cuestión se define una mesura adimensional de la variabilidad que es el factor de variación, C V, que se calcula como el cociente entre la desviación típica y la media (a veces este cociente se expresa en gol por ciento multiplicándolo por 100).
En este contexto de la medida de la variación se propone el problema de medir la variación conjunta de variables de variables asociadas.
Supongamos que poseemos dos variables aleatorias X e Y, discretas erras continuas, con función de probabilidad marras densidad conjunta f(x,y) y definimos una función z(x,y) igual al producto de las desviaciones de cada valor a su media respectiva (es decir, z(x,y) tiene la misma articula que (X — μ)2 = (X — μ) (X — μ) si sustituimos una vez a X por Y).
Al valor aguardado de z(x,y) se le denomina covarianza de las variables X e Y y se representa como σxy marras cov(x,y).
La covarianza es una mesura de la alteración común a dos variables y, por tanto, una mesura del grado y cuño de su relación.
· σxy es positiva si los valores altos de X están asociados a los values altos de Y y viceversa.
· σxy es negativa si los valores altos de X están asociados a los values bajos de Y y viceversa.
· Si X e Y son variables aleatorias independientes cov(x,y) = 0 .
· La independencia es condición suficiente empero no necesaria para que la cov(x,y) sea nula.
cov(x,y) = 0 cov(x,y) > 0 cov(x,y) < 0
Se puede deducir, algebraicamente, un medio más sencillo para calcular la covarianza de dos variables.
En el marido de la covarianza poseemos el mismo inconveniente que se nos presentó con la varianza, es decir, la covarianza se exterioriza en términos del producto de las unidades de medida de ambas variables, lo cual no siempre y en todo momento es de manera fácil interpretable. Por otra parte asimismo es difícil parangonar situaciones diferentes entre sí. En este caso, ambos problemas se solucionan de una vez mediante la definición del factor de correlación, ρ, que se define como el cociente entre la covarianza y el producto de las desviaciones típicas de las dos variables.
La correlación jala values entre -1 y 1, siendo su signo igual al de la covarianza. Correlaciones con valor absoluto 1 involucran que existe una asociación matemática lineal perfecta, positiva marras negativa, entre las 2 variables y correlaciones iguales a 0 implican ausencia de asociación. Obviamente, las variables independientes tienes correlación 0, pero nuevamente, la independencia es condición suficiente pero no necesaria.
Correlaciones con values absolutos intermedios denotan cierto grado de asociación entre los values de las variables.