denotado por “S” o “Ω ”
VARIABLE. Se denomina variable a la entidad que puede tomar un valor cualesquiera durante la
duración de un proceso dado. Si la variable toma un solo valor durante el proceso se llama constante.
VARIABLE ALEATORIA: Es una función que asocia un número real a cada elemento del espacio
muestral. Es decir son aquellas que pueden diferir de una respuesta a otra.
Una variable aleatoria se puede clasificar en:
Variable aleatoria discreta.
Variable aleatoria continua.
Variable aleatoria discreta. Una variable discreta proporciona datos que son llamados datos
cuantitativos discretos y son respuestas numéricas que resultan de un proceso de conteo.
La cantidad de alumnos regulares en un grupo escolar.
El número de águilas en cinco lanzamientos de una moneda.
Número de circuitos en una computadora.
El número de vehículos vendidos en un día, en un lote de autos
Variable aleatoria continua. Es aquella que se encuentra dentro de un intervalo comprendido entre dos
valores cualesquiera; ésta puede asumir infinito número de valores y éstos se pueden medir.
La estatura de un alumno de un grupo escolar.
El peso en gramos de una moneda.
La edad de un hijo de familia.
Las dimensiones de un vehículo.
Distribución binomial
En estadística, la distribución binomial es una distribución de probabilidad discreta que cuenta el número de éxitos en una secuencia de n ensayos de Bernoulli independientes entre sí, con una probabilidad fija p de ocurrencia del éxito entre los ensayos. Un experimento de Bernoulli se caracteriza por ser dicotómico, esto es, sólo son posibles dos resultados. A uno de estos se denomina éxito y tiene una probabilidad de ocurrencia p y al otro, fracaso, con una probabilidad q = 1 - p. En la distribución binomial el anterior experimento se repite n veces, de forma independiente, y se trata de calcular la probabilidad de un determinado número de éxitos. Para n = 1, la binomial se convierte, de hecho, en una distribución de Bernoulli.
Para representar que una variable aleatoria X sigue una distribución binomial de parámetros n y p, se escribe:
X \sim B(n, p)\,
La distribución binomial es la base del test binomial de significación estadística.
Distribución Binomial
Los experimentos que tienen este tipo de distribución tienen las siguientes características:
a) Al realizar un experimento con este tipo de distribución, se esperan dos tipos de resultados.
b) Las probabilidades asociadas a cada uno de los resultados no son constantes.
c) Cada ensayo o repetición del experimento no es independiente de los demás.
d) El número de repeticiones del experimento (n) es constante.
Ejemplo:
En una urna o recipiente hay un total de N objetos, entre los cuales hay una cantidad a de objetos que son defectuosos, si se seleccionan de esta urna n objetos al azar, y sin reemplazo, ¿cuál es la probabilidad de obtener xobjetos defectuosos?
Solución:
Luego;
donde:
p(x,n) = probabilidad de obtener x objetos defectuosos de entre n seleccionados
muestras de n objetos en donde hay x que son defectuosos y n-x buenos
todas las muestras posibles de seleccionar de n objetos tomadas de entre N objetos en total = espacio muestral
Considerando que en la urna hay un total de 10 objetos, 3 de los cuales son defectuosos, si de seleccionan 4 objetos al azar, ¿cuál es la probabilidad de que 2 sean defectuosos?
Solución:
N = 10 objetos en total
a = 3 objetos defectuosos
n = 4 objetos seleccionados en muestra
x = 2 objetos defectuosos deseados en la muestra
Esperanza Matemática
En estadística la esperanza matemática (también llamada esperanza, valor esperado, media poblacional o media) de una variable aleatoria , es el número que formaliza la idea de valor medio de un fenómeno aleatorio.
Cuando la variable aleatoria es discreta, la esperanza es igual a la suma de la probabilidad de cada posible suceso aleatorio multiplicado por el valor de dicho suceso. Por lo tanto, representa la cantidad media que se "espera" como resultado de un experimento aleatorio cuando la probabilidad de cada suceso se mantiene constante y el experimento se repite un elevado número de veces. Cabe decir que el valor que toma la esperanza matemática en algunos casos puede no ser "esperado" en el sentido más general de la palabra - el valor de la esperanza puede ser improbable o incluso imposible.
Por ejemplo, el valor esperado cuando tiramos un dado equilibrado de 6 caras es 3,5. Podemos hacer el cálculo
y cabe destacar que 3,5 no es un valor posible al rodar el dado. En este caso, en el que todos los sucesos son de igual probabilidad, la esperanza es igual a la media aritmética.
Una aplicación común de la esperanza matemática es en las apuestas o los juegos de azar. Por ejemplo, la ruleta americana tiene 38 casillas equiprobables. La ganancia para acertar una apuesta a un solo número paga de 35 a 1 (es decir, cobramos 35 veces lo que hemos apostado y recuperamos la apuesta, así que recibimos 36 veces lo que hemos apostado). Por tanto, considerando los 38 posibles resultados, la esperanza matemática del beneficio para apostar a un solo número es:
que es -0,0526 aproximadamente. Por lo tanto uno esperaría, en media, perder unos 5 céntimos por cada euro que apuesta, y el valor esperado para apostar 1 euro son 0.9474 euros. En el mundo de las apuestas, un juego donde el beneficio esperado es cero (no ganamos ni perdemos) se llama un "juego justo".
Nota: El primer paréntesis es la "esperanza" de perder tu apuesta de 1€, por eso es negativo el valor. El segundo paréntesis es la esperanza matemática de ganar los 35€. La esperanza matemática del beneficio es el valor esperado a ganar menos el valor esperado a perder.
Teorema de Balles
En la teoría de la probabilidad el teorema de Bayes es un resultado enunciado por Thomas Bayes en 17631 que expresa la probabilidad condicional de un evento aleatorio A dado B en términos de la distribución de probabilidad condicional del evento B dado A y la distribución de probabilidad marginal de sólo A.
En términos más generales y menos matemáticos, el teorema de Bayes es de enorme relevancia puesto que vincula la probabilidad de A dado B con la probabilidad de B dado A. Es decir que sabiendo la probabilidad de tener un dolor de cabeza dado que se tiene gripe, se podría saber (si se tiene algún dato más), la probabilidad de tener gripe si se tiene un dolor de cabeza, muestra este sencillo ejemplo la alta relevancia del teorema en cuestión para la ciencia en todas sus ramas, puesto que tiene vinculación íntima con la comprensión de la probabilidad de aspectos causales dados los efectos observados.
Ejemplos:
No hay comentarios.:
Publicar un comentario