Problemas de la determinación clásica de la probabilidad. Fórmulas de la teoría de la probabilidad y ejemplos de resolución de problemas.

De hecho, las fórmulas (1) y (2) son un breve registro de probabilidad condicional basado en una tabla de contingencia de características. Volvamos al ejemplo comentado (Fig. 1). Supongamos que nos enteramos de que una familia planea comprar un televisor de pantalla ancha. ¿Cuál es la probabilidad de que esta familia realmente compre un televisor de este tipo?

Arroz. 1. Comportamiento de compra de televisores de pantalla ancha

EN en este caso Necesitamos calcular la probabilidad condicional P (compra completada | compra planificada). Como sabemos que la familia planea comprar, el espacio muestral no consta de las 1000 familias, sino solo de aquellas que planean comprar un televisor de pantalla ancha. De las 250 familias de este tipo, 200 compraron este televisor. Por lo tanto, la probabilidad de que una familia realmente compre un televisor de pantalla ancha si así lo ha planeado se puede calcular mediante la siguiente fórmula:

P (compra completada | compra planificada) = número de familias que planearon y compraron un televisor de pantalla ancha / número de familias que planean comprar un televisor de pantalla ancha = 200 / 250 = 0,8

La fórmula (2) da el mismo resultado:

donde esta el evento A es que la familia está planeando comprar un televisor de pantalla ancha y el evento EN- que ella realmente lo comprará. Sustituyendo datos reales en la fórmula, obtenemos:

Árbol de decisión

En la figura. 1 las familias se dividen en cuatro categorías: las que planeaban comprar un televisor de pantalla ancha y las que no, así como las que compraron dicho televisor y las que no. Se puede realizar una clasificación similar utilizando un árbol de decisión (Fig. 2). El árbol mostrado en la Fig. 2 tiene dos sucursales correspondientes a familias que tenían previsto adquirir un televisor de pantalla ancha y familias que no. Cada una de estas ramas se divide en dos ramas adicionales correspondientes a los hogares que compraron y no compraron un televisor de pantalla ancha. Las probabilidades escritas al final de las dos ramas principales son las probabilidades incondicionales de eventos. A Y A'. Las probabilidades escritas al final de las cuatro ramas adicionales son las probabilidades condicionales de cada combinación de eventos. A Y EN. Las probabilidades condicionales se calculan dividiendo la probabilidad conjunta de eventos por la probabilidad incondicional correspondiente de cada uno de ellos.

Arroz. 2. Árbol de decisión

Por ejemplo, para calcular la probabilidad de que una familia compre un televisor de pantalla ancha si así lo ha planeado, se debe determinar la probabilidad del evento. compra planificada y completada y luego dividirlo por la probabilidad del evento compra planeada. Avanzando por el árbol de decisión que se muestra en la Fig. 2, obtenemos la siguiente respuesta (similar a la anterior):

Independencia estadística

En el ejemplo de comprar un televisor de pantalla ancha, la probabilidad de que una familia seleccionada al azar comprara un televisor de pantalla ancha dado que planeaban hacerlo es 200/250 = 0,8. Recuerde que la probabilidad incondicional de que una familia seleccionada al azar haya comprado un televisor de pantalla ancha es 300/1000 = 0,3. Esto lleva a una conclusión muy importante. La información previa de que la familia estaba planeando una compra influye en la probabilidad de la compra en sí. En otras palabras, estos dos eventos dependen uno del otro. A diferencia de este ejemplo, existen eventos estadísticamente independientes cuyas probabilidades no dependen unas de otras. La independencia estadística se expresa por la identidad: P(A|B) = P(A), Dónde P(A|B)- probabilidad de evento A siempre que el hecho haya ocurrido EN, PENSILVANIA)- probabilidad incondicional del evento A.

Tenga en cuenta que los eventos A Y EN P(A|B) = P(A). Si en una tabla de contingencia de características que tiene un tamaño de 2×2, esta condición se cumple para al menos una combinación de eventos. A Y EN, será válido para cualquier otra combinación. En nuestros eventos de ejemplo compra planeada Y compra completada no son estadísticamente independientes porque la información sobre un evento afecta la probabilidad de otro.

Veamos un ejemplo que muestra cómo probar la independencia estadística de dos eventos. Preguntemos a 300 familias que compraron un televisor de pantalla ancha si estaban satisfechas con su compra (Fig. 3). Determinar si el grado de satisfacción con la compra y el tipo de televisor están relacionados.

Arroz. 3. Datos que caracterizan el grado de satisfacción de los compradores de televisores de pantalla ancha.

A juzgar por estos datos,

Al mismo tiempo,

P (cliente satisfecho) = 240 / 300 = 0,80

Por lo tanto, la probabilidad de que el cliente esté satisfecho con la compra y que la familia haya comprado un HDTV son iguales, y estos eventos son estadísticamente independientes porque no están relacionados de ninguna manera.

Regla de multiplicación de probabilidad

La fórmula para calcular la probabilidad condicional le permite determinar la probabilidad de un evento conjunto. A y B. Habiendo resuelto la fórmula (1)

relativo a la probabilidad conjunta P(A y B), obtenemos una regla general para multiplicar probabilidades. probabilidad de evento A y B igual a la probabilidad del evento A siempre que el evento ocurra EN EN:

(3) P(A y B) = P(A|B) * P(B)

Tomemos como ejemplo 80 familias que compraron un televisor HDTV de pantalla ancha (Fig. 3). La tabla muestra que 64 familias están satisfechas con la compra y 16 no. Supongamos que se seleccionan aleatoriamente dos familias entre ellas. Determine la probabilidad de que ambos clientes queden satisfechos. Usando la fórmula (3), obtenemos:

P(A y B) = P(A|B) * P(B)

donde esta el evento A es que la segunda familia está satisfecha con su compra, y el evento EN- que la primera familia esté satisfecha con su compra. La probabilidad de que la primera familia esté satisfecha con su compra es 64/80. Sin embargo, la probabilidad de que la segunda familia también esté satisfecha con su compra depende de la respuesta de la primera familia. Si la primera familia no vuelve a la muestra después de la encuesta (selección sin devolución), el número de encuestados se reduce a 79. Si la primera familia está satisfecha con su compra, la probabilidad de que la segunda familia también esté satisfecha es 63 /79, ya que en la muestra sólo quedan 63 familias satisfechas con su compra. Así, sustituyendo datos específicos en la fórmula (3), obtenemos la siguiente respuesta:

P(A y B) = (63/79)(64/80) = 0,638.

Por tanto, la probabilidad de que ambas familias estén satisfechas con sus compras es del 63,8%.

Supongamos que después de la encuesta la primera familia regresa a la muestra. Determine la probabilidad de que ambas familias queden satisfechas con su compra. En este caso, las probabilidades de que ambas familias estén satisfechas con su compra son iguales e iguales a 64/80. Por tanto, P(A y B) = (64/80)(64/80) = 0,64. Así, la probabilidad de que ambas familias estén satisfechas con sus compras es del 64,0%. Este ejemplo muestra que la elección de la segunda familia no depende de la elección de la primera. Por lo tanto, reemplazando la probabilidad condicional en la fórmula (3) P(A|B) probabilidad PENSILVANIA), obtenemos una fórmula para multiplicar las probabilidades de eventos independientes.

La regla para multiplicar las probabilidades de eventos independientes. Si los eventos A Y EN son estadísticamente independientes, la probabilidad de un evento A y B igual a la probabilidad del evento A, multiplicado por la probabilidad del evento EN.

(4) P(A y B) = P(A)P(B)

Si esta regla es cierta para eventos A Y EN, lo que significa que son estadísticamente independientes. Por tanto, hay dos formas de determinar la independencia estadística de dos eventos:

  1. Eventos A Y EN son estadísticamente independientes entre sí si y sólo si P(A|B) = P(A).
  2. Eventos A Y B son estadísticamente independientes entre sí si y sólo si P(A y B) = P(A)P(B).

Si en una tabla de contingencia de características que tiene un tamaño de 2×2, se cumple una de estas condiciones para al menos una combinación de eventos A Y B, será válido para cualquier otra combinación.

Probabilidad incondicional de un evento elemental.

(5) P(A) = P(A|B 1)P(B 1) + P(A|B 2)P(B 2) + … + P(A|B k)P(B k)

donde los eventos B 1, B 2, ... B k son mutuamente excluyentes y exhaustivos.

Ilustremos la aplicación de esta fórmula usando el ejemplo de la Fig. 1. Usando la fórmula (5), obtenemos:

P(A) = P(A|B 1)P(B 1) + P(A|B 2)P(B 2)

Dónde PENSILVANIA)- la probabilidad de que la compra fuera planeada, P(B1)- la probabilidad de que se realice la compra, P(B2)- la probabilidad de que la compra no se complete.

TEOREMA DE BAYES

La probabilidad condicional de un evento tiene en cuenta la información de que ha ocurrido algún otro evento. Este enfoque se puede utilizar tanto para refinar la probabilidad teniendo en cuenta la información recién recibida como para calcular la probabilidad de que el efecto observado sea consecuencia de una causa específica. El procedimiento para refinar estas probabilidades se llama teorema de Bayes. Fue desarrollado por primera vez por Thomas Bayes en el siglo XVIII.

Supongamos que la empresa mencionada anteriormente está investigando el mercado para un nuevo modelo de televisor. En el pasado, el 40% de los televisores creados por la empresa tuvieron éxito, mientras que el 60% de los modelos no fueron reconocidos. Antes de anunciar el lanzamiento de un nuevo modelo, los especialistas en marketing investigan cuidadosamente el mercado y registran la demanda. En el pasado, se predecía que el 80% de los modelos exitosos eran exitosos, mientras que el 30% de las predicciones exitosas resultaban erróneas. El departamento de marketing hizo una previsión favorable para el nuevo modelo. ¿Cuál es la probabilidad de que haya demanda de un nuevo modelo de televisor?

El teorema de Bayes puede derivarse de las definiciones de probabilidad condicional (1) y (2). Para calcular la probabilidad P(B|A), tome la fórmula (2):

y sustituir en lugar de P(A y B) el valor de la fórmula (3):

P(A y B) = P(A|B) * P(B)

Sustituyendo la fórmula (5) en lugar de P(A), obtenemos el teorema de Bayes:

donde los eventos B 1, B 2, ... B k son mutuamente excluyentes y exhaustivos.

Introduzcamos la siguiente notación: evento S - La televisión tiene demanda, evento S’- La televisión no tiene demanda., evento F - pronóstico favorable, evento F’- mal pronóstico. Supongamos que P(S) = 0,4, P(S’) = 0,6, P(F|S) = 0,8, P(F|S’) = 0,3. Aplicando el teorema de Bayes obtenemos:

La probabilidad de demanda de un nuevo modelo de televisor, dada una previsión favorable, es de 0,64. Por tanto, la probabilidad de falta de demanda dada una previsión favorable es 1–0,64=0,36. El proceso de cálculo se muestra en la Fig. 4.

Arroz. 4. (a) Cálculos utilizando la fórmula de Bayes para estimar la probabilidad de demanda de televisores; (b) Árbol de decisión al estudiar la demanda de un nuevo modelo de TV

Veamos un ejemplo del uso del teorema de Bayes para el diagnóstico médico. La probabilidad de que una persona padezca una determinada enfermedad es 0,03. Un examen médico puede comprobar si esto es cierto. Si una persona está realmente enferma, la probabilidad de un diagnóstico preciso (que diga que la persona está enferma cuando realmente está enferma) es 0,9. Si una persona está sana, la probabilidad de un diagnóstico falso positivo (que diga que una persona está enferma cuando está sana) es de 0,02. Digamos que la prueba médica da un resultado positivo. ¿Cuál es la probabilidad de que una persona esté realmente enferma? ¿Cuál es la probabilidad de un diagnóstico preciso?

Introduzcamos la siguiente notación: evento D - la persona esta enferma, evento D’- la persona esta sana, evento T - el diagnostico es positivo, evento T’- diagnóstico negativo. De las condiciones del problema se deduce que P(D) = 0,03, P(D’) = 0,97, P(T|D) = 0,90, P(T|D’) = 0,02. Aplicando la fórmula (6), obtenemos:

La probabilidad de que con un diagnóstico positivo una persona esté realmente enferma es de 0,582 (ver también Fig. 5). Tenga en cuenta que el denominador de la fórmula de Bayes es igual a la probabilidad de un diagnóstico positivo, es decir 0,0464.

La teoría de la probabilidad es una rama de las matemáticas que estudia los patrones de los fenómenos aleatorios: eventos aleatorios, variables aleatorias, sus propiedades y operaciones sobre ellos.

Durante mucho tiempo, la teoría de la probabilidad no tuvo una definición clara. Fue formulado recién en 1929. El surgimiento de la teoría de la probabilidad como ciencia se remonta a la Edad Media y a los primeros intentos de análisis matemático. juego(lanzamiento, dados, ruleta). Los matemáticos franceses del siglo XVII Blaise Pascal y Pierre Fermat, mientras estudiaban la predicción de las ganancias en los juegos de azar, descubrieron los primeros patrones probabilísticos que surgen al tirar los dados.

La teoría de la probabilidad surgió como ciencia a partir de la creencia de que los eventos aleatorios masivos se basan en ciertos patrones. La teoría de la probabilidad estudia estos patrones.

La teoría de la probabilidad se ocupa del estudio de sucesos cuya ocurrencia no se conoce con certeza. Le permite juzgar el grado de probabilidad de que ocurran algunos eventos en comparación con otros.

Por ejemplo: es imposible determinar inequívocamente el resultado de "cara" o "cruz" como resultado del lanzamiento de una moneda, pero con lanzamientos repetidos, aparece aproximadamente el mismo número de "cara" y "cruz", lo que significa que el La probabilidad de que caiga “cara” o “cruz” es igual al 50%.

Prueba en este caso, se denomina implementación de un determinado conjunto de condiciones, es decir, en este caso, lanzamiento de una moneda. El desafío se puede jugar un número ilimitado de veces. En este caso, el conjunto de condiciones incluye factores aleatorios.

El resultado de la prueba es evento. El evento sucede:

  1. Confiable (siempre ocurre como resultado de las pruebas).
  2. Imposible (nunca sucede).
  3. Aleatorio (puede ocurrir o no como resultado de la prueba).

Por ejemplo, al lanzar una moneda, un evento imposible: la moneda caerá de borde, un evento aleatorio: la aparición de "cara" o "cruz". El resultado de la prueba específica se llama evento elemental. Como resultado de la prueba, sólo ocurren eventos elementales. El conjunto de todos los resultados posibles, diferentes y específicos de una prueba se denomina espacio de eventos elementales.

Conceptos básicos de la teoría.

Probabilidad- el grado de posibilidad de que ocurra un evento. Cuando las razones para que ocurra algún posible evento superan las razones opuestas, entonces este evento se llama probable; de ​​lo contrario, improbable o improbable.

variable aleatoria- Se trata de una cantidad que, como resultado de las pruebas, puede tomar uno u otro valor, y no se sabe de antemano cuál. Por ejemplo: número por estación de bomberos por día, número de impactos con 10 disparos, etc.

Las variables aleatorias se pueden dividir en dos categorías.

  1. Variable aleatoria discreta es una cantidad que, como resultado de una prueba, puede tomar ciertos valores con una cierta probabilidad, formando un conjunto contable (un conjunto cuyos elementos pueden numerarse). Este conjunto puede ser finito o infinito. Por ejemplo, el número de disparos antes del primer impacto en el objetivo es una variable aleatoria discreta, porque esta cantidad puede tomar un número infinito, aunque contable, de valores.
  2. Variable aleatoria continua es una cantidad que puede tomar cualquier valor de algún intervalo finito o infinito. Evidentemente, el número de valores posibles de una variable aleatoria continua es infinito.

Espacio de probabilidad- concepto introducido por A.N. Kolmogorov en los años 30 del siglo XX para formalizar el concepto de probabilidad, lo que dio lugar al rápido desarrollo de la teoría de la probabilidad como una disciplina matemática estricta.

Un espacio de probabilidad es un triple (a veces encerrado entre corchetes angulares: , donde

Se trata de un conjunto arbitrario, cuyos elementos se denominan eventos, resultados o puntos elementales;
- álgebra sigma de subconjuntos llamados eventos (aleatorios);
- medida de probabilidad o probabilidad, es decir medida finita aditiva sigma tal que .

Teorema de De Moivre-Laplace- uno de los teoremas límite de la teoría de la probabilidad, establecido por Laplace en 1812. Afirma que el número de éxitos al repetir el mismo experimento aleatorio una y otra vez con dos resultados posibles se distribuye aproximadamente normalmente. Le permite encontrar un valor de probabilidad aproximado.

Si para cada uno de los ensayos independientes la probabilidad de que ocurra algún evento aleatorio es igual a () y es el número de ensayos en los que realmente ocurre, entonces la probabilidad de que la desigualdad sea cierta es cercana (para valores grandes) a la valor de la integral de Laplace.

Función de distribución en la teoría de la probabilidad.- una función que caracteriza la distribución de una variable aleatoria o un vector aleatorio; la probabilidad de que una variable aleatoria X tome un valor menor o igual a x, donde x es un número real arbitrario. Sujeto a condiciones conocidas determina completamente la variable aleatoria.

Expectativa- el valor promedio de una variable aleatoria (esta es la distribución de probabilidad de una variable aleatoria, considerada en la teoría de la probabilidad). En la literatura de lengua inglesa se denota por , en ruso - . En estadística, la notación se utiliza a menudo.

Sea un espacio de probabilidad dado y una variable aleatoria definida en él. Ésta es, por definición, una función mensurable. Entonces, si hay una integral de Lebesgue sobre el espacio, entonces se llama expectativa matemática, o valor medio, y se denota.

Varianza de una variable aleatoria- una medida de la dispersión de una variable aleatoria determinada, es decir, su desviación de la expectativa matemática. Está designado en la literatura rusa y extranjera. En estadística, se utiliza a menudo la notación o. Raíz cuadrada de la varianza se llama desviación estándar, desviación estándar o dispersión estándar.

Sea una variable aleatoria definida en algún espacio de probabilidad. Entonces

donde el símbolo denota la expectativa matemática.

En teoría de la probabilidad, dos eventos aleatorios se llaman independiente, si la ocurrencia de uno de ellos no cambia la probabilidad de ocurrencia del otro. De manera similar, dos variables aleatorias se llaman dependiente, si el valor de uno de ellos afecta la probabilidad de los valores del otro.

Forma de ley más simple grandes números es el teorema de Bernoulli, que establece que si la probabilidad de un evento es la misma en todos los ensayos, entonces a medida que aumenta el número de ensayos, la frecuencia del evento tiende a la probabilidad del evento y deja de ser aleatoria.

La ley de los grandes números en la teoría de la probabilidad establece que la media aritmética de una muestra finita de una distribución fija está cerca de la media teórica de esa distribución. Dependiendo del tipo de convergencia, se distingue entre la ley débil de los grandes números, cuando la convergencia se produce por probabilidad, y la ley fuerte de los grandes números, cuando la convergencia es casi segura.

El significado general de la ley de los grandes números es que la acción conjunta de un gran número de factores aleatorios idénticos e independientes conduce a un resultado que, en última instancia, no depende del azar.

Los métodos para estimar la probabilidad basados ​​en análisis de muestras finitas se basan en esta propiedad. Un claro ejemplo es la previsión de resultados electorales basada en una encuesta a una muestra de votantes.

Teoremas del límite central- una clase de teoremas de la teoría de la probabilidad que establecen que la suma es suficiente gran cantidad Las variables aleatorias débilmente dependientes que tienen aproximadamente las mismas escalas (ningún término domina o hace una contribución decisiva a la suma) tienen una distribución cercana a la normal.

Dado que muchas variables aleatorias en las aplicaciones se forman bajo la influencia de varios factores aleatorios débilmente dependientes, su distribución se considera normal. En este caso se debe cumplir la condición de que ninguno de los factores sea dominante. Los teoremas del límite central en estos casos justifican el uso de la distribución normal.

En economía, como en otras áreas de la actividad humana o en la naturaleza, tenemos que lidiar constantemente con eventos que no se pueden predecir con precisión. Por tanto, el volumen de ventas de un producto depende de la demanda, que puede variar significativamente, y de otros factores que son casi imposibles de tener en cuenta. Por lo tanto, al organizar la producción y realizar las ventas, es necesario predecir el resultado de dichas actividades basándose en la propia experiencia previa, en la experiencia similar de otras personas o en la intuición, que también se basa en gran medida en datos experimentales.

Para evaluar de alguna manera el evento en cuestión, es necesario tener en cuenta u organizar especialmente las condiciones en las que se registra este evento.

La implementación de ciertas condiciones o acciones para identificar el evento en cuestión se llama experiencia o experimento.

El evento se llama aleatorio, si como resultado de la experiencia puede ocurrir o no.

El evento se llama confiable, si aparece necesariamente como resultado de una experiencia determinada, y imposible, si no puede aparecer en esta experiencia.

Por ejemplo, la nevada en Moscú el 30 de noviembre es un evento aleatorio. El amanecer diario puede considerarse un evento confiable. Las nevadas en el ecuador pueden considerarse un evento imposible.

Una de las principales tareas de la teoría de la probabilidad es la tarea de determinar una medida cuantitativa de la posibilidad de que ocurra un evento.

álgebra de eventos

Los acontecimientos se denominan incompatibles si no pueden observarse juntos en la misma experiencia. Así, la presencia de dos y tres coches en una tienda a la venta al mismo tiempo son dos hechos incompatibles.

Cantidad eventos es un evento que consiste en la ocurrencia de al menos uno de estos eventos

Un ejemplo de suma de eventos es la presencia de al menos uno de dos productos en la tienda.

La obra eventos es un evento que consiste en la ocurrencia simultánea de todos estos eventos

Un evento que consiste en la aparición de dos productos en una tienda al mismo tiempo es producto de eventos: - la aparición de un producto, - la aparición de otro producto.

Formulario de eventos grupo completo eventos si al menos uno de ellos es seguro que ocurrirá en la experiencia.

Ejemplo. El puerto cuenta con dos atracaderos para recibir barcos. Se pueden considerar tres acontecimientos: - la ausencia de buques en los atracaderos, - la presencia de un buque en uno de los atracaderos, - la presencia de dos buques en dos atracaderos. Estos tres eventos forman un grupo completo de eventos.

Opuesto Se llaman dos eventos posibles únicos que forman un grupo completo.

Si uno de los eventos opuestos se denota por , entonces el evento opuesto generalmente se denota por .

Definiciones clásicas y estadísticas de probabilidad de eventos.

Cada uno de los resultados igualmente posibles de las pruebas (experimentos) se denomina resultado elemental. Suelen estar designados con letras. Por ejemplo, se lanza un dado. Puede haber un total de seis resultados elementales según la cantidad de puntos en los lados.

A partir de resultados elementales se puede crear un evento más complejo. Por tanto, el suceso de un número par de puntos está determinado por tres resultados: 2, 4, 6.

Una medida cuantitativa de la posibilidad de que ocurra el evento en cuestión es la probabilidad.

Las definiciones más utilizadas de probabilidad de un evento son: clásico Y estadístico.

La definición clásica de probabilidad está asociada con el concepto de resultado favorable.

El resultado se llama favorable a un evento determinado si su ocurrencia implica la ocurrencia de este evento.

En el ejemplo dado, el evento en cuestión es número par puntos en el lado perdido tiene tres resultados favorables. En este caso, el general
número de resultados posibles. Esto significa que aquí se puede utilizar la definición clásica de probabilidad de un evento.

Definición clásica es igual a la relación entre el número de resultados favorables y número total posibles resultados

donde es la probabilidad del evento, es el número de resultados favorables al evento, es el número total de resultados posibles.

En el ejemplo considerado

La definición estadística de probabilidad está asociada con el concepto de frecuencia relativa de ocurrencia de un evento en los experimentos.

La frecuencia relativa de ocurrencia de un evento se calcula mediante la fórmula

¿Dónde es el número de ocurrencias de un evento en una serie de experimentos (pruebas)?

Definición estadística. La probabilidad de un evento es el número alrededor del cual la frecuencia relativa se estabiliza (se establece) con un aumento ilimitado en el número de experimentos.

En problemas prácticos, la probabilidad de un evento se toma como la frecuencia relativa a una frecuencia suficientemente gran número pruebas.

De estas definiciones de la probabilidad de un evento queda claro que la desigualdad siempre se satisface

Para determinar la probabilidad de un evento según la fórmula (1.1), a menudo se utilizan fórmulas combinatorias, que se utilizan para encontrar el número de resultados favorables y el número total de resultados posibles.

como categoría ontológica refleja el alcance de la posibilidad del surgimiento de cualquier entidad bajo cualquier condición. A diferencia de la interpretación matemática y lógica de este concepto, la matemática ontológica no se asocia a la obligación de expresión cuantitativa. El significado de V. se revela en el contexto de la comprensión del determinismo y la naturaleza del desarrollo en general.

Excelente definicion

Definición incompleta

PROBABILIDAD

concepto que caracteriza cantidades. la medida de la posibilidad de que ocurra un determinado evento en un determinado condiciones. En científico conocimiento hay tres interpretaciones de V. El concepto clásico de V., que surgió de las matemáticas. El análisis del juego y más desarrollado por B. Pascal, J. Bernoulli y P. Laplace, considera ganar como la relación entre el número de casos favorables y el número total de todos los igualmente posibles. Por ejemplo, al lanzar un dado que tiene 6 caras, se puede esperar que cada una de ellas arroje un valor de 1/6, ya que ninguna de las caras tiene ventajas sobre la otra. Esta simetría de los resultados experimentales se tiene especialmente en cuenta a la hora de organizar juegos, pero es relativamente rara en el estudio de acontecimientos objetivos en la ciencia y la práctica. Clásico La interpretación de V. dio paso a las estadísticas. Los conceptos de V., que se basan en la realidad. observar la ocurrencia de un determinado evento durante un largo período de tiempo. experiencia en condiciones precisamente fijadas. La práctica confirma que cuanto más a menudo ocurre un evento, más mas grado posibilidad objetiva de su ocurrencia, o B. Por tanto, estadística. La interpretación de V. se basa en el concepto de relación. frecuencia, que puede determinarse experimentalmente. V. como teórico el concepto nunca coincide con la frecuencia determinada empíricamente, pero sí en plural. En algunos casos difiere prácticamente poco del relativo. frecuencia encontrada como resultado de la duración. observaciones. Muchos estadísticos consideran a V. como un "doble". frecuencias, los bordes se determinan estadísticamente. estudio de resultados observacionales

o experimentos. Menos realista fue la definición de V. en lo que respecta al límite. frecuencias de eventos masivos, o grupos, propuestos por R. Mises. Como mayor desarrollo El enfoque frecuencial de V. propone una interpretación disposicional o propensiva de V. (K. Popper, J. Hacking, M. Bunge, T. Settle). Según esta interpretación, V. caracteriza la propiedad de generar condiciones, por ejemplo. experimento. instalaciones para obtener una secuencia de eventos aleatorios masivos. Es precisamente esta actitud la que da origen al malestar físico. disposiciones, o predisposiciones, V. que pueden comprobarse utilizando familiares. frecuencia

Estadístico La interpretación de V. domina la investigación científica. cognición, porque refleja algo específico. la naturaleza de los patrones inherentes a los fenómenos masivos de naturaleza aleatoria. En muchos aspectos físicos, biológicos, económicos, demográficos. y otros procesos sociales, es necesario tener en cuenta la acción de muchos factores aleatorios, que se caracterizan por una frecuencia estable. Identificar estas frecuencias y cantidades estables. su valoración con la ayuda de V. permite revelar la necesidad que se abre paso a través de la acción acumulativa de muchos accidentes. Aquí es donde encuentra su manifestación la dialéctica de transformar el azar en necesidad (ver F. Engels, en el libro: K. Marx y F. Engels, Works, vol. 20, pp. 535-36).

El razonamiento lógico o inductivo caracteriza la relación entre las premisas y la conclusión del razonamiento no demostrativo y, en particular, inductivo. A diferencia de la deducción, las premisas de la inducción no garantizan la verdad de la conclusión, sino que sólo la hacen más o menos plausible. Esta plausibilidad, con premisas formuladas con precisión, a veces puede evaluarse utilizando V. El valor de esta V. se determina la mayoría de las veces por comparación. conceptos (mayor que, menor que o igual a), y a veces de forma numérica. Lógico La interpretación se utiliza a menudo para analizar el razonamiento inductivo y construir varios sistemas de lógica probabilística (R. Carnap, R. Jeffrey). En semántica conceptos lógicos V. a menudo se define como el grado en que una afirmación es confirmada por otras (por ejemplo, una hipótesis por sus datos empíricos).

En relación con el desarrollo de teorías sobre la toma de decisiones y los juegos, el llamado interpretación personalista de V. Aunque V. expresa al mismo tiempo el grado de fe del sujeto y la ocurrencia de un determinado evento, los propios V. deben elegirse de tal manera que se cumplan los axiomas del cálculo de V.. Por tanto, V. con tal interpretación expresa no tanto el grado de fe subjetiva, sino más bien razonable. En consecuencia, las decisiones tomadas sobre la base de dicha V. serán racionales, porque no tienen en cuenta factores psicológicos. Características e inclinaciones del sujeto.

Con epistemológico t.zr. diferencia entre estadístico, lógico. Y las interpretaciones personalistas de V. es que si la primera caracteriza las propiedades y relaciones objetivas de los fenómenos masivos de naturaleza aleatoria, las dos últimas analizan las características de lo subjetivo y cognitivo. actividades humanas en condiciones de incertidumbre.

PROBABILIDAD

uno de los conceptos más importantes ciencia, que caracteriza una visión sistémica especial del mundo, su estructura, evolución y conocimiento. La especificidad de la visión probabilística del mundo se revela a través de la inclusión en el número conceptos basicos la existencia de los conceptos de aleatoriedad, independencia y jerarquía (ideas de niveles en la estructura y determinación de sistemas).

Las ideas sobre probabilidad se originaron en la antigüedad y se relacionaron con las características de nuestro conocimiento, mientras que se reconocía la existencia de conocimientos probabilísticos, que se diferenciaban del conocimiento confiable y del conocimiento falso. El impacto de la idea de probabilidad en el pensamiento científico y en el desarrollo del conocimiento está directamente relacionado con el desarrollo de la teoría de la probabilidad como disciplina matemática. El origen de la doctrina matemática de la probabilidad se remonta al siglo XVII, cuando se desarrolló un núcleo de conceptos que la permitían. características cuantitativas (numéricas) y expresión de una idea probabilística.

En la segunda mitad se producen aplicaciones intensivas de la probabilidad al desarrollo de la cognición. 19- 1er piso. siglo 20 La probabilidad ha entrado en las estructuras de ciencias fundamentales de la naturaleza como la física estadística clásica, la genética, la teoría cuántica y la cibernética (teoría de la información). En consecuencia, la probabilidad personifica esa etapa en el desarrollo de la ciencia, que ahora se define como ciencia no clásica. Para revelar la novedad y las características de la forma de pensar probabilística, es necesario partir del análisis del tema de la teoría de la probabilidad y los fundamentos de sus numerosas aplicaciones. La teoría de la probabilidad suele definirse como una disciplina matemática que estudia los patrones de fenómenos aleatorios masivos bajo ciertas condiciones. La aleatoriedad significa que, en el marco del carácter masivo, la existencia de cada fenómeno elemental no depende ni está determinada por la existencia de otros fenómenos. Al mismo tiempo, la naturaleza masiva de los fenómenos tiene una estructura estable y contiene ciertas regularidades. Un fenómeno de masas se divide de manera bastante estricta en subsistemas, y el número relativo de fenómenos elementales en cada uno de los subsistemas (frecuencia relativa) es muy estable. Esta estabilidad se compara con la probabilidad. Un fenómeno de masas en su conjunto se caracteriza por una distribución de probabilidad, es decir, por la especificación de subsistemas y sus correspondientes probabilidades. El lenguaje de la teoría de la probabilidad es el lenguaje de las distribuciones de probabilidad. En consecuencia, la teoría de la probabilidad se define como la ciencia abstracta de operar con distribuciones.

La probabilidad dio origen en la ciencia a ideas sobre patrones estadísticos y sistemas estadísticos. la ultima esencia Los sistemas formados a partir de entidades independientes o cuasi independientes, su estructura se caracteriza por distribuciones de probabilidad. Pero ¿cómo es posible formar sistemas a partir de entidades independientes? Generalmente se supone que para la formación de sistemas con características integrales, es necesario que existan conexiones suficientemente estables entre sus elementos que cimenten los sistemas. La estabilidad de los sistemas estadísticos está dada por la presencia de condiciones externas, el entorno externo, externo y no fuerzas internas. La definición misma de probabilidad siempre se basa en establecer las condiciones para la formación del fenómeno de masas inicial. Otra idea importante que caracteriza el paradigma probabilístico es la idea de jerarquía (subordinación). Esta idea expresa la relación entre las características de los elementos individuales y las características integrales de los sistemas: estas últimas, por así decirlo, se construyen sobre las primeras.

La importancia de los métodos probabilísticos en la cognición radica en el hecho de que permiten estudiar y expresar teóricamente los patrones de estructura y comportamiento de objetos y sistemas que tienen una estructura jerárquica de "dos niveles".

El análisis de la naturaleza de la probabilidad se basa en su frecuencia, interpretación estadística. Al mismo tiempo, muy mucho tiempo En la ciencia prevaleció tal comprensión de la probabilidad, que se llamó probabilidad lógica o inductiva. La probabilidad lógica está interesada en cuestiones de validez de un juicio individual separado bajo ciertas condiciones. ¿Es posible evaluar el grado de confirmación (fiabilidad, verdad) de una conclusión inductiva (conclusión hipotética) en forma cuantitativa? Durante el desarrollo de la teoría de la probabilidad, estas cuestiones se discutieron repetidamente y comenzaron a hablar de los grados de confirmación de conclusiones hipotéticas. Esta medida de probabilidad está determinada por los datos disponibles. esta persona información, su experiencia, puntos de vista sobre el mundo y mentalidad psicológica. En total casos similares la magnitud de la probabilidad no se presta a mediciones estrictas y prácticamente queda fuera de la competencia de la teoría de la probabilidad como disciplina matemática consistente.

La interpretación objetiva y frecuentista de la probabilidad se estableció en la ciencia con importantes dificultades. Inicialmente, la comprensión de la naturaleza de la probabilidad estuvo influenciada por fuerte impacto aquellos puntos de vista filosóficos y metodológicos que eran característicos de la ciencia clásica. Históricamente, el desarrollo de los métodos probabilísticos en física se produjo bajo la influencia determinante de las ideas de la mecánica: los sistemas estadísticos se interpretaban simplemente como mecánicos. Dado que los problemas correspondientes no se resolvieron mediante métodos estrictos de la mecánica, surgieron afirmaciones de que recurrir a métodos probabilísticos y leyes estadísticas es el resultado de que nuestro conocimiento es incompleto. En la historia del desarrollo de la física estadística clásica, se hicieron numerosos intentos de fundamentarla sobre la base de la mecánica clásica, pero todos fracasaron. La base de la probabilidad es que expresa las características estructurales de una determinada clase de sistemas distintos de los mecánicos: el estado de los elementos de estos sistemas se caracteriza por la inestabilidad y una naturaleza especial (no reducible a la mecánica) de las interacciones.

La entrada de la probabilidad en el conocimiento conduce a la negación del concepto de determinismo duro, a la negación del modelo básico de ser y conocimiento desarrollado en el proceso de formación de la ciencia clásica. Los modelos básicos representados por las teorías estadísticas tienen un significado diferente, más carácter general: Incluyen ideas de aleatoriedad e independencia. La idea de probabilidad está asociada con la divulgación de la dinámica interna de objetos y sistemas, que no puede ser determinada completamente por condiciones y circunstancias externas.

El concepto de una visión probabilística del mundo, basada en la absolutización de las ideas sobre la independencia (como antes el paradigma de la determinación rígida), ha revelado ahora sus limitaciones, que afectan con mayor fuerza a la transición. ciencia moderna a métodos analíticos para estudiar sistemas complejos y los fundamentos físicos y matemáticos de los fenómenos de autoorganización.

Excelente definicion

Definición incompleta ↓

Probabilidad evento es la relación entre el número de resultados elementales favorables a un evento dado y el número de todos los resultados igualmente posibles de la experiencia en la que este evento puede aparecer. La probabilidad del evento A se denota por P(A) (aquí P es la primera letra palabra francesa probabilidad - probabilidad). Según la definición
(1.2.1)
¿Dónde está el número de resultados elementales favorables al evento A? - el número de todos los resultados elementales igualmente posibles del experimento, formando un grupo completo de eventos.
Esta definición de probabilidad se llama clásica. Surgió el etapa inicial desarrollo de la teoría de la probabilidad.

La probabilidad de un evento tiene las siguientes propiedades:
1. La probabilidad de un evento confiable es igual a uno. Denotemos un evento confiable con la letra . Por lo tanto, para un determinado evento
(1.2.2)
2. La probabilidad de un evento imposible es cero. Denotemos un evento imposible con la letra. Para un evento imposible, por lo tanto
(1.2.3)
3. La probabilidad de un evento aleatorio se expresa como un número positivo menor que uno. Dado que para un evento aleatorio se satisfacen las desigualdades , o , entonces
(1.2.4)
4. La probabilidad de cualquier evento satisface las desigualdades.
(1.2.5)
Esto se desprende de las relaciones (1.2.2) - (1.2.4).

Ejemplo 1. Una urna contiene 10 bolas de igual tamaño y peso, de las cuales 4 son rojas y 6 son azules. Se extrae una bola de la urna. ¿Cuál es la probabilidad de que la bola extraída sea azul?

Solución. Denotamos el evento “la bola extraída resultó ser azul” con la letra A. Esta prueba tiene 10 resultados elementales igualmente posibles, de los cuales 6 favorecen el evento A. De acuerdo con la fórmula (1.2.1), obtenemos

Ejemplo 2. Todos los números naturales del 1 al 30 se escriben en tarjetas idénticas y se colocan en una urna. Después de barajar bien las cartas, se retira una carta de la urna. ¿Cuál es la probabilidad de que el número de la tarjeta extraída sea múltiplo de 5?

Solución. Denotemos por A el evento "el número de la tarjeta tomada es múltiplo de 5". En esta prueba hay 30 resultados elementales igualmente posibles, de los cuales el evento A se ve favorecido por 6 resultados (los números 5, 10, 15, 20, 25, 30). Por eso,

Ejemplo 3. Se lanzan dos dados y se calcula la suma de los puntos de las caras superiores. Calcula la probabilidad del evento B, consistente en que las caras superiores del dado tendrán un total de 9 puntos.

Solución. En esta prueba sólo hay 6 2 = 36 resultados elementales igualmente posibles. El evento B se ve favorecido por 4 resultados: (3;6), (4;5), (5;4), (6;3), por lo tanto

Ejemplo 4. Seleccionado al azar número natural, sin exceder 10. ¿Cuál es la probabilidad de que este número sea primo?

Solución. Denotemos el evento “el número elegido es primo” con la letra C. En este caso n = 10, m = 4 ( numeros primos 2, 3, 5, 7). Por lo tanto, la probabilidad requerida

Ejemplo 5. Se lanzan dos monedas simétricas. ¿Cuál es la probabilidad de que haya números en las caras superiores de ambas monedas?

Solución. Denotemos con la letra D el evento "hay un número en la parte superior de cada moneda". En esta prueba hay 4 resultados elementales igualmente posibles: (G, G), (G, C), (C, G), (C, C). (La notación (G, C) significa que la primera moneda tiene un escudo de armas, la segunda tiene un número). El evento D se ve favorecido por un resultado elemental (C, C). Como m = 1, n = 4, entonces

Ejemplo 6.¿Cuál es la probabilidad de que un número de dos cifras elegido al azar tenga los mismos dígitos?

Solución. números de dos dígitos son números del 10 al 99; Hay 90 números de este tipo en total. Mismos números tiene 9 números (estos números son 11, 22, 33, 44, 55, 66, 77, 88, 99). Como en este caso m = 9, n = 90, entonces
,
donde A es el evento "número con dígitos idénticos".

Ejemplo 7. De las letras de la palabra. diferencial Se elige una letra al azar. ¿Cuál es la probabilidad de que esta letra sea: a) vocal, b) consonante, c) letra? h?

Solución. La palabra diferencial tiene 12 letras, de las cuales 5 son vocales y 7 son consonantes. Letras h no hay nada en esta palabra. Designemos los eventos: A - “letra vocal”, B - “letra consonante”, C - “letra h". El número de resultados elementales favorables: - para el evento A, - para el evento B, - para el evento C. Dado que n = 12, entonces
, Y .

Ejemplo 8. Se lanzan dos dados y se anota el número de puntos en la parte superior de cada dado. Calcula la probabilidad de que ambos dados muestren la misma cantidad de puntos.

Solución. Denotemos este evento con la letra A. El evento A se ve favorecido por 6 resultados elementales: (1;]), (2;2), (3;3), (4;4), (5;5), (6 ;6). El número total de resultados elementales igualmente posibles que forman un grupo completo de eventos, en este caso n=6 2 =36. Esto significa que la probabilidad requerida

Ejemplo 9. El libro tiene 300 páginas. ¿Cuál es la probabilidad de que una página abierta al azar tenga un número de serie divisible por 5?

Solución. De las condiciones del problema se deduce que todos los resultados elementales igualmente posibles que forman un grupo completo de eventos serán n = 300. De estos, m = 60 favorecen la ocurrencia del evento especificado. De hecho, un número que es múltiplo de 5 tiene la forma 5k, donde k es un número natural, y , de donde . Por eso,
, donde A - el evento "página" tiene un número de secuencia que es múltiplo de 5".

Ejemplo 10. Se lanzan dos dados y se calcula la suma de los puntos de las caras superiores. ¿Qué es más probable: obtener un total de 7 u 8?

Solución. Designemos los eventos: A - “se obtienen 7 puntos”, B – “se obtienen 8 puntos”. El evento A se ve favorecido por 6 resultados elementales: (1; 6), (2; 5), (3; 4), (4; 3), (5; 2), (6; 1), y el evento B se ve favorecido. por 5 resultados: (2; 6), (3; 5), (4; 4), (5; 3), (6; 2). Todos los resultados elementales igualmente posibles son n = 6 2 = 36. Por lo tanto, Y .

Entonces, P(A)>P(B), es decir, obtener un total de 7 puntos es un evento más probable que obtener un total de 8 puntos.

Tareas

1. Se elige al azar un número natural que no excede 30. ¿Cuál es la probabilidad de que este número sea múltiplo de 3?
2. En la urna a rojo y b bolas azules, idénticas en tamaño y peso. ¿Cuál es la probabilidad de que una bola extraída al azar de esta urna sea azul?
3. Se elige al azar un número que no excede 30. ¿Cuál es la probabilidad de que este número sea divisor de 30?
4. En la urna A azul y b bolas rojas, idénticas en tamaño y peso. Se saca una bola de esta urna y se reserva. Esta bola resultó ser roja. Después de esto, se extrae otra bola de la urna. Calcula la probabilidad de que la segunda bola también sea roja.
5. Se elige al azar un número nacional que no exceda 50. ¿Cuál es la probabilidad de que este número sea primo?
6. Se lanzan tres dados y se calcula la suma de los puntos de las caras superiores. ¿Qué es más probable: obtener un total de 9 o 10 puntos?
7. Se lanzan tres dados y se calcula la suma de los puntos obtenidos. ¿Qué es más probable: obtener un total de 11 (evento A) o 12 puntos (evento B)?

Respuestas

1. 1/3. 2 . b/(a+b). 3 . 0,2. 4 . (b-1)/(a+b-1). 5 .0,3.6 . p 1 = 25/216 - probabilidad de obtener 9 puntos en total; p 2 = 27/216 - probabilidad de obtener 10 puntos en total; p 2 > p 1 7 . P(A) = 27/216, P(B) = 25/216, P(A) > P(B).

Preguntas

1. ¿Cómo se llama la probabilidad de un evento?
2. ¿Cuál es la probabilidad de un evento confiable?
3. ¿Cuál es la probabilidad de que ocurra un evento imposible?
4. ¿Cuáles son los límites de la probabilidad de un evento aleatorio?
5. ¿Cuáles son los límites de la probabilidad de cualquier evento?
6. ¿Qué definición de probabilidad se llama clásica?