Zagadnienia klasycznego wyznaczania prawdopodobieństwa. Wzory teorii prawdopodobieństwa i przykłady rozwiązywania problemów

W rzeczywistości wzory (1) i (2) są krótkim zapisem prawdopodobieństwa warunkowego opartym na tabeli kontyngencji cech. Wróćmy do omawianego przykładu (ryc. 1). Załóżmy, że dowiemy się, że rodzina planuje zakup telewizora szerokoekranowego. Jakie jest prawdopodobieństwo, że ta rodzina faktycznie kupi taki telewizor?

Ryż. 1. Zachowania zakupowe telewizorów panoramicznych

W w tym przypadku musimy obliczyć prawdopodobieństwo warunkowe P (zakup zrealizowany | zakup planowany). Ponieważ wiemy, że rodzina planuje zakup, przykładowa przestrzeń nie obejmuje wszystkich 1000 rodzin, a jedynie te, które planują zakup telewizora szerokoekranowego. Spośród 250 takich rodzin 200 faktycznie kupiło ten telewizor. Zatem prawdopodobieństwo, że rodzina faktycznie kupi telewizor panoramiczny, jeśli planowała to, można obliczyć za pomocą następującego wzoru:

P (zakup zrealizowany | zakup planowany) = liczba rodzin, które zaplanowały i kupiły telewizor panoramiczny / liczba rodzin planujących zakup telewizora panoramicznego = 200 / 250 = 0,8

Wzór (2) daje ten sam wynik:

gdzie jest to wydarzenie A jest to, że rodzina planuje zakup telewizora panoramicznego i to wydarzenie W- że faktycznie to kupi. Podstawiając do wzoru dane rzeczywiste otrzymujemy:

Drzewo decyzyjne

Na ryc. 1 rodziny dzielą się na cztery kategorie: te, które planowały kupić telewizor panoramiczny i te, które tego nie zrobiły, a także te, które kupiły taki telewizor i te, które tego nie zrobiły. Podobną klasyfikację można przeprowadzić wykorzystując drzewo decyzyjne (rys. 2). Drzewo pokazane na ryc. 2 ma dwa oddziały odpowiadające rodzinom, które planowały zakup telewizora panoramicznego i rodzinom, które tego nie zrobiły. Każda z tych gałęzi dzieli się na dwie dodatkowe gałęzie odpowiadające gospodarstwom domowym, które kupiły i nie zakupiły telewizora panoramicznego. Prawdopodobieństwa zapisane na końcach dwóch głównych gałęzi to bezwarunkowe prawdopodobieństwa zdarzeń A I A'. Prawdopodobieństwa zapisane na końcach czterech dodatkowych gałęzi są prawdopodobieństwami warunkowymi każdej kombinacji zdarzeń A I W. Prawdopodobieństwa warunkowe oblicza się, dzieląc łączne prawdopodobieństwo zdarzeń przez odpowiadające im bezwarunkowe prawdopodobieństwo każdego z nich.

Ryż. 2. Drzewo decyzyjne

Przykładowo, aby obliczyć prawdopodobieństwo, że rodzina kupi telewizor panoramiczny, jeśli planowała to zrobić, należy określić prawdopodobieństwo zdarzenia zakup zaplanowany i zrealizowany, a następnie podziel przez prawdopodobieństwo zdarzenia planowany zakup. Poruszając się po drzewie decyzyjnym pokazanym na rys. 2, otrzymujemy następującą (podobną do poprzedniej) odpowiedź:

Niezależność statystyczna

W przykładzie zakupu telewizora szerokoekranowego prawdopodobieństwo, że losowo wybrana rodzina kupiła telewizor panoramiczny, biorąc pod uwagę, że planowała to zrobić, wynosi 200/250 = 0,8. Przypomnijmy, że bezwarunkowe prawdopodobieństwo, że losowo wybrana rodzina kupi telewizor panoramiczny wynosi 300/1000 = 0,3. Prowadzi to do bardzo ważnego wniosku. Wcześniejsza informacja, że ​​rodzina planuje zakup, wpływa na prawdopodobieństwo samego zakupu. Innymi słowy, te dwa zdarzenia są od siebie zależne. W przeciwieństwie do tego przykładu istnieją statystycznie niezależne zdarzenia, których prawdopodobieństwa nie zależą od siebie. Niezależność statystyczna wyraża się tożsamością: P(A|B) = P(A), Gdzie P(A|B)- prawdopodobieństwo zdarzenia A pod warunkiem, że zdarzenie miało miejsce W, ROCZNIE)- bezwarunkowe prawdopodobieństwo zdarzenia A.

Należy pamiętać, że wydarzenia A I W P(A|B) = P(A). Jeżeli w tabeli kontyngencji cech o wielkości 2×2 warunek ten jest spełniony dla co najmniej jednej kombinacji zdarzeń A I W, będzie obowiązywać dla każdej innej kombinacji. W naszych przykładowych wydarzeniach planowany zakup I zakup zrealizowany nie są statystycznie niezależne, ponieważ informacja o jednym zdarzeniu wpływa na prawdopodobieństwo innego.

Spójrzmy na przykład pokazujący, jak sprawdzić statystyczną niezależność dwóch zdarzeń. Zapytajmy 300 rodzin, które kupiły telewizor panoramiczny, czy są zadowolone z zakupu (ryc. 3). Określ, czy stopień zadowolenia z zakupu i rodzaj telewizora są ze sobą powiązane.

Ryż. 3. Dane charakteryzujące stopień zadowolenia nabywców telewizorów panoramicznych

Sądząc po tych danych,

Naraz,

P (klient zadowolony) = 240 / 300 = 0,80

Zatem prawdopodobieństwo, że klient jest zadowolony z zakupu i że rodzina kupiła telewizor HDTV jest równe, a zdarzenia te są statystycznie niezależne, ponieważ nie są ze sobą w żaden sposób powiązane.

Reguła mnożenia prawdopodobieństwa

Wzór na obliczenie prawdopodobieństwa warunkowego pozwala określić prawdopodobieństwo wystąpienia wspólnego zdarzenia A i B. Po rozwiązaniu formuły (1)

względem wspólnego prawdopodobieństwa P(A i B), otrzymujemy ogólną zasadę mnożenia prawdopodobieństw. Prawdopodobieństwo zdarzenia A i B równe prawdopodobieństwu zdarzenia A pod warunkiem, że zdarzenie nastąpi W W:

(3) P(A i B) = P(A|B) * P(B)

Weźmy jako przykład 80 rodzin, które kupiły panoramiczny telewizor HDTV (ryc. 3). Z tabeli wynika, że ​​64 rodziny są zadowolone z zakupu, a 16 nie. Załóżmy, że spośród nich zostaną losowo wybrane dwie rodziny. Określ prawdopodobieństwo, że obaj klienci będą zadowoleni. Korzystając ze wzoru (3) otrzymujemy:

P(A i B) = P(A|B) * P(B)

gdzie jest to wydarzenie A jest to, że druga rodzina jest zadowolona z zakupu i wydarzenia W- aby pierwsza rodzina była zadowolona z zakupu. Prawdopodobieństwo, że pierwsza rodzina będzie zadowolona z zakupu, wynosi 64/80. Jednak prawdopodobieństwo, że druga rodzina również będzie zadowolona z zakupu, zależy od reakcji pierwszej rodziny. Jeżeli pierwsza rodzina po przeprowadzeniu badania nie wróci do próby (wybór bez zwrotu), liczba respondentów zmniejsza się do 79. Jeżeli pierwsza rodzina jest zadowolona z zakupu, prawdopodobieństwo, że druga rodzina również będzie zadowolona wynosi 63 /79, gdyż w próbie zostały już tylko 63 rodziny zadowolone z zakupu. Zatem podstawiając określone dane do wzoru (3) otrzymujemy następującą odpowiedź:

P(A i B) = (63/79)(64/80) = 0,638.

Zatem prawdopodobieństwo, że obie rodziny będą zadowolone z zakupów wynosi 63,8%.

Załóżmy, że po przeprowadzeniu badania pierwsza rodzina wraca do próby. Określ prawdopodobieństwo, że obie rodziny będą zadowolone z zakupu. W tym przypadku prawdopodobieństwo, że obie rodziny będą zadowolone z zakupu, jest takie samo i wynosi 64/80. Zatem P(A i B) = (64/80)(64/80) = 0,64. Tym samym prawdopodobieństwo, że obie rodziny będą zadowolone z zakupów wynosi 64,0%. Przykład ten pokazuje, że wybór drugiej rodziny nie zależy od wyboru pierwszej. Zatem zastępując prawdopodobieństwo warunkowe we wzorze (3) P(A|B) prawdopodobieństwo ROCZNIE), otrzymujemy wzór na pomnożenie prawdopodobieństw niezależnych zdarzeń.

Zasada mnożenia prawdopodobieństw zdarzeń niezależnych. Jeśli wydarzenia A I W są statystycznie niezależne, prawdopodobieństwo zdarzenia A i B równe prawdopodobieństwu zdarzenia A, pomnożone przez prawdopodobieństwo zdarzenia W.

(4) P(A i B) = P(A)P(B)

Jeśli ta zasada dotyczy zdarzeń A I W, co oznacza, że ​​są one statystycznie niezależne. Istnieją zatem dwa sposoby określenia statystycznej niezależności dwóch zdarzeń:

  1. Wydarzenia A I W są od siebie statystycznie niezależne wtedy i tylko wtedy, gdy P(A|B) = P(A).
  2. Wydarzenia A I B są od siebie statystycznie niezależne wtedy i tylko wtedy, gdy P(A i B) = P(A)P(B).

Jeśli w tabeli kontyngencji 2x2 jeden z tych warunków jest spełniony dla co najmniej jednej kombinacji zdarzeń A I B, będzie obowiązywać dla każdej innej kombinacji.

Bezwarunkowe prawdopodobieństwo zdarzenia elementarnego

(5) P(A) = P(A|B 1)P(B 1) + P(A|B 2)P(B 2) + … + P(A|B k)P(B k)

gdzie zdarzenia B 1, B 2, ... B k wzajemnie się wykluczają i wyczerpują.

Zilustrujmy zastosowanie tej formuły na przykładzie rys. 1. Korzystając ze wzoru (5) otrzymujemy:

P(A) = P(A|B 1)P(B 1) + P(A|B 2)P(B 2)

Gdzie ROCZNIE)- prawdopodobieństwo, że zakup był planowany, P(B1)- prawdopodobieństwo dokonania zakupu, P(B2)- prawdopodobieństwo, że zakup nie zostanie sfinalizowany.

TWIERDZENIE BAYESA

Prawdopodobieństwo warunkowe zdarzenia uwzględnia informację, że zaszło inne zdarzenie. Podejście to można zastosować zarówno do uściślenia prawdopodobieństwa, biorąc pod uwagę nowo otrzymane informacje, jak i do obliczenia prawdopodobieństwa, że ​​obserwowany efekt jest konsekwencją określonej przyczyny. Procedura doprecyzowania tych prawdopodobieństw nazywa się twierdzeniem Bayesa. Została po raz pierwszy opracowana przez Thomasa Bayesa w XVIII wieku.

Załóżmy, że wspomniana firma bada rynek pod kątem nowego modelu telewizora. W przeszłości 40% telewizorów stworzonych przez firmę odniosło sukces, a 60% modeli nie zostało docenionych. Przed ogłoszeniem premiery nowego modelu specjaliści ds. marketingu dokładnie badają rynek i rejestrują popyt. W przeszłości przewidywano, że 80% udanych modeli zakończy się sukcesem, podczas gdy 30% udanych przewidywań okazało się błędnych. Dział marketingu przedstawił korzystną prognozę dla nowego modelu. Jakie jest prawdopodobieństwo, że nowy model telewizora będzie poszukiwany?

Twierdzenie Bayesa można wyprowadzić z definicji prawdopodobieństwa warunkowego (1) i (2). Aby obliczyć prawdopodobieństwo P(B|A), należy skorzystać ze wzoru (2):

i podstaw zamiast P(A i B) wartość ze wzoru (3):

P(A i B) = P(A|B) * P(B)

Podstawiając wzór (5) zamiast P(A) otrzymujemy twierdzenie Bayesa:

gdzie zdarzenia B 1, B 2, ... B k wzajemnie się wykluczają i wyczerpują.

Wprowadźmy następującą notację: zdarzenie S - Telewizja jest pożądana, zdarzenie S’ - Telewizja nie jest pożądana, zdarzenie F - korzystne rokowanie, zdarzenie F’ - złe rokowania. Załóżmy, że P(S) = 0,4, P(S’) = 0,6, P(F|S) = 0,8, P(F|S’) = 0,3. Stosując twierdzenie Bayesa otrzymujemy:

Prawdopodobieństwo popytu na nowy model telewizora, przy sprzyjającej prognozie, wynosi 0,64. Zatem prawdopodobieństwo braku popytu przy korzystnej prognozie wynosi 1–0,64 = 0,36. Proces obliczeń pokazano na rys. 4.

Ryż. 4. a) Obliczenia z wykorzystaniem wzoru Bayesa w celu oszacowania prawdopodobieństwa popytu na telewizory; (b) Drzewo decyzyjne przy badaniu popytu na nowy model telewizora

Spójrzmy na przykład wykorzystania twierdzenia Bayesa w diagnostyce medycznej. Prawdopodobieństwo, że dana osoba cierpi na określoną chorobę, wynosi 0,03. Test medyczny może sprawdzić, czy to prawda. Jeśli dana osoba jest naprawdę chora, prawdopodobieństwo trafnej diagnozy (stwierdzenia, że ​​jest ona chora, podczas gdy naprawdę jest chora) wynosi 0,9. Jeżeli dana osoba jest zdrowa, prawdopodobieństwo fałszywie pozytywnej diagnozy (twierdzenia, że ​​dana osoba jest chora, gdy jest zdrowa) wynosi 0,02. Załóżmy, że badanie lekarskie daje wynik pozytywny. Jakie jest prawdopodobieństwo, że dana osoba rzeczywiście jest chora? Jakie jest prawdopodobieństwo trafnej diagnozy?

Wprowadźmy następującą notację: zdarzenie D - osoba jest chora, zdarzenie D’ - osoba jest zdrowa, zdarzenie T - diagnoza jest pozytywna, zdarzenie T’ - diagnoza negatywna. Z warunków zadania wynika, że ​​P(D) = 0,03, P(D’) = 0,97, P(T|D) = 0,90, P(T|D’) = 0,02. Stosując wzór (6) otrzymujemy:

Prawdopodobieństwo, że przy pozytywnej diagnozie dana osoba jest naprawdę chora, wynosi 0,582 (patrz także ryc. 5). Należy pamiętać, że mianownik wzoru Bayesa jest równy prawdopodobieństwu pozytywnej diagnozy, tj. 0,0464.

Teoria prawdopodobieństwa to dział matematyki badający wzorce zjawisk losowych: zdarzenia losowe, zmienne losowe, ich właściwości i operacje na nich.

Przez długi czas teoria prawdopodobieństwa nie miała jasnej definicji. Został on sformułowany dopiero w 1929 r. Pojawienie się teorii prawdopodobieństwa jako nauki datuje się na średniowiecze i pierwsze próby analizy matematycznej hazard(rzut, kostka, ruletka). Francuscy matematycy XVII wieku Blaise Pascal i Pierre Fermat, badając przewidywanie wygranych w grach hazardowych, odkryli pierwsze probabilistyczne wzorce powstające podczas rzucania kostkami.

Teoria prawdopodobieństwa powstała jako nauka z przekonania, że ​​masowe zdarzenia losowe opierają się na pewnych wzorcach. Teoria prawdopodobieństwa bada te wzorce.

Teoria prawdopodobieństwa zajmuje się badaniem zdarzeń, których wystąpienie nie jest znane z całą pewnością. Pozwala ocenić stopień prawdopodobieństwa wystąpienia niektórych zdarzeń w porównaniu z innymi.

Przykładowo: nie da się jednoznacznie określić wyniku „orła” lub „reszka” w wyniku rzucenia monetą, ale przy wielokrotnym rzucie pojawia się w przybliżeniu taka sama liczba „orłów” i „reszek”, co oznacza, że prawdopodobieństwo, że spadną „reszki” lub „reszki”, wynosi 50%.

Test w tym przypadku nazywa się spełnieniem określonego zestawu warunków, czyli w tym przypadku rzutem monetą. W wyzwanie można grać nieograniczoną liczbę razy. W tym przypadku zbiór warunków obejmuje czynniki losowe.

Wynik testu jest wydarzenie. Wydarzenie ma miejsce:

  1. Niezawodny (zawsze powstaje w wyniku testów).
  2. Niemożliwe (nigdy się nie zdarza).
  3. Losowe (może wystąpić lub nie w wyniku testu).

Na przykład podczas rzucania monetą zdarzenie niemożliwe - moneta wyląduje na krawędzi, zdarzenie losowe - pojawienie się „reszki” lub „reszki”. Konkretny wynik testu nazywa się wydarzenie elementarne. W wyniku testu zachodzą jedynie zdarzenia elementarne. Zbiór wszystkich możliwych, różnych, specyficznych wyników testu nazywa się przestrzeń zdarzeń elementarnych.

Podstawowe pojęcia teorii

Prawdopodobieństwo- stopień możliwości wystąpienia zdarzenia. Kiedy przyczyny faktycznego wystąpienia jakiegoś możliwego zdarzenia przeważają nad przyczynami przeciwstawnymi, wówczas zdarzenie to nazywa się prawdopodobnym, w przeciwnym razie - mało prawdopodobnym lub nieprawdopodobnym.

Zmienna losowa- jest to wielkość, która w wyniku badania może przyjąć taką czy inną wartość, ale nie wiadomo z góry jaką. Na przykład: liczba przypadająca na remizę dziennie, liczba trafień przy 10 strzałach itp.

Zmienne losowe można podzielić na dwie kategorie.

  1. Dyskretna zmienna losowa to wielkość, która w wyniku badania może z pewnym prawdopodobieństwem przyjąć określone wartości, tworząc zbiór przeliczalny (zbiór, którego elementy można ponumerować). Zbiór ten może być skończony lub nieskończony. Na przykład liczba strzałów przed pierwszym trafieniem w tarczę jest dyskretną zmienną losową, ponieważ wielkość ta może przyjmować nieskończoną, aczkolwiek przeliczalną liczbę wartości.
  2. Ciągła zmienna losowa jest wielkością, która może przyjąć dowolną wartość z pewnego skończonego lub nieskończonego przedziału. Oczywiście liczba możliwych wartości ciągłej zmiennej losowej jest nieskończona.

Przestrzeń prawdopodobieństwa- koncepcja wprowadzona przez A.N. Kołmogorow w latach 30. XX wieku sformalizował pojęcie prawdopodobieństwa, co dało początek szybkiemu rozwojowi teorii prawdopodobieństwa jako ścisłej dyscypliny matematycznej.

Przestrzeń prawdopodobieństwa to trójka (czasami ujęta w nawiasy ostre: , gdzie

Jest to dowolny zbiór, którego elementy nazywane są zdarzeniami elementarnymi, wynikami lub punktami;
- algebra sigma podzbiorów zwanych zdarzeniami (losowymi);
- miara prawdopodobieństwa lub prawdopodobieństwo, tj. dodatek sigma, skończona miara taka, że ​​.

Twierdzenie de Moivre’a-Laplace’a- jedno z twierdzeń granicznych teorii prawdopodobieństwa, ustanowione przez Laplace'a w 1812 roku. Stwierdza, że ​​liczba sukcesów przy powtarzaniu tego samego losowego eksperymentu z dwoma możliwymi wynikami ma w przybliżeniu rozkład normalny. Pozwala znaleźć przybliżoną wartość prawdopodobieństwa.

Jeżeli dla każdej z niezależnych prób prawdopodobieństwo wystąpienia jakiegoś zdarzenia losowego jest równe () i jest liczbą prób, w których rzeczywiście ono zachodzi, to prawdopodobieństwo, że nierówność jest prawdziwa, jest bliskie (dla dużych wartości) prawdopodobieństwu wartość całki Laplace'a.

Funkcja rozkładu w teorii prawdopodobieństwa- funkcja charakteryzująca rozkład zmiennej losowej lub wektora losowego; prawdopodobieństwo, że zmienna losowa X przyjmie wartość mniejszą lub równą x, gdzie x jest dowolną liczbą rzeczywistą. Z zastrzeżeniem znane warunki całkowicie determinuje zmienną losową.

Oczekiwanie- średnia wartość zmiennej losowej (jest to rozkład prawdopodobieństwa zmiennej losowej rozpatrywany w teorii prawdopodobieństwa). W literaturze anglojęzycznej oznacza się to przez , w języku rosyjskim - . W statystyce często używa się tego zapisu.

Niech będzie dana przestrzeń prawdopodobieństwa i zdefiniowana w niej zmienna losowa. Jest to z definicji funkcja mierzalna. Następnie, jeśli istnieje całka Lebesgue'a po przestrzeni, nazywa się ją oczekiwaniem matematycznym lub wartością średnią i oznacza się ją.

Wariancja zmiennej losowej- miara rozrzutu danej zmiennej losowej, czyli jej odchylenia od oczekiwań matematycznych. Jest oznaczony w literaturze rosyjskiej i zagranicznej. W statystyce często używany jest zapis lub. Pierwiastek kwadratowy wariancji nazywa się odchyleniem standardowym, odchyleniem standardowym lub rozrzutem standardowym.

Niech będzie zmienną losową zdefiniowaną na jakiejś przestrzeni prawdopodobieństwa. Następnie

gdzie symbol oznacza oczekiwanie matematyczne.

W teorii prawdopodobieństwa nazywane są dwa zdarzenia losowe niezależny, jeżeli wystąpienie jednego z nich nie zmienia prawdopodobieństwa wystąpienia drugiego. Podobnie wywoływane są dwie zmienne losowe zależny, jeśli wartość jednego z nich wpływa na prawdopodobieństwo wartości drugiego.

Najprostsza forma prawa duże liczby- Jest to twierdzenie Bernoulliego, które stwierdza, że ​​jeśli prawdopodobieństwo zdarzenia jest takie samo we wszystkich próbach, to w miarę wzrostu liczby prób częstotliwość zdarzenia dąży do prawdopodobieństwa zdarzenia i przestaje być przypadkowa.

Prawo wielkich liczb w teorii prawdopodobieństwa stwierdza, że ​​średnia arytmetyczna skończonej próbki z ustalonego rozkładu jest bliska średniej teoretycznej tego rozkładu. W zależności od rodzaju zbieżności rozróżnia się słabe prawo dużych liczb, gdy zbieżność zachodzi na podstawie prawdopodobieństwa, oraz silne prawo dużych liczb, gdy zbieżność jest prawie pewna.

Ogólne znaczenie prawa wielkich liczb jest takie, że wspólne działanie dużej liczby identycznych i niezależnych czynników losowych prowadzi do wyniku, który w pewnym zakresie nie zależy od przypadku.

Na tej właściwości opierają się metody szacowania prawdopodobieństwa oparte na analizie próbek skończonych. Wyraźnym przykładem jest prognoza wyników wyborów na podstawie badania próby wyborców.

Centralne twierdzenia graniczne- klasa twierdzeń teorii prawdopodobieństwa stwierdzająca, że ​​suma jest wystarczająca duża ilość słabo zależne zmienne losowe, które mają w przybliżeniu tę samą skalę (żaden składnik nie dominuje ani nie ma decydującego udziału w sumie) ma rozkład zbliżony do normalnego.

Ponieważ wiele zmiennych losowych w aplikacjach powstaje pod wpływem kilku słabo zależnych czynników losowych, ich rozkład uważa się za normalny. W takim przypadku musi być spełniony warunek, że żaden z czynników nie jest dominujący. Centralne twierdzenia graniczne w tych przypadkach uzasadniają zastosowanie rozkładu normalnego.

W ekonomii, podobnie jak w innych obszarach działalności człowieka czy w przyrodzie, nieustannie mamy do czynienia ze zdarzeniami, których nie da się dokładnie przewidzieć. Zatem wielkość sprzedaży produktu zależy od popytu, który może się znacznie różnić, a także od wielu innych czynników, których prawie nie można wziąć pod uwagę. Dlatego organizując produkcję i prowadząc sprzedaż, trzeba przewidzieć wynik takich działań na podstawie albo własnych, wcześniejszych doświadczeń, albo podobnych doświadczeń innych osób, albo intuicji, która w dużej mierze opiera się także na danych eksperymentalnych.

Aby w jakiś sposób ocenić dane wydarzenie, należy wziąć pod uwagę lub specjalnie zorganizować warunki, w jakich to wydarzenie jest rejestrowane.

Nazywa się wdrożeniem określonych warunków lub działań mających na celu identyfikację danego zdarzenia doświadczenie Lub eksperyment.

Wydarzenie nazywa się losowy, jeśli w wyniku doświadczenia może to nastąpić lub nie.

Wydarzenie nazywa się niezawodny, jeśli koniecznie pojawia się w wyniku danego doświadczenia, oraz niemożliwe, jeśli nie może pojawić się w tym doświadczeniu.

Na przykład opady śniegu w Moskwie 30 listopada są zdarzeniem losowym. Codzienny wschód słońca można uznać za wydarzenie wiarygodne. Opady śniegu na równiku można uznać za wydarzenie niemożliwe.

Jednym z głównych zadań teorii prawdopodobieństwa jest określenie ilościowej miary możliwości wystąpienia zdarzenia.

Algebra zdarzeń

Zdarzenia nazywane są niezgodnymi, jeśli nie można ich obserwować razem w tym samym doświadczeniu. Zatem obecność dwóch i trzech samochodów w jednym sklepie na sprzedaż w tym samym czasie to dwa zdarzenia niezgodne.

Kwota zdarzeniami jest zdarzenie polegające na wystąpieniu co najmniej jednego z tych zdarzeń

Przykładem sumy zdarzeń jest obecność w sklepie przynajmniej jednego z dwóch produktów.

Praca zdarzeniem jest zdarzenie polegające na jednoczesnym wystąpieniu wszystkich tych zdarzeń

Zdarzenie polegające na pojawieniu się w sklepie jednocześnie dwóch towarów jest wypadkową zdarzeń: - pojawienia się jednego produktu, - pojawienia się innego produktu.

Formularz wydarzeń pełna grupa zdarzenia, jeśli przynajmniej jedno z nich z pewnością zaistnieje w doświadczeniu.

Przykład. Port posiada dwa stanowiska do przyjmowania statków. Można uwzględnić trzy zdarzenia: - brak statków przy nabrzeżach, - obecność jednego statku przy jednym z nabrzeży, - obecność dwóch statków przy dwóch nabrzeżach. Te trzy zdarzenia tworzą kompletną grupę wydarzeń.

Naprzeciwko nazywane są dwa unikalne możliwe zdarzenia, które tworzą kompletną grupę.

Jeśli jedno ze zdarzeń przeciwnych jest oznaczone przez , wówczas zdarzenie przeciwne jest zwykle oznaczane przez .

Klasyczne i statystyczne definicje prawdopodobieństwa zdarzenia

Każdy z równie możliwych wyników testów (eksperymentów) nazywany jest wynikiem elementarnym. Zazwyczaj są one oznaczone literami. Na przykład rzuca się kostką. W sumie może być sześć podstawowych wyników w zależności od liczby punktów po bokach.

Z elementarnych wyników możesz stworzyć bardziej złożone wydarzenie. Zatem o przypadku parzystej liczby punktów decydują trzy wyniki: 2, 4, 6.

Ilościową miarą możliwości wystąpienia danego zdarzenia jest prawdopodobieństwo.

Najczęściej używane definicje prawdopodobieństwa zdarzenia to: klasyczny I statystyczny.

Klasyczna definicja prawdopodobieństwa wiąże się z koncepcją korzystnego wyniku.

Wynik nazywa się korzystny do danego zdarzenia, jeżeli jego wystąpienie pociąga za sobą zajście tego zdarzenia.

W podanym przykładzie chodzi o wydarzenie liczba parzysta punktów po stronie utraconej ma trzy korzystne skutki. W tym wypadku generał
liczbę możliwych wyników. Oznacza to, że można tu zastosować klasyczną definicję prawdopodobieństwa zdarzenia.

Klasyczna definicja jest równy stosunkowi liczby korzystnych wyników do całkowita liczba możliwe rezultaty

gdzie jest prawdopodobieństwem zdarzenia, jest liczbą wyników korzystnych dla zdarzenia, jest całkowitą liczbą możliwych wyników.

W rozważanym przykładzie

Statystyczna definicja prawdopodobieństwa związana jest z koncepcją względnej częstotliwości występowania zdarzenia w eksperymentach.

Względną częstotliwość występowania zdarzenia oblicza się ze wzoru

gdzie jest liczbą wystąpień zdarzenia w serii eksperymentów (testów).

Definicja statystyczna. Prawdopodobieństwo zdarzenia to liczba, wokół której stabilizuje się (ustala) częstotliwość względna przy nieograniczonym wzroście liczby eksperymentów.

W problemach praktycznych za prawdopodobieństwo zdarzenia przyjmuje się względną częstotliwość przy wystarczającej częstotliwości duża liczba testy.

Z tych definicji prawdopodobieństwa zdarzenia wynika, że ​​nierówność jest zawsze spełniona

Aby określić prawdopodobieństwo zdarzenia na podstawie wzoru (1.1), często stosuje się wzory kombinatoryczne, które służą do znalezienia liczby korzystnych wyników i całkowitej liczby możliwych wyników.

jako kategoria ontologiczna odzwierciedla zakres możliwości pojawienia się dowolnego bytu w każdych warunkach. W przeciwieństwie do matematyczno-logicznej interpretacji tego pojęcia, matematyka ontologiczna nie wiąże się z obowiązkiem wyrażenia ilościowego. Znaczenie V. ujawnia się w kontekście rozumienia determinizmu i natury rozwoju w ogóle.

Doskonała definicja

Niekompletna definicja

PRAWDOPODOBIEŃSTWO

pojęcie charakteryzujące wielkości. miara możliwości wystąpienia określonego zdarzenia w określonym czasie warunki. W naukowym wiedzy istnieją trzy interpretacje W. Klasyczna koncepcja W., która wyrosła z matematyki. analiza hazardu, najpełniej rozwinięta przez B. Pascala, J. Bernoulliego i P. Laplace'a, uważa wygraną za stosunek liczby korzystnych przypadków do całkowitej liczby wszystkich równie możliwych. Na przykład, rzucając kostką o 6 stronach, można oczekiwać, że każda z nich wypadnie z wartością 1/6, ponieważ żadna ze stron nie ma przewagi nad drugą. Taka symetria wyników eksperymentów jest szczególnie brana pod uwagę przy organizowaniu gier, ale jest stosunkowo rzadka w badaniu obiektywnych zdarzeń w nauce i praktyce. Klasyczny Interpretacja V. ustąpiła miejsca statystykom. koncepcje V., które opierają się na faktach obserwacja wystąpienia określonego zdarzenia w długim okresie czasu. doświadczenia w ściśle określonych warunkach. Praktyka potwierdza, że ​​im częściej zdarza się jakieś zdarzenie, tym większy stopień obiektywna możliwość jego wystąpienia, lub B. Dlatego statystyczna. Interpretacja V. opiera się na koncepcji relacji. częstotliwość, którą można wyznaczyć doświadczalnie. V. jako teoretyczny pojęcie nigdy nie pokrywa się z empirycznie określoną częstotliwością, jednakże w liczbie mnogiej. W przypadkach praktycznie niewiele różni się od względnej. częstotliwość wynikająca z czasu trwania. obserwacje. Wielu statystyków uważa V. za „podwójne” odniesienie. częstotliwości, krawędzie są wyznaczane statystycznie. badanie wyników obserwacji

lub eksperymenty. Mniej realistyczna była definicja V. ze względu na granicę. częstotliwości imprez masowych lub grup, zaproponowane przez R. Misesa. Jak dalszy rozwój Podejście częstotliwościowe do V. proponuje dyspozycyjną lub propensywną interpretację V. (K. Popper, J. Hacking, M. Bunge, T. Settle). Zgodnie z tą interpretacją V. charakteryzuje np. właściwość warunków generowania. eksperyment. instalacji w celu uzyskania sekwencji masowych zdarzeń losowych. To właśnie ta postawa rodzi fizyczność dyspozycje, czyli predyspozycje, V. które można sprawdzić za pomocą krewnych. częstotliwość

Statystyczny W badaniach naukowych dominuje interpretacja V. poznania, ponieważ odzwierciedla konkret. natura wzorców właściwych zjawiskom masowym o charakterze losowym. W wielu przypadkach fizycznych, biologicznych, ekonomicznych i demograficznych. i innych procesów społecznych, należy wziąć pod uwagę działanie wielu czynników losowych, które charakteryzują się stałą częstotliwością. Identyfikacja tych stabilnych częstotliwości i wielkości. jego ocena za pomocą V. pozwala ujawnić konieczność, która przenika przez skumulowane działanie wielu wypadków. W tym miejscu przejawia się dialektyka przekształcania przypadku w konieczność (por. F. Engels, w książce: K. Marx i F. Engels, Works, t. 20, s. 535-36).

Rozumowanie logiczne lub indukcyjne charakteryzuje związek między przesłankami a wnioskiem rozumowania niedemonstracyjnego, a w szczególności indukcyjnego. W przeciwieństwie do dedukcji przesłanki indukcji nie gwarantują prawdziwości wniosku, a jedynie czynią go mniej lub bardziej wiarygodnym. Tę wiarygodność, przy precyzyjnie sformułowanych przesłankach, można czasami ocenić za pomocą V. Wartość tego V. określa się najczęściej przez porównanie. pojęcia (większy niż, mniejszy lub równy), a czasami w sposób numeryczny. Logiczny interpretacja jest często wykorzystywana do analizy rozumowania indukcyjnego i konstruowania różnych systemów logiki probabilistycznej (R. Carnap, R. Jeffrey). W semantyce pojęcia logiczne V. jest często definiowane jako stopień, w jakim jedno stwierdzenie potwierdzają inne (na przykład hipoteza na podstawie jej danych empirycznych).

W związku z rozwojem teorii podejmowania decyzji i gier, tzw personalistyczna interpretacja V. Choć V. wyraża jednocześnie stopień wiary podmiotu i zaistnienie określonego zdarzenia, same V. muszą być tak dobrane, aby spełnione były aksjomaty rachunku V. Dlatego V. przy takiej interpretacji wyraża nie tyle stopień subiektywnej, co raczej rozsądnej wiary. W konsekwencji decyzje podejmowane na podstawie takiego V. będą racjonalne, ponieważ nie uwzględniają czynników psychologicznych. cechy i skłonności podmiotu.

Z epistemologicznym t.zr. różnica między statystyczną a logiczną. i personalistyczne interpretacje V. polegają na tym, że jeśli pierwsza charakteryzuje obiektywne właściwości i zależności zjawisk masowych o charakterze przypadkowym, to dwie ostatnie analizują cechy subiektywne, świadome. działalność człowieka w warunkach niepewności.

PRAWDOPODOBIEŃSTWO

jeden z najważniejsze pojęcia nauka, charakteryzująca się szczególną systemową wizją świata, jego struktury, ewolucji i wiedzy. Specyfika probabilistycznego widzenia świata ujawnia się poprzez włączenie do liczby podstawowe pojęcia istnienie pojęć losowości, niezależności i hierarchii (idee poziomów w strukturze i wyznaczanie systemów).

Idee dotyczące prawdopodobieństwa powstały już w starożytności i dotyczyły cech naszej wiedzy, przy czym uznano istnienie wiedzy probabilistycznej, która różniła się od wiedzy rzetelnej i wiedzy fałszywej. Wpływ idei prawdopodobieństwa na myślenie naukowe i rozwój wiedzy jest bezpośrednio związany z rozwojem teorii prawdopodobieństwa jako dyscypliny matematycznej. Początki matematycznej doktryny prawdopodobieństwa sięgają XVII wieku, kiedy to pozwolił na rozwój rdzenia pojęć. cechy ilościowe (numeryczne) i wyrażanie idei probabilistycznej.

Intensywne zastosowania prawdopodobieństwa w rozwoju poznania mają miejsce w drugiej połowie. 19 - I piętro XX wiek Prawdopodobieństwo wkroczyło w struktury takich podstawowych nauk przyrodniczych, jak klasyczna fizyka statystyczna, genetyka, teoria kwantowa i cybernetyka (teoria informacji). W związku z tym prawdopodobieństwo uosabia ten etap rozwoju nauki, który obecnie określa się jako naukę nieklasyczną. Aby ukazać nowość i cechy probabilistycznego sposobu myślenia, należy wyjść od analizy przedmiotu teorii prawdopodobieństwa i podstaw jej licznych zastosowań. Teorię prawdopodobieństwa definiuje się zwykle jako dyscyplinę matematyczną badającą wzorce masowych zjawisk losowych w określonych warunkach. Losowość oznacza, że ​​w ramach charakteru masowego istnienie każdego zjawiska elementarnego nie jest zależne i nie jest przez istnienie innych zjawisk determinowane. Jednocześnie masowy charakter zjawisk sam w sobie ma stabilną strukturę i zawiera pewne prawidłowości. Zjawisko masowe dzieli się dość ściśle na podukłady, a względna liczba zjawisk elementarnych w każdym z podukładów (częstotliwość względna) jest bardzo stabilna. Stabilność tę porównuje się z prawdopodobieństwem. Zjawisko masowe jako całość charakteryzuje się rozkładem prawdopodobieństwa, to znaczy poprzez określenie podsystemów i odpowiadających im prawdopodobieństw. Językiem teorii prawdopodobieństwa jest język rozkładów prawdopodobieństwa. W związku z tym teorię prawdopodobieństwa definiuje się jako abstrakcyjną naukę o operowaniu rozkładami.

Prawdopodobieństwo dało początek w nauce ideom dotyczącym wzorców statystycznych i systemów statystycznych. Ostatnia esencja systemy utworzone z niezależnych lub quasi-niezależnych bytów, ich strukturę charakteryzują rozkłady prawdopodobieństwa. Ale jak można tworzyć systemy z niezależnych bytów? Zwykle przyjmuje się, że do powstania układów o charakterystyce integralnej konieczne jest istnienie pomiędzy ich elementami dostatecznie stabilnych połączeń cementujących układy. Stabilność systemów statystycznych wynika z obecności warunków zewnętrznych, środowiska zewnętrznego, zewnętrznego i nie siły wewnętrzne. Sama definicja prawdopodobieństwa zawsze opiera się na ustaleniu warunków powstania początkowego zjawiska masowego. Kolejną ważną ideą charakteryzującą paradygmat probabilistyczny jest idea hierarchii (podporządkowania). Idea ta wyraża związek między cechami poszczególnych elementów a integralnymi cechami systemów: te ostatnie są niejako zbudowane na pierwszym.

Znaczenie metod probabilistycznych w poznaniu polega na tym, że umożliwiają badanie i teoretyczne wyrażanie wzorców budowy i zachowania obiektów i systemów, które mają hierarchiczną, „dwupoziomową” strukturę.

Analiza natury prawdopodobieństwa opiera się na jego częstotliwości, interpretacji statystycznej. Jednocześnie bardzo długo W nauce dominowało takie rozumienie prawdopodobieństwa, które nazywano prawdopodobieństwem logicznym lub indukcyjnym. Prawdopodobieństwo logiczne interesuje się kwestiami ważności odrębnego, indywidualnego wyroku w określonych warunkach. Czy można ocenić stopień potwierdzenia (rzetelności, prawdziwości) wniosku indukcyjnego (wniosku hipotetycznego) w formie ilościowej? W trakcie rozwoju teorii prawdopodobieństwa takie pytania były wielokrotnie omawiane i zaczęto mówić o stopniach potwierdzenia hipotetycznych wniosków. Ta miara prawdopodobieństwa jest określana na podstawie dostępnych ta osoba informacji, jego doświadczenia, poglądów na świat i sposobu myślenia psychicznego. W sumie podobne przypadki wielkość prawdopodobieństwa nie podlega ścisłym pomiarom i praktycznie leży poza kompetencjami teorii prawdopodobieństwa jako spójnej dyscypliny matematycznej.

Obiektywna, częstościowa interpretacja prawdopodobieństwa została ugruntowana w nauce ze znacznymi trudnościami. Początkowo wpływ na rozumienie natury prawdopodobieństwa miał m.in silny wpływ te poglądy filozoficzne i metodologiczne, które były charakterystyczne dla nauki klasycznej. Historycznie rzecz biorąc, rozwój metod probabilistycznych w fizyce nastąpił pod decydującym wpływem idei mechaniki: systemy statystyczne interpretowano po prostu jako mechaniczne. Ponieważ odpowiednich problemów nie udało się rozwiązać ścisłymi metodami mechaniki, pojawiły się twierdzenia, że ​​zwracanie się do metod probabilistycznych i praw statystycznych jest wynikiem niekompletności naszej wiedzy. W historii rozwoju klasycznej fizyki statystycznej podejmowano liczne próby jej uzasadnienia w oparciu o mechanikę klasyczną, ale wszystkie zakończyły się niepowodzeniem. Podstawą prawdopodobieństwa jest to, że wyraża ono cechy strukturalne pewnej klasy układów, innych niż układy mechaniczne: stan elementów tych układów charakteryzuje się niestabilnością i szczególnym (nie sprowadzalnym do mechaniki) charakterem oddziaływań.

Wpis prawdopodobieństwa do wiedzy prowadzi do zaprzeczenia koncepcji twardego determinizmu, do zaprzeczenia podstawowemu modelowi bytu i wiedzy wypracowanemu w procesie kształtowania się nauki klasycznej. Podstawowe modele reprezentowane przez teorie statystyczne mają inny, bardziej ogólny charakter: Należą do nich idee przypadkowości i niezależności. Idea prawdopodobieństwa wiąże się z ujawnieniem wewnętrznej dynamiki obiektów i systemów, której nie można całkowicie zdeterminować warunkami i okolicznościami zewnętrznymi.

Koncepcja probabilistycznej wizji świata, opartej na absolutyzacji idei o niezależności (podobnie jak wcześniej paradygmat sztywnego określenia), ujawniła obecnie swoje ograniczenia, co najsilniej wpływa na przejście współczesna nauka po analityczne metody badania złożonych systemów oraz fizyczne i matematyczne podstawy zjawisk samoorganizacji.

Doskonała definicja

Niekompletna definicja ↓

Prawdopodobieństwo zdarzenie to stosunek liczby elementarnych wyników sprzyjających danemu zdarzeniu do liczby wszystkich równie możliwych wyników doświadczenia, w którym to zdarzenie może się pojawić. Prawdopodobieństwo zdarzenia A jest oznaczone przez P(A) (tutaj P jest pierwszą literą Francuskie słowo prawdopodobieństwo - prawdopodobieństwo). Zgodnie z definicją
(1.2.1)
gdzie jest liczbą elementarnych wyników sprzyjających zdarzeniu A; - liczba wszystkich równie możliwych elementarnych wyników eksperymentu, tworzących kompletną grupę zdarzeń.
Ta definicja prawdopodobieństwa nazywa się klasyczną. Powstało etap początkowy rozwój teorii prawdopodobieństwa.

Prawdopodobieństwo zdarzenia ma następujące właściwości:
1. Prawdopodobieństwo wiarygodnego zdarzenia jest równe jeden. Oznaczmy wiarygodne wydarzenie literą . Dlatego na pewne wydarzenie
(1.2.2)
2. Prawdopodobieństwo zdarzenia niemożliwego wynosi zero. Zdarzenie niemożliwe oznaczmy literą . A zatem na wydarzenie niemożliwe
(1.2.3)
3. Prawdopodobieństwo zdarzenia losowego wyraża się liczbą dodatnią mniejszą od jedności. Ponieważ dla zdarzenia losowego nierówności , lub , są więc spełnione
(1.2.4)
4. Prawdopodobieństwo dowolnego zdarzenia spełnia nierówności
(1.2.5)
Wynika to z relacji (1.2.2) - (1.2.4).

Przykład 1. W urnie znajduje się 10 kul jednakowej wielkości i wagi, z czego 4 są czerwone, a 6 niebieskie. Z urny losujemy jedną kulę. Jakie jest prawdopodobieństwo, że wylosowana kula będzie niebieska?

Rozwiązanie. Zdarzenie „wylosowana kula okazała się niebieska” oznaczamy literą A. Test ten ma 10 jednakowo możliwych wyników elementarnych, z czego 6 sprzyja zdarzeniu A. Zgodnie ze wzorem (1.2.1) otrzymujemy

Przykład 2. Wszystkie liczby naturalne od 1 do 30 są zapisywane na identycznych kartach i umieszczane w urnie. Po dokładnym przetasowaniu kart, jedna karta jest usuwana z urny. Jakie jest prawdopodobieństwo, że liczba na wylosowanej karcie jest wielokrotnością 5?

Rozwiązanie. Oznaczmy przez A zdarzenie „liczba na wyciągniętej karcie jest wielokrotnością 5”. W tym teście istnieje 30 równie możliwych wyników elementarnych, z czego zdarzeniu A sprzyja 6 wyników (liczby 5, 10, 15, 20, 25, 30). Stąd,

Przykład 3. Rzucamy dwiema kostkami i obliczamy sumę punktów na górnych ściankach. Znajdź prawdopodobieństwo zdarzenia B takie, że górne ścianki kości mają w sumie 9 punktów.

Rozwiązanie. W tym teście jest tylko 6 2 = 36 jednakowo możliwych wyników elementarnych. Dlatego zdarzeniu B sprzyjają 4 wyniki: (3;6), (4;5), (5;4), (6;3).

Przykład 4. Wybrane losowo liczba naturalna, nie więcej niż 10. Jakie jest prawdopodobieństwo, że ta liczba jest pierwsza?

Rozwiązanie. Oznaczmy zdarzenie „wybrana liczba jest liczbą pierwszą” literą C. W tym przypadku n = 10, m = 4 ( liczby pierwsze 2, 3, 5, 7). Dlatego wymagane prawdopodobieństwo

Przykład 5. Rzucamy dwiema symetrycznymi monetami. Jakie jest prawdopodobieństwo, że na wierzchu obu monet znajdują się cyfry?

Rozwiązanie. Oznaczmy literą D wydarzenie „na wierzchu każdej monety znajduje się liczba”. W tym teście istnieją 4 równie możliwe wyniki elementarne: (G, G), (G, C), (C, G), (C, C). (Oznaczenie (G, C) oznacza, że ​​pierwsza moneta posiada herb, druga – numer). Zdarzeniu D sprzyja jeden wynik elementarny (C, C). Skoro m = 1, to n = 4

Przykład 6. Jakie jest prawdopodobieństwo, że wybrana losowo liczba dwucyfrowa ma te same cyfry?

Rozwiązanie. Liczby dwucyfrowe są liczbami od 10 do 99; W sumie jest 90 takich liczb. Te same liczby mają 9 liczb (są to 11, 22, 33, 44, 55, 66, 77, 88, 99). Ponieważ w tym przypadku m = 9, n = 90, zatem
,
gdzie A jest zdarzeniem „liczba o identycznych cyfrach”.

Przykład 7. Z liter słowa różnicowy Jedna litera jest wybierana losowo. Jakie jest prawdopodobieństwo, że będzie to: a) samogłoska, b) spółgłoska, c) litera H?

Rozwiązanie. Słowo różniczkowe składa się z 12 liter, z czego 5 to samogłoski, a 7 to spółgłoski. Beletrystyka H nie ma tego słowa. Oznaczmy zdarzenia: A - „litera samogłoskowa”, B - „litera spółgłoskowa”, C - „litera H„. Liczba korzystnych wyników elementarnych: - dla zdarzenia A, - dla zdarzenia B, - dla zdarzenia C. Skoro n = 12, to
, I .

Przykład 8. Rzucamy dwiema kostkami i notujemy liczbę punktów na wierzchu każdej kostki. Znajdź prawdopodobieństwo, że obie kostki wykażą tę samą liczbę punktów.

Rozwiązanie. Oznaczmy to zdarzenie literą A. Zdarzeniu A sprzyja 6 elementarnych wyników: (1;]), (2;2), (3;3), (4;4), (5;5), (6 ;6). Całkowita liczba równie możliwych wyników elementarnych, które tworzą pełną grupę zdarzeń, w tym przypadku n=6 2 =36. Oznacza to, że wymagane prawdopodobieństwo

Przykład 9. Książka ma 300 stron. Jakie jest prawdopodobieństwo, że losowo otwarta strona będzie miała numer seryjny podzielny przez 5?

Rozwiązanie. Z warunków zadania wynika, że ​​wszystkie równie możliwe wyniki elementarne tworzące pełną grupę zdarzeń będą wynosić n = 300. Spośród nich m = 60 sprzyja zaistnieniu określonego zdarzenia. Rzeczywiście, liczba będąca wielokrotnością 5 ma postać 5k, gdzie k jest liczbą naturalną, a , skąd . Stąd,
, gdzie A - zdarzenie „strona” ma numer sekwencyjny będący wielokrotnością 5”.

Przykład 10. Rzucamy dwiema kostkami i obliczamy sumę punktów na górnych ściankach. Co jest bardziej prawdopodobne – uzyskanie w sumie 7 czy 8?

Rozwiązanie. Oznaczmy zdarzenia: A - „wyrzucono 7 punktów”, B – „wyrzucono 8 punktów”. Zdarzeniu A sprzyja 6 elementarnych wyników: (1; 6), (2; 5), (3; 4), (4; 3), (5; 2), (6; 1), a zdarzenie B jest faworyzowane o 5 wyników: (2; 6), (3; 5), (4; 4), (5; 3), (6; 2). Wszystkie równie możliwe wyniki elementarne to n = 6 2 = 36. Oznacza to I .

Zatem P(A)>P(B), czyli zdobycie w sumie 7 punktów jest bardziej prawdopodobnym zdarzeniem niż zdobycie w sumie 8 punktów.

Zadania

1. Wybrano losowo liczbę naturalną nieprzekraczającą 30. Jakie jest prawdopodobieństwo, że ta liczba jest wielokrotnością 3?
2. W urnie A czerwony i B niebieskie kulki, identyczne pod względem wielkości i wagi. Jakie jest prawdopodobieństwo, że losowo wylosowana kula z tej urny będzie niebieska?
3. Wybrano losowo liczbę nieprzekraczającą 30. Jakie jest prawdopodobieństwo, że ta liczba jest dzielnikiem 30?
4. W urnie A niebieski i B czerwone kulki, identyczne pod względem wielkości i wagi. Z urny wyjmuje się jedną kulę i odkłada na bok. Ta piłka okazała się czerwona. Następnie z urny losujemy kolejną kulę. Znajdź prawdopodobieństwo, że druga kula również będzie czerwona.
5. Wybrano losowo liczbę krajową nieprzekraczającą 50. Jakie jest prawdopodobieństwo, że jest to liczba pierwsza?
6. Rzucamy trzema kostkami i obliczamy sumę punktów na górnych ściankach. Co jest bardziej prawdopodobne – zdobyć łącznie 9 czy 10 punktów?
7. Rzucamy trzema kostkami i obliczamy sumę uzyskanych punktów. Co jest bardziej prawdopodobne – zdobyć łącznie 11 punktów (wydarzenie A) czy 12 punktów (wydarzenie B)?

Odpowiedzi

1. 1/3. 2 . B/(A+B). 3 . 0,2. 4 . (B-1)/(A+B-1). 5 .0,3.6 . p 1 = 25/216 - prawdopodobieństwo zdobycia łącznie 9 punktów; p 2 = 27/216 - prawdopodobieństwo zdobycia łącznie 10 punktów; p 2 > p 1 7 . P(A) = 27/216, P(B) = 25/216, P(A) > P(B).

Pytania

1. Jak nazywa się prawdopodobieństwo zdarzenia?
2. Jakie jest prawdopodobieństwo wystąpienia wiarygodnego zdarzenia?
3. Jakie jest prawdopodobieństwo zdarzenia niemożliwego?
4. Jakie są granice prawdopodobieństwa zdarzenia losowego?
5. Jakie są granice prawdopodobieństwa dowolnego zdarzenia?
6. Jaką definicję prawdopodobieństwa nazywa się klasyczną?