Bayesov izrek se uporablja za določitev pogojne verjetnosti dogodka. Ime je dobil po angleškem statistiku, Thomas Bayes ki je odkril to formulo leta 1763. Bayesov izrek je zelo pomemben izrek v matematiki, ki je postavil temelje edinstvenega pristopa statističnega sklepanja, imenovanega Bayesovo sklepanje. Uporablja se za ugotavljanje verjetnosti dogodka na podlagi predhodnega poznavanja razmer, ki bi lahko bile povezane s tem dogodkom.
na primer če želimo ugotoviti verjetnost, da je naključno izžrebana bela frnikola prišla iz prve vrečke, glede na to, da je bila bela frnikola že izvlečena, in obstajajo tri vrečke, v katerih vsaka vsebuje nekaj belih in črnih frnikol, potem lahko uporabimo Bayesov izrek.
Ta članek raziskuje Bayesov izrek, vključno z njegovo izjavo, dokazom, izpeljavo in formulo izreka, pa tudi njegove aplikacije z različnimi primeri.
pretvori objekt java v json
Kaj je Bayesov izrek?
Bayesov izrek (znan tudi kot Bayesovo pravilo ali Bayesov zakon) se uporablja za določitev pogojne verjetnosti dogodka A, ko se dogodek B že zgodi.
Splošna izjava Bayesovega izreka je Pogojna verjetnost dogodka A glede na pojav drugega dogodka B je enaka zmnožku dogodka B glede na A in verjetnosti A, deljeno z verjetnostjo dogodka B. tj.
P(A|B) = P(B|A)P(A) / P(B)
kje,
- P(A) in P(B) sta verjetnosti dogodkov A in B
- P(A|B) je verjetnost dogodka A, ko se zgodi dogodek B
- P(B|A) je verjetnost dogodka B, ko se zgodi A
Preverite: Bayesov izrek za pogojno verjetnost
Bayesov izrek
Bayesov izrek za n množico dogodkov je opredeljen kot
Naj E1, IN2,…, INnniz dogodkov, povezanih z vzorčnim prostorom S, v katerem so vsi dogodki E1, IN2,…, INnimajo različno verjetnost pojava. Vsi dogodki E1, IN2,…, E tvorijo particijo S. Naj bo A dogodek iz prostora S, za katerega moramo najti verjetnost, potem je po Bayesovem izreku
P(E jaz |A) = P(E jaz )P(A|E jaz ) / ∑ P(E k )P(A|E k )
za k = 1, 2, 3, …., n
Formula Bayesovega izreka
Za katera koli dva dogodka A in B je formula za Bayesov izrek podana z: (spodnja slika prikazuje formulo Bayesovega izreka)

Formula Bayesovega izreka
kje,
- P(A) in P(B) sta verjetnosti dogodkov A in B tudi P(B) ni nikoli enak nič.
- P(A|B) je verjetnost dogodka A, ko se zgodi dogodek B
- P(B|A) je verjetnost dogodka B, ko se zgodi A
Izpeljava Bayesovega izreka
Dokaz Bayesovega izreka je podan kot, glede na formulo pogojne verjetnosti,
P(E jaz |A) = P(E jaz ∩A) / P(A)…..(i)
Nato z uporabo pravila množenja verjetnosti dobimo
P(E jaz ∩A) = P(E jaz )P(A|E jaz )……(ii)
Zdaj, po izreku popolne verjetnosti,
P(A) = ∑ P(E k )P(A|E k )…..(iii)
Zamenjava vrednosti P(Ejaz∩A) in P(A) iz eq (ii) in eq(iii) v eq(i) dobimo,
P(E jaz |A) = P(E jaz )P(A|E jaz ) / ∑ P(E k )P(A|E k )
Bayesov izrek je znan tudi kot formula za verjetnost vzrokov . Kot vemo, E jaz so particija vzorčnega prostora S in v danem trenutku le eden od dogodkov E jaz pojavi. Tako sklepamo, da formula Bayesovega izreka daje verjetnost določenega Ejaz, glede na dogodek A se je zgodil.
Izrazi, povezani z Bayesovim izrekom
Ko smo podrobno spoznali Bayesov izrek, poglejmo nekaj pomembnih izrazov, povezanih s koncepti, ki smo jih obravnavali v formuli in izpeljavi.
- Hipoteze: Dogodki, ki se dogajajo v vzorčnem prostoru IN 1 , IN 2 ,… IN n imenujemo hipoteze
- Priorna verjetnost: Priorna verjetnost je začetna verjetnost, da se dogodek zgodi, preden se upoštevajo novi podatki. P(Ejaz) je apriorna verjetnost hipoteze Ejaz.
- Posteriorna verjetnost: Posteriorna verjetnost je posodobljena verjetnost dogodka po upoštevanju novih informacij. Verjetnost P(Ejaz|A) velja za posteriorno verjetnost hipoteze Ejaz.
Pogojna verjetnost
- Verjetnost dogodka A, ki temelji na pojavu drugega dogodka B, imenujemo pogojna verjetnost .
- Označuje se kot P(A|B) in predstavlja verjetnost A, ko se je dogodek B že zgodil.
Skupna verjetnost
Ko se meri verjetnost, da se zgodita še dva dogodka hkrati in hkrati, je označena kot skupna verjetnost. Za dva dogodka A in B je označena s skupna verjetnost je označena kot, P(A∩B).
Naključne spremenljivke
Realno vredne spremenljivke, katerih možne vrednosti so določene z naključnimi poskusi, imenujemo naključne spremenljivke. Verjetnost, da najdemo takšne spremenljivke, je eksperimentalna verjetnost.
Aplikacije Bayesovega izreka
Bayesovo sklepanje je zelo pomembno in je našlo uporabo v različnih dejavnostih, vključno z medicino, znanostjo, filozofijo, inženiringom, športom, pravom itd., Bayesovo sklepanje pa neposredno izhaja iz Bayesovega izreka.
primer: Bayesov izrek določa natančnost medicinskega testa tako, da upošteva, kako verjetno je, da ima oseba bolezen, in kakšna je splošna natančnost testa.
Razlika med pogojno verjetnostjo in Bayesovim izrekom
Razliko med pogojno verjetnostjo in Bayesovim izrekom je mogoče razumeti s pomočjo spodnje tabele,
| Bayesov izrek | Pogojna verjetnost |
|---|---|
| Bayesov izrek je izpeljan z uporabo definicije pogojne verjetnosti. Uporablja se za iskanje obratne verjetnosti. | Pogojna verjetnost je verjetnost dogodka A, ko se je dogodek B že zgodil. |
| Formula: P(A|B) = [P(B|A)P(A)] / P(B) | Formula: P(A|B) = P(A∩B) / P(B) |
Izrek popolne verjetnosti
Naj E1, IN2, . . ., INnje medsebojno izključujoč in izčrpen dogodek, povezan z naključnim poskusom, in pusti, da je E dogodek, ki se zgodi z nekaterimi Ejaz. Potem to dokaži
P(E) = n ∑ i=1 P(E/E jaz ) . P(E j )
Dokaz:
Naj bo S vzorčni prostor. potem,
S = E1∪ E2∪ E3∪ . . . ∪ Ena in Ejaz∩ Ej= ∅ za i ≠ j.
E = E ∩ S
⇒ E = E ∩ (E1∪ E2∪ E3∪ . . . ∪ En)
⇒ E = (E ∩ E1) ∪ (E ∩ E2) ∪ . . . ∪ (E ∩ En)
P(E) = P{(E ∩ E1) ∪ (E ∩ E2)∪ . . . ∪(E ∩ En)}
⇒ P(E) = P(E ∩ E1) + P(E ∩ E2) + . . . + P(E ∩ En)
{Zato, (E ∩ E1), (E ∩ E2), . . . ,(E ∩ En)} so parno ločeni}
⇒ P(E) = P(E/E1) . P(E1) + P(E/E2) . P(E2) + . . . + P(E/En) . P(En) [z izrekom množenja]
⇒ P(E) =n∑i=1P(E/Ejaz) . P(Ejaz)
Članki, povezani z Bayesovim izrekom
- Porazdelitev verjetnosti
- Bayesov izrek za pogojno verjetnost
- Permutacije in kombinacije
- Binomski izrek
Zaključek – Bayesov izrek
Bayesov izrek ponuja močan okvir za posodabljanje verjetnosti hipoteze na podlagi novih dokazov ali informacij. Z vključitvijo predhodnega znanja in posodabljanjem z opazovanimi podatki Bayesov izrek omogoča natančnejše in ozaveščeno odločanje na številnih področjih, vključno s statistiko, strojnim učenjem, medicino in financami. Njegove aplikacije segajo od medicinske diagnoze in ocene tveganja do filtriranja neželene pošte in obdelave naravnega jezika.
Razumevanje in uporaba Bayesovega izreka nam omogočata boljše napovedi, ocenjevanje negotovosti in črpanje pomembnih vpogledov iz podatkov, kar na koncu izboljša našo sposobnost sprejemanja premišljenih odločitev v zapletenih in negotovih situacijah.
Preverite tudi:
markdown slike
- Bayesov izrek v podatkovnem rudarjenju
- Bayesov izrek v umetni inteligenci
- Bayesov izrek v strojnem učenju
Primeri Bayesovega izreka
Primer 1: Oseba se je lotila dela. Verjetnosti pravočasnega dokončanja dela z in brez dežja so 0,44 oziroma 0,95. Če je verjetnost, da bo deževalo, 0,45, določite verjetnost, da bo delo opravljeno pravočasno.
rešitev:
Naj E1če bo rudarsko delo končano pravočasno in E2če dežuje. Imamo,
P(A) = 0,45,
P(brez dežja) = P(B) = 1 − P(A) = 1 − 0,45 = 0,55
Po zakonu množenja verjetnosti,
P(E1) = 0,44 in P(E2) = 0,95
Ker dogodka A in B tvorita particijo vzorčnega prostora S, imamo po izreku popolne verjetnosti
P(E) = P(A) P(E1) + P(B) P(E2)
⇒ P(E) = 0,45 × 0,44 + 0,55 × 0,95
⇒ P(E) = 0,198 + 0,5225 = 0,7205
Torej je verjetnost, da bo delo opravljeno pravočasno, 0,7205
Primer 2: Obstajajo tri žare, ki vsebujejo 3 bele in 2 črni krogli; 2 beli in 3 črne kroglice; 1 črna in 4 bele kroglice. Obstaja enaka verjetnost, da bo vsaka žara izbrana. Ena krogla je enaka verjetnost, izbrana naključno. kakšna je verjetnost, da je izvlečena bela kroglica?
rešitev:
Naj E1, IN2in E3so dogodki izbire prve, druge in tretje žare. potem,
P(E1) = P(E2) = P(E3) =1/3
Naj bo E dogodek, ko je izvlečena bela kroglica. potem,
P(E/E1) = 3/5, P(E/E2) = 2/5, P(E/E3) = 4/5
Po izreku popolne verjetnosti imamo
P(E) = P(E/E1) . P(E1) + P(E/E2) . P(E2) + P(E/E3) . P(E3)
⇒ P(E) = (3/5 × 1/3) + (2/5 × 1/3) + (4/5 × 1/3)
⇒ P(E) = 9/15 = 3/5
Primer 3: Kartica iz kompleta 52 kart je izgubljena. Iz preostalih kart v paketu se izvlečeta dve karti, ki sta obe srčki. ugotovite verjetnost, da je izgubljena karta srce.
rešitev:
Naj E1, IN2, IN3,in E4so dogodki izgube srčne karte, palice, pike in kare.
Potem P(E1) = P(E2) = P(E3) = P(E4) = 13/52 = 1/4.
Naj bo E dogodek izvlečenja 2 src iz preostalih 51 kart. potem,
P(E|E1) = verjetnost, da boste izžrebali 2 srčka, glede na to, da karta s srčki manjka
⇒ P(E|E1) =12C2/51C2= (12 × 11)/2! × 2!/(51 × 50) = 22/425
P(E|E2) = verjetnost izžrebanja 2 kijev, glede na to, da manjka karta kijev
⇒ P(E|E2) =13C2/51C2= (13 × 12)/2! × 2!/(51 × 50) = 26/425
P(E|E3) = verjetnost izvleka 2 pikov, glede na to, da manjka srčna karta
string.replaceall v Javi⇒ P(E|E3) =13C2/51C2= 26/425
P(E|E4) = verjetnost izvleka 2 diamantov, glede na to, da manjka karta karo
⇒ P(E|E4) =13C2/51C2= 26/425
zato
P(E1|E) = verjetnost, da je izgubljena karta srce, glede na to, da sta 2 srčka izžrebana iz preostalih 51 kart
⇒ P(E1|E) = P(E1). P(E|E1)/P(E1). P(E|E1) + P(E2). P(E|E2) + P(E3). P(E|E3) + P(E4). P(E|E4)
⇒ P(E1|E) = (1/4 × 22/425) / {(1/4 × 22/425) + (1/4 × 26/425) + (1/4 × 26/425) + (1/4 × 26/425)}
⇒ P(E1|E) = 22/100 = 0,22
Zato je zahtevana verjetnost 0,22.
Primer 4: Recimo, da je 15 moških od 300 moških in 25 žensk od 1000 dobrih govornikov. Govornik je izbran naključno. Poiščite verjetnost, da je izbran moški. Predpostavimo, da je enako število moških in žensk.
rešitev:
Gievn,
- Skupno število moških = 300
- Skupno število žensk = 1000
- Dobri govorniki med ljudmi = 15
- Dobri govorniki med ženskami = 25
Skupno število dobrih govornikov = 15 (od moških) + 25 (od žensk) = 40
Verjetnost izbire moškega govornika:
P(Moški govornik) = Število moških govornikov / skupno število govornikov = 15/40
Primer 5: Znano je, da moški 1 od 4 krat laže. Vrže kocko in sporoči, da je šestica. Poiščite verjetnost, da je dejansko šestica.
rešitev:
V metu kocke, let
IN1= dogodek šestice,
IN2= dogodek nedobitve šestice in
E = dogodek, ko moški sporoči, da je šestica.
Nato P(E1) = 1/6 in P(E2) = (1 – 1/6) = 5/6
P(E|E1) = verjetnost, da moški sporoči, da se šest zgodi, ko se šest dejansko zgodi
⇒ P(E|E1) = verjetnost, da moški govori resnico
⇒ P(E|E1) = 3/4
P(E|E2) = verjetnost, da moški sporoči, da se šest zgodi, čeprav se šest dejansko ni zgodilo
⇒ P(E|E2) = verjetnost, da moški ne govori resnice
⇒ P(E|E2) = (1 – 3/4) = 1/4
Verjetnost, da dobiš šestico, glede na to, da moški poroča, da je šestica
P(E1|E) = P(E|E1) × P(E1)/P(E|E1) × P(E1) + P(E|E2) × P(E2) [po Bayesovem izreku]
⇒ P(E1|E) = (3/4 × 1/6)/{(3/4 × 1/6) + (1/4 × 5/6)}
⇒ P(E1|E) = (1/8 × 3) = 3/8
Zato je zahtevana verjetnost 3/8.
Pogosta vprašanja o Bayesovem izreku
Kaj je Bayesov izrek?
Bayesov izrek, kot že ime pove, je matematični izrek, ki se uporablja za iskanje verjetnosti pogojenosti dogodka. Pogojna verjetnost je verjetnost dogodka, ki se bo zgodil v prihodnosti. Izračuna se na podlagi prejšnjih rezultatov dogodkov.
Kdaj se uporablja Bayesov izrek?
Bayesov izrek ima široko paleto aplikacij, zlasti na področjih, ki se ukvarjajo s posodabljanjem verjetnosti na podlagi novih podatkov. Bayesovo pravilo vam omogoča izračun zadnja (ali posodobljena) verjetnost. Uporablja se za izračun pogojne verjetnosti dogodkov.
Kateri so ključni izrazi za razumevanje Bayesovega izreka?
Nekateri ključni izrazi so:
- Predhodna verjetnost (P(A))
- Posteriorna verjetnost (P(A | B))
- Verjetnost (P(B | A))
- Mejna verjetnost (P(B))
Kdaj uporabiti Bayesov izrek?
Bayesov izrek je uporaben, ko je podana pogojna verjetnost dogodka, uporablja se za iskanje obratne verjetnosti dogodka.
Kako se Bayesov izrek razlikuje od pogojne verjetnosti?
Bayesov izrek se uporablja za opredelitev verjetnosti dogodka na podlagi prejšnjih pogojev dogodka. Medtem ko Bayesov izrek uporablja pogojno verjetnost za iskanje obratne verjetnosti dogodka.
Kakšna je formula za Bayesov izrek?
Formula Bayesovega izreka je razložena spodaj,
povezani seznam in arraylistP(A|B) = [P(B|A) P(A)] / P(B)