Pytanie:
Dystrybucja krańcowa normalnej zmiennej losowej z normalną średnią
Mangnier Loïc
2018-10-16 06:44:06 UTC
view on stackexchange narkive permalink

Mam pytanie dotyczące obliczenia warunkowej gęstości dwóch rozkładów normalnych. Mam zmienne losowe $ X | M \ sim \ text {N} (M, \ sigma ^ 2) $ i $ M \ sim \ text {N} (\ theta, s ^ ​​2) $ , z gęstościami warunkowymi i krańcowymi podanymi przez:

$$ \ begin {equation} \ begin {aligned} f (x | m) & = \ frac {1} {\ sigma \ sqrt {2 \ pi}} \ cdot \ exp \ Big (- \ frac {1} {2} \ Big (\ frac {xm} {\ sigma} \ Duży) ^ 2 \ Duży), \\ [10 pkt] f (m) & = \ frac {1} {s \ sqrt {2 \ pi}} \ cdot \ exp \ Big (- \ frac {1} {2} \ Big (\ frac {m- \ theta} {s } \ Duży) ^ 2 \ Duży). \ end {aligned} \ end {equation} $$

Chciałbym poznać rozkład krańcowy $ X $ . Pomnożyłem powyższe gęstości, aby uzyskać gęstość złącza, ale nie mogę z powodzeniem zintegrować wyniku, aby uzyskać graniczną gęstość będącą przedmiotem zainteresowania. Moja intuicja podpowiada mi, że jest to rozkład normalny z różnymi parametrami, ale nie mogę tego udowodnić.

W drugim wierszu $ M \ sim $ powinno wynosić $ m \ sim $.Nie można edytować dla 1 znaku.
Tangencjalnie na temat, ale warto poczytać o sprzężonych wyprzedzeniach - rozkład normalny to koniugat poprzedzający średnią rozkładu normalnego.
Cztery odpowiedzi:
user158565
2018-10-16 07:01:26 UTC
view on stackexchange narkive permalink

Niech $$ X = m + \ epsilon $$ gdzie $ m \ sim N (\ theta, s ^ 2) $ i $ \ epsilon \ sim N (0, \sigma ^ 2) $ i są niezależne.

Następnie $ X | m $ i $ m $ są zgodne z rozkładami określonymi w pytaniu.

$ E (X) = E (m) = \ theta $

$ Var (X) = Var (m) + Var (\ epsilon) = s ^ 2 + \ sigma ^ 2 $

Zgodnie z „Suma zmiennych losowych po rozkładzie normalnym następuje po rozkładzie normalnym”, a rozkład normalny jest określony przez średnią i wariancję, mamy

$$ X \ sim N (\ theta, s ^ 2 + \ sigma ^ 2) $$

Ok, dzięki, rozumiem twoją odpowiedź, ale chciałbym mieć matematyczny dowód na twoją pierwszą linię X = m + ϵ.Czy to możliwe ?
W matematyce potrzeba trochę czasu, aby coś stworzyć.Na przykład + x - x, dzieli przez a, a razy a .... Więc tutaj musimy skonstruować X, tak aby 1) zachowane zostały oryginalne właściwości i 2) zapewniło nam wygodę dowodzenia.Czy chcesz udowodnić, że „Wtedy $ X | m $ i $ m $ następuje po rozkładach określonych w pytaniu”?
Dziękuję, rozumiem twój POV.To sprytny sposób, aby odpowiedzieć na moje pytanie.
przepraszam ... punkt widzenia
Ben
2018-10-16 10:00:27 UTC
view on stackexchange narkive permalink

Twoja intuicja jest poprawna - krańcowy rozkład normalnej zmiennej losowej z normalną średnią jest rzeczywiście normalny. Aby to zobaczyć, najpierw przeformułowaliśmy rozkład połączenia jako iloczyn normalnych gęstości, uzupełniając kwadrat:

$$ \ begin {equation} \ begin {aligned} f (x, m) & = f (x | m) f (m) \\ [10 pkt] & = \ frac {1} {2 \ pi \ sigma s} \ cdot \ exp \ Big (- \ frac {1} {2} \ Big [\ Big (\ frac {xm} {\ sigma} \ Big) ^ 2 + \ Big (\ frac {m- \ theta} {s} \ Big) ^ 2 \ Big] \ Big) \\ [10pt] & = \ frac {1} {2 \ pi \ sigma s} \ cdot \ exp \ Big (- \ frac {1} {2} \ Big [\ Big (\ frac {1} {\ sigma ^ 2} + \ frac {1} {s ^ 2} \ Big) m ^ 2 -2 \ Big (\ frac {x} {\ sigma ^ 2} + \ frac {\ theta} {s ^ 2} \ Big) m + \ Big (\ frac {x ^ 2} {\ sigma ^ 2} + \ frac {\ theta ^ 2} {s ^ 2} \ Big) \ Big] \ Big) \\ [10pt] & = \ frac {1} {2 \ pi \ sigma s} \ cdot \ exp \ Big (- \ frac {1} {2 \ sigma ^ 2 s ^ 2} \ Big [(s ^ 2 + \ sigma ^ 2 ) m ^ 2 -2 (xs ^ 2 + \ theta \ sigma ^ 2) m + (x ^ 2 s ^ 2 + \ theta ^ 2 \ sigma ^ 2) \ Big] \ Big) \\ [10pt] & = \ frac {1} {2 \ pi \ sigma s} \ cdot \ exp \ Big (- \ frac {s ^ 2 + \ sigma ^ 2} {2 \ sigma ^ 2 s ^ 2} \ Big [m ^ 2 -2 \ cdot \ frac {xs ^ 2 + \ theta \ sigma ^ 2} {s ^ 2 + \ sigma ^ 2} \ cdot m + \ frac {x ^ 2 s ^ 2 + \ theta ^ 2 \ sigma ^ 2} {s ^ 2 + \ sigma ^ 2} \ Duży] \ Duży) \\ [10 pkt] & = \ frac {1} {2 \ pi \ sigma s} \ cdot \ exp \ Big (- \ frac {s ^ 2 + \ sigma ^ 2} {2 \ sigma ^ 2 s ^ 2} \ Big (m - \ frac {xs ^ 2 + \ theta \ sigma ^ 2} {s ^ 2 + \ sigma ^ 2} \ Big) ^ 2 \ Big) \\ [6pt] & \ quad \ quad \ quad \ text {} \ times \ exp \ Big (\ frac {(xs ^ 2 + \ theta \ sigma ^ 2) ^ 2} {2 \ sigma ^ 2 s ^ 2 (s ^ 2 + \ sigma ^ 2)} - \ frac {x ^ 2 s ^ 2 + \ theta ^ 2 \ sigma ^ 2} {2 \ sigma ^ 2 s ^ 2} \ Big) \\ [10pt] & = \ frac {1} {2 \ pi \ sigma s} \ cdot \ exp \ Big (- \ frac {s ^ 2 + \ sigma ^ 2} {2 \ sigma ^ 2 s ^ 2} \ Big (m - \ frac {xs ^ 2 + \ theta \ sigma ^ 2} {s ^ 2 + \ sigma ^ 2} \ Big) ^ 2 \ Big) \ cdot \ exp \ Big (- \ frac {1} {2} \ frac {(x- \ theta) ^ 2} {s ^ 2 + \ sigma ^ 2} \ Big) \\ [10 pkt] & = \ sqrt {\ frac {s ^ 2 + \ sigma ^ 2} {2 \ pi \ sigma ^ 2 s ^ 2}} \ cdot \ exp \ Big (- \ frac {s ^ 2 + \ sigma ^ 2} {2 \ sigma ^ 2 s ^ 2} \ Big (m - \ frac {xs ^ 2 + \ theta \ sigma ^ 2} {s ^ 2 + \ sigma ^ 2} \ Big) ^ 2 \ Big) \\ [ 6pt] & \ quad \ times \ sqrt {\ frac {1} {2 \ pi (s ^ 2 + \ sigma ^ 2)}} \ cdot \ exp \ Big (- \ frac {1} {2} \ frac {(x- \ theta) ^ 2} {s ^ 2 + \ sigma ^ 2} \ Big) \\ [10pt] & = \ text {N} \ Big (m \ Big | \ frac {xs ^ 2 + \ theta \ sigma ^ 2} {s ^ 2 + \ sigma ^ 2}, \ frac {s ^ 2 \ sigma ^ 2}{s ^ 2 + \ sigma ^ 2} \ Big) \ cdot \ text {N} (x | \ theta, s ^ 2 + \ sigma ^ 2). \ end {aligned} \ end {equation} $$

Następnie integrujemy $ m $ , aby uzyskać gęstość krańcową $ f (x) = \ text {N}(x | \ theta, s ^ 2 + \ sigma ^ 2) $ .Z tego ćwiczenia widzimy, że $ X \ sim \ text {N} (\ theta, s ^ 2 + \ sigma ^ 2) $ .

(+1), czy byłoby to prostsze przy użyciu funkcji generującej moment (MGF)?
@SecretAgentMan: Dziękuję za pozytywne głosy.OP powiedział, że ma problemy z integracją gęstości złącza, więc jest to metoda, której użyłem.
@Ben, zły dobór słów z mojej strony.Nie chciałem cię krytykować.Mój komentarz był skierowany do każdego, kto przyjrzy się temu w przyszłości.Zgadzam się, że OP zapytał o re: density.Przyszli ludzie potrzebujący pomocy powinni wiedzieć, że alternatywne podejście do MGF może być prostsze.Ponownie, nie chcę krytykować ciebie, twojego podejścia ani OP.
@SecretAgentMan: To jest w porządku - nie odebrałem tego jako krytyki.Ponieważ masz na myśli inną metodę, może najlepiej byłoby podać ją jako alternatywną odpowiedź?(W ten sposób ludzie mogą dokładnie zobaczyć, o czym myślisz).
@Ben, zgadzam się.Jeśli mogę to rozgryźć, zrobię to.Nie jestem taki dobry, ale intuicja podpowiada mi, że to zadziała.To prawdopodobnie niebezpieczne.Opublikuję, jeśli mogę to dostać.
Masz małą literówkę - $ \ exp \ Big (\ frac {(xs ^ 2 + \ theta \ sigma ^ 2) ^ 2} {2 \ sigma ^ 2 s ^ 2 (s ^ 2 + \ theta ^ 2)}- \ frac {x ^ 2 s ^ 2 + \ theta ^ 2 \ sigma ^ 2} {2 \ sigma ^ 2 s ^ 2} \ Big) $ powinno wynosić $ \ exp \ Big (\ frac {(xs ^ 2 +\ theta \ sigma ^ 2) ^ 2} {2 \ sigma ^ 2 s ^ 2 (s ^ 2 + \ sigma ^ 2)} - \ frac {x ^ 2 s ^ 2 + \ theta ^ 2 \ sigma ^ 2}{2 \ sigma ^ 2 s ^ 2} \ Big) $.Właśnie spędziłem pół godziny, próbując to rozgryźć ...
@DavidRefaeli: Przepraszam, że zmarnowałeś pół godziny!Dziękuję za zwrócenie uwagi - zredagowałem, aby poprawić.
@Ben-ReinstateMonica nie ma problemu, zaoszczędziłeś mi 200 godzin, gdybym spróbował tego sam.Więc nadal masz dodatni bilans ;-)
inhuretnakht
2019-01-25 20:32:59 UTC
view on stackexchange narkive permalink

Oto rozwiązanie wykorzystujące funkcje generujące momenty, zgodnie z sugestią @SecretAgentMan, które również wiąże się z bardzo zręczną odpowiedzią udzieloną przez @ user158565. Jeśli chcesz, możesz to potraktować jako (zbyt) rygorystyczne uzasadnienie dekompozycji dostarczone przez @ user158565.

Niech $ M \ sim N (\ theta, s ^ ​​2) $ i $ X | M \ sim N (M, \ sigma ^ 2) $ . Zostajemy poproszeni o znalezienie bezwarunkowej dystrybucji $ X $ . W tym celu zdefiniuj $ \ varepsilon \ equiv X - M $ . Pokazujemy, że $ \ varepsilon \ sim N (0, \ sigma ^ 2) $ , obliczając jego funkcję generującą moment (mgf). Mamy \ begin {align *} \ mathbb {E} \ left [e ^ {t \ varepsilon} \ right] & = \ mathbb {E} \ left [\ exp \ left \ {t (XM) \ right \} \ right] = \ mathbb {E } \ left [\ mathbb {E} \ left (\ left. e ^ {tX} e ^ {- tM} \ right | M \ right) \ right] \\ & = \ mathbb {E} \ left [e ^ {- tM} \ mathbb {E} \ left (\ left. E ^ {tX} \ right | M \ right) \ right] = \ mathbb {E} \ left [e ^ {- tM} \ exp \ left \ {tM + \ frac {1} {2} \ sigma ^ 2 t ^ 2 \ right \} \ right] \\ & = \ mathbb {E} \ left [\ exp \ left \ {\ frac {1} {2} \ sigma ^ 2 t ^ 2 \ right \} \ right] \ end {align *} używając iterowanych oczekiwań i faktu, że $ X | M $ jest zwykłą zmienną losową o średniej $ M $ i wariancja $ \ sigma ^ 2 $ , tak że jej funkcją generującą moment jest $ \ exp \ left \ {tM + \ frac {1} {2} \ sigma ^ 2 t ^ 2 \ right \} $ . Rozpoznajemy $ \ mathbb {E} [e ^ {t \ varepsilon}] $ jako mgf normalnej zmiennej losowej, stąd $ \ varepsilon \ sim N (0, \ sigma ^ 2) $ . Następnie pokazujemy, że $ M $ i $ \ varepsilon $ są niezależne, pokazując, że ich łączne mgf jest równe iloczyn odpowiednich krańcowych mgfs. Ponownie używając iterowanych oczekiwań i mgf z $ X | M $ , mamy \ begin {align *} \ mathbb {E} \ left [\ exp \ left \ {t_1 M + t_2 \ varepsilon \ right \} \ right] & = \ mathbb {E} \ left [\ exp \ left \ {t_1 M + t_2 (X -M) \ right \} \ right] = \ mathbb {E} \ left [\ exp \ left \ {(t_1 - t_2) M + t_2 X \ right \} \ right] \\ & = \ mathbb {E} \ left [\ exp \ left \ {(t_1 - t_2) M \ right \} \ mathbb {E} \ left (\ left. E ^ {t_2 X} \ right | M \ right) \dobrze]\\ & = \ mathbb {E} \ left [\ exp \ left \ {(t_1 - t_2) M \ right \} \ exp \ left \ {t_2 M + \ frac {1} {2} \ sigma ^ 2 t_2 ^ 2 \ right \} \ right] \\ & = \ mathbb {E} \ left [\ exp \ left \ {t_1 M + \ frac {1} {2} \ sigma ^ 2 t_2 ^ 2 \ right \} \ right] \\ & = \ mathbb {E} \ left [e ^ {t_1 M} \ right] \ exp \ left \ {\ frac {1} {2} \ sigma ^ 2 t_2 ^ 2 \ right \} \\ & = \ mathbb {E} \ left [e ^ {t_1 M} \ right] \ mathbb {E} \ left [e ^ {t_2 \ varepsilon} \ right] \ end {align *} jak twierdzono. Pokazaliśmy, że $ X = M + \ varepsilon $ , gdzie $ \ varepsilon \ sim N (0, \ sigma ^ 2 ) $ niezależnie od $ M \ sim N (\ theta, s ^ ​​2) $ . Wynika z tego, że $ X \ sim N (\ theta, s ^ ​​2 + \ sigma ^ 2) $ .

Mangnier Loïc
2018-10-17 23:59:48 UTC
view on stackexchange narkive permalink

W końcu znalazłem łatwiejsze rozwiązanie mojego problemu przez MGF, bez zbyt wielu obliczeń.

Załóżmy, że $$ X_1, X_2, ... X_n $$ są zgodne z określonym prawem

MGF tych zmiennych to $$ M (t_1, t_2, ..., t_n) = E [\ exp (t_1X_1 + t_2X_2 + ... + t_nX_n)] $$

W podobny sposób możemy definiować momenty w takim podejściu warunkowym:

$$ E [X | M] = ∫xf (x | M) dx. $$

Korzystając z tego, możemy udowodnić, że: $$ X \ sim N (\ theta, s ^ 2 + \ sigma ^ 2) $$



To pytanie i odpowiedź zostało automatycznie przetłumaczone z języka angielskiego.Oryginalna treść jest dostępna na stackexchange, za co dziękujemy za licencję cc by-sa 4.0, w ramach której jest rozpowszechniana.
Loading...