Beweisen Sie dies für unabhängige Zufallsvariablen $X_i$, wir haben $f_i(X_i)$ sind unabhängig.
Ich habe viele Beiträge gesehen, die den Fall für nur 2 Zufallsvariablen beschreiben.
Unabhängige Zufallsvariablen und deren Funktion
Sind Funktionen unabhängiger Variablen auch unabhängig?
Wenn $X$ und $Y$ sind dann unabhängig $f(X)$ und $g(Y)$ sind auch unabhängig.
Wenn $X$ und $Y$sind unabhängig. Wie wäre es mit$X^2$ und $Y$? Und wie wäre es$f(X)$ und $g(Y)$?
Sind Quadrate unabhängiger Zufallsvariablen unabhängig?
Beweisen Sie, dass wenn $X$ und $Y$ sind also unabhängig $h(X)$ und $g(Y)$sind in der BASIC-Wahrscheinlichkeit unabhängig - können wir die doppelte Integration verwenden? (Oh, ich habe hier tatsächlich den 2-Variablen-Elementarfall gefragt, aber es gibt keine Antwort)
Ich habe noch keinen Beitrag gesehen, der den Fall für mindestens 3 beschreibt .
Bitte antworten Sie in 2 Situationen
1 - für fortgeschrittene Wahrscheinlichkeitstheorie:
Lassen $X_i: \Omega \to \mathbb R$ unabhängige Zufallsvariablen sein in $(\Omega, \mathscr F, \mathbb P)$. Lassen$i \in I$für jeden Indexsatz denke ich (oder muss vielleicht abzählbar sein). Natürlich annehmen$card(I) \ge 3$. Dann zeig$f_i(X_i)$sind unabhängig. Geben Sie Bedingungen an$f_i$ so dass $f_i(X_i)$ist unabhängig. Ich habe in den obigen Beiträgen gelesen, dass der Zustand "messbar" ist, was ich denke, bedeutet$\mathscr F$- messbar, aber ich hätte schwören können, dass ich vorher gelesen habe, dass der Zustand "begrenzt und Borel-messbar" sein soll, wie in begrenzt und $\mathscr B(\mathbb R)$-Messbar für $(\mathbb R, \mathscr B(\mathbb R), Lebesgue)$
2 - für die elementare Wahrscheinlichkeitstheorie
Lassen $X_i: \Omega \to \mathbb R$seien Sie unabhängige Zufallsvariablen, die PDFs haben. Verwenden Sie die elementare Wahrscheinlichkeitsdefinition der Unabhängigkeit, die "unabhängig ist, wenn sich das gemeinsame PDF aufteilt" oder so. Ich denke der Indexsatz$I$muss nicht endlich sein, in diesem Fall denke ich, dass die Definition ist, dass das gemeinsame PDF einer endlichen Teilmenge von unabhängig ist . Geben Sie Bedingungen an$f_i$ so dass $f_i(X_i)$ist unabhängig. Natürlich können wir nicht genau sagen , dass$f_i$ ist 'messbar'.
Kontext für den Elementarfall: Ich versuche, die Berechnung der Formel für die Momenterzeugungsfunktion für die lineare Kombination unabhängiger Zufallsvariablen zu rechtfertigen . Siehe hier: Beweis der Ungleichheit der Wahrscheinlichkeit, um die Obergrenze für momenterzeugende Funktionen abzuleiten
Basierend auf der Anwendung des Riemann-Stieltjes-Integrals (oder des Lebesgue-Stieltjes-Integrals) auf die Wahrscheinlichkeit denke ich, dass die Bedingung eine beliebige ist$f_i$ so dass $E[f_i(X_i)]$ existiert (dh $E[|f_i(X_i)|]$ ist endlich).
Dies ist die gleiche Bedingung in Larsen und Marx - Einführung in die mathematische Statistik und ihre Anwendungen .
Ich denke $f$ begrenzt impliziert dies aber nicht umgekehrt.
Update : Auch durch eine andere Frage verwandt Wenn$g$ ist eine kontinuierliche und zunehmende Funktion von $x$, Beweise das $g(X)$ist eine Zufallsvariable. -> Allgemeiner für welche Funktionen$g$ ist $g(X)$ist eine Zufallsvariable? Natürlich in fortgeschrittener Wahrscheinlichkeit einfach sagen$g$ ist Borel-messbar oder $\mathscr F$-Messbar oder was auch immer, aber ich denke in elementarer Wahrscheinlichkeit sagen wir $g$ so dass $E[g(X)]$ existiert dh $E[|g(X)|] < \infty$Selbst wenn dies, glaube ich, ein stärkerer Zustand ist $g$ist 'messbar', was auch immer dies in elementarer Wahrscheinlichkeit bedeutet. Aber andererseits ist das etwas seltsam, da wir es nicht unbedingt erwarten$E[X]$ zu existieren (dh $E[|X|] < \infty$) oder auch jeden höheren Moment $E[X^n]$ Ich vermute.
Antworten
Zum $i\in I$ Lassen $\sigma\left(X_{i}\right)\subseteq\mathscr{F}$ bezeichnen die $\sigma$-Algebra durch Zufallsvariable generiert $X_{i}:\Omega\to\mathbb{R}$.
Dann haben wir eigentlich $\sigma\left(X_{i}\right)=X_{i}^{-1}\left(\mathscr{B}\left(\mathbb{R}\right)\right)=\left\{ X_{i}^{-1}\left(B\right)\mid B\in\mathscr{B}\left(\mathbb{R}\right)\right\} $.
Die Sammlung $(X_i)_{i\in I}$ von Zufallsvariablen ist unabhängig iff:
Für jeden Endlichen $J\subseteq I$ und jede Sammlung $\left\{ A_{i}\mid i\in J\right\} $ befriedigend $\forall i\in J\left[A_{i}\in\sigma\left(X_{i}\right)\right]$ wir haben:
$$P\left(\bigcap_{i\in J}A_{i}\right)=\prod_{i\in J}P\left(A_{i}\right)\tag {1}$$
Nun wenn $f_{i}:\mathbb{R}\to Y_{i}$ zum $i\in I$ wo $\left(Y_{i},\mathcal{A}_{i}\right)$ bezeichnet einen messbaren Raum und wo jeder $f_{i}$ ist Borel-messbar in dem Sinne, dass $f_{i}^{-1}\left(\mathcal{A}_{i}\right)\subseteq\mathscr{B}\left(\mathbb{R}\right)$ dann müssen wir uns zur Überprüfung der Unabhängigkeit die ansehen $\sigma$-Algebren $\sigma\left(f_{i}\left(X_{i}\right)\right)$.
Aber offensichtlich: $$\sigma\left(f_{i}\left(X_{i}\right)\right)=\left(f_{i}\circ X_{i}\right)^{-1}\left(\mathcal{A}_{i}\right)=X_{i}^{-1}\left(f_{i}^{-1}\left(\mathcal{A}_{i}\right)\right)\subseteq X_{i}^{-1}\left(\mathscr{B}\left(\mathbb{R}\right)\right)=\sigma\left(X_{i}\right)$$ Also wenn $\left(1.A\right)$ ist zufrieden für die $\sigma\left(X_{i}\right)$dann ist es automatisch für die kleineren zufrieden$\sigma\left(f_{i}\left(X_{i}\right)\right)$.
2)
Die konzeptionelle Unabhängigkeit von Zufallsvariablen wirkt sich auf PDFs und die Berechnung von Momenten aus, ihre Definition ist jedoch völlig lose. Basierend auf z. B. einer Aufteilung von PDFs kann abgeleitet werden, dass es Unabhängigkeit gibt, aber solche Dinge dürfen nicht in den Status "Definition der Unabhängigkeit" befördert werden. In solchen Situationen können wir höchstens sagen, dass dies eine ausreichende (nicht notwendige) Voraussetzung für die Unabhängigkeit ist. Wenn wir uns fragen: "Was wird für die benötigt$f_i(X_i)$ um unabhängig zu sein? "dann müssen wir uns auf die Definition der Unabhängigkeit konzentrieren (nicht ausreichende Bedingungen). Dabei finden wir die Messbarkeit der $f_i$ ist genug, wenn die $X_i$ sind schon unabhängig.
BCLC-Bearbeitung: (Lassen Sie Drhab diesen Teil weiter bearbeiten): Es gibt kein "Messbares" in der Elementarwahrscheinlichkeit, also sagen wir einfach "geeignet" oder "gut erzogen" in dem, was auch immer Funktionen von Schülern mit Elementarwahrscheinlichkeit begegnen werden, wir hoffen, dass sie sind geeignet. Wahrscheinlich verwenden einige Lehrbücher schwächere Bedingungen als "messbar", die als Definition der Unabhängigkeit für dieses Buch verwendet werden.
Bearbeiten : Funktionen, die nicht messbar sind (oder nicht geeignet sind, wenn Sie möchten), sind im normalen Kontext sehr selten. Das Axiom der Wahl wird benötigt, um die Existenz solcher Funktionen zu beweisen. In diesem Sinne könnte man sagen, dass konstruierbare Funktionen (es ist keine willkürliche Auswahlfunktion erforderlich) geeignet sind.
Maßtheoretisch :
Die messungstheoretische Antwort ist äußerst allgemein. Es erfordert nichts Besonderes an der realen Linie oder den Borel-Sets, nur reine Messbarkeit. Annehmen$(X)_{i \in I}$ ist eine Familie (zählbar ist nicht erforderlich) von zufälligen Elementen, wobei $X_i: (\Omega, \mathscr{F}) \to (A_i, \mathscr{A}_i)$dh jeder $X_i$ nimmt Werte in einem Raum $A_i$ und $X_i$ ist messbar, aber alles $X_i$ leben auf dem gleichen Eingaberaum $\Omega$. Über die Räume werden keine Annahmen getroffen$\Omega, A_i$ oder $\sigma$-Algebren $\mathscr{F}, \mathscr{A}_i$.
Lassen Sie eine entsprechende Familie von Funktionen $(f_i)_{i \in I}$ so gegeben werden, dass für jeden $i$, $f_i: (A_i, \mathscr{A}_i) \to (B_i, \mathscr{B}_i)$ist messbar. Das heißt, jeder$f_i$ akzeptiert Eingaben von $A_i$ (die Codomäne von $X_i$) und nimmt Werte in einem bestimmten Raum an $B_i$ so dass $f_i$ist messbar. (Dies stellt sicher, dass für jeden$i$, $f_i(X_i): (\Omega, \mathscr{F}) \to (B_i, \mathscr{B}_i)$ macht Sinn und ist messbar.) Auch hier werden keine Annahmen über die Räume gemacht $B_i$ oder $\sigma$-Algebren $\mathscr{B}_i$.
Nehmen wir nun an $(X_i)_i$ ist eine unabhängige Familie unter einem gewissen Wahrscheinlichkeitsmaß $P$ auf $(\Omega, \mathscr{F})$, dh das für jede endliche Teilmenge $J \subseteq I$ von Indizes und messbaren Teilmengen $U_i \in \mathscr{A}_i$ hat man $$P(X_i \in U_i \text{ for all } i \in J) = \prod_{i \in J} P(X_i \in U_i).$$
Dann behaupten wir das $(f_i(X_i))_{i \in I}$ ist auch eine selbständige Familie unter $P$. In der Tat, lassen Sie$J \subseteq I$ sei eine endliche Teilmenge von Indizes und lass messbare Teilmengen $V_i \in \mathscr{B}_i$gegeben werden. Für jede$i \in J$durch die Messbarkeit von $f_i$ und $V_i$, das hat man $f_i^{-1}(V_i) \in \mathscr{A}_i$ und somit $$ P(f_i(X_i) \in V_i \text{ for all } i \in J) = P(X_i \in f^{-1}_i(V_i) \text{ for all } i \in J) $$ $$ = \prod_{i \in J} P(X_i \in f^{-1}_i(V_i)) $$ $$ = \prod_{i \in J} P(f_i(X_i) \in V_i). $$ So, $f_i(X_i))_{i \in I}$ ist eine unabhängige Familie.
elementare Wahrscheinlichkeit :
Die elementare Wahrscheinlichkeitslösung hängt wirklich davon ab, wie Sie Unabhängigkeit definieren. In allen Fällen umfasst die Definition nur endliche Teilmengen der Zufallsvariablen. Ich würde das ohne die Definition von a sagen$\sigma$-algebra, der Beweis ist unerreichbar, es sei denn, Sie machen zusätzliche (unnötige) Annahmen. Wenn Sie definieren, dass Dichten als Produkt aufgeteilt werden, müssen Sie einige Bedingungen annehmen, um dies sicherzustellen$f_i(X_i)$hat eine Dichte und dass Sie die üblichen Dichtetransformationsregeln anwenden können. Wenn Ihre Funktionen Werte in einem zählbaren Raum annehmen, kann der obige Beweis im Wesentlichen wörtlich wiederholt werden und beliebig ersetzt werden$U_i, V_i$ mit Singletons, dh schauen $P(f_i(X_i) = y_i, \forall i)$.
Alternativ, da Sie eine messungstheoretische Antwort auf eine Frage vermeiden, deren Definition messungstheoretisch ist, ist die Richtigkeit des Arguments möglicherweise keine Voraussetzung? Sagen Sie Ihren Schülern einfach, dass die Unabhängigkeitsbedingung für "alle Mengen (verbale Sternchen)" gelten muss, und geben Sie dann den obigen Beweis, ohne die Messbarkeit zu erwähnen. Oder wenn Ihre Schüler mit der Topologie besser vertraut sind, können Sie nur kontinuierliche Funktionen verwenden und Vorbilder offener Mengen betrachten.