Komentarze co do znaczkologii na listach: \(\langle 1, 2, 3 \rangle\) to ciąg/wektor. Dopełnienie zbioru \(A\) (a więc także zdarzenie przeciwne do \(A\)) oznaczamy \(A^c\). Napis \(A^2\) oznacza iloczyn kartezjański zbioru \(A\) z samym sobą. Czyli na przykład elementami zbioru \((-\infty, 0]^2\) są dokładnie wszystkie pary liczb niedodatnich.
Wszelkie pytania jak zawsze proszę namiętnie zadawać, na mejla czy gdzie tam chcecie.
Jak myśleć o gęstości prawdopodobieństwa? Trzeba tak trochę zignorować fakt, że mamy do czynienia z rozkładem ciągłym -- jak \(f(3) = 0.3\), a \(f(5) = 0.1\), to co prawda nie znaczy, że piątkę wylosujemy co dziesiąte losowanie, ale na pewno jest trzy razy mniej prawdopodobna niż trójka. I punktowo tego nie widać, ale jak zapytamy o prawdopodobieństwo trafienia w odległości 0.001 od celu, to faktycznie zobaczymy, że liczbowo ten stosunek prawdopodobieństw się zgadza. A czy zdania takie, jak to poprzednie, nie leżały czasem na półce obok granicy ilorazu różnicowego, czyli pochodnej? I mniej więcej dlatego gęstość to pochodna dystrybuanty. A zobaczcie, że dystrybuantę się dużo łatwiej wyznacza, niż gęstość. Może dlatego, że dystrybuanta coś znaczy, a gęstość tylko udaje, że coś znaczy.
Poniższe materiały będą być może pomocne w rozwiązywaniu listy 1.
Angielska Wikipedia jest bardzo dobrym źródłem do nauki prawdopodobieństwa.
Lista jest okropnie długa, ale to dlatego, że jest mnóstwo przykładów. Zadania z [-] można spokojnie ignorować, są bardzo powtórkowe. Bardzo polecam materiały powyżej!
Wikipedia jak zawsze świetna, Ponadto to
W zadaniu z tabelką nie podpisałem, gdzie jest zawód rodziców, a gdzie dzieci. Czy to haniebny błąd uniemożliwiający rozwiązanie zadania, czy też jednak istnieje sposób, by się dowiedzieć, które jest które?
W zakresie teorii informacji hyba najbardziej bym polecał przejrzeć książkę Murphy'ego. Natomiast w internecie pełno jest materiałów, raczej podobnej jakości (czyli akceptowalnej).
Jak myśleć o warunkowej wartości oczekiwanej \(E(X|Y)\)? W odróżnieniu od \(E(X)\), która jest liczbą, \(E(X|Y)\) to informacja, czego się spodziewamy po \(X\), gdy znamy \(Y\). Oznacza to, że \(E(X|Y)\) to jakaś funkcja zmiennej \(Y\). Istotnie, dla \(X=2Y\), jakiej wartości \(X\) spodziewamy się "najbardziej", jeśli dostaniemy \(Y\)? Oczywiście \(2Y\).
A o samej warunkowej niezależności? W zasadzie identycznie powinniśmy o niej myśleć. Dwie zmienne są niezależne pod warunkiem trzeciej, jeśli wiedza o tej trzeciej powoduje, że znajomość pierwszej nie daje nic na temat drugiej.