Termin N | Termin P | Plik pdf | Plik tex | Wydarzenia specjalne | Temat |
---|---|---|---|---|---|
4 marca | 4 marca | Lista 0 | Lista 0 (tex) | brak :( | Podstawy prawdopodobieństwa |
11 marca | 18 marca | Lista 1 | Lista 1 (tex) | kartkówka 1 | Bayes i parametry rozkładów |
25 marca | 8 kwietnia | Lista 2 | Lista 2 (tex) | kartkówka 2 | MLE i MAP |
22 kwietnia | 15 kwietnia | Lista 3 | Lista 3 (tex) | kolokwium 1 | Macierze i pochodne naraz |
6 maja | 29 kwietnia | Lista 4 | Lista 4 (tex) | kartkówka 3 | Warunkowa wartość oczekiwana |
20 maja | 13 maja | Lista 5 | Lista 5 (tex) | kartkówka 4 | Łańcuchy Markowa ukryte i nie |
3 czerwca | 27 maja | Lista 6 | Lista 6 (tex) | kartkówka 5 | Teoria informacji |
17 czerwca | 10 czerwca | Lista 7 | Lista 7 (tex) | kolokwium 2 |
Egzamin I: 28 czerwca
Egzamin II: 5 lipca
Komentarze co do znaczkologii na listach: \(\langle 1, 2, 3 \rangle\) to ciąg/wektor. Dopełnienie zbioru \(A\) (a więc także zdarzenie przeciwne do \(A\)) oznaczamy \(A^c\). Napis \(A^2\) oznacza iloczyn kartezjański zbioru \(A\) z samym sobą. Czyli na przykład elementami zbioru \((-\infty, 0]^2\) są dokładnie wszystkie pary liczb niedodatnich.
Wszelkie pytania jak zawsze proszę namiętnie zadawać, na mejla czy gdzie tam chcecie.
Jak myśleć o gęstości prawdopodobieństwa? Trzeba tak trochę zignorować fakt, że mamy do czynienia z rozkładem ciągłym -- jak \(f(3) = 0.3\), a \(f(5) = 0.1\), to co prawda nie znaczy, że piątkę wylosujemy co dziesiąte losowanie, ale na pewno jest trzy razy mniej prawdopodobna niż trójka. I punktowo tego nie widać, ale jak zapytamy o prawdopodobieństwo trafienia w odległości 0.001 od celu, to faktycznie zobaczymy, że liczbowo ten stosunek prawdopodobieństw się zgadza. A czy zdania takie, jak to poprzednie, nie leżały czasem na półce obok granicy ilorazu różnicowego, czyli pochodnej? I mniej więcej dlatego gęstość to pochodna dystrybuanty. A zobaczcie, że dystrybuantę się dużo łatwiej wyznacza, niż gęstość. Może dlatego, że dystrybuanta coś znaczy, a gęstość tylko udaje, że coś znaczy.
Poniższe materiały będą być może pomocne w rozwiązywaniu listy 1.
Angielska Wikipedia jest bardzo dobrym źródłem do nauki prawdopodobieństwa.
Do kartkówki trzeba mieć w głowie (między innymi), czym jest wariancja i kowariancja (obie definicje) i jak się ma wartość oczekiwana do całek i gęstości. Rozkłady łączne i niezależność też trzeba znać i lubić. Rozkłady warunkowe i prawdopodobieństwo warunkowe takoż. Twierdzenie Bayesa także. Nie będzie rozkładów z nazwiskiem.
Uprzejmie przypominam, że do pisania kartkówki przydatny jest długopis, a uwzględniając złośliwość rzeczy martwych, może nawet zapasowy.
Lista jest okropnie długa, ale to dlatego, że jest mnóstwo przykładów. Zadania z [-] można spokojnie ignorować, są bardzo powtórkowe. Bardzo polecam materiały powyżej!
Jak myśleć o warunkowej wartości oczekiwanej \(E(X|Y)\)? W odróżnieniu od \(E(X)\), która jest liczbą, \(E(X|Y)\) to informacja, czego się spodziewamy po \(X\), gdy znamy \(Y\). Oznacza to, że \(E(X|Y)\) to jakaś funkcja zmiennej \(Y\). Istotnie, dla \(X=2Y\), jakiej wartości \(X\) spodziewamy się "najbardziej", jeśli dostaniemy \(Y\)? Oczywiście \(2Y\).
Wikipedia jak zawsze świetna, Ponadto to
W zadaniu z tabelką nie podpisałem, gdzie jest zawód rodziców, a gdzie dzieci. Czy to haniebny błąd uniemożliwiający rozwiązanie zadania, czy też jednak istnieje sposób, by się dowiedzieć, które jest które?
Chyba najbardziej bym polecał przejrzeć książkę Murphy'ego. Natomiast w internecie pełno jest materiałów, raczej podobnej jakości (czyli akceptowalnej).
Wikipedia tłumaczy dobrze.