Probabilistyczne modele grafowe 2023/2024

Listy zadań
Termin N Termin P Plik pdf Plik tex Wydarzenia specjalne Temat
4 marca 4 marca Lista 0 Lista 0 (tex) brak :( Podstawy prawdopodobieństwa
11 marca 18 marca Lista 1 Lista 1 (tex) kartkówka 1 Bayes i parametry rozkładów
25 marca 8 kwietnia Lista 2 Lista 2 (tex) kartkówka 2 MLE i MAP
22 kwietnia 15 kwietnia Lista 3 Lista 3 (tex) kolokwium 1 Macierze i pochodne naraz
6 maja 29 kwietnia Lista 4 Lista 4 (tex) kartkówka 3 Warunkowa wartość oczekiwana
20 maja 13 maja Lista 5 Lista 5 (tex) kartkówka 4 Łańcuchy Markowa ukryte i nie
3 czerwca 27 maja Lista 6 Lista 6 (tex) kartkówka 5 Teoria informacji
17 czerwca 10 czerwca Lista 7 Lista 7 (tex) kolokwium 2

Egzamin I: 28 czerwca
Egzamin II: 5 lipca

Komentarze co do znaczkologii na listach: \(\langle 1, 2, 3 \rangle\) to ciąg/wektor. Dopełnienie zbioru \(A\) (a więc także zdarzenie przeciwne do \(A\)) oznaczamy \(A^c\). Napis \(A^2\) oznacza iloczyn kartezjański zbioru \(A\) z samym sobą. Czyli na przykład elementami zbioru \((-\infty, 0]^2\) są dokładnie wszystkie pary liczb niedodatnich.

Wszelkie pytania jak zawsze proszę namiętnie zadawać, na mejla czy gdzie tam chcecie.

Jak myśleć o gęstości prawdopodobieństwa? Trzeba tak trochę zignorować fakt, że mamy do czynienia z rozkładem ciągłym -- jak \(f(3) = 0.3\), a \(f(5) = 0.1\), to co prawda nie znaczy, że piątkę wylosujemy co dziesiąte losowanie, ale na pewno jest trzy razy mniej prawdopodobna niż trójka. I punktowo tego nie widać, ale jak zapytamy o prawdopodobieństwo trafienia w odległości 0.001 od celu, to faktycznie zobaczymy, że liczbowo ten stosunek prawdopodobieństw się zgadza. A czy zdania takie, jak to poprzednie, nie leżały czasem na półce obok granicy ilorazu różnicowego, czyli pochodnej? I mniej więcej dlatego gęstość to pochodna dystrybuanty. A zobaczcie, że dystrybuantę się dużo łatwiej wyznacza, niż gęstość. Może dlatego, że dystrybuanta coś znaczy, a gęstość tylko udaje, że coś znaczy.


Materiały do listy 1

Poniższe materiały będą być może pomocne w rozwiązywaniu listy 1.

Angielska Wikipedia jest bardzo dobrym źródłem do nauki prawdopodobieństwa.

Do kartkówki trzeba mieć w głowie (między innymi), czym jest wariancja i kowariancja (obie definicje) i jak się ma wartość oczekiwana do całek i gęstości. Rozkłady łączne i niezależność też trzeba znać i lubić. Rozkłady warunkowe i prawdopodobieństwo warunkowe takoż. Twierdzenie Bayesa także. Nie będzie rozkładów z nazwiskiem.

Uprzejmie przypominam, że do pisania kartkówki przydatny jest długopis, a uwzględniając złośliwość rzeczy martwych, może nawet zapasowy.


Materiały do listy 2

Materiały do listy 3

Lista jest okropnie długa, ale to dlatego, że jest mnóstwo przykładów. Zadania z [-] można spokojnie ignorować, są bardzo powtórkowe. Bardzo polecam materiały powyżej!


Materiały do listy 4

Jak myśleć o warunkowej wartości oczekiwanej \(E(X|Y)\)? W odróżnieniu od \(E(X)\), która jest liczbą, \(E(X|Y)\) to informacja, czego się spodziewamy po \(X\), gdy znamy \(Y\). Oznacza to, że \(E(X|Y)\) to jakaś funkcja zmiennej \(Y\). Istotnie, dla \(X=2Y\), jakiej wartości \(X\) spodziewamy się "najbardziej", jeśli dostaniemy \(Y\)? Oczywiście \(2Y\).


Materiały do listy 5

Wikipedia jak zawsze świetna, Ponadto to

W zadaniu z tabelką nie podpisałem, gdzie jest zawód rodziców, a gdzie dzieci. Czy to haniebny błąd uniemożliwiający rozwiązanie zadania, czy też jednak istnieje sposób, by się dowiedzieć, które jest które?


Materiały do listy 6

Chyba najbardziej bym polecał przejrzeć książkę Murphy'ego. Natomiast w internecie pełno jest materiałów, raczej podobnej jakości (czyli akceptowalnej).


Materiały do listy 7

Wikipedia tłumaczy dobrze.