Uczenie maszynowe i sztuczne sieci neuronowe: Różnice pomiędzy wersjami
Z Brain-wiki
m |
m |
||
(Nie pokazano 25 pośrednich wersji utworzonych przez tego samego użytkownika) | |||
Linia 1: | Linia 1: | ||
[[Category:Przedmioty specjalizacyjne]] | [[Category:Przedmioty specjalizacyjne]] | ||
− | + | '''Uwaga: ta strona ma charakter historyczny. Aktualna wersja wykładu jest na stronie''' https://kampus-kursy.ckc.uw.edu.pl/course/section.php?id=10751 | |
− | |||
− | |||
+ | [[Zasady zaliczenia| Zasady zaliczenia ]] | ||
+ | |||
+ | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/konfiguracja|Konfiguracja środowiska]] | ||
+ | |||
+ | |||
+ | |||
+ | <!-- | ||
Przejście do: [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe_cw|Ćwiczeń]] | Przejście do: [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe_cw|Ćwiczeń]] | ||
+ | |||
=Wykłady= | =Wykłady= | ||
#[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 1|Wstęp, regresja liniowa i metoda najmniejszych kwadratów]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDUTFmVnJ1QXpuVGs (wersja w notebooku)] | #[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 1|Wstęp, regresja liniowa i metoda najmniejszych kwadratów]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDUTFmVnJ1QXpuVGs (wersja w notebooku)] | ||
Linia 19: | Linia 25: | ||
#[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 5|Wsteczna propagacja błędu: jak poprawić zbieżność?]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDdDRJbmhVdFFLQWs (wersja w notebooku)] | #[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 5|Wsteczna propagacja błędu: jak poprawić zbieżność?]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDdDRJbmhVdFFLQWs (wersja w notebooku)] | ||
#[https://drive.google.com/open?id=0BzwQ_Lscn8yDRHFhcmZIRTlHU2M Sieci konwolucyjne] [https://drive.google.com/open?id=0BzwQ_Lscn8yDNjgxZTkyNFppRGs (wersja w notebooku)] | #[https://drive.google.com/open?id=0BzwQ_Lscn8yDRHFhcmZIRTlHU2M Sieci konwolucyjne] [https://drive.google.com/open?id=0BzwQ_Lscn8yDNjgxZTkyNFppRGs (wersja w notebooku)] | ||
+ | #[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 11|Uczenie ze wzmocnieniem]] [https://drive.google.com/open?id=15n9lM2OdT9TZVS_pfn7x_xswPeuy_r0Q (wersja w notebooku)] | ||
+ | #[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 12|Uczenie ze wzmocnieniem cz.2]] [https://drive.google.com/open?id=17YVwJ479qn74B_n2v_IlCv9dyCSQt5Wa (wersja w notebooku)] | ||
+ | |||
+ | --> | ||
+ | {| class="wikitable" | ||
+ | ! | ||
+ | ! Wykłady | ||
+ | ! Ćwiczenia | ||
+ | |- | ||
+ | | 1 | ||
+ | | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 1|Wstęp, regresja liniowa i metoda najmniejszych kwadratów]] [https://drive.google.com/file/d/0BzwQ_Lscn8yDUTFmVnJ1QXpuVGs/view?usp=sharing&resourcekey=0-VTr-BMBrfkYGI0sGhTJ8Pg (wersja w notebooku)] | ||
+ | | [https://drive.google.com/file/d/1E4W5j8Z5yxfe0n804I8zJIM1QyQs-oZK/view?usp=sharing Powtórka numpy] | ||
+ | |- | ||
+ | | | ||
+ | | | ||
+ | | [https://drive.google.com/file/d/1P86RKJfMFU54xYT9umP7fwCRF800iC0v/view?usp=sharing Regresja liniowa]. | ||
+ | |- | ||
+ | | 2 | ||
+ | | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 6|Klasyfikacja i regresja logistyczna]] [https://drive.google.com/file/d/11JKqVTSjeQNSUSkzhHZEML5hrggDJx8b/view?usp=sharing (wersja w notebooku)] | ||
+ | | | ||
+ | |- | ||
+ | | | ||
+ | | | ||
+ | | [https://drive.google.com/file/d/11JKqVTSjeQNSUSkzhHZEML5hrggDJx8b/view?usp=sharing Ćwiczenie regresji logistycznej] | ||
+ | |- | ||
+ | | 3 | ||
+ | | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład Ocena jakości klasyfikacji|Ocena jakości klasyfikacji]] [https://drive.google.com/file/d/0BzwQ_Lscn8yDQ3Vpbnd2U2pOd0k/view?usp=sharing&resourcekey=0-lba-gcj-vx584pcxqMzkuw (wersja w notebooku)] | ||
+ | | | ||
+ | |- | ||
+ | | | ||
+ | | | ||
+ | | [https://drive.google.com/file/d/1UYCo2wuC8BHnssZJRBZJfyvdQFsmwS1O/view?usp=sharing Ćwiczenie z miarami jakości] | ||
+ | |- | ||
+ | | 4 | ||
+ | | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 7|Algorytmy generatywne]] [https://drive.google.com/file/d/0BzwQ_Lscn8yDNUpWYTdycWVLa0E/view?usp=sharing&resourcekey=0-Kd3aqboblVwFrkp5KXn4uQ (wersja w notebooku)] | ||
+ | | | ||
+ | |- | ||
+ | | | ||
+ | | | ||
+ | | [https://drive.google.com/file/d/17T3h2QUwCJA7QqnC-IHuIQeEBOZ8kJqW/view?usp=sharing Ćwiczenie z klasyfikacji bayesowskiej] <br> [https://drive.google.com/file/d/1mO64cJnEWJ98K8NTvGHfI1rA7fEb2DLi/view?usp=sharing Ćwiczenie z klasyfikacji tekstów za pomocą klasyfikacji bayesowskiej (notebook)] | ||
+ | |- | ||
+ | | 5 | ||
+ | | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 8|Maszyny wektorów wspierających I]] [https://drive.google.com/file/d/0BzwQ_Lscn8yDQ3poLWdZOG90c2M/view?usp=sharing&resourcekey=0-uuk3FrTQiAentJixVjaeZA (wersja w notebooku)] | ||
+ | | | ||
+ | |- | ||
+ | | | ||
+ | | | ||
+ | | [https://drive.google.com/file/d/1QTOK6B8jPrP3J7NW2I93q3WZJ1CAWN_H/view?usp=sharing Klasyfikacja z użyciem SVM] | ||
+ | |- | ||
+ | | 6 | ||
+ | | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 9|Maszyny wektorów wspierających II]] [https://drive.google.com/file/d/0BzwQ_Lscn8yDQVplcGo3bmllODA/view?usp=sharing&resourcekey=0-TE8SmXSjQHeZvMQX7qbSYA (wersja w notebooku)] | ||
+ | | | ||
+ | |- | ||
+ | | | ||
+ | | | ||
+ | | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/SVM2 | Klasyfikacja z użuciem SVM 2]] | ||
+ | |- | ||
+ | | 7 | ||
+ | | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/DrzewaDecyzyjne|Drzewa decyzyjne]][https://drive.google.com/file/d/0BzwQ_Lscn8yDLU1wUFBsRURzWEk/view?usp=sharing&resourcekey=0-1F1twtCbJV6UAfO537IbmA (wersja w notebooku)] | ||
+ | | | ||
+ | |- | ||
+ | | | ||
+ | | | ||
+ | | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wybor_cech |Wybor optymalnych cech]] | ||
+ | |||
+ | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/DrzewaDecyzyjne_cw|Drzewa decyzyjne]] [https://drive.google.com/file/d/1hvGjF1fofv0tBNfZj5-eD2gYF94CqFTf/view?usp=sharing Drzewa decyzyjne (notebook)] | ||
+ | |- | ||
+ | | 8 | ||
+ | | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 10|Uczenie bez nadzoru]] [https://drive.google.com/file/d/0BzwQ_Lscn8yDaC0wZWJuRUdIMk0/view?usp=sharing&resourcekey=0-n9MM42-AMfRRToEyBYpv3w (wersja w notebooku)] | ||
+ | | | ||
+ | |- | ||
+ | | | ||
+ | | | ||
+ | | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Ćwiczenia 11|Uczenie bez nadzoru i analiza skupień]] [https://drive.google.com/file/d/1hNxYTzh541JhFoaYbo3Pc6LHnzsrsMX6/view?usp=sharing notebook] | ||
+ | |- | ||
+ | | 9 | ||
+ | | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 2|Wstęp o sieciach neuronowych, sieci neuronowe liniowe.]],/,[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 3|Perceptron Rosenblatta.]] [https://drive.google.com/file/d/13CG5kuEKV1riA8vhBfMxGfCpECJCh-ql/view?usp=sharing (wersja w notebooku)] | ||
+ | | | ||
+ | |- | ||
+ | | | ||
+ | | | ||
+ | | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Ćwiczenia 4|Nieliniowe sieci neuronowe: problem XOR]] | ||
+ | |||
+ | [https://drive.google.com/file/d/1B7nS1zs2begRPK6ye2IH4p__sZDccLs_/view?usp=sharing Sieci głębokie (notebook)] | ||
+ | |- | ||
+ | | 10 | ||
+ | | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 4|Nieliniowości różniczkowalne i metoda wstecznej propagacji błędu]] [https://drive.google.com/file/d/0BzwQ_Lscn8yDdDRJbmhVdFFLQWs/view?usp=sharing&resourcekey=0-LeOlls1dq7lJVs7Cw_h4Xw (wersja w notebooku)] | ||
+ | |||
+ | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 5|Wsteczna propagacja błędu: jak poprawić zbieżność?]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDdDRJbmhVdFFLQWs (wersja w notebooku)] | ||
+ | | | ||
+ | |- | ||
+ | | | ||
+ | | | ||
+ | | [https://drive.google.com/open?id=1hU0nVe6l9ubPbHFgRoMGn2PRGAhAnQCu Regresja nielinowa implementacja w keras(notebook)] | ||
+ | |- | ||
+ | | 11 | ||
+ | | [https://drive.google.com/file/d/0BzwQ_Lscn8yDNjgxZTkyNFppRGs/view?usp=sharing&resourcekey=0-_KtF79jjjKe4Bw_tGcs-lw Sieci konwolucyjne (wersja w notebooku)] | ||
+ | | | ||
+ | |- | ||
+ | | | ||
+ | | | ||
+ | | [https://drive.google.com/file/d/1MX6CSJH7bQ6dcsulN3kyit4SgKtGUlTj/view?usp=sharing Augmentacja danych]<br>[https://drive.google.com/open?id=13MNs6R9le49DfexN6rnIsgVQlixJMJ0Z Porównanie kalsyfikacji cyfr za pomoca sieci gęstej i głębokiej (notebook)] | ||
+ | |- | ||
+ | | 12 | ||
+ | | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 11|Uczenie ze wzmocnieniem]] [https://drive.google.com/file/d/15n9lM2OdT9TZVS_pfn7x_xswPeuy_r0Q/view?usp=sharing (wersja w notebooku)] | ||
+ | |||
+ | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 12|Uczenie ze wzmocnieniem cz.2]] [https://drive.google.com/file/d/17YVwJ479qn74B_n2v_IlCv9dyCSQt5Wa/view?usp=sharing,(wersja w notebooku)] | ||
+ | | | ||
+ | |- | ||
+ | | | ||
+ | | | ||
+ | | [https://drive.google.com/open?id=18j357je8pSXi3SOYZgK1qp1KWrMsEc2Z Uczenie ze wzmocnieniem (notebook)] | ||
+ | |- | ||
+ | | 13 | ||
+ | | | ||
+ | [https://drive.google.com/file/d/1nO8QiHru6CE_txzUrBj4N9qhCLGlLvUE/view?usp=sharing Interpretacja i wyjaśnianie decyzji podejmowanych przez sieci ] <br> | ||
+ | [https://brain.fuw.edu.pl/edu/images/2/2a/Zastosowania_DNN_do_analizy_EEG.pdf Zastosowanie sieci do analizy danych EEG] | ||
+ | |- | ||
+ | | | ||
+ | | | ||
+ | | [https://drive.google.com/file/d/1mAspITelZmAMZP3JkghETcB7UbIbEt5x/view?usp=sharing Interpretowalne ML] | ||
+ | |} | ||
=Powtórka= | =Powtórka= | ||
#[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Pytania| Zagadnienia do powtórki]] | #[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Pytania| Zagadnienia do powtórki]] | ||
− | + | =Projekty= | |
− | + | [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Projekty|Projekty]] | |
− | |||
− | |||
− |
Aktualna wersja na dzień 08:38, 8 paź 2024
Uwaga: ta strona ma charakter historyczny. Aktualna wersja wykładu jest na stronie https://kampus-kursy.ckc.uw.edu.pl/course/section.php?id=10751