Uczenie maszynowe i sztuczne sieci neuronowe: Różnice pomiędzy wersjami

Z Brain-wiki
m
 
(Nie pokazano 26 pośrednich wersji utworzonych przez tego samego użytkownika)
Linia 1: Linia 1:
 
[[Category:Przedmioty specjalizacyjne]]
 
[[Category:Przedmioty specjalizacyjne]]
  
 +
'''Uwaga: ta strona ma charakter historyczny. Aktualna wersja wykładu jest na stronie''' https://kampus-kursy.ckc.uw.edu.pl/course/section.php?id=10751
 +
 +
[[Zasady zaliczenia| Zasady zaliczenia ]]
 +
 +
[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/konfiguracja|Konfiguracja środowiska]]
 +
 +
 +
 +
<!--
 
Przejście do: [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe_cw|Ćwiczeń]]
 
Przejście do: [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe_cw|Ćwiczeń]]
 +
 
=Wykłady=
 
=Wykłady=
 
#[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 1|Wstęp, regresja liniowa i metoda najmniejszych kwadratów]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDUTFmVnJ1QXpuVGs (wersja w notebooku)]
 
#[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 1|Wstęp, regresja liniowa i metoda najmniejszych kwadratów]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDUTFmVnJ1QXpuVGs (wersja w notebooku)]
Linia 15: Linia 25:
 
#[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 5|Wsteczna propagacja błędu: jak poprawić zbieżność?]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDdDRJbmhVdFFLQWs (wersja w notebooku)]
 
#[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 5|Wsteczna propagacja błędu: jak poprawić zbieżność?]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDdDRJbmhVdFFLQWs (wersja w notebooku)]
 
#[https://drive.google.com/open?id=0BzwQ_Lscn8yDRHFhcmZIRTlHU2M Sieci konwolucyjne] [https://drive.google.com/open?id=0BzwQ_Lscn8yDNjgxZTkyNFppRGs (wersja w notebooku)]
 
#[https://drive.google.com/open?id=0BzwQ_Lscn8yDRHFhcmZIRTlHU2M Sieci konwolucyjne] [https://drive.google.com/open?id=0BzwQ_Lscn8yDNjgxZTkyNFppRGs (wersja w notebooku)]
 +
#[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 11|Uczenie ze wzmocnieniem]] [https://drive.google.com/open?id=15n9lM2OdT9TZVS_pfn7x_xswPeuy_r0Q (wersja w notebooku)]
 +
#[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 12|Uczenie ze wzmocnieniem cz.2]] [https://drive.google.com/open?id=17YVwJ479qn74B_n2v_IlCv9dyCSQt5Wa  (wersja w notebooku)]
 +
 +
-->
 +
{| class="wikitable"
 +
!
 +
! Wykłady
 +
! Ćwiczenia
 +
|-
 +
| 1
 +
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 1|Wstęp, regresja liniowa i metoda najmniejszych kwadratów]] [https://drive.google.com/file/d/0BzwQ_Lscn8yDUTFmVnJ1QXpuVGs/view?usp=sharing&resourcekey=0-VTr-BMBrfkYGI0sGhTJ8Pg (wersja w notebooku)]
 +
| [https://drive.google.com/file/d/1E4W5j8Z5yxfe0n804I8zJIM1QyQs-oZK/view?usp=sharing Powtórka numpy]
 +
|-
 +
|
 +
|
 +
| [https://drive.google.com/file/d/1P86RKJfMFU54xYT9umP7fwCRF800iC0v/view?usp=sharing Regresja liniowa].
 +
|-
 +
| 2
 +
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 6|Klasyfikacja i regresja logistyczna]] [https://drive.google.com/file/d/11JKqVTSjeQNSUSkzhHZEML5hrggDJx8b/view?usp=sharing (wersja w notebooku)]
 +
|
 +
|-
 +
|
 +
|
 +
| [https://drive.google.com/file/d/11JKqVTSjeQNSUSkzhHZEML5hrggDJx8b/view?usp=sharing Ćwiczenie regresji logistycznej]
 +
|-
 +
| 3
 +
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład Ocena jakości klasyfikacji|Ocena jakości klasyfikacji]] [https://drive.google.com/file/d/0BzwQ_Lscn8yDQ3Vpbnd2U2pOd0k/view?usp=sharing&resourcekey=0-lba-gcj-vx584pcxqMzkuw (wersja w notebooku)]
 +
|
 +
|-
 +
|
 +
|
 +
| [https://drive.google.com/file/d/1UYCo2wuC8BHnssZJRBZJfyvdQFsmwS1O/view?usp=sharing Ćwiczenie z miarami jakości]
 +
|-
 +
| 4
 +
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 7|Algorytmy generatywne]] [https://drive.google.com/file/d/0BzwQ_Lscn8yDNUpWYTdycWVLa0E/view?usp=sharing&resourcekey=0-Kd3aqboblVwFrkp5KXn4uQ (wersja w notebooku)]
 +
|
 +
|-
 +
|
 +
|
 +
| [https://drive.google.com/file/d/17T3h2QUwCJA7QqnC-IHuIQeEBOZ8kJqW/view?usp=sharing Ćwiczenie z  klasyfikacji bayesowskiej] <br> [https://drive.google.com/file/d/1mO64cJnEWJ98K8NTvGHfI1rA7fEb2DLi/view?usp=sharing Ćwiczenie z klasyfikacji tekstów za pomocą klasyfikacji bayesowskiej (notebook)]
 +
|-
 +
| 5
 +
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 8|Maszyny wektorów wspierających I]] [https://drive.google.com/file/d/0BzwQ_Lscn8yDQ3poLWdZOG90c2M/view?usp=sharing&resourcekey=0-uuk3FrTQiAentJixVjaeZA (wersja w notebooku)]
 +
|
 +
|-
 +
|
 +
|
 +
| [https://drive.google.com/file/d/1QTOK6B8jPrP3J7NW2I93q3WZJ1CAWN_H/view?usp=sharing Klasyfikacja z użyciem SVM]
 +
|-
 +
| 6
 +
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 9|Maszyny wektorów wspierających II]] [https://drive.google.com/file/d/0BzwQ_Lscn8yDQVplcGo3bmllODA/view?usp=sharing&resourcekey=0-TE8SmXSjQHeZvMQX7qbSYA (wersja w notebooku)]
 +
|
 +
|-
 +
|
 +
|
 +
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/SVM2 | Klasyfikacja z użuciem SVM 2]]
 +
|-
 +
| 7
 +
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/DrzewaDecyzyjne|Drzewa decyzyjne]][https://drive.google.com/file/d/0BzwQ_Lscn8yDLU1wUFBsRURzWEk/view?usp=sharing&resourcekey=0-1F1twtCbJV6UAfO537IbmA (wersja w notebooku)]
 +
|
 +
|-
 +
|
 +
|
 +
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wybor_cech |Wybor optymalnych cech]]
 +
 +
[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/DrzewaDecyzyjne_cw|Drzewa decyzyjne]] [https://drive.google.com/file/d/1hvGjF1fofv0tBNfZj5-eD2gYF94CqFTf/view?usp=sharing Drzewa decyzyjne (notebook)]
 +
|-
 +
| 8
 +
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 10|Uczenie bez nadzoru]] [https://drive.google.com/file/d/0BzwQ_Lscn8yDaC0wZWJuRUdIMk0/view?usp=sharing&resourcekey=0-n9MM42-AMfRRToEyBYpv3w (wersja w notebooku)]
 +
|
 +
|-
 +
|
 +
|
 +
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Ćwiczenia 11|Uczenie bez nadzoru i analiza skupień]]  [https://drive.google.com/file/d/1hNxYTzh541JhFoaYbo3Pc6LHnzsrsMX6/view?usp=sharing notebook]
 +
|-
 +
| 9
 +
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 2|Wstęp o sieciach neuronowych, sieci neuronowe liniowe.]],/,[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 3|Perceptron Rosenblatta.]] [https://drive.google.com/file/d/13CG5kuEKV1riA8vhBfMxGfCpECJCh-ql/view?usp=sharing (wersja w notebooku)]
 +
|
 +
|-
 +
|
 +
|
 +
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Ćwiczenia 4|Nieliniowe sieci neuronowe: problem XOR]]
 +
 +
[https://drive.google.com/file/d/1B7nS1zs2begRPK6ye2IH4p__sZDccLs_/view?usp=sharing Sieci głębokie (notebook)]
 +
|-
 +
| 10
 +
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 4|Nieliniowości różniczkowalne i metoda wstecznej propagacji błędu]] [https://drive.google.com/file/d/0BzwQ_Lscn8yDdDRJbmhVdFFLQWs/view?usp=sharing&resourcekey=0-LeOlls1dq7lJVs7Cw_h4Xw (wersja w notebooku)]
 +
 +
[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 5|Wsteczna propagacja błędu: jak poprawić zbieżność?]] [https://drive.google.com/open?id=0BzwQ_Lscn8yDdDRJbmhVdFFLQWs (wersja w notebooku)]
 +
|
 +
|-
 +
|
 +
|
 +
| [https://drive.google.com/open?id=1hU0nVe6l9ubPbHFgRoMGn2PRGAhAnQCu Regresja nielinowa implementacja w keras(notebook)]
 +
|-
 +
| 11
 +
|  [https://drive.google.com/file/d/0BzwQ_Lscn8yDNjgxZTkyNFppRGs/view?usp=sharing&resourcekey=0-_KtF79jjjKe4Bw_tGcs-lw Sieci konwolucyjne (wersja w notebooku)]
 +
|
 +
|-
 +
|
 +
|
 +
| [https://drive.google.com/file/d/1MX6CSJH7bQ6dcsulN3kyit4SgKtGUlTj/view?usp=sharing Augmentacja danych]<br>[https://drive.google.com/open?id=13MNs6R9le49DfexN6rnIsgVQlixJMJ0Z Porównanie kalsyfikacji cyfr za pomoca sieci gęstej i głębokiej (notebook)]
 +
|-
 +
| 12
 +
| [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 11|Uczenie ze wzmocnieniem]] [https://drive.google.com/file/d/15n9lM2OdT9TZVS_pfn7x_xswPeuy_r0Q/view?usp=sharing (wersja w notebooku)]
 +
 +
[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 12|Uczenie ze wzmocnieniem cz.2]] [https://drive.google.com/file/d/17YVwJ479qn74B_n2v_IlCv9dyCSQt5Wa/view?usp=sharing,(wersja w notebooku)]
 +
|
 +
|-
 +
|
 +
|
 +
| [https://drive.google.com/open?id=18j357je8pSXi3SOYZgK1qp1KWrMsEc2Z Uczenie ze wzmocnieniem (notebook)]
 +
|-
 +
| 13
 +
|
 +
[https://drive.google.com/file/d/1nO8QiHru6CE_txzUrBj4N9qhCLGlLvUE/view?usp=sharing Interpretacja i wyjaśnianie decyzji podejmowanych przez sieci ] <br>
 +
[https://brain.fuw.edu.pl/edu/images/2/2a/Zastosowania_DNN_do_analizy_EEG.pdf Zastosowanie sieci do analizy danych EEG]
 +
|-
 +
|
 +
|
 +
| [https://drive.google.com/file/d/1mAspITelZmAMZP3JkghETcB7UbIbEt5x/view?usp=sharing Interpretowalne ML]
 +
|}
  
 
=Powtórka=
 
=Powtórka=
 
#[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Pytania| Zagadnienia do powtórki]]
 
#[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Pytania| Zagadnienia do powtórki]]
 
+
=Projekty=
<!--
+
[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Projekty|Projekty]]
#[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 11|Uczenie ze wzmocnieniem]]
 
#[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 12|Uczenie ze wzmocnieniem cz.2]]
 
-->
 

Aktualna wersja na dzień 08:38, 8 paź 2024


Uwaga: ta strona ma charakter historyczny. Aktualna wersja wykładu jest na stronie https://kampus-kursy.ckc.uw.edu.pl/course/section.php?id=10751

Zasady zaliczenia

Konfiguracja środowiska


Wykłady Ćwiczenia
1 Wstęp, regresja liniowa i metoda najmniejszych kwadratów (wersja w notebooku) Powtórka numpy
Regresja liniowa.
2 Klasyfikacja i regresja logistyczna (wersja w notebooku)
Ćwiczenie regresji logistycznej
3 Ocena jakości klasyfikacji (wersja w notebooku)
Ćwiczenie z miarami jakości
4 Algorytmy generatywne (wersja w notebooku)
Ćwiczenie z klasyfikacji bayesowskiej
Ćwiczenie z klasyfikacji tekstów za pomocą klasyfikacji bayesowskiej (notebook)
5 Maszyny wektorów wspierających I (wersja w notebooku)
Klasyfikacja z użyciem SVM
6 Maszyny wektorów wspierających II (wersja w notebooku)
Klasyfikacja z użuciem SVM 2
7 Drzewa decyzyjne(wersja w notebooku)
Wybor optymalnych cech

Drzewa decyzyjne Drzewa decyzyjne (notebook)

8 Uczenie bez nadzoru (wersja w notebooku)
Uczenie bez nadzoru i analiza skupień notebook
9 Wstęp o sieciach neuronowych, sieci neuronowe liniowe.,/,Perceptron Rosenblatta. (wersja w notebooku)
Nieliniowe sieci neuronowe: problem XOR

Sieci głębokie (notebook)

10 Nieliniowości różniczkowalne i metoda wstecznej propagacji błędu (wersja w notebooku)

Wsteczna propagacja błędu: jak poprawić zbieżność? (wersja w notebooku)

Regresja nielinowa implementacja w keras(notebook)
11 Sieci konwolucyjne (wersja w notebooku)
Augmentacja danych
Porównanie kalsyfikacji cyfr za pomoca sieci gęstej i głębokiej (notebook)
12 Uczenie ze wzmocnieniem (wersja w notebooku)

Uczenie ze wzmocnieniem cz.2 w notebooku)

Uczenie ze wzmocnieniem (notebook)
13

Interpretacja i wyjaśnianie decyzji podejmowanych przez sieci
Zastosowanie sieci do analizy danych EEG

Interpretowalne ML

Powtórka

  1. Zagadnienia do powtórki

Projekty

Projekty