Uczenie maszynowe i sztuczne sieci neuronowe: Różnice pomiędzy wersjami
Z Brain-wiki
m |
m |
||
Linia 3: | Linia 3: | ||
Przejście do: [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe_cw|Ćwiczeń]] | Przejście do: [[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe_cw|Ćwiczeń]] | ||
+ | =Wykłady= | ||
#[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 1|Wstęp, regresja liniowa i metoda najmniejszych kwadratów]] | #[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 1|Wstęp, regresja liniowa i metoda najmniejszych kwadratów]] | ||
#[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 6|Klasyfikacja i regresja logistyczna]] | #[[Uczenie_maszynowe_i_sztuczne_sieci_neuronowe/Wykład 6|Klasyfikacja i regresja logistyczna]] |
Wersja z 13:46, 15 lut 2017
Wyniki egzaminu z części teoretycznej: https://docs.google.com/spreadsheets/d/1fzujH7LDf2eo5uUb6fvwn2CjFdW4dYEKGsYwHSc60zQ/edit?usp=sharing
Przejście do: Ćwiczeń
Wykłady
- Wstęp, regresja liniowa i metoda najmniejszych kwadratów
- Klasyfikacja i regresja logistyczna
- Ocena jakości klasyfikacji
- Algorytmy generatywne
- Maszyny wektorów wspierających I
- Maszyny wektorów wspierających II
- Wstęp o sieciach neuronowych, sieci neuronowe liniowe
- Perceptron Rosenblatta
- Nieliniowości różniczkowalne i metoda wstecznej propagacji błędu
- Wsteczna propagacja błędu: jak poprawić zbieżność?
- Drzewa decyzyjne
- Uczenie bez nadzoru
- Zagadnienia do powtórki