Uniwersytet Warszawski - Centralny System Uwierzytelniania
Strona główna

Wyjaśnialne uczenie maszynowe

Informacje ogólne

Kod przedmiotu: 1000-319bEML
Kod Erasmus / ISCED: 11.3 Kod klasyfikacyjny przedmiotu składa się z trzech do pięciu cyfr, przy czym trzy pierwsze oznaczają klasyfikację dziedziny wg. Listy kodów dziedzin obowiązującej w programie Socrates/Erasmus, czwarta (dotąd na ogół 0) – ewentualne uszczegółowienie informacji o dyscyplinie, piąta – stopień zaawansowania przedmiotu ustalony na podstawie roku studiów, dla którego przedmiot jest przeznaczony. / (0612) Database and network design and administration Kod ISCED - Międzynarodowa Standardowa Klasyfikacja Kształcenia (International Standard Classification of Education) została opracowana przez UNESCO.
Nazwa przedmiotu: Wyjaśnialne uczenie maszynowe
Jednostka: Wydział Matematyki, Informatyki i Mechaniki
Grupy: Przedmioty obieralne dla informatyki
Przedmioty obowiązkowe dla II roku Machine Learning
Punkty ECTS i inne: 6.00 Podstawowe informacje o zasadach przyporządkowania punktów ECTS:
  • roczny wymiar godzinowy nakładu pracy studenta konieczny do osiągnięcia zakładanych efektów uczenia się dla danego etapu studiów wynosi 1500-1800 h, co odpowiada 60 ECTS;
  • tygodniowy wymiar godzinowy nakładu pracy studenta wynosi 45 h;
  • 1 punkt ECTS odpowiada 25-30 godzinom pracy studenta potrzebnej do osiągnięcia zakładanych efektów uczenia się;
  • tygodniowy nakład pracy studenta konieczny do osiągnięcia zakładanych efektów uczenia się pozwala uzyskać 1,5 ECTS;
  • nakład pracy potrzebny do zaliczenia przedmiotu, któremu przypisano 3 ECTS, stanowi 10% semestralnego obciążenia studenta.

zobacz reguły punktacji
Język prowadzenia: angielski
Rodzaj przedmiotu:

monograficzne

Wymagania (lista przedmiotów):

Głębokie sieci neuronowe 1000-317bDNN
Uczenie statystyczne 1000-317bSML

Skrócony opis:

Celem przedmiotu jest Poznanie zagadnień, metod oraz technik wyjaśniania złożonych modeli uczenia maszynowego. Modele predykcyjne są coraz bardziej złożone, komitety drzew, głębokie sieci neuronowe to modele o tysiącach parametrów. Dla modeli o takiej wymiarowości łatwo stracić kontrolę nad tym czego model się wyuczył.

Podczas tego przedmiotu omówimy narzędzia do analizy struktury modelu traktowanego jako czarna skrzynka, oraz do analizy predykcji z tego modelu. Pozwoli to na zwiększenie zaufania do modelu, poprawę skuteczności modelu, oraz możliwość wyciągnięcia użytecznej wiedzy z modelu. Poznamy najpopularniejsze metody wyjaśnień, przedyskutujemy ich silne i słabe strony tak by uczestnik zajęć miał niezbędne kompetencje do dalszego zgłębiania literatury z tego obszaru.

Pełny opis:

- Wprowadzenie do wyjaśnialnej sztucznej inteligencji, interpretowalnego uczenia maszynowego i zagadnienia dyskryminacji

- Metody analizy warunkowej modeli predykcyjnych: metoda Break-Down, Break-Down z interakcjami, SHAP, ASV

- Metody analizy modeli przez perturbacje: metoda LIME, LORE

- Metody analizy modeli contekstowych i testowania wrażliwości modeli: Ceteris Paribus, Partial Dependence, Accumulated Local Effects

- Metody oceny ważności zmiennych: Variable Importance by Pertmutations, Model Class Reliance

- Sprawiedliwość i stronniczość

- Objaśnienia specyficzne dla sieci neuronowych

Zajęcia w cyklu "Semestr zimowy 2023/24" (zakończony)

Okres: 2023-10-01 - 2024-01-28
Wybrany podział planu:
Przejdź do planu
Typ zajęć:
Ćwiczenia, 30 godzin więcej informacji
Laboratorium, 15 godzin więcej informacji
Wykład, 15 godzin więcej informacji
Koordynatorzy: Przemysław Biecek
Prowadzący grup: Hubert Baniecki, Przemysław Biecek
Lista studentów: (nie masz dostępu)
Zaliczenie: Egzamin
Opisy przedmiotów w USOS i USOSweb są chronione prawem autorskim.
Właścicielem praw autorskich jest Uniwersytet Warszawski.
ul. Banacha 2
02-097 Warszawa
tel: +48 22 55 44 214 https://www.mimuw.edu.pl/
kontakt deklaracja dostępności USOSweb 7.0.2.0-80474ed05 (2024-03-12)