BI-VZD Vytěžování znalostí z dat
Jdi na navigaci předmětu

Otázky ke zkoušce

  1. Rozhodovací stromy.
    • Algoritmus ID3, kritéria pro větvení (entropie, gini, MSE), použití pro klasifikaci a regresi, hyperparametry rozhodovacích stromů.
  2. Ensamble metody: bagging, boosting a náhodné lesy.
    • Rozdíl mezi baggingem a boostingem. Náhodné lesy a jejich hyperparamtery.
  3. Ensamble metody: bagging, boosting a AdaBoost.
    • Rozdíl mezi baggingem a boostingem. Popis metody AdaBoost.
  4. Principy nesupervizovaného učení a shlukování.
    • Cíle nesupervizovného učení a shlukování. Vzdálenost (metrika): definice a příklady.
  5. Hierarchické shlukování.
    • Aglomerativní algoritmus, měření vzdáleností shluků, dendrogram.
  6. Shlukování pomocí algoritmu k-means.
    • Shlukování jako optimalizační úloha, algoritmus k-means a jeho účelová funkce.
  7. Metoda nejbližších sousedů: kNN.
    • Popis metody, hyperparametrů a jejího použití pro klasifikaci a regresi. Pojem metrika a normalizace dat.
  8. Problémy s dimenzionalitou.
    • Vysvětlení tzv. prokletí dimenzionality. Které metody jsou citlivé a které méně?
  9. Dělení dat na trénovací, validační a testovací, křížová validace.
    • Popis obvyklých scénářů vyžadující dělení dat. Pojem hyperparametru a jeho ladění.
  10. Vyhodnocování úspěšnosti modelů (klasifikace i regrese).
    • Přehled různých metrik a způsobů vyhodnocování kvality získaných výsledků.
  11. Naivní Bayesův klasifikátor.
    • Klasifikace pomocí podmíněné pravděpodobnosti, využití Bayesovy věty, naivní Bayesův klasifikátor, modely podmíněných pravděpodobností.
  12. Lineární regrese, metoda nejmenších čtverců.
    • Model lineární regrese, predikce, maticový zápis trénovací množiny. Metoda nejmenších čtverců: normální rovnice, řešení.
  13. Logistická regrese.
    • Použití pro binární klasifikaci, logistická regrese jako MLE odhad.
  14. Geometrická interpretace metody nejmenších čtverců.
    • Geometrická interpretace metody nejmenších čtverců, normální rovnice, řešení. Regularita versus lineární nezávislost sloupců matice X.
  15. Hřebenová regrese.
    • Regularizovaný reziduální součet čtverců, řešení. Rozklad očekávané chyby modelu, bias-variance tradeoff.
  16. Redukce dimenzionality.
    • Projekční metody: PCA, LLE. Interpretace hlavních komponent u PCA.
  17. Neuronové sítě.
    • Model perceptronu. Dopředný a zpětný chod. Aktivační funkce. Vícevrstvá síť, učení.