Statistical methods for machine learning
A.A. 2022/2023
Obiettivi formativi
L'insegnamento descrive e analizza, in un contesto statistico rigoroso, alcuni delle più importanti tecniche algoritmiche di apprendimento automatico. Ciò fornisce allo studente un ricco insieme di strumenti concettuali e metodologici atti a comprendere il fenomeno dell'apprendimento nelle macchine.
Risultati apprendimento attesi
Al termine dell'insegnamento gli studenti saranno in grado di: (1) Comprendere il concetto di overfitting e il suo ruolo nel controllo del rischio statistico; (2) descrivere alcuni dei più importanti algoritmi di apprendimento automatico e spiegare come evitano l'overfitting; (3) eseguire esperimenti di apprendimento automatico usando la corretta metodologia statistica. Questi obiettivi verranno misurati attraverso la combinazione di due elementi: la relazione del progetto e la discussione orale. Il voto finale è basato sulla valutazione del progetto incrementato dalla valutazione della discussione orale.
Periodo: Secondo semestre
Modalità di valutazione: Esame
Giudizio di valutazione: voto verbalizzato in trentesimi
Corso singolo
Questo insegnamento non può essere seguito come corso singolo. Puoi trovare gli insegnamenti disponibili consultando il catalogo corsi singoli.
Programma e organizzazione didattica
Edizione unica
Responsabile
Periodo
Secondo semestre
Programma
Introduzione
L'algoritmo Nearest Neighbour
Predittori ad albero
Apprendimento statistico
Stima degli iperparametri e cross-validazione
Analisi del rischio dei predittori ad albero
Consistenza e algoritmi non parametrici
Predittori lineari
Discesa del gradiente sequenziale
Funzioni kernel
Support Vector Machines
Analisi di stabilità e controllo del rischio in SVM
Boosting e metodi ensemble
Reti neuronali e apprendimento profondo
Regressione logistica e funzioni di perdita surrogate
L'algoritmo Nearest Neighbour
Predittori ad albero
Apprendimento statistico
Stima degli iperparametri e cross-validazione
Analisi del rischio dei predittori ad albero
Consistenza e algoritmi non parametrici
Predittori lineari
Discesa del gradiente sequenziale
Funzioni kernel
Support Vector Machines
Analisi di stabilità e controllo del rischio in SVM
Boosting e metodi ensemble
Reti neuronali e apprendimento profondo
Regressione logistica e funzioni di perdita surrogate
Prerequisiti
Si richiedono nozioni di base di analisi matematica, algebra lineare e statistica.
E` fortemente consigliato il superamento dei seguenti esami: Matematica del continuo, Matematica del discreto, Statistica e analisi dei dati.
E` fortemente consigliato il superamento dei seguenti esami: Matematica del continuo, Matematica del discreto, Statistica e analisi dei dati.
Metodi didattici
Lezioni frontali.
Materiale di riferimento
Il riferimento principale sono le dispense disponibili presso ncesa-bianchismml.ariel.ctu.unimi.it/
Libro di testo di riferimento: Shai Shalev-Shwartz e Shai Ben-David, Understanding Machine Learning: From Theory to Algorithms, Cambridge University Press, 2014.
Libro di testo di riferimento: Shai Shalev-Shwartz e Shai Ben-David, Understanding Machine Learning: From Theory to Algorithms, Cambridge University Press, 2014.
Modalità di verifica dell’apprendimento e criteri di valutazione
L'esame consiste nella scrittura di una relazione di circa 10-15 pagine contenente la descrizione di un'attività sperimentale (progetto sperimentale) o un'analisi approfondita di un risultato teorico (progetto teorico). Il voto finale (in trentesimi) è ottenuto combinando la valutazione del progetto con il risultato di una prova scritta riguardante il programma svolto a lezione. In funzione del numero di studenti, la prova scritta potrà essere sostituita da una discussione orale.
Docente/i