Link per Microsoft Teams
Risultati dell'apprendimento
Al termine del corso lo studente acquisirà le conoscenze e i concetti alla base dei sistemi di apprendimento automatico ed in particolare i modelli fondamentali per la classificazione e la regressione, le architetture basate su reti neurali
e le principali tecniche di reinforcement learning.
CFU
9 CFU, 90 ore di didattica frontale distribuite in 6 ore a settimana.
Prerequisiti
Il corso presuppone una buona conoscenza dei concetti fondamentali di
analisi matematica, algebra lineare, calcolo delle probabilità e della programmazione in linguaggio Python.
La didattica sarà svolta esclusivamente in presenza.
La classe virtuale su Teams sarà utilizzata per condividere il materiale del corso e informazioni organizzative.
Orario delle lezioni
Orario (dal 23/9/2024)
- Martedì dalle 11:30 alle 13:15, aula C2
- Mercoledì dalle 9:30 alle 11:15, aula C2
- Venerdì dalle 11:30 alle 13:15, aula B16
Gabriele Russo Russo (6 CFU)
E-mail:
(aggiungere "[ML]" nell'oggetto della mail)
Ufficio: stanza D1-15,
corpo D dell'edificio "Ingegneria dell'Informazione", primo piano.
Ricevimento: su appuntamento
Francesco Lo Presti (3 CFU)
E-mail:
(aggiungere [ML] nell'oggetto della mail)
Ufficio: stanza D1-17,
corpo D dell'edificio "Ingegneria dell'Informazione", primo piano.
Orario di ricevimento: da definire
- 21 settembre 2024 -
Durante il corso, il materiale didattico e gli avvisi "urgenti" saranno caricati sul canale Teams.
- 21 settembre 2024 - Il corso avrà inizio martedì 24 settembre.
Si raccomanda di effettuare l'iscrizione al corso tramite Delphi.
Per i concetti e le tecniche di base:
Su deep learning e reti neurali:
Per gli aspetti implementativi:
- Tecniche base di apprendimento supervisionato
- K-Nearest Neighbours
- Alberi di decisione
- Regressione lineare e logistica
- Bayesian Learning
- Tecniche base di apprendimento non supervisionato
- Clustering con K-Means
- PCA
- Reti neurali e deep learning
- Concetti fondamentali e tecniche di addestramento
- Reti convoluzionali
- Autoencoder
- Reti ricorrenti (cenni)
- Transformer (cenni)
- Introduzione al Reinforcement Learning
Alcuni articoli di cui si suggerisce la lettura:
-
History - W. S. McCulloch, W. H. Pitts:
A Logical Calculus of the Ideas Immanent in Nervous Activity. The Philosophy of Artificial Intelligence 1990: 22-39
(pdf)
-
Backpropagation -
D.E. Rumelhart, G. Hinton, R. J. Williams: Learning representations
by back-propagating errors. Nature, 323 (6088): 533–536 (1986)
(pdf)
-
Universal Approximation Theorem -
G. Cybenko:
Approximation by superpositions of a sigmoidal function. Math. Control. Signals Syst. 2(4): 303-314 (1989)
(pdf)
-
Towards Deep learning -
G. E. Hinton, S. Osindero, Y. W. Teh:
A Fast Learning Algorithm for Deep Belief Nets. Neural Comput. 18(7): 1527-1554 (2006)
(pdf)
-
N. Srivastava, G. E. Hinton, A. Krizhevsky, I. Sutskever, R. Salakhutdinov:
Dropout: a simple way to prevent neural networks from overfitting. J. Mach. Learn. Res. 15(1): 1929-1958 (2014)
(pdf)
-
AdaGrad -
J. C. Duchi, E. Hazan, Y. Singer:
Adaptive Subgradient Methods for Online Learning and Stochastic Optimization. COLT 2010: 257-269
(pdf)
-
D. P. Kingma, J. Ba:
Adam: A Method for Stochastic Optimization. ICLR (Poster) 2015
(pdf)
-
D. Choi, C. J. Shallue, Z. Nado, J. Lee, C. J. Maddison, G. E. Dahl:
On Empirical Comparisons of Optimizers for Deep Learning. CoRR abs/1910.05446 (2019)
(pdf)
-
Glorot Initialization -
X. Glorot, Y. Bengio:
Understanding the difficulty of training deep feedforward neural networks. AISTATS 2010: 249-256
(pdf)
-
He Initialization -
K. He, X. Zhang, S. Ren, J. Sun:
Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification. ICCV 2015: 1026-1034
(pdf)
-
S. Ioffe, C. Szegedy:
Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift. ICML 2015: 448-456
(pdf)
-
LeNet -
Y. LeCun, L. Bottou, Y. Bengio, P. Haffner:
Gradient-based learning applied to document recognition. Proc. IEEE 86(11): 2278-2324 (1998)
(pdf)
-
AlexNet -
A. Krizhevsky, I. Sutskever, G. E. Hinton:
ImageNet Classification with Deep Convolutional Neural Networks. NIPS 2012: 1106-1114
(pdf)
-
GoogLeNet -
C. Szegedy, W. Liu, Y. Jia, P. Sermanet, S. E. Reed, D. Anguelov, D. Erhan, V. Vanhoucke, A. Rabinovich:
Going deeper with convolutions. CVPR 2015: 1-9
(pdf)
-
ResNet -
K. He, X. Zhang, S. Ren, J. Sun:
Deep Residual Learning for Image Recognition. CVPR 2016: 770-778
(pdf)
-
YOLO -
J. Redmon, S. K. Divvala, R. B. Girshick, A. Farhadi:
You Only Look Once: Unified, Real-Time Object Detection. CVPR 2016: 779-788
(pdf)
-
J. Long, E. Shelhamer, T. Darrell:
Fully convolutional networks for semantic segmentation. CVPR 2015: 3431-3440
(pdf)
L'esame si compone di:
- Prova scritta;
- Prova orale;
- Progetto.
Per la prenotazione alle prove d'esame, usare il servizio di prenotazione su
Delphi.
Date prove scritte:
Da definire
- I appello sessione invernale
Venerdì 24 gennaio 2025, ore 10:00 aula B3 edificio Didattica.
- II appello sessione invernale
Mercoledì 12 febbraio 2025, ore 10:00 aula B3 edificio Didattica.