Informazioni Generali

Link per Microsoft Teams

Risultati dell'apprendimento

Al termine del corso lo studente acquisirà le conoscenze e i concetti alla base dei sistemi di apprendimento automatico ed in particolare i modelli fondamentali per la classificazione e la regressione, le architetture basate su reti neurali e le principali tecniche di reinforcement learning.

CFU

9 CFU, 90 ore di didattica frontale distribuite in 6 ore a settimana.

Prerequisiti

Il corso presuppone una buona conoscenza dei concetti fondamentali di analisi matematica, algebra lineare e della programmazione in linguaggio Python.

Modalità di svolgimento delle lezioni

La didattica dell’A.A. 2023/24 sarà svolta esclusivamente in presenza.
La classe virtuale su Teams sarà utilizzata per condividere il materiale del corso e per le informazioni.

Orario delle lezioni

Orario valido dal 26/9/2023 al 20/1/2024 (primo semestre)
  • Martedì dalle 11:30 alle 13:15, aula C2
  • Mercoledì dalle 9:30 alle 11:15, aula C2
  • Venerdì dalle 11:30 alle 13:15, aula A3

Docenti

Gabriele Russo Russo (6 CFU)
E-mail: img (specificare [ML] nell'oggetto della mail)
Ufficio: stanza D1-15, corpo D dell'edificio "Ingegneria dell'Informazione", primo piano.
Orario di ricevimento: da definire


Francesco Lo Presti (3 CFU)
E-mail: img (specificare [ML] nell'oggetto della mail)
Ufficio: stanza D1-17, corpo D dell'edificio "Ingegneria dell'Informazione", primo piano.
Orario di ricevimento: da definire


Avvisi

  • 27 settembre 2023 - Aggiornato l'orario delle lezioni (la lezione del giov. pomeriggio spostata al venerdì).
  • 26 settembre 2023 - Durante il corso, il materiale didattico e gli avvisi "urgenti" saranno caricati sul canale Teams.
  • 19 settembre 2023 - Il corso avrà inizio martedì 26 settembre. Si raccomanda di effettuare l'iscrizione al corso tramite Delphi.

Testi consigliati

Per una trattazione estesa su Reinforcement Learning:

Per gli aspetti implementativi:


Programma

  • Machine Learning: Concetti di base
  • Supervised Learning (Nearest Neighbours, Decision Trees, Linear Regression, Logistic Regression)
  • Unsupervised Learning (K-Means)
  • Reti Neurali e Deep Learning (reti feedforward, Autoencoder, CNN, RNN)
  • Reinforcement Learning
  • Bayesian Learning (cenni)

Articoli scientifici

Alcuni articoli di cui si suggerisce la lettura:
  • History - W. S. McCulloch, W. H. Pitts: A Logical Calculus of the Ideas Immanent in Nervous Activity. The Philosophy of Artificial Intelligence 1990: 22-39 (pdf)
  • Backpropagation - D.E. Rumelhart, G. Hinton, R. J. Williams: Learning representations by back-propagating errors. Nature, 323 (6088): 533–536 (1986) (pdf)
  • Universal Approximation Theorem - G. Cybenko: Approximation by superpositions of a sigmoidal function. Math. Control. Signals Syst. 2(4): 303-314 (1989) (pdf)
  • Towards Deep learning - G. E. Hinton, S. Osindero, Y. W. Teh: A Fast Learning Algorithm for Deep Belief Nets. Neural Comput. 18(7): 1527-1554 (2006) (pdf)
  • N. Srivastava, G. E. Hinton, A. Krizhevsky, I. Sutskever, R. Salakhutdinov: Dropout: a simple way to prevent neural networks from overfitting. J. Mach. Learn. Res. 15(1): 1929-1958 (2014) (pdf)
  • AdaGrad - J. C. Duchi, E. Hazan, Y. Singer: Adaptive Subgradient Methods for Online Learning and Stochastic Optimization. COLT 2010: 257-269 (pdf)
  • D. P. Kingma, J. Ba: Adam: A Method for Stochastic Optimization. ICLR (Poster) 2015 (pdf)
  • D. Choi, C. J. Shallue, Z. Nado, J. Lee, C. J. Maddison, G. E. Dahl: On Empirical Comparisons of Optimizers for Deep Learning. CoRR abs/1910.05446 (2019) (pdf)
  • Glorot Initialization - X. Glorot, Y. Bengio: Understanding the difficulty of training deep feedforward neural networks. AISTATS 2010: 249-256 (pdf)
  • He Initialization - K. He, X. Zhang, S. Ren, J. Sun: Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification. ICCV 2015: 1026-1034 (pdf)
  • S. Ioffe, C. Szegedy: Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift. ICML 2015: 448-456 (pdf)
  • LeNet - Y. LeCun, L. Bottou, Y. Bengio, P. Haffner: Gradient-based learning applied to document recognition. Proc. IEEE 86(11): 2278-2324 (1998) (pdf)
  • AlexNet - A. Krizhevsky, I. Sutskever, G. E. Hinton: ImageNet Classification with Deep Convolutional Neural Networks. NIPS 2012: 1106-1114 (pdf)
  • GoogLeNet - C. Szegedy, W. Liu, Y. Jia, P. Sermanet, S. E. Reed, D. Anguelov, D. Erhan, V. Vanhoucke, A. Rabinovich: Going deeper with convolutions. CVPR 2015: 1-9 (pdf)
  • ResNet - K. He, X. Zhang, S. Ren, J. Sun: Deep Residual Learning for Image Recognition. CVPR 2016: 770-778 (pdf)
  • YOLO - J. Redmon, S. K. Divvala, R. B. Girshick, A. Farhadi: You Only Look Once: Unified, Real-Time Object Detection. CVPR 2016: 779-788 (pdf)
  • J. Long, E. Shelhamer, T. Darrell: Fully convolutional networks for semantic segmentation. CVPR 2015: 3431-3440 (pdf)

Esami

Modalità di esame

L'esame si compone di:

  • Prova scritta;
  • Prova orale;
  • Progetto.

Appelli

Per la prenotazione alle prove d'esame, usare il servizio di prenotazione su Delphi.

Date prove scritte:

  • I appello sessione invernale
    Venerdì 26 gennaio, ore 10:00 aula B1 edificio Didattica.
  • II appello sessione invernale
    Venerdì 16 febbraio, ore 10:00 aula B2 edificio Didattica.
  • I appello sessione estiva
    Venerdì 28 giugno, ore 10:00 aula B3 edificio Didattica.
  • II appello sessione estiva
    Giovedì 11 luglio, ore 10:00 aula B6 edificio Didattica.