Docente: Lorenzo Pellegrini (DISI, Università di Bologna)
Periodo di svolgimento delle lezioni: da aprile a maggio 2026
Anno di corso: a scelta tra primo o secondo anno
Durata: 12 ore
Crediti dottorali: 2,4 CD
Verifica finale: sì
I modelli di Deep Learning e gli algoritmi di ottimizzazione non sono progettati per apprendere continuamente e faticano a generalizzare e ad adattarsi a nuove circostanze e ambienti. Per raggiungere capacità di apprendimento continuo, un agente intelligente deve contestualizzare le conoscenze passate mentre acquisisce nuove competenze e migliora i comportamenti esistenti in risposta a scenari inediti.
Tuttavia, di fronte a nuovi concetti da apprendere o a variazioni nella distribuzione dei dati, un modello addestrato con le classiche tecniche basate sul gradiente dimentica tutte le conoscenze accumulate in precedenza, portando al "catastrophic forgetting" (oblio catastrofico). Il concetto di apprendere continuamente dalle esperienze è stato a lungo esplorato nell'IA e nella robotica. La ricerca in questa direzione è stata definita con nomi diversi, come Lifelong Learning e Continual Learning, con quest'ultimo associato alla maggior parte degli approcci moderni.
Questo corso introduce il Continual Learning, coprendo le sue sfide chiave, i principali approcci, i benchmark di riferimento e le metriche di valutazione. Una parte pratica guiderà gli studenti attraverso Avalanche, il principale framework di ricerca in quest'area.
Le lezioni si terranno pressi il Campus di Cesena (Via dell’Università 50, Cesena), aula 2.13.
Calendario:
- 9 Aprile 2026, 15:00 - 18:00
- 16 Aprile 2026, 15:00 - 18:00
- 23 Aprile 2026, 15:00 - 18:00
- 7 Maggio 2026, 15:00 - 18:00