La scalabilità è al centro dell’impatto trasformativo del deep learning, ma pone sfide cruciali in termini di stabilità, costi e affidabilità. Lunedì 19 gennaio, Volkan Cevher esplorerà come un approccio teoricamente fondato allo scaling possa rendere l’addestramento delle reti neurali più efficiente e sostenibile.

Data di pubblicazione: 9 Gennaio 2026
Istituzionale
Pianeta.

La capacità di addestrare reti neurali su scale sempre più ampie ha rappresentato uno dei principali motori dell’evoluzione recente del deep learning. Tuttavia, l’aumento esponenziale di dati, risorse computazionali e complessità architetturale solleva interrogativi cruciali sulla stabilità dei processi di training, sui costi energetici e sulla necessità di interventi di ottimizzazione sempre più onerosi.

Come è possibile scalare i modelli in modo efficace senza limitarsi a renderli semplicemente più grandi? E quali strumenti teorici possono guidare uno scaling strategico, capace di coniugare prestazioni elevate e uso responsabile delle risorse?

A queste domande risponde il seminario “Training Neural Networks at Any Scale”, in programma lunedì 19 gennaio 2026, a partire dalle ore 10:30, presso la Sala Mezzanino delle OGR Torino.

Protagonista dell’incontro sarà Volkan Cevher, Associate Professor presso l’École Polytechnique Fédérale de Lausanne e Faculty Fellow alla Rice University, tra i principali studiosi internazionali nei campi del machine learning, dell’ottimizzazione e della teoria dell’informazione.

Nel corso del seminario, Cevher analizzerà il concetto di scala nel deep learning come interazione tra dati, risorse computazionali e architetture neurali, evidenziando le criticità che emergono nell’addestramento di modelli di grandi dimensioni.

Particolare attenzione sarà dedicata alla formulazione di ipotesi di scaling supportate da una solida ricerca teorica, elemento sempre più centrale in un contesto in cui l’addestramento dei modelli richiede investimenti significativi.

L’intervento approfondirà inoltre il ruolo degli algoritmi di soluzione numerica comunemente impiegati nel deep learning, dai modelli di visione a quelli linguistici, ricondotti a un quadro teorico unificato che ne rende trasparenti i principi fondamentali.

In questo contesto, verrà messa in luce l’interazione tra l’adattamento alle strutture di regolarità tramite l’apprendimento online e lo sfruttamento della geometria dell’ottimizzazione attraverso norme non euclidee.

L’approccio proposto va oltre la semplice crescita dimensionale dei modelli e punta a uno scaling strategico, capace di far avanzare il settore ottimizzando l’impiego delle risorse e offrendo nuove prospettive per lo sviluppo di sistemi di intelligenza artificiale più solidi ed efficienti.

Il seminario si inserisce nel quadro delle attività dell’Compagnia di San Paolo Institute for Advanced Study (CSP-IAS), confermandone il ruolo come spazio di confronto tra ricerca teorica di alto livello e sfide concrete dell’innovazione tecnologica.

La partecipazione in presenza richiede la registrazione tramite modulo online disponibile sul sito ai4i.it.

L’evento sarà fruibile anche in modalità webinar.

Questa iniziativa contribuisce al raggiungimento dei seguenti Obiettivi di Sviluppo Sostenibile

SDG 4  Istruzione di qualità
SDG 9  Imprese, innovazione e infrastrutture