Reti neurali e deep learning:
cosa c'è davvero da sapere
Dai fondamenti matematici alle architetture avanzate. Un percorso strutturato per chi vuole capire come funzionano i modelli, non solo come usarli.
Scopri i corsi disponibiliCorsi attivi, aperti alle iscrizioni
Tre livelli di approfondimento, dal primo approccio alle tecniche più avanzate. Puoi iniziare da qualsiasi punto in base alla tua esperienza.
Fondamenti delle reti neurali
Backpropagation, funzioni di attivazione, discesa del gradiente. Niente scorciatoie — si parte dalla matematica che tiene in piedi tutto il resto.
Reti convoluzionali e trasformers
CNN per immagini, meccanismi di attenzione e architetture transformer. Si lavora con dataset reali su PyTorch, affrontando problemi concreti di performance.
Modelli generativi e reinforcement learning
GAN, VAE, policy gradient e Q-learning. Per chi ha già esperienza pratica e vuole spingersi oltre i modelli di classificazione standard.
Come funziona
Un formato pensato per chi studia a distanza
Sappiamo che conciliare studio e vita quotidiana non è semplice. Il programma è strutturato per adattarsi ai tuoi ritmi, senza sacrificare la qualità del contenuto.
-
1
Video registrati, accessibili sempre
Ogni lezione è disponibile on-demand. Puoi rivedere i passaggi difficili quante volte vuoi, senza pressioni di orario.
-
2
Esercizi con feedback immediato
Quiz e notebook interattivi ti mostrano subito dove hai sbagliato e perché. Niente attese per la correzione.
-
3
Sessioni live ogni due settimane
Incontri opzionali con i tutor per discutere casi concreti, dubbi tecnici e revisioni dei progetti personali.
-
4
Progetto finale valutato
Ogni corso si conclude con un progetto pratico rivisto individualmente. Non solo un attestato, ma qualcosa da mostrare nel portfolio.
Cosa trovi nel programma avanzato
Seleziona un argomento per vedere cosa copre il modulo e quali competenze sviluppa.
Adam, AdaGrad, RMSProp: non solo le formule, ma capire quando uno funziona meglio dell'altro e perché il learning rate schedule cambia tutto.
Adattare modelli pre-addestrati (ResNet, BERT, ViT) a nuovi task con pochi dati. Si lavora su casi reali con dataset pubblici italiani e internazionali.
Batch norm, layer norm, dropout e weight decay. Come si usa ciascuno in pratica, cosa succede quando si abusa e come diagnosticare l'overfitting dai grafici di training.
Self-attention, multi-head attention e cross-attention spiegati passo dopo passo, con implementazione da zero in PyTorch prima di passare alle librerie.
Grad-CAM, SHAP e visualizzazione delle feature map. Capire perché un modello sbaglia è spesso più utile che aggiungere strati.
Quantizzazione, pruning e conversione ONNX per ridurre dimensioni e latenza. Come portare un modello da un notebook di ricerca a un servizio che regge il traffico.
Domande frequenti sul programma
Pronto a iniziare?
Le iscrizioni ai corsi di questo ciclo sono aperte. I posti nelle sessioni live sono limitati per mantenere qualità nell'interazione.
- Accesso immediato al materiale
- Rimborso entro 14 giorni se non soddisfatto
- Materiale aggiornato, nessun costo extra
- Supporto in italiano