Aprire a caso un “mattone” di oltre 700 pagine, nello stile che definisco oracolare, e imbattersi in una “risonanza magnetica” di un dolce arrotolato forse è più che una coincidenza.
Certamente un monito a tenere sotto controllo la glicemia, se non fosse però per il titolo del libro che è “Machine Learning with PyTorch and Scikit-Learn”.
Non più un morbido foglio di pan di Spagna farcito ma l’impronta di algoritmo che si snoda in spire tridimensionali per burlarsi degli ingenui tentativi di una riduzione lineare.
È lo Swiss Roll, un famoso test di riduzione dimensionale, ossia di semplificazione di dati complessi preservandone le caratteristiche essenziali.
Ma perché tanta gloria?
Semplice: riesce a “smascherare” le difficoltà di alcuni algoritmi, soprattutto quelli cosiddetti lineari, nel preservare nello spazio proiettato le relazioni esistenti tra i punti nello spazio 3D.

* La Kernel PCA (con kernel RBF) si dimostra efficace nello srotolare la spirale, e quindi nel gestire relazioni non lineari. La scelta del parametro gamma influenza il risultato.
* La t-SNE offre una visualizzazione molto chiara della struttura locale dei dati, separando bene i diversi avvolgimenti della spirale e mostrando i cluster.
Questi risultati confermano che le analisi Kernel PCA e t-SNE sono più indicate di quella PCA nel ridurre la dimensionalità dei dati non separabili linearmente.