Passa ai contenuti principali

The two moons experiment


L’approccio con l’autoencoder LSTM del post precedente è stato troppo brusco, anche perché non è facile valutarlo su un dataset con molte feature (caratteristiche). Per ogni timestamp, il “quando” di ogni sequenza temporale (non il “quanto”), abbiamo un certo numero di parametri n (non riducibili perché essenziali) per ogni scossa di terremoto che, se intensa, può durare anche 30 secondi e oltre.
La frequenza di campionamento media è oggi di 100 Hz e facendo due calcoli triviali si arriva a dover considerare, senza una riduzione dimensionale, per ogni sequenza, una matrice (100x30) righe per n colonne.  
Per l’addestramento occorrono decine o centinaia di migliaia di queste sequenze.
Esiste un approccio didattico più soft all’utilizzo di queste reti neurali che ricostruiscono l'input attraverso uno spazio latente compresso, ampiamente descritto nella letteratura tecnica e denominato “L’esperimento delle due lune”.
La sua preparazione inizia con la generazione del dataset mediante una funzione di libreria e segue con la sua normalizzazione. I dati vengono poi suddivisi in set di training e validazione con proporzione 80/20.
Il modello è strutturato come segue: 
1. Encoder:
  • Un layer LSTM che processa la sequenza di input
  • Layer fully connected (2) che proiettano l'output dell'LSTM nello spazio latente
2. Decoder:
  • Layer fully connected (2) che proiettano la rappresentazione latente 
  • Un layer LSTM che ricostruisce la sequenza
  • Layer fully connected finale per riportare l'output alla dimensione originale
In layer fully-connected ogni neurone è connesso a tutti i neuroni del layer precedente.
Per un totale di 896 neuroni e 285. 444 parametri.
Lo spazio latente, in questo semplice esempio, non nasce da una compressione delle dimensioni (non è una rappresentazione densa), che rimangono 2 (le coordinate x e y), ma da una trasformazione non lineare. 
L'addestramento procede per qualche centinaio di epoche utilizzando il Mean Squared Error (MSE) come indicatore per il loss e l'Adam come ottimizzatore. Durante il processo viene monitorato l'andamento sia del training che del validation loss.
La valutazione del modello considera l'MSE complessivo per misurare la qualità della ricostruzione, accompagnato da un confronto visivo tra dati originali e ricostruiti. L'analisi dello spazio latente, ossia che raccoglie solo le feature essenziali contenute nei dati, conferma l'ottima separazione dei cluster.
L'esperimento evidenzia l'efficacia nella riduzione dimensionale non supervisionata e il potenziale di estensione a dati sequenziali grazie all'architettura LSTM. La riproducibilità è garantita dall'uso di seed fissi. 
L'autoencoder LSTM dimostra la sua validità nella riduzione dimensionale e nell'estrazione di rappresentazioni significative, prospettando tutta una serie di possibilità per applicazioni più complesse come l'analisi di sequenze temporali e il rilevamento di anomalie.
Nei grafici che seguono si evince la sua enorme capacità di ricostruire i dati del modello autoencoder LSTM il cui addestramento si conclude con:
Epoch [100/100] - Train Loss: 0.000098 | Val Loss: 0.000150
Overall Reconstruction MSE: 0.000130






Post popolari in questo blog

Salmoni, scarpette, cetrioli e altro

Tutto il testo contenuto in questa pagina è stato pensato e scritto dall'autore del blog.   1. Come il salmone 2. Ooops! 3. Le scarpette hi-tech 4. Equivoci contemporanei 5. I saccenti 6. Medaglie di legno 7. La festività del Nulla 8. Gli aggiornamenti elettronici del Libro dell'Apocalisse 9. Dubbi ne ho 10. La maieutica del vulcaniano 11. Un piacevole vasetto di miele 12. Povere sfere 13. Caos comune mezzo gaudio 14. La fontana senza volti 15. Il piromane super beffardo 16. Boom di serpenti 17. Sistemi in via di degradazione 18. Il gatto nero 19. Alain Delon è ancora vivo? 20. Per sempre con i cani 21. Eventi imprevedibili 22. I robot sottomessi 23. Lady Gaga e Bruno Mars incantano 24. Definizioni mancate 25. Il mio nemico drone 26. Errore di valutazione 27. Ringraziamenti 28. Cari cetrioli, vi scrivo 29. Boom di detective 30. Gli UFO trascurati 31. Il grande salto delle rane 32. La malattia artificiale 33. Homo consumens 34. Lacune informatiche 35. Sei troppo! 36. ...

Welcome reader!

Siamo equi: ci sono sciocchezze che fanno meditare   (da Improvvisi per macchina da scrivere di Giorgio Manganelli)   Le repliche sismiche stabilizzano la faglia dopo una sua frattura; analogamente i pensieri d'assestamento riordinano la mente dopo un periodo turbolento o di trasformazione interiore. Nel blog, questi pensieri vengono organizzati, tra il serio e il faceto, in 60 mie riflessioni che mi sono servite a comprendere meglio e, a volte, a metabolizzare alcune esperienze cognitive, emotive e sociali. Riflessioni che, per varie ragioni, non hanno alimentato il confronto dialogico usuale, spesso condizionato dai frame che semplificano, spesso eccessivamente, i nostri ruoli “pubblici”, specie negli ambienti lavorativi. Per questo, “Pensieri d’assestamento” va inteso come la rottura di un frame atteso; come un comportamento fuori contesto che però non può essere rinegoziato, vista la natura asimmetrica della comunicazione; come un “angolo degli oratori”, in cui...

Interpretazioni

Esistono diversi modelli di intelligenza artificiale generativa, i cosiddetti LLM (Large Language Models), e ognuno di essi può valutare in modo diverso i testi “human written”, attribuendo un diverso valore semantico alle parole e alle frasi, come se per una stessa opera esistessero più piani di lettura. Tuttavia, se questa multidimensionalità esegetica non è stata concepita dall’autore, allora le diverse interpretazioni riflettono semplicemente la complessità delle reti neurali, complessità che appare molto simile, almeno nei risultati, alla sensibilità del lettore. Per sensibilità del lettore intendo la capacità di cogliere le sfumature, i dettagli stilistici, le connessioni logiche-argomentative di un testo, andando oltre la semplice comprensione letterale. Il bagaglio di esperienze, conoscenze e prospettive personali può influenzare profondamente la decodifica di un testo. Per questo motivo, una stessa opera può evocare emozioni, riflessioni e pensieri diversi a seconda delle p...