Passa ai contenuti principali

TOT


Ero lì la settimana scorsa che cercavo di ricordarmi il nome di una persona. Sapete quando ce l'avete sulla punta della lingua ma proprio non vi viene? Niente da fare.
Allora ho cominciato a ragionare per iniziali. “Iniziava per M? No, aspetta... MA? Sì, MA qualcosa. MAN? MANUEL! Ecco, era Manuel.” 
Quando ho collegato anche il possibile cognome, la memoria è scattata subito. È l’effetto dei vincoli aggiuntivi nei modelli di memoria associativa: più elementi noti inserisci, più il sistema converge verso uno stato stabile — quello giusto. 
Praticamente il mio cervello stava facendo un pattern completion progressivo. Gli davo sempre più informazione (M → MA → MAN) finché non è scattato il click.
Questo fenomeno si chiama “tip of the tongue” (TOT) ed è studiato dai neuroscienziati da decenni. 
Si verifica quando hai accesso parziale a un ricordo - tipo le iniziali o il numero di sillabe - ma non riesci a recuperare l'informazione completa. È un classico esempio di come la memoria funzioni in modo distribuito e associativo: il nostro cervello non ha una cartella con scritto “nomi che iniziano per MA”, ma una rete di neuroni che si attivano insieme quando sentono o pensano a certi pattern.
Quindi, ho pensato: “questo lo posso modellare con una rete neurale” e ho messo a punto un autoencoder che fa esattamente quello che ha fatto il mio cervello. 
Gli dai poche iniziali di un nome e lui prova a ricostruire il nome completo, attraverso un bottleneck - un collo di bottiglia di neuroni che forza la rete a comprimere l'informazione essenziale, proprio come fa l'ippocampo quando consolida i ricordi.
Il bello è che funziona proprio come l'ho vissuto io: più lettere gli dai, più si restringe il campo verso un “attrattore” specifico. Questo concetto degli attractors viene dalla teoria delle reti neurali di Hopfield (anni '80): la memoria è uno stato stabile in cui converge la rete quando le dai un input parziale o rumoroso. Tipo "M____" attiva più stati possibili, ma "MAN__" converge rapidamente verso MANUEL o MANILO. 
Ho usato un lessico di nomi italiani e l'ho allenato dandogli versioni incomplete a caso - simulando il rumore e l'incompletezza che sperimentiamo quando cerchiamo di recuperare un ricordo. 
Alcuni neuroscienziati sostengono che il cervello funzioni proprio così: continuamente prevede, ricostruisce, riempie i vuoti di memori basandosi su pattern appresi.
La rete non ti dà solo UNA risposta, ma calcola una distribuzione di probabilità per ogni candidato. Proprio come fa il cervello quando fa “mmm potrebbe essere questo... o forse quest'altro…”. Non è un database dove cerchi la chiave esatta, è un sistema che valuta la plausibilità di diverse opzioni basandosi su somiglianze parziali.
Questo è esattamente il modello di content-addressable memory che i neuroscienziati usano per descrivere come funziona l'ippocampo e la corteccia: non recuperi i ricordi per indirizzo ma per contenuto. Gli dai un pezzo dell'informazione e il sistema ricostruisce il resto.
Ho usato PyTorch, un MLP con bottleneck (96 neuroni), CrossEntropy per posizione. 
Niente di complicato, 200 righe di codice. Ma il principio è lo stesso delle teorie sulla memoria associativa che troviamo nei paper di neuroscienze computazionali.
Ora ogni volta che non mi ricordo un nome, penso: “okay, sto facendo un forward pass nella mia rete neurale biologica con input parziale, aspettando che converga verso un attrattore stabile”. 
Il bello delle neuroscienze computazionali è che a volte scopri che i modelli matematici che usiamo per l'IA possiedono davvero qualcosa di come funziona il nostro cervello.

Post popolari in questo blog

Salmoni, scarpette, cetrioli e altro

Tutto il testo contenuto in questa pagina è stato pensato e scritto dall'autore del blog.   1. Come il salmone 2. Ooops! 3. Le scarpette hi-tech 4. Equivoci contemporanei 5. I saccenti 6. Medaglie di legno 7. La festività del Nulla 8. Gli aggiornamenti elettronici del Libro dell'Apocalisse 9. Dubbi ne ho 10. La maieutica del vulcaniano 11. Un piacevole vasetto di miele 12. Povere sfere 13. Caos comune mezzo gaudio 14. La fontana senza volti 15. Il piromane super beffardo 16. Boom di serpenti 17. Sistemi in via di degradazione 18. Il gatto nero 19. Alain Delon è ancora vivo? 20. Per sempre con i cani 21. Eventi imprevedibili 22. I robot sottomessi 23. Lady Gaga e Bruno Mars incantano 24. Definizioni mancate 25. Il mio nemico drone 26. Errore di valutazione 27. Ringraziamenti 28. Cari cetrioli, vi scrivo 29. Boom di detective 30. Gli UFO trascurati 31. Il grande salto delle rane 32. La malattia artificiale 33. Homo consumens 34. Lacune informatiche 35. Sei troppo! 36. ...

Generatore Markmap HD

Pagina per il download di  Memento Lite Generatore Markmap Avanzato - Specifiche per l'utente finale Scopo principale: l'applicazione “Generatore Markmap Avanzato” permette agli utenti di trasformare testo scritto in formato Markdown in mappe mentali interattive. Offre funzionalità per creare, visualizzare, salvare, modificare, gestire ed esportare queste mappe mentali in vari formati. Interfaccia utente: l'interfaccia è strutturata nelle seguenti sezioni principali: Link al blog esterno: un link “🌐 Visita il Blog: Pensieri d'assestamento” che apre il blog associato in una nuova scheda. Intestazione (Header): Titolo: “Generatore Markmap Avanzato”. Sottotitolo: “Trasforma, salva e condividi il tuo testo Markdown in mappe mentali interattive”. Area Principale dei Contenuti: divisa in due pannelli affiancati (o impilati su schermi piccoli): Pannello di Input (Editor Markdown): Titolo: “✏️ Editor Markdown”. Area di Testo: un campo multiriga dove l...

Neural Tic-Tac-Toe Lab

Questo articolo presenta l'implementazione di una rete neurale specializzata nel gioco del tris (tic-tac-toe), addestrata mediante una metodologia innovativa basata sull'enumerazione completa degli stati di gioco. L'approccio supera le limitazioni dei metodi tradizionali di campionamento casuale, garantendo una copertura totale dello spazio delle configurazioni possibili. Struttura della rete neurale La rete implementata utilizza un'architettura feed-forward compatta con 9 neuroni di input, 16 neuroni nel layer nascosto e 9 neuroni di output. I neuroni di input ricevono la rappresentazione numerica dello stato della board (-1, 0, 1 per ciascuna delle 9 caselle), mentre i neuroni di output producono valutazioni numeriche per ogni possibile mossa. Il layer nascosto utilizza 16 neuroni con funzione di attivazione relu per introdurre capacità di apprendimento non-lineare. La rete contiene complessivamente 297 parametri: 144 pesi per le connessioni input-hidden, 16 bi...