Passa ai contenuti principali

Il primo inverno dell’intelligenza artificiale

Il percettrone di Rosenblatt, sviluppato alla fine degli anni '50, è considerato un antenato delle attuali reti neurali. 
A spegnere l'entusiasmo iniziale per l'intelligenza artificiale ci pensarono però, nel 1969, i matematici Marvin Minsky e Seymour Papert con il loro testo “Perceptrone: An Introduction to Computational Geometry”. 
In quest'opera, dal rigore logico ineccepibile e con spunti anche filosofici, dimostrarono senza ombra di dubbio i limiti intrinseci di questo modello.
Nella comunità scientifica internazionale, la loro pubblicazione ebbe l'effetto devastante di un asteroide, causando quello che viene definito “il primo inverno” dell'intelligenza artificiale, ovvero un periodo di drastica riduzione dei finanziamenti e di stagnazione nella ricerca sulle reti neurali.
In questo esperimento, ho utilizzato il Python (che novità!) per dimostrare questi limiti e come sono stati superati nei modelli più recenti.
Il percettrone di Rosenblatt è in grado di classificare correttamente solo gli insiemi di dati che possono essere separati da una linea in uno spazio a due dimensioni.
Questo significa che può classificare correttamente gli input solo se esiste un’unica linea retta che separa le diverse classi. 
Il percettrone funziona bene con problemi linearmente separabili come quelli riconducibili alle funzioni booleane fondamentali AND e OR.
Come dimostrato da Minsky e Papert, il percettrone semplice non riesce a risolvere problemi del tipo XOR, ottenendo un'accuratezza di circa 0,5 (equivalente a indovinare nel lancio della monetina).
Questo limite è stato superato con l'introduzione delle reti neurali multistrato e dell'algoritmo di backpropagation, che hanno permesso l’apprendimento di funzioni complesse e non lineari.
La lezione del percettrone ci insegna l'importanza di comprendere i limiti dei nostri modelli e di continuare a innovare per superarli.
Nel grafico di sinistra, osserviamo il completo fallimento del percettrone: ha classificato tutto lo spazio (colorato uniformemente in rosa/arancione) come un'unica classe. 
Questo dimostra visivamente il limite identificato da Minsky e Papert nel 1969. 
La rete neurale ha essenzialmente "rinunciato" a classificare correttamente i punti, assegnando la stessa classe a tutto lo spazio.
Nel grafico di destra, la rete multistrato segna in maniera netta il confine decisionale non lineare che separa correttamente i punti XOR. 
I confini dividono lo spazio in quattro regioni, con:
  • gli angoli in alto a sinistra (0,1) e in basso a destra (1,0) classificati come blu;
  • gli angoli in alto a destra (1,1) e in basso a sinistra (0,0) classificati come rossi. 

Questi grafici spiegano perfettamente perché il lavoro di Minsky e Papert provocò il primo inverno dell'IA e come le reti multistrato abbiano poi superato questi limiti

Post popolari in questo blog

Salmoni, scarpette, cetrioli e altro

Tutto il testo contenuto in questa pagina è stato pensato e scritto dall'autore del blog.   1. Come il salmone 2. Ooops! 3. Le scarpette hi-tech 4. Equivoci contemporanei 5. I saccenti 6. Medaglie di legno 7. La festività del Nulla 8. Gli aggiornamenti elettronici del Libro dell'Apocalisse 9. Dubbi ne ho 10. La maieutica del vulcaniano 11. Un piacevole vasetto di miele 12. Povere sfere 13. Caos comune mezzo gaudio 14. La fontana senza volti 15. Il piromane super beffardo 16. Boom di serpenti 17. Sistemi in via di degradazione 18. Il gatto nero 19. Alain Delon è ancora vivo? 20. Per sempre con i cani 21. Eventi imprevedibili 22. I robot sottomessi 23. Lady Gaga e Bruno Mars incantano 24. Definizioni mancate 25. Il mio nemico drone 26. Errore di valutazione 27. Ringraziamenti 28. Cari cetrioli, vi scrivo 29. Boom di detective 30. Gli UFO trascurati 31. Il grande salto delle rane 32. La malattia artificiale 33. Homo consumens 34. Lacune informatiche 35. Sei troppo! 36. ...

Welcome reader!

Siamo equi: ci sono sciocchezze che fanno meditare   (da Improvvisi per macchina da scrivere di Giorgio Manganelli)   Le repliche sismiche stabilizzano la faglia dopo una sua frattura; analogamente i pensieri d'assestamento riordinano la mente dopo un periodo turbolento o di trasformazione interiore. Nel blog, questi pensieri vengono organizzati, tra il serio e il faceto, in 60 mie riflessioni che mi sono servite a comprendere meglio e, a volte, a metabolizzare alcune esperienze cognitive, emotive e sociali. Riflessioni che, per varie ragioni, non hanno alimentato il confronto dialogico usuale, spesso condizionato dai frame che semplificano, spesso eccessivamente, i nostri ruoli “pubblici”, specie negli ambienti lavorativi. Per questo, “Pensieri d’assestamento” va inteso come la rottura di un frame atteso; come un comportamento fuori contesto che però non può essere rinegoziato, vista la natura asimmetrica della comunicazione; come un “angolo degli oratori”, in cui...

Interpretazioni

Esistono diversi modelli di intelligenza artificiale generativa, i cosiddetti LLM (Large Language Models), e ognuno di essi può valutare in modo diverso i testi “human written”, attribuendo un diverso valore semantico alle parole e alle frasi, come se per una stessa opera esistessero più piani di lettura. Tuttavia, se questa multidimensionalità esegetica non è stata concepita dall’autore, allora le diverse interpretazioni riflettono semplicemente la complessità delle reti neurali, complessità che appare molto simile, almeno nei risultati, alla sensibilità del lettore. Per sensibilità del lettore intendo la capacità di cogliere le sfumature, i dettagli stilistici, le connessioni logiche-argomentative di un testo, andando oltre la semplice comprensione letterale. Il bagaglio di esperienze, conoscenze e prospettive personali può influenzare profondamente la decodifica di un testo. Per questo motivo, una stessa opera può evocare emozioni, riflessioni e pensieri diversi a seconda delle p...