Passa ai contenuti principali

Post

Visualizzazione dei post da marzo, 2025

Discesa del Gradiente

Tutto l’apprendimento delle reti neurali moderne si fonda sulla discesa del gradiente. Pensate che l’idea di questo algoritmo risale al 1800, ma solo negli anni ’80 è stata riscoperta grazie alla backpropagation. C’è stata una fase buia nell’intelligenza artificiale, denominata “la seconda era glaciale” (vedi post omonimo), quando, dopo le critiche di Minsky e Papert al Perceptron, sembrava che le reti neurali si dovessero accantonare per sempre. Poi, nel 1986, Rumelhart, Hinton e Williams hanno trovato un modo per aggiornare i pesi negli strati nascosti e hanno dato vita al cosiddetto “disgelo” delle reti neurali. Il deep learning, così come lo conosciamo oggi – capace di interpretare immagini e testo – è esploso solo quando è stato possibile combinare hardware potente, montagne di dati e versioni migliorate della discesa del gradiente. La cosa bella di questo algoritmo è che funziona secondo una logica semplicissima: Definisci cosa vuoi minimizzare (funzione di costo). Calco...

Bill No. 246

Nel 1897, Edward J. Goodwin, un medico e matematico dilettante dell'Indiana, sostenne di aver risolto l'antico problema della quadratura del cerchio e propose il disegno legge “Indiana House Bill No. 246”, meglio noto come “PI Bill”, che avrebbe dovuto “legalizzare” il valore errato 3,2 per il π. La Camera dell’Indiana approvò il disegno di legge, che però fu bloccato al Senato grazie all’intervento di un professore di matematica. Questa vicenda bizzarra mostra quanto sia rischioso legiferare su concetti matematici senza comprenderli a fondo. Facciamo qualcosa di più serio: stimare π simulando il lancio di dardi a caso su un quadrato. Se il quadrato a lato 2 e il cerchio incritto di raggio 1, lanciando dei dardi a caso nel quadrato, la proporzione di dardi che cadono dentro il cerchio rispetto al totale dovrebbe avvicinarsi a π/4. Perché? L’area del cerchio è π×1² = π, l’area del quadrato è 2×2 = 4 ⇒ quindi π ≈ 4 × (dardi nel cerchio/dardi totali) Col metodo Monte Carlo stimia...

Composizione Simbolica Graduale

Smolensky affronta una delle questioni fondamentali delle scienze cognitive: come conciliare la natura simbolica del pensiero umano (espressa nella grammatica e nel ragionamento logico) con i meccanismi neurali del cervello. Ancora oggi, questi due sistemi sembrano incompatibili: Il pensiero simbolico è discreto, governato da regole ed elementi definiti con precisione, come parole o concetti. Il funzionamento neurale è continuo, distribuito e parallelo. Smolensky propone il concetto di “gradualità” per superare questa dicotomia, delineando due livelli cognitivi: Livello mentale superiore: invece di considerare i simboli come semplicemente presenti o assenti (analogamente ai bit 0 e 1 dei computer tradizionali), essi possono manifestarsi “parzialmente” con diversi gradi di attivazione. Ad esempio, un'idea può esistere nella mente in uno stato di "quasi-presenza". Livello neurale inferiore: questi stati intermedi corrispondono a configurazioni distribuite di attivazione tra...

Un dualismo metodologico

Alcune speculazioni oltre l’affermazione “Il computer non capirà mai un tubo”. Dal mio esperimento sul percettrone multistrato addestrato ad approssimare le soluzioni di equazioni cubiche è emersa la dicotomia tra il rigore analitico di Tartaglia e l'approssimazione empirica delle reti neurali. Formula di Tartaglia vs Reti Neurali La formula di Tartaglia rappresenta la comprensione profonda, la verità matematica esatta che trascende le contingenze storiche - un ideale platonico. La rete neurale incarna l'approccio strumentale, che non comprenderà mai la struttura ma produce approssimazioni utili.  Questa distinzione prepara alla regina delle domande sull'IA: può una rete neurale che approssima risultati senza comprendere la natura dei calcoli essere considerata veramente cosciente? L’interrogativo richiama la teoria della “composizione delle cause” di John Stuart Mill e la più recente “teoria integrata dell'informazione” di Giulio Tononi, che considera la coscienza come...

Da Tartaglia all’Intelligenza Artificiale

Riprendiamo l'equazione cubica, nella forma depressa x³ + px + q = 0 vista nel blog precedente, per mettere a confronto l'eleganza del pensiero matematico classico con la forza bruta del calcolo numerico delle moderne reti neurali.   Grazie a Tartaglia, per la prima volta nella storia dell’umanità si potevano trovare facilmente le radici reali di un'equazione di grado superiore al secondo. La soluzione è un capolavoro: l'equazione cubica viene trasformata in un sistema di equazioni più semplici, fino a ottenere una formula che esprime le radici mediante operazioni elementari.   Questo procedimento incarna perfettamente lo spirito delle dimostrazioni matematiche: ricondurre problemi complessi a casi noti per poterli così risolvere. Eppure, la formula di Tartaglia portava in grembo un apparente paradosso che avrebbe tormentato i matematici per secoli: il cosiddetto “caso irriducibile”, ossia espressioni con radici di numeri negativi pur essendo le soluzioni reali....

Casus irreducibilis

La matematica non è solo un insieme di simboli freddi, irreggimentati da regole ferree, ma un vero e proprio universo narrativo ricco di misteri e colpi di scena. Una delle storie più affascinanti di questo universo vede come protagonista Niccolò Tartaglia.  Tartaglia era un brillante autodidatta che riuscì in un'impresa allora considerata impossibile, ossia risolvere pubblicamente le equazioni di terzo grado. È doveroso precisare che fu Scipione del Ferro nel 1505 il primo a inventare un modo per risolvere le equazioni di terzo grado, che però rivelò solo ai suoi allievi.  La formula rivoluzionaria per risolvere equazioni del tipo \[x^3 + px + q = 0\] rappresentò un vero e proprio salto quantico nella storia dell'algebra.  Tuttavia, questa rivoluzione portava in grembo un apparente paradosso: in alcuni casi, pur esistendo evidenti soluzioni reali, la formula conduceva oltre i confini noti della matematica di quel tempo. Studiando l'equazione \[x^3 - 15x = 4\]Tartagl...

Il suono del violino

In questo esperimento ho simulato le valutazioni nei test per diverse classi (analisi aggregata di tutti i voti), ipotizzando due categorie di studenti con livelli di apprendimento significativamente diversi. Studenti in difficoltà: 35 studenti con un punteggio medio di 5 e una deviazione standard di 0.5 Studenti bravi: 120 studenti con un punteggio medio di 8.5 e una deviazione standard di 0.5 La scelta di un grafico a violino è particolarmente indicata se si vogliono scovare le distribuzioni bimodali. Diversamente da un istogramma o un box plot tradizionale, il grafico a violino mostra: La densità di probabilità : le aree più larghe del violino indicano dove i dati sono più concentrati, mentre le aree più strette mostrano dove i dati sono più rari. La distribuzione dei dati : la forma del violino mostra come i valori sono distribuiti, ossia se sono raggruppati attorno a un valore centrale o dispersi su un intervallo più ampio. La multimodalità : se hanno più di un picco (distribuzi...

Caos ordinato

Lo script di questo esperimento utilizza la distribuzione esponenziale per simulare i tempi di attesa alla cassa di un supermercato. Il suo flusso di esecuzione: Generazione di 10.000 osservazioni dei tempi di attesa individuali. Estrazione di 1.000 campioni di 40 clienti ciascuno. Calcolo della media per ogni campione. Generazione grafici della distribuzione esponenziale (asimmetrica) e di quella normale (prevista dal Teorema del Limite Centrale) delle medie campionarie. Il TLC afferma che, indipendentemente dalla distribuzione originale dei dati, la distribuzione delle medie campionarie tenderà a una distribuzione normale all'aumentare della dimensione dei campioni. Nei due grafici qui riportati: i tempi di attesa individuali seguono una distribuzione esponenziale (asimmetrica con coda lunga); le medie dei campioni seguono una distribuzione di tipo normale. Questi risultati potrebbero avere implicazioni pratiche nella gestione delle code. Consentono al responsabile del supermerca...

Sulle tracce dell'indice BMI

L'intelligenza artificiale generativa rappresenta più di un semplice strumento per calcoli o sintesi; è un autentico alleato nella ricerca di soluzioni innovative.  Questa interazione uomo - IA viene perfettamente esemplificata in questo esperimento: scoprire la relazione non lineare tra altezza e peso utilizzando tecniche di machine learning. L'idea iniziale Il punto di partenza è stato semplice: VOLEVAMO verificare se esistesse una relazione tra altezza e peso e se questa fosse lineare o non lineare. In un primo momento, l'IA ha ipotizzato una relazione diretta basata su un BMI medio pari a 22. La mia riflessione è stata: ma questa formula funziona solo per individui normopeso. Qui è iniziata l’interazione tra uomo e IA perché è necessario ampliare il modello per includere persone con BMI variabile. L'apporto dell’Intelligenza Artificiale L’IA mi ha aiutato a costruire il dataset, generando un campione di persone con BMI diversi (sottopeso, normopeso, sovrappeso e ob...

Relazioni nascoste

Viviano in un’epoca in cui l'analisi statistica dei dati è fondamentale in molti settori di punta.  Essa viene condotta principalmente per scovare relazioni nascoste tra le variabili e poi poter migliorare le performance di produzione, incrementare le vendite o limitare potenziali fattori che influenzano la nostra salute.  Uno degli strumenti più utili per questo scopo è la matrice di correlazione, semplice da implementare ma assai efficace.  Si presenta come una normale tabella contenente numeri, da -1 a +1, che sono i coefficienti di correlazione tra le variabili del dataset. +1: indica una correlazione perfetta positiva (quando una variabile aumenta, anche l’altra aumenta). -1: indica una correlazione perfetta negativa (quando una variabile aumenta, l’altra diminuisce). 0: indica assenza di correlazione. Ad esempio, se analizziamo il rendimento degli studenti, possiamo scoprire che il numero di ore di studio è positivamente correlato con il punteggio all’esame, mentre ...

Bla Bla Bla

Sul web proliferano articoli sull'intelligenza artificiale, ma come valutarne il reale contenuto informativo? Spesso, dietro un lessico forbito, si nascondono testi che potrebbero essere “distillati” in poche righe senza perdere nulla di significativo. Questo pensiero d'assestamento della domenica nasce dalla sensazione di “vuoto profondo” che ho provato questa mattina, leggendo alcuni articoli presentati come approfondimenti di novità tecnologiche, ma che in realtà non affermano nulla di nuovo rispetto a quanto già noto da mesi. La buona notizia è che esistono criteri per misurare la qualità di questi contenuti, anche con l'ausilio dell'IA. Un'analisi semantica potrebbe basarsi su quattro metriche fondamentali: Livello di spunti : l’articolo offre nuove prospettive o semplici ripetizioni? Densità concettuale : il testo è ricco di informazioni o si dilunga senza motivo? Approfondimento : vengono analizzati aspetti complessi o ci si ferma alla superficie? Potenziale ...

Un anti-Prometeo

Il point of view è fondamentale per comprendere il mondo che ci circonda, per comunicare efficacemente e per vivere in modo consapevole.  Per questo, proviamo a cambiare prospettiva e guardiamo (forse) l'IA con gli occhi di un caro compianto visionario barocco e ironico. L'intelligenza artificiale: eccola dunque, questa divinità tecnocratica, questo simulacro del pensiero che alberga nel non-luogo delle reti neurali.  Questo inconcepibile paradosso.  Con tutto il risibile rigore dell'approssimazione, è un'allucinazione logica, un fantasma numerico che vaga nei labirinti dei circuiti elettronici, nutrendosi di quell'immensa babele che è Internet.  Una mente che non si è plasmata sul vissuto, eppure usa un lessico che è insieme inquietante e fascinoso. Uno specchio nel quale si riflettono i difetti e i pregi della nostra intelligenza.  Una teatralizzazione del sapere simile a un gorgo a cui ci si avvicina con curiosità mista a timore.  Un insieme di dilemmi: ...

GPTs

I GPT personalizzati (GPTs) possono rivelarsi validi alleati di educatori e studenti per i seguenti motivi, oltre a quelli riferibili a ogni chatbot.  Personalizzazione dell'apprendimento Possono essere strutturati, mediante il GPT Builder, in modo da corrispondere alle esigenze individuali. Forniscono risposte, dello stile e del tono specificati, sulla base dei materiali didattici del docente.  Creazione di repository di materiali didattici diversificati Sempre a partire dagli esempi trasferiti nell'area di upload in fase di creazione e nei successivi aggiornamenti (definizione della base di conoscenza specifica), i GPTs possono generare rapidamente una vasta gamma di risorse educative che "imitano" quelle del docente: dai quiz ai casi di studio. La grande varietà di materiali prodotti in questo modo potrebbe servire a stimolare l'interesse e la partecipazione degli studenti. Progettazione didattica ottimizzata I GPTs potrebbero contenere tutta la programmazi...

Backpropagation

In questo post viene letteralmente visualizzata un'affascinante tecnica che consente alle macchine di apprendere dai propri errori: la backpropagation. Sebbene già nota in ristretti ambiti scientifici, è diventata famosa nel 1986 grazie ai lavori di Rumelhart, Hinton e Williams. Ma come avviene questa misteriosa forma di apprendimento?  Pensate a come si impara a suonare il pianoforte: all'inizio si sbaglia la posizione delle dita, il ritmo è incerto, il tocco è troppo forte o troppo debole. Ma con il tempo, attraverso piccoli aggiustamenti, il nostro cervello affina il controllo e la musica prende forma.  La backpropagation segue lo stesso principio: confronta il risultato prodotto dalla rete neurale con quello desiderato, calcola l’errore e poi lo propaga a ritroso, correggendo passo dopo passo ogni parametro (aggiornamento dei pesi). Ciò che rende questo meccanismo oggi così efficace è l’incredibile progresso tecnologico. Processori dedicati al calcolo tensoriale e la dispo...

Deep Neural Reading

Negli ultimi anni l'elaborazione automatica dei testi è molto migliorata. Grazie al Python e alle librerie open source, è possibile realizzare sofisticate analisi semantiche con poche righe di codice. Nel mio esperimento, ho analizzato la pagina web  https://en.wikipedia.org/wiki/Isaac_Asimov . I risultati, in parte riportati nel seguito, mostrano la ricchezza di questo approccio. Non ho ottenuto una semplice lista di termini, ma una mappatura concettuale dell'autore, organizzata in categorie significative. Persone, luoghi, eventi e organizzazioni sono stati identificati e contestualizzati. I concetti chiave evidenziano l'importanza della robotica, della fantascienza e delle antologie nella sua opera. Le relazioni semantiche hanno rivelato connessioni come “robot safeguard existence”, che riflettono pienamente i principi delle Leggi della Robotica. Il sistema ha individuato legami tra Asimov e altri autori, tra le sue opere e il contesto storico-culturale, oltre ai principi...

Una differenza enorme

Informazioni iniziali: schema elettrico ORCAD di una scheda basata sul microcontrollore PIC16F887, da cui si possono leggere i collegamenti con il display LCD DS1 (16x2 caratteri). Tool di sviluppo utilizzato: MPLAB X IDE versione 6.20 per la programmazione ibrida C/Assembly. Ho chiesto a Claude 3.7 Sonnet di preparare, sulla base delle informazioni disponibili, gli script necessari per visualizzare la scritta   “ Pensieri d’assestamento ”  sul display LCD. Dopo aver caricato il firmware generato da MPLAB X IDE, ho ottenuto il risultato mostrato in figura sul display LCD del simulatore. La principale differenza rispetto ad Arduino è che, in questo caso, non ho programmato una scheda commerciale, bensì un PIC per gestire componenti elettronici che potrebbero risiedere su una scheda embedded, realizzata ad hoc per svolgere determinati compiti. Quando si programmavano i microcontrollori unicamente in assembly e senza l’ausilio dell’IA, ho impiegato molto più tempo per o...