domenica 26 aprile 2020

Venticinqueaprile

Ricordo, oramai molti anni fa, una discussione sul 25 aprile. Me la ricordo perchè forse era la prima volta che sentivo un'osservazione del genere. Oggi, guardando i social ancora pieni di commenti diametralmente opposti a questa festa (dopo 75 anni), mi è tornata alla mente.

In realtà di quella discussione ricordo solo il punto di partenza, la cosa più significativa secondo me. La questione era: tutta questa retorica sulla Liberazione associata al fenomeno della Resistenza andrebbe ridimensionata. La vera Liberazione ce l'hanno data gli americani, gli inglesi, insomma chi ha vinto la guerra provocata da nazisti e fascisti (noi). Il contributo all'evoluzione dei fatti della storia dato dalla Resistenza e dai suoi protagonisti è stato infimo se non proprio nullo. Quindi che festeggiamo? La Liberazione avvenuta con le nostre forze, con il contributo degli italiani, è una retorica che ci portiamo appresso, e sulla quale peraltro abbiamo costruito l'altra retorica, quella degli opposti estremismi, che ci ha fatto più male che bene nei decenni seguenti.

Questa critica era motivata dalla sincera volontà (almeno così mi sembrava) di dare la giusta prospettiva a quel periodo storico e il giusto peso ai vari fatti accaduti in quegli anni. Voleva dire: "partiamo da un'analisi razionale e obiettiva dei fatti e traiamone le conclusioni corrette, festeggiamo il nulla e ci litighiamo pure".

Però mi domando, è questo il punto? Perchè portare il discorso sul piano scientifico dello studio della storia per stabilire e quantificare il peso dei vari contributi che hanno portato a certi risultati? Andrebbe invece portato sul piano dei valori. Mi spiego, se io aiuto una persona a non morire di fame certamente il mio contributo storico all'annoso problema della fame nel mondo è nullo, ma quello che faccio ha un valore importante, e può costituire un esempio per tutti.

Allora il punto non è se e quanto la Resistenza abbia veramente inciso sulle sorti della nostra storia. Ammettiamo pure (senza accettare discussioni infinite su questo punto) che si trattasse di "quattro gatti" che "disturbavano" l'azione di nazisti e fascisti come fanno le "zanzare", quando questi erano già spacciati per l'avanzata ormai inesorabile degli anglo-americani. Ma il punto è che questi erano la dissidenza libera e attiva (per quanto si poteva) alla dittatura fascista in Italia. E molta di questa gente lo era sempre stata durante tutto il regime, sin dai suoi inizi, e molta si è unita nel corso degli anni. Si tratta di un filo rosso (il colore non ha connotazione politica) che rappresenta un valore importante su cui noi vogliamo basare la nostra vita presente e futura (speriamo), e chi lo ha incarnato, fossero pure quattro gatti che non hanno avuto peso negli eventi, è un esempio che giustamente rimane nelle targhe commemorative di tutta Italia, e nella nostra memoria storica.

Il venticinque aprile è un valore di libertà che la storia ci lascia e che và conservato e insegnato. Su questo dovremmo essere veramente tutti d'accordo. E' questo che festeggiamo.

P.S.: non sono affatto convinto che la Resistenza e tutta la dissidenza al regime fascista non abbia avuto alcun peso negli eventi della storia, ma dico che questo dibattito può anche passare in secondo piano senza scalfire il senso della festa.

P.S.: chi si ostina dopo 75 anni ad essere più o meno apertamente contro questa festa, con i più svariati argomenti, è molto probabilmente una persona che per cultura, per formazione, educazione, inclinazione, in un qualche futuro forse accetterebbe uno stato non democratico, non liberale, accetterebbe la privazione delle libertà a favore di un capo che "risolva i problemi".

domenica 19 aprile 2020

La legge della rifrazione e la natura della luce

Uno dei risultati più semplici ma anche importanti dell'ottica geometrica è la legge di rifazione della luce all'interfaccia di due mezzi di densità differente. Recentemente mi è capitato, leggendo dei testi che parlano di ottica, di capire che la descrizione quantitativa di questo fenomeno può permettere di discriminare tra l'interpretazione corpuscolare (in senso classico) e ondulatoria della luce, almeno nel passato lo ha fatto. Non mi ricordo di aver mai avuto occasione di osservare una cosa del genere. Ed è interessante anche dal punto di vista storico.

Nei primi decenni del seicento, prima Snell e in seguito, in modo probabilmente indipendente, Cartesio, definirono la forma sperimentale quantitativa della legge di rifrazione con la seguente espressione:

sin i / sin r = n

con i valore dell'angolo del raggio incidente con la normale alla superficie di separazione dei due mezzi, r valore dell'angolo del raggio rifratto con la stessa normale, e n un parametro che dipende unicamente dalla natura dei due mezzi (ad esempio aria e acqua), chiamato indice di rifrazione relativo.

Come è noto alla fine del seicento Newton formulò le leggi della dinamica e introdusse la forza gravitazionale tra i corpi con la legge di gravitazione universale. Uno schema concettuale molto potente, una chiave interpretativa del movimento e delle interazioni tra i corpi di grande successo. Contestualmente Newton si occupava anche di ottica.

Se delle idee funzionano bene per descrivere una certa classe di fenomeni naturali è abbastanza ovvio cercare di sfruttarle anche altrove, in ambiti chiaramente differenti ma in cui puoi almeno sperare di ottenere lo stesso successo. E' una questione di economia di pensiero (riciclo le idee che si sono dimostrate efficaci) ma soprattutto risponde ad una esigenza di riunire grandi classi di fenomeni anche apparentemente distanti tra loro in un'unica visione esplicativa unificante.

Quindi non è strano che Newton abbia avanzato l'ipotesi della natura corpuscolare della luce. Se la luce può essere pensata come un insieme di corpuscoli viaggianti se ne può dedurre il comportamento applicando a tali corpuscoli tutto quello che si è imparato sul moto di un punto materiale. Ad esempio si può spiegare la propagazione rettilinea di un raggio di luce (osservata sperimentalmente dallo studio delle ombre) deducendola direttamente dal principio di inerzia, supponendo evidentemente che il peso di questi corpuscoli sia trascurabile rispetto alla loro velocità (questo mi sembra già un punto debole, quantomeno da sottoporre ad esperimenti). Si può spiegare anche la legge della riflessione su una superficie di separazione tra due mezzi riconducendola semplicemente ad un fenomeno di urto elastico.

Più difficile interpretare e rendere conto, anche quantitativamente, della legge della rifrazione. Qui Newton usa l'idea (già formulata in precedenza) che nei due mezzi la velocità dei corpuscoli di luce sia differente. In particolare che si conservi la componente parallela alla superficie di separazione e che invece cambi quella ortogonale. Quest'ultima cresce nei mezzi più densi come risultato di una maggiore forza di attrazione delle masse verso l'interno del mezzo (e anche questo, almeno raccontato in questo modo, mi sembra un argomento debole, quantomeno non ben chiaro). Il risultato sarà che il raggio proveniente dal primo mezzo (meno denso, ad esempio aria) incidente sulla superficie di separazione di un angolo i con la normale si propaga all'interno del secondo mezzo (più denso, ad esempio acqua) avvincinandosi alla normale, cioè con un angolo di rifrazione r minore di i. Un calcolo fatto scomponendo le velocità v1 e v2 dei due fasci incidente e rifratto porta ad ottenere proprio l'espressione della legge di rifrazione in questa forma:

sin i / sin r = v2 / v1

Non solo questa formula riproduce il risultato sperimentale di Snell ma fornisce anche un'interpretazione dell'indice di rifrazione relativo come il rapporto tra le velocità di propagazione della luce nei due mezzi.

Fino a qui sembrerebbe un buon successo. Una legge determinata esclusivamente per via sperimentale viene ora dedotta partendo da un'ipotesi sulla natura della luce e da un semplice calcolo cinematico conseguente a questa ipotesi (e ad altre considerazioni per la verità discutibili). Ma a questo punto, se vogliamo mettere alla prova la capacità della teoria occorrerebbe trovare il modo di verificare la questione delle velocità di propagazione della luce nei diversi mezzi. Purtroppo all'epoca di Newton verifiche di questo genere erano fuori portata e la questione rimaneva aperta.

La questione rimaneva aperta ed estremamente interessante anche perchè negli stessi anni in cui Newton dava la sua interpretazione ne circolavano altre, una basata sul Principio di Fermat e l'altra basata sul Principio di Huygens. In entrambi questi casi si arrivava però ad una legge di Snell che legava anch'essa l'indice di rifrazione al rapporto delle velocità di propagazione, ma rovesciava questo rapporto, cioè metteva a denominatore la velocità del secondo mezzo. Se questo era il mezzo più denso, e se si voleva far coincidere quanto calcolato a quanto si misurava, occorreva ipotizzare che la velocità in un mezzo più denso diminuisse anzichè aumentare, in aperto disaccordo con Newton.

L'interesse di questo disaccordo risiedeva anche nei punti di partenza delle due visioni di Fermat e Huygens, in particolare di quella di quest'ultimo. Infatti se Fermat risolveva il problema imponendo al sistema un principio di minimo senza fare nessuna particolare ipotesi sulla natura della luce (ma definendo un metodo generale molto importante che in seguito verrà ripreso da Maupertuis e applicato al formalismo della meccanica lagrangiana), Huygens arrivava alla legge di Snell applicando un principio di costruzione geometrica che presupponeva la propagazione della luce come un'onda. In questo caso erano le interpretazioni della natura della luce, non proprio roba da poco, ad essere profondamente diverse in Newton e Huygens e a portare a risultati differenti.

Differenze che però purtroppo all'epoca non potevano trovare una soluzione attraverso l'unico modo scientifico per farlo, cioè misurando i valori delle velocità della luce nei diversi mezzi. In quegli anni esisteva un'unica misura della velocità della luce determinata da misure astronomiche sulle eclissi dei satelliti di Giove, decisamente insufficiente per risolvere la questione tra Newton e Huygens. Solo nel 1850 le misure fatte da Foucault hanno mostrato che la velocità della luce nei mezzi densi è minore di quella nell'atmosfera dando così ragione all'interpretazione ondulatoria di Huygens e contraddicendo la teoria corpuscolare di Newton.

Comunque la questione della natura della luce era già stata risolta cinquant'anni prima da Thomas Young, che dimostrò con esperimenti quali quello della doppia fenditura come i fenomeni della diffrazione e dell'interferenza fossero spiegabili dalla teoria ondulatoria e non da quella corpuscolare.

venerdì 10 aprile 2020

Il modello SIR spiegato a mio figlio

Qualche giorno fa, come riempitivo della quarantena da coronavirus, ho spiegato a mio figlio il modello di diffusione delle epidemie denominato SIR. E' stata una buona esperienza, che ho cercato di utilizzare un po' per spiegare quanto sta avvenendo nei vari focolai dell'infezione che piano piano si stanno creando in quasi tutto il pianeta, e un po' per riflettere sul concetto di modello matematico per la descrizione di un fenomeno. Il modello in questione consiste sostanzialmente in un problema differenziale che risulta essere anche un buon esempio nell'uso delle derivate che mio figlio a scuola ha già avuto modo di incontrare, anche se in modo non rigoroso.

Ho proceduto grosso modo con queste considerazioni.

Dal punto di vista matematico un fenomeno che evolve nel tempo, come il caso di un'epidemia, viene descritto sostanzialmente individuando delle grandezze che lo caratterizzano e scrivendo delle relazioni che ne esprimano gli andamenti temporali. Le grandezze non possono essere tante, pena la complessità delle equazioni che ne possono derivare e la loro intrattabilità, ma ovviamente devono essere in numero sufficiente (e quelle giuste) perché si riesca a tirar fuori un'analisi significativa. In tal modo si è creato un modello, ovvero uno strumento matematico in grado di rappresentare con un certo grado di accuratezza il fenomeno che ci interessa. Spesso la costruzione di un modello non è la traduzione di principi fisici generali come succede ad esempio nel problema del moto di una massa in un campo gravitazionale (i principi generali qui sarebbero la legge di gravitazione universale e la seconda legge della dinamica) bensì considerazioni meno rigorose, giustificate da osservazioni dirette sul fenomemo specifico. E' il caso appunto del modello SIR.

Il modello SIR prende il nome dalle tre variabili che vengono scelte per descrivere l'andamento nel tempo di un'epidemia in una popolazione: i Suscettibili (S), gli Infetti (I), i Rimossi (R). I Suscettibili sono gli individui sani che possono in qualsiasi momento contrarre l'infezione, gli Infetti sono i malati portatori dell'infezione e quindi contagiosi, i Rimossi sono gli individui guariti dall'infezione (o eventualmente morti). Queste tre variabili non sono indipendenti poichè dividono la popolazione in tre insiemi disgiunti, dunque la loro somma è la popolazione totale (N): S+I+R=N.

Un modello deve poter permettere di arrivare a delle relazioni matematiche trattabili in qualche modo, se non proprio esattamente risolvibili. Per questo motivo deve rimanere sufficientemente semplice (anche se non banale, questo è il rischio). Ciò significa che oltre ad introdurre un numero piccolo di variabili andranno introdotte anche delle assunzioni semplificatrici che ci permetteranno di trascurare dei dettagli e che ovviamente renderanno il modello meno generale e meno potente (con una capacità predittiva più ristretta). Nel nostro caso si assume
- che la popolazione sia in numero costante (trascurando cioè nascite e morti naturali),
- che chi è nei rimossi sia definitivamente immunizzato e non possa più riammalarsi,
- che non ci siano scambi della popolazione con l'esterno (immigrazioni ed emigrazioni),
- che il contrarre l'infezione determini contestualmente sia la malattia che lo stato di infettività.
Ovviamente dopo un primo studio del modello semplificato da tutte queste ipotesi è sempre possibile trovare il modo di rimuoverle, apportare le opportune modifiche e studiarne le conseguenze, allo scopo di tener conto di un maggior numero di elementi significativi e arrivare a delle predizioni più precise.

L'obiettivo del modello sarà quello di descrivere gli andamenti nel tempo delle tre grandezze tra di loro collegate. Le approssimazioni fatte ci permettono di scrivere un "flusso" nel tempo di elementi da un insieme all'altro, cioè nel tempo i Suscettibili diventeranno Infetti che a loro volta diventeranno Rimossi (guariti o morti). Il punto di partenza più fruttuoso è quello di cercare di scrivere le velocità con cui queste tre grandezze varieranno. La velocità con cui una grandezza varia nel tempo non è nient'altro che la sua derivata (si pensi alla "velocità" come grandezza fisica, cioè la velocità con cui varia lo spazio percorso da un corpo in movimento).

A questo punto tentiamo di scrivere le velocità di variazione delle nostre tre grandezze con considerazioni euristiche. La velocità con cui varia la S nel tempo sarà certamente negativa poichè ci aspettiamo che l'insieme S diminuirà in conseguenza della propagazione dell'infezione (vedi il flusso scritto sopra) e potrà essere scritta ragionevolmente come proporzionale al prodotto tra S e I, più è grande S e più ho persone che possono infettarsi, più è grande I e più aumenta la probabilità di infettare i rimanenti S. La velocità con cui varia R invece sarà certamente positiva poichè al passare del tempo aumenteranno i guariti o i deceduti (vedi anche in questo caso il flusso scritto sopra) e potrà essere scritta come proporzionale a I, poiché tanto più grande è l'insieme degli infetti tanto più grande sarà il numero dei guariti. La velocità con cui varia I sarà semplicemente dedotta dal fatto che se per ipotesi la somma delle tra variabili è pari alla dimensione N della popolazione assunta come costante, la somma delle loro derivate dovrà essere necessariamente pari a zero (la derivata rispetto al tempo di una grandezza costante nel tempo è nulla).

In formule si ottiene alla fine la seguente (la derivata della funzione è indicata con l'apice):

S' = -aIS = (-aI)S
I' = aSI-bI = (aS-b)I
R' = bI

Si noti che, come detto nelle ipotesi, S'+I'+R'=0.

Questo è il problema differenziale che esprime le poche e semplici considerazioni fatte nel modello. I parametri a e b introdotti sono le costanti di proporzionalità che aggiungono gradi di libertà al modello, i loro valori sono ignoti ma possono influenzare parecchio l'andamento delle soluzioni e quindi caratterizzare in modo significativo il particolare fenomeno descritto. Evidentemente su tali parametri sarà possibile fare delle ipotesi e, quando possibile, cercare di determinarli attraverso delle misure fatte sui dati empirici dell'epidemia reale che si sta studiando.

Cosa si può ricavare da un modello del genere? Si potrebbero calcolare esplicitamente le soluzioni, ammesso che si riesca a farlo. Molti problemi differenziali sono difficili da trattare e spesso le soluzioni analitiche generali non si riescono a scrivere. Ricordiamoci comunque che ormai esiste sempre la possibilità di trattare numericamente le soluzioni attraverso l'uso di calcolatori. Alternativamente si possono studiare per ricavarne considerazioni più qualitative ma spesso altrettanto importanti. Proviamo a fare le più semplici.

1. Il parametro b indica la percentuale di infetti che guarisce (o muore) nell'unità di tempo. Questo chiaramente è un fattore che dipende dall'andamento naturale della malattia in un malato e può essere chiaramente influenzata (aumentata) dall'uso di terapie efficaci, se ce ne sono.

2. Il parametro a è un termine che tiene conto della capacità (o probabilità) che ha un individuo sano (S) di contrarre la malattia quando "incontra" un individuo infetto (I). Questa capacità di infettare dipende ovviamente dalle caratteristiche intrinseche dell'infezione e chiaramente può essere influenzata (diminuita) da opportune pratiche igieniche e dalla messa in quarantena degli individui infetti (ed eventualmente dall'uso di un vaccino, se disponibile).

3. Le prime due equazioni del modello (quella per S' e per I') sono del tipo F'(t)=kF(t) che ha come soluzione una funzione esponenziale, una funzione cioè che cresce se k è positivo e decresce se k è negativo, la velocità di crescita o decrescita essendo determinata dal suo valore assoluto. Quindi:

3a. Per la variazione dell'insieme S si ha k=-aI, coefficiente chiaramente negativo (anche se non costante poichè dipende anche da I) per l'ipotesi già fatta in precedenza che S deve diminuire progressivamente all'espandersi dell'infezione.

3b. Per la variazione dell'insieme I, la grandezza che ci interessa di più, si ha k=aS-b che non ha un segno definito. Anzi, possiamo dire che se all'inizio dell'epidemia i coefficienti si combinano in modo da rendere negativo k, l'epidemia si arresta subito (esponenziale negativo). Se, al contrario, rendono k positivo l'epidemia si espanderà all'inizio con velocità esponenziale, provocando il momento più critico per la popolazione (quello che attualmente stiamo ancora vivendo in gran parte del mondo).

4. Durante la fase espansiva dell'epidemia il coefficiente k, partito con valore positivo, è destinato ad un certo punto a cambiare di segno (S diminuisce), determinando dunque un massimo di I e l'inversione di tendenza. Da questo momento in poi l'infezione è destinata ad estinguersi.

5. Spesso nei modelli conviene introdurre parametri comodi e significativi per la descrizione del fenomeno. In questo caso al posto di k si preferisce introdurre il parametro r = aS/b. L'innesco dell'epidemia è determinato da r maggiore di 1, l'inversione di tendenza da r minore di 1. Questo parametro può essere interpretato come il numero medio di suscettibili che vengono contaminati da un infetto (Basic Reproduction Ratio).

6. L'ultima cosa interessante è che attraverso misure specifiche prese sulla popolazione e sui suoi comportamenti (vedi quanto già detto sopra) è possibile controllare il parametro r e di conseguenza la forma complessiva della curva epidemica, che può passare da una campana ripidissima e velocissima ad una campana molto più appiattita e distribuita su tempi lunghi. I due comportamenti non sono certo equivalenti. Controllare la crescita della campana e il livello raggiunto dal suo massimo può consentire alle strutture sanitarie della popolazione colpita di reggere l'impatto delle inevitabili ospedalizzazioni e cure intensive indotte dalle forme più gravi dell'infezione, e diminuire il più possibile il tasso di mortalità. Che è esattamente la cosa che stanno cercando di fare più o meno tutti gli stati mondiali attualmente colpiti dalla infezione del coronavirus.

La spiegazione mi è sembrata molto istruttiva, per diversi motivi. Spero che lo sia stata anche per mio figlio.