domenica 4 ottobre 2020

L'effetto fotoelettrico e l'effetto Auger

Cari lettori del Tamburo, il tema del prossimo Carnevale della Matematica (che verrà ospitato il 14 ottobre da Roberto Zanasi sul suo blog Gli studenti di oggi) avrà come tematica portante “Viaggi, anche interstellari, eros, thanatos, Bacco e Venere, e drammi vari”.

Ho voluto prendere spunto, in modo abbastanza particolare, dal primo pezzo di tema citato, quello dei viaggi, per potervi parlare di qualcosa di singolare che avviene nel mondo degli atomi e delle particelle: l’effetto Auger.
Infatti scopriremo un “viaggio forzato” degli elettroni negli atomi sottoposti ad alcune condizioni particolari.
Diciamo sin da subito che il suddetto effetto ha un ruolo estremamente rilevante nell’ambito della spettroscopia.
Cos’è la spettroscopia?
In parole povere la spettroscopia è lo studio dell’interazione tra materia e radiazione ed è diventata lo strumento più comune per studiare in modo rigoroso i materiali.
Evolvendo dalla dispersione prismatica della luce visibile, la spettroscopia moderna si fonda sull’interazione di fasci irradiati sui materiali.
Entro la metà del XX secolo, divenne ovvio che la composizione chimica delle superfici e delle interfacce nelle dimensioni atomiche determina svariate proprietà dei materiali.
Per esempio, la corrosione e l’ossidazione, usura e attrito e le proprietà elettroniche dipendono fortemente dalla microchimica della superficie e dell’interfaccia.
Si innescò dunque una crescente domanda per l’analisi nella scala dello strato atomico.
Ciò portò a un rapido sviluppo dei metodi dell’analisi delle superfici basati sulla spettroscopia a ioni ed elettroni.
La spettroscopia ad elettroni Auger (abbreviata AES) fu la primissima tecnica usata per l’analisi delle superfici dei solidi, seguita dalla spettroscopia fotoelettronica a raggi X (abbreviata XPS).
Affinché possiate comprendere in pieno cosa sia l’effetto Auger è necessario però che io compia un breve excursus sull’effetto fotoelettrico.
Una superficie (solitamente) metallica in alto vuoto, investita da una radiazione di frequenza sufficientemente elevata, emette elettroni.
Questo è l’effetto fotoelettrico.


L’effetto fotoelettrico venne osservato per la prima volta da Heinrich Hertz nel 1887.
Il vuoto è necessario affinché gli elettroni non collidano con un’atmosfera di molecole troppo densa.
Ci sono 3 osservazioni fondamentali (dovute essenzialmente agli esperimenti compiuti da Philipp Lenard nel 1902) da compiere in merito a tale fenomeno:

1) l’effetto ha luogo solo se la frequenza della radiazione incidente supera un certo valore di soglia ν0. Tale soglia fotoelettrica dipende dal metallo usato. L’emissione degli elettroni avviene istantaneamente a seguito dell’irraggiamento.


2) Gli elettroni escono dal metallo con un’energia cinetica che va da 0 a un certo valore massimo TM. Questo valore è direttamente proporzionale alla differenza tra la frequenza incidente ν e la frequenza di soglia ν₀ caratteristica del materiale. La costante di proporzionalità è la stessa costante h trovata da Planck per interpretare lo spettro del corpo nero (se volete saperne di più leggete qua):

3) Il numero di elettroni emesso per unità di tempo e di superficie (ossia la corrente elettronica) è proporzionale all’intensità della radiazione incidente (a parità) di frequenza, mentre l’energia degli elettroni emessi risulta indipendente da tale intensità.

L’interpretazione classica non riesce assolutamente a spiegare questo fenomeno.
Questo perché dal punto di vista dell’elettromagnetismo classico (che descriveva la maggior parte dei fenomeni noti sino al 1900) l’onda elettromagnetica trasmette energia in modo continuo.
Invece per interpretare correttamente il fenomeno serve il concetto di quanto, introdotto da Planck nel 1900.
Il mitico Albert Einstein, durante il suo “annus mirabilis”, cioè il 1905, ha proprio elaborato un’interpretazione dell’effetto fotoelettrico fondata sul quanto.
Ironia della sorte è che tale studio (un po’ meno noto al grande pubblico rispetto alla sua teoria della relatività, prima ristretta, poi generale) gli valse il Nobel per la Fisica nel 1921, mentre per la relatività non gli fu assegnato alcun premio!
Per Einstein la radiazione, nel processo di assorbimento, si comporta come se fosse composta da particelle, dette fotoni (termine reso popolare dal chimico Gilbert Newton Lewis nel 1926), con energia pari a:

dove ν è la frequenza del fotone.
Il flusso (cioè il numero) di fotoni è ovviamente proporzionale all’intensità dell’onda, per considerazioni energetiche.
Un elettrone viene emesso interagendo con un singolo fotone.
Per poter capire cosa sia l’effetto Auger ci serve anche introdurre la struttura elettronica di un materiale (per semplicità assumiamo sempre che sia un metallo).
Quella che segue è un’immagine che ben la rappresenta in modo generico.

Tutto quel rettangolo che vedete in basso va a rappresentare i cosiddetti livelli energetici di core. Essi rimangono immutati.
Gli elettroni di core sono chiamati in tal modo perché si trovano negli orbitali o livelli atomici ad energia più bassa, il che corrisponde ad essere più vicini al nucleo (core) e più legati all’atomo.
Indichiamo con la generica lettera E l’energia degli elettroni all’interno del metallo.
Possiamo poi definire uno 0 che corrisponde all’energia di vuoto (nella figura il vacuum level), ossia l’energia di elettroni che sono fermi (a riposo), appena fuori dalla superficie metallica. Al di sotto di tale energia avremo i vari livelli energetici.
Il livello di vuoto rappresenta l’ultimo livello corrispondente ad uno stato legato, ovvero tutti gli stati elettronici al di sotto del suddetto sono stati legati, cioè, in altre parole, l’elettrone è legato al materiale.
I livelli energetici al di sopra del livello di vuoto sono infatti corrispondenti ad elettroni che sono liberi di lasciare il materiale.
Pertanto gli elettroni fotoemessi sono elettroni che hanno livelli energetici al di sopra del livello di vuoto.
Se immaginiamo un elettrone al di sopra di tale livello, la differenza di energia tra il livello considerato e il livello di vuoto denota l’energia cinetica dell’elettrone che si sta allontanando indefinitamente dal materiale.
Se guardate bene, nel mezzo della figura c’è una linea tratteggiata. Beh questa è molto importante e va a designare il cosiddetto livello energetico di Fermi EF.
Ora allo zero assoluto (0 kelvin) avremo sostanzialmente che ciò che sta al di sotto del livello di Fermi sono livelli energetici occupati da elettroni, mentre andando al di sopra della suddetta linea troveremo tutti stati energetici vuoti.
Se però assumiamo una temperatura elevata, per esempio 1000 K, c’è una probabilità piccola (ma non nulla!) che, per eccitazione termica, qualche elettrone riesca a giungere sino al livello di vuoto.
Questi sono proprio gli elettroni che, avendo sufficiente energia, riescono a scappare dal potenziale attrattivo degli ioni del metallo e uscire dalla lamina creando una corrente termoionica.
Il discorso appena compiuto non è campato in aria a caso ma dipende da uno specifico strumento matematico che viene chiamato distribuzione di Fermi-Dirac.
Se ricordate, avevamo brevemente parlato del teorema spin-statistica in un post (cliccate qui).
Vi basti ora sapere (dato che i dettagli vanno ben oltre lo scopo puramente divulgativo del presente post) che quella di Fermi-Dirac è la statistica che governa le particelle chiamate fermioni (famiglia di cui l’elettrone fa appunto parte), mentre la statistica che regola i bosoni è detta di Bose-Einstein.
Ma nell’immagine di prima c’è da constatare la presenza di un ulteriore importante fattore: la funzione lavoro (o lavoro di estrazione) Φ.
È facile intuire che (assumendo E = 0 come livello di vuoto) essa è equivalente alla differenza E - EF, cioè alla distanza che sussiste tra il livello di vuoto e quello di Fermi.
La funzione Φ rappresenta dunque la minima barriera che gli elettroni devono superare per poter uscire dal materiale ed essere liberi di allontanarsi da esso.
Per quasi tutti i materiali essa è stimata dell’ordine di 4-5 elettronvolt.
Dovrebbe essere adesso chiaro che se l’energia di un singolo fotone è inferiore a questa quantità, esso non può estrarre alcun elettrone.
In tal modo viene compresa la soglia fotoelettrica a cui si faceva riferimento prima.
Inoltre è immediatamente spiegato il perché l’emissione avviene subito pure a intensità basse della radiazione incidente.
Infatti istantaneamente alcuni elettroni entrano in collisione con alcuni fotoni.
Anche l’osservazione 2) data all’inizio del post viene giustificata, giacché l’energia cinetica massima con cui l’elettrone esce è pari alla differenza tra l’energia del fotone incidente e la funzione lavoro.
In simboli la formula proposta da Einstein era:

La frequenza di soglia viene quindi interpretata come la frequenza minima che deve avere la radiazione affinché l’energia di un fotone sia almeno pari all’energia necessaria per estrarre un elettrone.
Gli elettroni escono con energie minori della massima in quanto perdono energia, dopo aver assorbito il fotone, dentro il solido, prima di uscire da esso.
L’analisi di tale distribuzione delle energie degli elettroni uscenti fornisce oggi un importante strumento per studiare la dinamica degli elettroni nei cristalli.
Infine, il numero di elettroni emessi è proporzionale al numero di fotoni incidenti, ovvero all’intensità dell’onda incidente, poiché tale è la probabilità che ha un elettrone di assorbire un fotone e venire liberato.
Questo numero è naturalmente indipendente dall’energia di ciascun fotone, cioè dalla frequenza della radiazione, mentre l’energia degli elettroni uscenti è indipendente dal numero di fotoni, ossia dall’intensità dell’onda incidente.
Siamo finalmente pronti per entrare nel vivo della narrazione.

domenica 11 dicembre 2016

Rivoltare una sfera

La sfera, come sappiamo, era considerata dagli antichi la forma ideale, quella che caratterizzava i mondi al di là della Terra.
Oggi parleremo, in parole povere, di un problema di natura topologica riguardante la sfera: l'eversione della sfera.
Innanzitutto diciamo che la topologia (dal greco tópos, ossia "luogo", e lógos, cioè "studio") è un'importantissima branca della matematica che si occupa, non a caso, delle proprietà delle forme e figure che non si modificano se viene effettuata una deformazione senza "strappi" o "sovrapposizioni".
I topologi hanno sempre sostenuto che, in linea teorica, risultava possibile invertire una sfera (o se vogliamo, "rivoltarla"), tuttavia non sapevano come riuscire nell'impresa.


Quando la computer grafica divenne disponibile ai ricercatori, l'esperto di grafica nonché matematico Nelson Max creò un'animazione che finalmente illustrava la trasformazione della sfera.
Il video di Max, datato 1977 e intitolato Turning a Sphere Inside Out (potete visionarlo qui sotto), era basato sul lavoro inerente all'inversione di una sfera che il topologo francese non vedente Bernard Morin aveva compiuto nel 1967.


L'animazione è focalizzata sul modo in cui tale inversione possa essere effettuata, facendo passare la superficie attraverso se stessa, senza generare alcun buco o piega.
Nonostante il problema fosse stato risolto visivamente appunto da Max, la risoluzione teorica, risalente al 1958, si deve al matematico statunitense Stephen Smale.
Smale nacque nel 1930 a Flint nel Michigan.
La sua famiglia viveva in una piccola fattoria fuori città e il piccolo frequentò la scuola locale, dove un solo insegnante seguiva ben 8 classi diverse in una singola stanza!
Suo padre era un marxista dichiarato, una posizione per nulla facile quando il senatore Joseph McCarthy diede vita a quel periodo storico che sarebbe stato indelebilmente associato al suo nome (maccartismo).
In tal periodo il giovane Smale si interessava, in maniera dilettantistica, più di chimica ed astronomia che di politica.
Il suo rendimento scolastico era a dir poco eccellente: all'esame statale, che tutti erano obbligati a sostenere dopo 8 anni di studio, egli ottenne il massimo punteggio tra migliaia di studenti.
Sebbene ci fossero tali premesse, il suo insegnante mostrava scetticità riguardo alle possibilità del ragazzo di frequentare il college.
Smale fece tuttavia domanda, poi accettata, all'Università del Michigan.
Facendo tesoro di una piccola eredità del nonno e di una borsa di studio quadriennale, costui poté dedicarsi, ancor più che agli studi, all'attivismo politico.
Smale si iscrisse al partito comunista, festò contro il coinvolgimento americano nella guerra di Corea, visitò i paesi dell'Est, si recò perfino al festival della gioventù comunista a Berlino.
Chiaramente tutto questo fervore politico lo portava a trascurare gli studi, a cui dedicava solo quel minimo di tempo necessario al fine di non farsi espellere.
Queste sue numerose attività extra-curricolari lo condussero, durante l'ultimo anno, addirittura alla libertà vigilata.
Da questo momento incominciò a prendere più seriamente il suo impegno al college.
Sino ad allora il suo principale argomento di studio era la fisica, ma ben presto passò alla matematica, che a parer suo riteneva molto più semplice.
Nel 1952 conseguì la laurea di primo livello e si iscrisse per ottenere la specializzazione.
L'iscrizione venne sì accettata, però sorsero presto problemi derivanti dalla sua attività politica.
Alla fine fu richiamato dal preside del Dipartimento di Matematica e ammonito che sarebbe stato espulso se i suoi voti non fossero migliorati.
Ergo, Smale si trovava di fronte a una scelta tra l'università e il partito comunista; scelse saggiamente la prima, dedicandosi seriamente allo studio della matematica.
L'anno dopo conseguì la laurea di secondo livello all'Università del Michigan e, nel 1957, il dottorato.
La sua reputazione era stata ormai compromessa, infatti, quando cercò il suo primo lavoro, il direttore del dipartimento scrisse una poco sincera lettera di raccomandazione ove evidenziava che era stato uno studente "poco brillante e poco partecipe".
Ma ciò non bloccò Smale. A dispetto del suo dubbioso professore, costui lavorò all'Università di Chicago, all'Institut for Advanced Study di Princeton, al Collège de France di Parigi, alla Columbia University per essere infine assunto all'Università della California a Berkeley nel 1964, nella quale rimase per i successivi trent'anni.
Oltre al suo lavoro di ricerca e insegnamento, Smale a Berkeley fu il supervisore di oltre 40 dottorandi.
Egli ricevette il massimo riconoscimento per un matematico, la Medaglia Fields, nel 1966.
Ritornando al problema della sfera, quando si parla di eversione della sfera, non è un processo semplice come rivoltare un pallone da spiaggia sgonfiato tirandolo tramite l'apertura della valvola, per poi gonfiarlo nuovamente.
In topologia ci si riferisce a una sfera senza alcuna apertura.
Come detto, Smale dimostrò che era possibile rivoltare una sfera senza praticare buchi, tagli o sgualciture, tuttavia il suo metodo era così complesso che nessuno (almeno fino al video di Max) riusciva a visualizzarlo.
Alla fine degli anni '90 i matematici fecero un importante passo avanti, scoprendo un percorso geometricamente ottimale, ossia in grado di minimizzare l'energia necessaria durante la trasformazione necessaria per contorcere la sfera.
La suddetta inversione ottimale della sfera, chiamata anche optiversione, è diventata la protagonista di un filmato d'animazione denominato The Optiverse, che potete osservare qui sotto.


È evidente che non si possono sfruttare i principi presentati nel filmato per rivoltare un vero pallone sigillato.
D'altronde le palle e i palloni reali non sono costituiti da un materiale in grado di passare attraverso se stesso, ciò implica che nel mondo reale è impossibile invertire questi oggetti senza bucarli!
Concludiamo col valzer op. 235 di Josef Strauss intitolato Sphärenklänge, ovvero "musica delle sfere".

Alla prossima!

Questo post partecipa al Carnevale della Matematica n.104, ospitato sul blog Mr. Palomar di Paolo Alessandrini.

domenica 9 ottobre 2016

Libertà asintotica in parole povere!

Una volta Georg Cantor (il matematico noto specialmente per l'ipotesi del continuo) affermò: "La vera essenza della matematica è la sua libertà".
La libertà, ad esempio, di scagliarsi contro un pilastro storico della geometria come gli Elementi di Euclide e di far scaturire le geometrie non euclidee dalla negazione del V postulato.
Vi ricordate? Ne abbiamo parlato proprio qui sul Tamburo!
Questo post però non riguarda il rapporto tra la libertà e la matematica, bensì cerca di spiegare in maniera comprensibile a tutti un concetto fisico (che però ha attinenze matematiche) noto come libertà asintotica.
Prima di incominciare la trattazione, consiglio al lettore non esperto una lettura del post "L'atomo spiegato a mia nonna!", che consentirà di seguire senza problemi quanto verrà illustrato di seguito.
Quando immaginiamo un'interazione come una forza che si manifesta fra 2 particelle, pensiamo generalmente a esempi come la gravità o l'elettromagnetismo, in cui la forza incrementa la sua intensità al diminuire della distanza tra le particelle.
Il suddetto comportamento però non si sposa con l'interazione nucleare forte, che è appunto caratterizzata dalla cosiddetta libertà asintotica.
Che significa?
Detto in parole povere, ciò significa che le interazioni forti tra (per esempio) i quark sono piccole quando i quark sono vicini fra loro, mentre aumentano se questi ultimi risultano più distanti, un po' come se fossero connessi da degli elastici molto forti.


In altri termini, nel limite asintotico di separazione nulla tra questi quark, le particelle non avvertono alcuna forza e sono totalmente "libere".
Se la distanza tra i quark cresce superando i confini del nucleone (ossia del protone o del neutrone che costituiscono), la forza forte tende a stringere la morsa, tenendoli sotto scacco.
La parola "asintoto" (derivante dal greco a-sým-ptōtos, letteralmente "ciò che non interseca") sta a designare una retta o una curva, alla quale un'altra funzione matematica si avvicina indefinitamente senza mai toccarla.


Esistono diverse tipologie di asintoto (orizzontale, verticale, obliquo), come mostra la seguente immagine:


Per comprendere meglio la situazione che si esprime nel concetto di libertà asintotica, andiamo ad analizzare un altro concetto (un po' più semplice) che manifesta un similare limite asintotico: il legame chimico.
Le teorie del legame chimico si basano su 2 fondamenta:

1) legge di Coulomb: regolante il bilanciamento delle forze elettriche (che possono essere attrattive o repulsive). Descrive, in particolare, la relazione di proporzionalità diretta fra la forza elettrostatica e le cariche elettriche, e la proporzionalità inversa tra la medesima forza e la distanza fra le cariche stesse;

2) meccanica quantistica: regola posizione e movimento degli elettroni.

Immaginiamo 2 atomi a grandissima distanza fra loro.
In tal caso abbiamo che le forze di interazione fra le nuvole elettroniche sono nulle e nulla risulta pure l'energia potenziale del sistema.
Supponiamo che i 2 atomi si avvicinino, si determinano ora 2 possibilità:

1) prevalgono le forze repulsive tra le nuvole elettroniche, perciò l'energia del sistema (che è la somma delle forze di attrazione e repulsione) aumenta! Il minimo valore dell'energia (cioè le condizioni di equilibrio del sistema) si ha quando gli atomi risultano lontani e dunque non possono instaurare un legame chimico fra loro. Questo è il caso dei gas nobili, i quali non manifestano tendenza a legarsi e rimangono allo stato monatomico;

2) gli atomi si avvicinano e si ha un'interazione attrattiva fra le nuvole elettroniche (cariche negativamente) e i nuclei (carichi positivamente). L'energia del sistema in tal caso diminuisce fino a quando la distanza non diviene così piccola (tende a 0) che prevalgono le forze repulsive tra le 2 nuvole elettroniche e tra i 2 nuclei. La distanza a cui le forze di attrazione e repulsione si bilanciano e l'energia risulta minima è chiamata distanza di legame e questa situazione implica che tra gli atomi si è formato un legame chimico.

La seguente figura chiarifica quanto appena illustrato:


Entrambe le curve, all'aumentare della distanza r, tendono asintoticamente (asintoto orizzontale) allo 0 (energia potenziale nulla), mentre quando l'energia potenziale tende ad infinito le curve tendono asintoticamente (asintoto verticale) alla retta rappresentante la distanza nulla fra i 2 atomi.

Mettetevi comodi, ora grazie a un passo tratto da Odissea nello zeptospazio di Gian Francesco Giudice, scoprirete la storia della libertà asintotica:

"Prima della scoperta dei quark la situazione riguardo alla forza forte sembrava praticamente disperata, ben riassunta nel 1960 dalle parole del fisico teorico russo Lev Landau: "È ben noto che attualmente la fisica teorica ha quasi perso ogni speranza di riuscire ad affrontare il problema dell'interazione forte...Ormai la sconfitta della teoria è tacitamente accettata anche da quei fisici teorici che proclamano di opporvisi. Ciò è evidente...soprattutto dall'affermazione di Dyson che la teoria giusta non sarà scoperta nei prossimi cent'anni." Invece la teoria giusta fu scoperta solo 13 anni dopo. La scoperta dei quark aveva imposto un certo ordine nel caotico mondo degli adroni, ma aveva anche aperto nuovi problemi [la libertà asintotica]...La libertà asintotica era l'esatto contrario di ciò che si conosceva delle forze fondamentali della natura...Si dava per scontato che qualsiasi teoria quantistica dei campi descrivesse solo forze le cui intensità diminuivano al crescere delle distanze. Anche David Gross (premio Nobel 2004), dell'Università di Princeton, era assolutamente convinto di ciò e iniziò ad analizzare sistematicamente il problema nell'intento di dimostrare rigorosamente che la libertà asintotica era incompatibile con qualsiasi teoria quantistica dei campi. In altri termini, voleva dimostrare che nella teoria quantistica dei campi tutte le forze diventano più deboli all'aumentare della distanza che separa le particelle. Fece rapidi progressi e completò il programma prefissato con una sola eccezione: la teoria di gauge. Dopo il successo ottenuto nella spiegazione delle interazioni elettrodeboli, agli occhi dei fisici il prestigio della teoria di gauge era molto cresciuto ed era indispensabile darsi da fare per escludere anche quest'ultimo caso. Gross e il suo allievo Frank Wilczek (premio Nobel 2004) affrontarono il problema alla fine del 1972; più tardi i 2 appresero che, a Harvard, Sidney Coleman aveva assegnato al suo allievo David Politzer (premio Nobel 2004) un problema quasi identico. I risultati di questi studi furono stupefacenti: i calcoli dimostrarono che in certi casi le teorie di gauge predicevano esattamente il fenomeno della libertà asintotica. "Per me la scoperta della libertà asintotica fu del tutto inaspettata," affermò Gross. "Come un ateo che ha appena ricevuto un messaggio da un roveto ardente, divenni immediatamente un vero credente."

Gli articoli di Gross, Wilczek e Politzer vennero pubblicati a fianco nel numero di giugno 1973 di "Physical Review Letters" e valsero a costoro il premio Nobel per la Fisica nel 2004.

Frank Wilczek (a sinistra) e David Gross (a destra)
Ma che diavolo è la teoria di gauge?
Nel Modello Standard delle particelle le simmetrie sono diverse da quelle ordinarie, esse risultano "ricalibrate" (in inglese gauged, da cui la denominazione "simmetria di gauge").
Questo significa che, data una delle operazioni di simmetria permesse, ad esempio la rotazione su un piano, possiamo applicarla diversamente in vari punti dello spaziotempo, operando, per esempio, una rotazione di 45° in un punto, una di 60° in un altro punto e una di 90° in un terzo punto.
Se procediamo nella suddetta maniera, nonostante la simmetria sia stata applicata in modo non uniforme, le equazioni del moto (governanti la dinamica evolutiva dei campi) non subiscono alcuna variazione e dunque la fisica globale non varia!
Di norma le simmetrie non funzionano in questo modo, a meno che non siano simmetrie di gauge.
Il Modello Standard presenta 4 simmetrie "globali" che non sono di gauge relative alle particelle materiali e alla conservazione di carica.
Esso presenta un'ulteriore simmetria globale non ricalibrata chiamata simmetria di Poincaré.
Quest'ultima riguarda semplici traslazioni (come spostare l'intero Universo di lato di un metro) e rotazioni, in cui il risultato finale porta a una situazione identica a quella che si aveva prima dell'applicazione dell'operazione di simmetria.
Se si desidera che alcune di tali simmetrie siano di gauge, i fisici Chen Ning Yang e Robert Mills giunsero alla conclusione che dobbiamo inserire nella teoria che intendiamo stabilire qualche componente aggiuntivo: i campi di gauge.
Nel Modello Standard, i campi di gauge corrispondono alle simmetrie che sono ricalibrate, ossia alle 3 forze che sono incorporate nel modello (interazione forte, interazione debole e interazione elettromagnetica).
Il Modello Standard risulta dunque essere una teoria di gauge (o teoria di scala), teoria in grado di mantenere la fisica invariata non solo globalmente ma pure localmente!


Ritornando alla libertà asintotica, essa è una manifestazione della cosiddetta cromodinamica quantistica (QCD), che è appunto la teoria fisica descrivente i quark e l'interazione forte.
Quest'ultima è mediata, come sappiamo, dai gluoni, particelle che "incollano" fra loro i quark, originando particelle composte prive di colore dette adroni.
Colore e quark? Che c'entrano?
Quando furono scoperti i quark, sorsero delle questioni spinose.
Per esempio, non si riusciva a spiegare come protoni e neutroni potessero ospitare 2 quark dello stesso tipo (precisamente 2 quark di tipo up nel caso del protone, 2 quark down nel caso del neutrone).
Questo fatto contraddiceva infatti il principio di esclusione stabilito da Wolfgang Pauli, il quale asserisce che 2 fermioni (e i quark sono appunto fermioni) uguali non possono occupare simultaneamente lo stesso stato quantico!
E allora come è possibile che per esempio 2 quark up riescano a coabitare insieme in un protone?
Nel 1970 il fisico Murray Gell-Mann riftletté su tali questioni problematiche mentre trascorreva l'estate sulle montagne di Aspen, in Colorado.
Egli comprese che il problema del principio di esclusione poteva esser risolto introducendo per i quark un ulteriore proprietà (detto in termini più rigorosi, un numero quantico) che intitolò "colore".
2 quark up possono allora convivere all'interno di un protone se hanno colore differente.
Gell-Mann congetturò che i quark possedessero 3 colori: rosso, verde e blu.
Ecco che così 2 quark up o down simili, nei protoni o nei neutroni, hanno colore diverso e ne deriva la non violazione del principio di esclusione di Pauli.
Un protone, ad esempio, può contenere un quark up rosso, un quark up blu e un quark down verde.
Visto che il colore si applica solamente ai quark, e non a particelle autonome come i protoni, il colore complessivo di una particella autonoma deve essere bianco, in analogia con i colori della luce.
Ergo, una combinazione di 3 quark deve includere il rosso, il verde e il blu.
La nuova teoria sull'interazione forte aveva bisogno di un nome e fu proprio Gell-Mann a proporne uno.
Siccome la teoria quantistica sull'interazione elettromagnetica era chiamata elettrodinamica quantistica (QED), Gell-Mann per analogia considerò la parola greca riferita al colore (ovvero "chroma") e da qui nacque la denominazione cromodinamica quantistica (QCD).
Concludiamo con un video in cui David Gross spiega le basi della cromodinamica quantistica:


Alla prossima!

Questo post partecipa al Carnevale della Matematica n.102 ospitato su Math is in the Air.

lunedì 12 settembre 2016

Il biliardo platonico

Ci può essere qualche relazione tra la matematica e il gioco del biliardo?
Sicuramente, tuttavia in questo post andremo ad osservare non la matematica del biliardo classico, ma un problema matematico che ha come protagonista il biliardo: il problema del biliardo platonico.
Immaginate infatti una palla da biliardo che rimbalza all'interno di un cubo, supponendo naturalmente nulla l'influenza di forze fisiche quali attrito e gravità.
Il problema, formulato per la prima volta dallo scrittore e matematico inglese Lewis Carroll (sì quello di Alice nel Paese delle Meraviglie), consiste nel riuscire a determinare un percorso tale che la palla ritorni al punto di partenza dopo aver colpito una sola volta ogni parete.
Ci volle circa un secolo affinché qualcuno ne trovasse una soluzione.
Infatti, nel 1958, il matematico polacco Hugo Steinhaus propose una soluzione, la quale andava a dimostrare che i suddetti percorsi esistono nel caso del cubo.
Successivamente, nel 1962, John Conway (sì lo stesso del Gioco della vita di cui abbiamo parlato un po' di tempo fa) e Roger Hayward furono in grado di determinare traiettorie simili all'interno di un tetraedro regolare.
Ciascun tratto del percorso fra le pareti ha la stessa lunghezza per il cubo e per il tetraedro.
In teoria, la palla rimbalzerebbe in eterno all'interno del solido!
Nessuno era però riuscito a fornire una prova rigorosa del fatto che tali percorsi potessero esistere anche per altri solidi platonici.
Ricordiamo che mentre i poligoni regolari sono infiniti, giacché possono avere un qualsivoglia numero n di lati uguali (e tutti gli angoli fra loro congruenti), i poliedri (cioè i solidi) regolari dello spazio sono solamente 5 e vengono detti "platonici" in quanto furono studiati dal sommo filosofo nel Timeo.











  Ogni poliedro regolare ammette sia la sfera inscritta (tangente alle facce del poliedro), sia quella circoscritta (passante per tutti i suoi vertici), e tali 2 sfere hanno lo stesso centro, chiamato "centro" del poliedro regolare.
Una peculiarità interessante dei poliedri platonici è che a ciascuno di essi si può far corrispondere un secondo ad esso "duale", con le facce tangenti alla sfera circoscritta al primo poliedro, nei suoi vertici.
Detto in parole povere, il poliedro duale di un certo poliedro P è un altro poliedro Q che si ottiene scambiando i ruoli dei vertici e delle facce di P.
Chiaramente il duale di Q sarà nuovamente P.

Il tetraedro ricopre un ruolo particolare in questo frangente, poiché esso risulta "autoduale", ovvero il duale di un tetraedro è un altro tetraedro, come mostrato nella seguente immagine:

Ritornando, a seguito di questo breve excursus, al nostro problema del biliardo platonico, diciamo che nel 1997 il matematico statunitense Matthew Hudelson scoprì percorsi interessanti di una palla da biliardo che rimbalza dentro i restanti poliedri regolari (ottaedro, dodecaedro e icosaedro).
I percorsi analizzati grazie ad ausilio informatico da Hudelson toccano ciascuna faccia interna e, alla fine, riportano la palla al punto di partenza, con la medesima direzione del suo moto iniziale.
Per cercare di far luce nel miglior modo possibile sul problema relativo a tali forme, Hudelson ha creato un programma il quale ha generato più di 100.000 traiettorie iniziali casuali, per poi analizzare quelle che colpiscono tutte e 12 le facce nel dodecaedro e tutte e 20 le facce nell'icosaedro.
Chiudiamo con un video in cui il noto astronomo Carl Sagan spiega i solidi platonici nel programma di divulgazione scientifica "Cosmos":


Alla prossima!

Questo post partecipa al Carnevale della Matematica n.101, che si terrà sulle Notiziole di .mau.

giovedì 12 maggio 2016

Il gioco della vita!

Cari lettori del Tamburo, oggi parliamo del gioco della vita.
No, non effettueremo un sondaggio su quale sia stato il gioco preferito della vostra vita, bensì analizzeremo brevemente un gioco che ha molto a che spartire con la matematica e la biologia.
Trattasi appunto del Gioco della vita, in inglese Game of Life, il quale altro non è che un automa cellulare.
Che diavolo significa?
Quando un bambino delle elementari effettua una moltiplicazione con carta e matita, egli deve innanzitutto osservare i numeri da moltiplicare, tenerli (almeno parzialmente) a mente, per poi arrivare alla soluzione scritta sulla carta.
In sostanza, egli osserva, tiene a mente e agisce!
Il meccanismo di calcolo più basilare concepito dai matematici viene chiamato automa a stati finiti ed esso procede sulla base del medesimo principio: osservare, tenere a mente e agire.
L'automa osserva gli altri automi intorno a lui (immaginando che degli automi identici siano disposti su tutte le caselle di una scacchiera infinita), dopodiché tiene a mente lo stato nel quale esso si trova (questi stati interni risultano finiti, da qui la denominazione fornita prima) e agisce modificando il suo stato secondo le convenzione fissate che lo caratterizzano.
Un calcolatore elementare che funziona nella suddetta maniera viene detto anche automa cellulare.
Un banale esempio è dato dall'automa Spostamento a Est: ogni cellula possiede due stati possibili, 0 e 1 (rappresentabili per mezzo della contrapposizione vuoto o pieno, oppure bianco o nero).
Per cambiare stato, ciascun automa va a valutare lo stato del suo vicino Ovest, lo memorizza e agisce adottandolo come nuovo stato.
Se immaginiamo una figura geometrica composta di 0 e 1 disegnata sul piano e si attiva una singola volta ciascun automa (ossia, in termini tecnici, si calcola una nuova generazione), la figura rappresentata si sposta di una casella in direzione est, come mostrato nell'immagine che segue:

Chi ha ideato il Game of Life?
Il merito si deve a 2 vecchie conoscenze del Tamburo.
Innanzitutto, John von Neumann (protagonista del post "L'alieno e l'angolo solido"), negli anni '40 del XX secolo, ha stabilito l'esistenza di automi autoriproduttori, ovvero che possiedono delle configurazioni le quali, durante il funzionamento, creano delle copie di loro stesse.
In parole povere, il lavoro della geniale mente di von Neumann aveva mostrato che alcuni automi cellulari abbastanza semplici avrebbero dovuto produrre dinamiche evolutive variegate.
Poi, nel 1970, John Horton Conway (l'abbiamo già incontrato nel post "Di gruppi e mostri (matematici)") fissò appunto le regole del Gioco della vita.
Nell'ottobre dello stesso anno, Martin Gardner presentò tale gioco nella rubrica "Giochi matematici" della celebre rivista Scientific American, rendendolo dunque noto al grande pubblico.
Come nel caso dello Spostamento ad Est, il mondo del Gioco della vita è un piano infinito quadrettato in cui ogni casella risulta occupata da una cellula (casella nera, dunque "viva") oppure è vuota (casella bianca, dunque "morta").
Ogni casella possiede 8 caselle adiacenti.
Tra una generazione e la successiva si producono meccanicamente delle nascite e delle morti.
Le semplici regole per l'evoluzione delle celle, data la configurazione di partenza, sono le seguenti:

1) ogni cellula viva con meno di 2 vicini vivi muore (come se la morte fosse causata da sottopopolazione);
2) ogni cellula viva con 2 o 3 vicini vivi sopravvive alla generazione successiva;
3) ogni cellula viva con più di 3 vicini vivi muore (come se la morte fosse causata da sovrappopolazione);
4) ogni cellula morta con esattamente 3 vicini vivi diventa viva nella generazione successiva.

Insomma il Gioco della vita, come l'ha definito lo stesso Conway, altro non è che uno "zero-player-game", giacché esso funziona da solo, senza bisogno dell'intervento di alcun giocatore.
Se le regole presentate appaiono banali, lo stesso non si può affermare relativamente all'evoluzione delle caselle.
Sussistono sicuramente figure che rimangono immobili, come il blocco, l'alveare e la barca, di seguito rappresentate:


Altre presentano invece oscillazioni periodiche, come il cosiddetto "pulsar", che ogni 3 passi di evoluzione torna a essere identico a come era in partenza:

Pulsar

Una domanda lecita a questo punto sarebbe: sono possibili tutti i periodi?
Questione tutt'altro che banale, visto che dopo aver riscontrato, per tentativi, qualche configurazione periodica, come possiamo sapere se i periodi che non abbiamo scoperto sono veramente impossibili?
Tra 1 e 54 sono note configurazione periodiche per tutti i periodi, ad esclusione di 19, 23, 38, 41 (si guardi qui).
A partire dal 1996, grazie a un metodo proposto da David Buckingham, è possibile realizzare configurazioni periodiche di periodo p per ogni intero p ≥ 54.
Un'altra domanda interessante riguardante il gioco della vita è: una popolazione di cellule può crescere in modo indefinito?
John Conway aveva congetturato che nessuna configurazione iniziale potesse crescere indefinitamente, e aveva offerto 50 dollari in premio a chiunque riuscisse a dimostrarlo.
Ci fu un vincitore sì, ma ciò che aveva scoperto non era proprio ciò che Conway si aspettava.
Nel 1970 Bill Gosper, del MIT, riuscì infatti a trovare una configurazione che sparava triangolini ogni 30 generazioni, senza mai esaurire le munizioni, e smentendo in tal maniera l'ipotesi di Conway.
Fu un vero colpo di fortuna che Gosper, animato evidentemente più da spirito di contraddizione che da sete di denaro, avesse cercato di smentire la congettura piuttosto che provare la sua veridicità.
Se ci avesse infatti provato, non ci sarebbe mai potuto riuscire!
Ecco il video del cannone di alianti di Gosper:


Per capire il principio di tale costruzione, va detto che certe configurazioni hanno la proprietà di spostarsi: dopo un certo numero di tappe nel calcolo, ritorna il medesimo motivo, slittato, come accadrebbe dopo una singola tappa di un automa del tipo Spostamento a Est.
La più semplice fra le configurazioni che si spostano nella maniera descritta è chiamata appunto aliante: in 4 tappe si sposta di una casella in diagonale.

Aliante
Come si può constatare, l'aliante assume ogni volta 4 forme e, al termine delle 4 trasformazioni, si ritrova identico a se stesso spostato di una casella in direzione sud-est.
La velocità di un segnale nel mondo del Game of Life è al massimo di una casella per generazione e per tal ragione viene identificata con la velocità della luce c.
Ne deriva che la velocità dell'aliante è pari a c/4.
Un particolare straordinario sta nel fatto che si possono disporre 13 alianti nel piano in modo tale che dopo che si siano incontrati, quando interagiscono gli uni con gli altri, la configurazione risultante sia un cannone di alianti.


Concludiamo dicendo che usando il Gioco della vita si potrebbe, in teoria, realizzare una macchina di Turing universale, dunque un computer vero e proprio, con memorie e porte logiche, capace di eseguire tutte le operazioni logiche e matematiche che compie un qualsivoglia computer da casa.
Tale considerazione porta con sé un difetto: ogni macchina di Turing è soggetta al cosiddetto "problema della fermata o terminazione".
In altre parole, è impossibile per una qualsiasi macchina di Turing scrivere un algoritmo generale capace di svelarci in anticipo (per tutti i possibili imput) se un dato programma (una data configurazione di celle, nel contesto di Game of Life) alla fine si fermerà o no (cioè se alla fine ci saranno solo caselle vuote).
Un sistema del genere viene detto algoritmicamente indecidibile, ossia la sola maniera per scoprire come si comporta è lasciarlo evolvere.


Alla prossima!

lunedì 11 gennaio 2016

Di proporzioni e misure della circonferenza della Terra

In matematica una proporzione è semplicemente un'uguaglianza tra 2 rapporti numerici.
Dati i numeri reali a, b, c, d una generica proporzione si scrive come:




La proprietà fondamentale di una proporzione è che il prodotto dei termini in mezzo b, c (chiamati medi) risulta equivalente al prodotto dei termini estremi a, d.
Comunque una proporzione non è altro che un modo particolare di scrivere un'equazione del tipo



E proprio mediante una proporzione qualcuno giunse a una prima misura della circonferenza della Terra.
Quel qualcuno fu il matematico e astronomo greco Eratostene di Cirene (275 a.C. circa - 195 a.C. circa).
Costui nel 235 a.C effettuò una stima molto precisa per l'epoca della circonferenza della Terra, assumendo che essa fosse sferica e che i raggi del Sole arrivassero sul nostro pianeta paralleli, data la grande distanza che separa i 2 corpi celesti.
Una storiografia distorta ha creato la leggenda che fino al XV secolo fosse dominante l'idea che la Terra fosse piatta, idea contro cui combatté Cristoforo Colombo.
In realtà, gli antichi Greci erano già a conoscenza del fatto che la Terra dovesse essere rotonda dall'ombra che essa proiettava sulla Luna durante le eclissi parziali e dalla progressiva scomparsa delle navi all'orizzonte a partire dalle loro parti inferiori.
Per di più la sfera veniva considerata la forma perfetta, emblema dei mondi eterni ed imperituri.
Non a caso il cosmo aristotelico veniva considerato come costituito da sfere concentriche che si muovono di moto circolare attorno alla Terra portando con sé i vari pianeti!


Ritornando ad Eratostene, costui notò che, durante il mezzogiorno del solstizio d'estate, il Sole era a picco (cioè allo zenit) su Siene, l'attuale Assuan in Egitto, ubicata al tropico del cancro.
I raggi del Sole a Siene si riflettevano quindi in fondo a un pozzo (raggi perfettamente verticali insomma).
Simultaneamente, ad Alessandria d'Egitto, situata più a nord a una longitudine leggermente differente, i raggi solari generavano con la verticale un angolo α  = 7° e 30', angolo che corrispondeva sostanzialmente alla differenza di latitudine fra le 2 località.


Esso poteva esser ricavato in base alla lunghezza dell'ombra proiettata ad Alessandria da uno stilo verticale (gnomone), in rapporto alla lunghezza dello stilo stesso.
Conoscendo l'angolo α e la distanza Siene-Alessandria, Erastostene impostò la proporzione:




da cui:



Per Eratostene la circonferenza della Terra (o meglio il meridiano terrestre) era dunque pari a 50 volte la distanza tra Siene ed Alessandria (supposte per semplicità alla medesima longitudine), ovvero 250 mila stadia.
Ora a seconda se consideriamo:

- lo stadio egizio = 157,5 m;
- lo stadio attico = 185 m

si ottengono risultati un tantino diversi, che portano Eratostene ad aver commesso un errore dall'1,5% al 15% circa (più probabile la seconda opzione) rispetto all'attuale stima della circonferenza della Terra pari a 40.075 km.
Indagini più accurate vennero condotte dopo che Newton aveva teorizzato che la Terra non fosse perfettamente sferica, bensì avesse la forma di un ellissoide schiacciato ai poli.
Verso il 1730 spedizioni geodetiche francesi misurarono il raggio di curvatura terrestre, lungo le direzioni nord-sud, in Ecuador e in Finlandia, pertanto presso l'equatore e ad elevate latitudini.
Attraverso triangolazioni ed osservazioni astronomiche si verificò, dalla curvatura riscontrata differente nei 2 luoghi, che il pianeta è effettivamente schiacciato ai poli.
Se ipotizzassimo la Terra costituita da involucri concentrici di composizione omogenea, il più esterno dei quali formato da acqua e profondo 2400 km, avremmo la forma denominata sferoide (o ellissoide)!
Tuttavia non sussiste una distribuzione regolare delle masse all'interno della Terra, il che implica una diversa configurazione della gravità sulla superficie.
Supponendo di costruire una superficie ideale, in ogni punto perpendicolare alla gravità e passante per il livello medio del mare, avremmo la forma priva di regolarità geometrica nota come geoide.

E a proposito di gravità, la variazione dei valori della gravità (determinata nei punti in cui si effettuano le misurazioni) rispetto a quelli teorici calcolati sull'ellissoide di riferimento (dipendenti solo dalla latitudine) prende il nome di anomalia di gravità.
Un parametro questo che consente di ottenere informazioni relative alla struttura interna della Terra e di individuare possibili giacimenti metalliferi e strutture tettoniche, adatte all'immagazzinamento di idrocarburi.
Concludiamo il nostro post con un pezzo di musica a tema, ovvero il celebre brano "Il mondo", interpretato dalla cantautrice jazz italiana Chiara Civello:


E poi un omaggio a un grande della musica rock che se ne è andato poche ore fa, David Bowie e la sua "Life on Mars?":

giovedì 12 novembre 2015

Il teorema di Viviani

Cari lettori del Tamburo, oggi parliamo di un teorema geometrico poco noto, ma assai semplice nella formulazione: il teorema di Viviani.
Esso prende il nome da Vincenzo Viviani (1622-1703), matematico e fisico di grandissimo ingegno, a tal punto che Galileo lo reclutò come collaboratore scientifico nella sua casa ad Arcetri.
Viviani propose una sua dimostrazione del teorema nel 1659, dimostrazione che come vedremo è facilmente derivabile dalla formula dell'area di un triangolo.
Alla morte di Galileo, avvenuta nel 1642, Viviani redasse una biografia del suo mentore e cercò di curare un'edizione completa delle sue opere, tuttavia andò incontro alla dura opposizione della Chiesa, la quale offuscò la reputazione di Viviani.
Oltre a ciò, nel 1690 diede alle stampe l'edizione italiana degli Elementi di Euclide.
Ma veniamo al teorema, che cosa afferma?
Innanzitutto immaginate un triangolo equilatero e considerate un punto P situato al suo interno.
Ora da questo punto bisognerà tracciare i 3 segmenti perpendicolari ai lati.
Il teorema di Viviani enuncia che indipendentemente da dove scegliete il punto P, la somma delle distanze del punto P dai lati del triangolo sarà eguale all'altezza del triangolo!

Semplice vero? Perfetto, come si dimostra?
Sia ABC un generico triangolo equilatero, che ha altezza pari ad h e la lunghezza dei lati pari ad a.
Sia P un generico punto all'interno di ABC e siano d₁, d₂, d₃ le distanze di P dai lati.
Tracciamo, come nella figura di cui sotto, le linee che vanno da P sino ad A, B e C, andando a generare i rispettivi triangoli PAB, PBC e PCA.

Calcoliamo le aree di questi 3 piccoli triangolini:












La somma di queste 3 aree restituisce ovviamente l'area del triangolo originario ABC.
Perciò possiamo senza problemi scrivere l'uguaglianza:





Da cui




Come volevasi dimostrare!
Per chi desiderasse una dimostrazione più elegante e senza spendere alcuna parola, eccola:



Ci credete che possiamo estendere senza problemi il suddetto teorema al tetraedro regolare?
Ricordiamo che il tetraedro regolare è uno dei 5 solidi platonici ed è costituito da 4 facce uguali che sono giustappunto triangoli equilateri:

Il tetraedro non designa soltanto una figura fondamentale all'interno della geometria solida, ma si riscontra molto spesso in ambito chimico.
Giusto per citare un esempio, i silicati (i minerali più abbondanti della crosta terrestre) si basano sullo ione silicato, un tetraedro composto da uno ione silicio al centro circondato da 4 ioni ossigeno, esprimibile mediante la formula (SiO4)4-.
Questi tetraedri possono essere isolati o possono legarsi ad altri tetraedri, generando anelli, catene singole, catene doppie, strati o reticoli tridimensionali.


Il teorema di Viviani concernente il tetraedro regolare stabilisce quanto segue: la somma delle distanze perpendicolari di un punto P interno al tetraedro dalle 4 facce è costante ed è equivalente all'altezza del tetraedro.
Per mostrare ciò non c'è bisogno di ricorrere al calcolo di volumi.
Tracciamo invece piani paralleli alle facce del tetraedro ABCD, al fine di costruire 4 più piccoli tetraedri al suo interno che hanno un vertice comune in P e altezze d₁, d₂, d₃, d₄.

Dopodichè ruotiamo la parte più in alto del tetraedro ABCD (la quale contiene 3 piccoli tetraedri) di 120° gradi rispetto all'asse di simmetria, come viene mostrato nell'immagine che segue:

A questo punto si procede con una seconda rotazione di 120°, questa volta usando la sezione del tetraedro originario contenente i 2 tetraedri più piccoli posti in cima:

Infine, si attua un'ultima rotazione di 120° del più minuscolo e più in alto dei 4 piccoli tetraedri:

Risulta ora facile constatare che la somma delle distanze d₁, d₂, d₃ e d₄ equivale all'altezza del tetraedro ABCD di partenza! Come volevasi dimostrare!
Alcuni matematici hanno trovato la maniera di estendere il teorema di Viviani persino a problemi in cui il punto è preso fuori dal triangolo e ne hanno analizzato l'applicazione a qualsivoglia poligono regolare avente n lati.
In tal caso, la somma delle distanze dal punto interno agli n lati è equivalente a n volte l'apotema del poligono, ovvero il segmento perpendicolare condotto dal centro di un poligono a un lato.
Volendo si potrebbe proporre anche ai bambini il teorema di Viviani attraverso un'analogia surfistica.
Immaginiamo che un surfista sbarchi su un'isola che ha la forma di un triangolo equilatero e che voglia posizionare la sua capanna in modo tale che la somma delle distanze dalle coste dell'isola triangolare sia minima, poiché costui desidera fare surf da ognuna delle 3 spiagge un numero identico di volte.
Ebbene, come ormai ben sappiamo, il posizionamento della capanna in un certo punto o in qualsiasi altro dell'isola non cambia proprio niente!
A Viviani si deve anche una particolare curva, chiamata appunto curva o finestra di Viviani.
Studiata da Viviani nel 1692, essa si ottiene dall'intersezione di una sfera di raggio 2a (centrata nell'origine degli assi) con un cilindro centrato in (a, 0, 0) di raggio a.
Eccola a voi:


Alla prossima!

Questo post partecipa al Carnevale della Matematica n.91, ospitato su MaddMaths!

lunedì 12 ottobre 2015

L'assurdo in matematica: reductio ad absurdum

La matematica è quella disciplina comunemente considerata "verità assoluta", come quando diciamo che 2+2 = 4 o che log 100 = 2 (anche se basta compiere una semplice addizione come 12+1 su un semplice orologio per ottenere un risultato differente dal consueto, vedere qui per i dettagli).
Le dimostrazioni matematiche di teoremi, corollari e proposizioni possono ritenersi verità indelebili: se dimostro un certo teorema, vuol dire che quel teorema (per quell'ambito matematico considerato) è valido per sempre, non solo per oggi, domani o 100 anni.


D'altronde gli studenti ancor oggi si trovano di fronte enunciati e dimostrazioni di teoremi risalenti a millenni e secoli fa.
Come abbiamo già visto qui sul Tamburo, sussistono anche moltissimi problemi matematici irrisolti, per alcuni dei quali sono stati fissati ricchi premi in termini di denaro per chi riuscisse nell'impresa di giungere a una dimostrazione rigorosa e senza falle.
In matematica spesso accade però che per giungere a una conclusione positiva si debba passare per una menzogna, un assurdo!
Menzogne in matematica???
Sì proprio così, esiste giustappunto un metodo di dimostrazione noto come reductio ad absurdum, detto anche metodo indiretto.
In che cosa consiste?
Molto semplice: nella dimostrazione per assurdo si assume (anche se probabilmente non lo sarà) che un enunciato sia vero e si valutano le conseguenze che ne derivano.
Se, nel trarre tali conclusioni, si arriva a una contraddizione, allora l'enunciato iniziale è falso, giacché le contraddizioni sono sempre false.
Osserviamo brevemente le origini storiche del suddetto metodo.
Nel IV secolo a.C. prese il sopravvento nell'attività matematica la cosiddetta scuola platonica, guidata ovviamente dal grande filosofo greco Platone e dai suoi discepoli, tra cui Menecmo, Dinostrato e Teeteto.
Nel 387 a.C Platone aveva fondato ad Atene la sua Accademia, dal nome dell'eroe di guerra Accademo, il quale aveva donato agli ateniesi un terreno, che divenne un giardino aperto al pubblico ove il sommo Platone poteva discutere di filosofia e matematica con i propri discepoli.
Platone non può essere considerato un vero matematico, tuttavia nutriva una forte passione per questa disciplina ed era convinto della fondamentale importanza della matematica per la filosofia e la comprensione dell'universo.
Quasi tutto il lavoro matematico del IV secolo a.C si deve appunto agli amici e discepoli di Platone.
I platonici si occuparano della dimostrazione e della metodologia del ragionamento matematico.
Proclo e Diogene Laerzio (III secolo d.C.) attribuiscono ai platonici 2 tipologie di metodologia:

1) il metodo dell'analisi, dove ciò che deve essere stabilito viene assunto come noto e se ne traggono le relative conseguenze sino a quando non sopraggiunge una verità nota o una contraddizione. Se si raggiunge una contraddizione allora la conclusione desiderata è necessariamente falsa. Se si raggiunge una verità nota allora i passi effettuati vengono capovolti (se possibile), ottenendo in tal modo la dimostrazione;
2) il metodo della reductio ad absurdum.

La dimostrazione per assurdo viene attribuita pure a Ippocrate di Chio (V secolo a.C), che non bisogna confondere col suo contemporaneo Ippocrate di Cos (quello del famoso giuramento pronunciato dai medici).
Forse il primissimo esempio di Reductio lo troviamo però in ambito letterario in frammenti di un poema satirico attribuito a Senofane di Colofone (570 a.C. – 475 a.C.), nel quale viene criticata l'attribuzione delle colpe degli uomini agli dei da parte di Omero.
Senofane sostiene che, secondo quanto raccontato da Omero, gli umani credono che gli dei abbiamo le sembianze degli esseri umani, tuttavia argomenta che se i cavalli e i buoi fossero in grado di disegnare, essi rappresenterebbero gli dei con i corpi di cavalli e buoi.
Ma gli dei non possono assumere entrambe le sembianze e dunque sussiste una contraddizione.
Senofane arriva alla conclusione che siccome si è verificata una contraddizione, allora anche l'attribuzione di altre caratteristiche umane agli dei (ovvero l'ipotesi iniziale) risulta falsa.
Scopriamo ora un classico e semplice esempio di utilizzo della reductio ad absurdum: dimostriamo che √2 è un numero irrazionale.
Ricordiamo che un numero viene chiamato irrazionale quando non è esprimibile attraverso un rapporto di numeri interi.
Per dimostrare pertanto che la radice quadrata di 2 è un numero irrazionale, supponiamo, per assurdo, che r sia un numero razionale tale che r² = 2.
Essendo r ipotizzato come numero razionale, possiamo scriverlo come rapporto di due numeri interi n ed m:





con m diverso da 0.
Ipotizziamo inoltre che tale frazione n/m sia ridotta ai minimi termini, ossia non risulti semplificabile.
Con queste premesse, possiamo senza problemi scrivere la seguente catena di uguaglianze:










Quest'ultima ci fa subito capire che n² è pari, da cui segue che anche n risulta pari, cioè in termini più rigorosi




per qualche k numero intero.
Ergo, l'uguaglianza n² = 2m² implica un'altra catena di uguaglianze:










ATTENZIONE: constatiamo che m² è pari e dunque pure m è pari. Ma a questo punto abbiamo riscontrato che sia n che m risultano pari, il che è assurdo!
Infatti, all'inizio avevamo supposto che la frazione n/m non fosse semplificabile, quindi che n ed m non potessero essere entrambi numeri pari (d'altronde tutti i numeri pari sono semplificabili per 2).
Dato che abbiamo rinvenuto una contraddizione, la dimostrazione è conclusa, cioè abbiamo dimostrato che la radice quadrata di 2 non è un numero razionale!
Un altro celebre esempio di dimostrazione per assurdo è quella relativa al teorema di infinità dei numeri primi, quei numeri che risultano divisibili solo per se stessi e per 1.
Desidero affidare la spiegazione alle chiare parole di Serge Lang nel libro La bellezza della matematica:

"Abbiamo già elencato i numeri primi fino a 19, dopo il 19 troviamo 23, 29, 31, 37...Ci si può allora chiedere se i numeri primi siano infiniti o no.
SIGNORA: sono infiniti.
LANG: Benissimo. Come si dimostra?
SIGNORA: non lo so.
LANG (indicando un ragazzo): Tu sai come dimostrarlo?
RAGAZZO: I matematici ne hanno trovati milioni.
LANG: No, non intendo trovarne milioni. Quel che voglio dire è: come si dimostra che la sequenza di numeri primi non ha fine?
(Brusio tra il pubblico, vengono suggerite varie dimostrazioni).
LANG: Lei è un matematico? Sì? Bene, prego i matematici presenti tra il pubblico di non intervenire. Non mi rivolgo a loro. Non sarebbe leale. L'affermazione che i numeri primi sono infiniti significa che la sequenza di numeri primi non ha fine. La dimostrazione, molto semplice e antica, è attribuita a Euclide. Ecco quindi come lo dimostravano i greci. Cominciamo con un'osservazione. Un numero intero qualunque, ad esempio 38, può essere scomposto in 2 × 19, ove 2 e 19 sono numeri primi. Dunque 38 è il prodotto di questi due numeri primi. Se prendo 144, posso invece scrivere

144 = 12×12 = 3×4×3×4 = 3×2×2×3×2×2

Anche questo è un prodotto di numeri primi, alcuni dei quali si ripetono. In ogni caso, è sempre possibile esprimere un numero intero come prodotto di numeri primi e se ho un intero N maggiore di 2, allora, o N è già primo oppure N può essere espresso come prodotto di due numeri più piccoli. Ognuno di questi è a sua volta primo, oppue scomponibile in un prodotto di numeri ancora più piccoli. Continuando con questo procedimento, si finisce per avere numeri primi.
Per dimostrare che i numeri primi sono infiniti, proveremo che, dato un elenco di numeri primi

2, 3, 5, 7, 11, 13, 17, ..., P

da 2 a P, ne esiste sempre un altro che non appartiene all'elenco. Procediamo in questo modo. Eseguo il prodotto di tutti i numeri primi dell'elenco; al risultato aggiungo 1.
Sia N questo nuovo numero:

 


Allora, o N è primo oppure non lo è. Se N è primo, è diverso da tutti i numeri elencati da 2 a P, e avremmo così costruito un nuovo numero primo. Se N non è primo, allora possiamo esprimere N come prodotto di numeri primi. In particolare, possiamo scrivere N = qN', ove q è un numero primo divisore di N. È possibile che q sia uguale a uno qualunque dei numeri compresi tra 2 e P?
ALCUNE PERSONE TRA IL PUBBLICO: È un numero nuovo.
LANG: Perché? Chiediamolo a qualcuno, quel ragazzo laggiù.
RAGAZZO: Con gli altri numeri, la divisione non viene esatta.
LANG: Giusto, se dividiamo N per q, non c'è resto; ma se dividiamo N per uno dei numeri primi tra 2 e P c'è un resto di 1. Dunque abbiamo scoperto un nuovo numero primo che non era nell'elenco. Ciò significa che non si può avere un elenco finito di tutti i numeri primi, e questo conclude la dimostrazione."

Nella dimostrazione riportata, l'assurdo si riscontra in una contraddizione con la costruzione svolta.
Concludiamo il post con un'assurda (in senso positivo) interpretazione dell'Overture 1812 di Tchaikovsky (un brano generalmente eseguito da un'intera orchestra) eseguita da Valentina Lisitsa al solo pianoforte!


Alla prossima!

Questo post partecipa al Carnevale della Matematica n.90.