Con rapidità straordinaria avvengono, tra Ottocento e Novecento, radicali mutamenti scientifici; risultati e strumenti di indagine acquistano crescente complessità e il lavoro scientifico tende sempre più a suddividersi in campi specialistici di indagine, che non possono più essere padroneggiati con sicurezza da un singolo individuo. Di fronte a questa situazione, la filosofia, dopo la diffusione del positivismo che indicava nelle scienze l’unica forma valida di conoscenza, torna non di rado a rivendicare una posizione di primato. Essa è presentata talvolta come l’unica forma di sapere o, comunque, di attività in grado di accedere al mondo dei valori e di indirizzare verso la scoperta del senso globale della vita, della storia e dell’universo, il quale sfugge allo sguardo puramente oggettivo, disinteressato e frammentario delle scienze particolari. Altre impostazioni, invece, puntano l’attenzione non sui caratteri interni del sapere scientifico, ma sugli effetti negativi, reali o presunti, prodotti da esso sulla società e sulla vita degli uomini, attraverso l’elaborazione di pratiche e la costruzione di congegni, che manipolano l’esistenza e minacciano la sopravvivenza del genere umano.

Altri, soprattutto gli scienziati stessi e filosofi che non di rado hanno anch’essi una formazione scientifica, riconoscono invece nella scienza, proprio per la sua dimensione critica e intersoggettiva, la forma meno arbitraria di conoscenza e maggiormente in grado di contribuire al miglioramento della stessa condizione umana.

Il compito che in tali casi è attribuito alla filosofia non è quello di intervenire sugli sviluppi interni del sapere scientifico, che gode di una propria autonomia, ma di tentare un raccordo tra le conoscenze scientifiche e le concezioni complessive del mondo o di sottoporre ad analisi la struttura delle teorie scientifiche, i metodi e gli apparati concettuali di cui esse si servono, come i concetti di legge o di causalità o di probabilità e così via. In quest’ultimo senso la filosofia si presenta come epistemologia, cioè dottrina della scienza.

La crisi della meccanica classica e lo sviluppo della nuova fisica relativistica e quantistica hanno introdotto nel dibattito epistemologico una nuova e complessa generazione di problemi, o anche semplicemente riproposto, sia pure a volte in una nuova prospettiva, tematiche filosofiche che sembravano essere tramontate. I nuovi concetti della fisica del XX secolo non rappresentano solo una sfida al senso comune, ma mettono in discussione le tradizionali soluzioni epistemologiche intorno alla conoscenza umana, alle sue possibilità e ai suoi limiti.

Introduzione storica

A partire dalla nascita della scienza moderna si è imposto nella cultura occidentale un modello predittivo della conoscenza umana. Con questo concetto si intende la capacità, tramite formule matematiche di fare prevedere eventi possibili oltre che conoscerne le cause. La fisica di Newton, o meccanica classica, rappresenta indubbiamente il massimo successo del modello predittivo della scienza moderna.

Sulla base delle leggi della dinamica e della gravitazione di Newton si stabiliscono legami deterministici tra i corpi, secondo il principio di una connessione necessaria tra causa ed effetto, esprimibili mediante le equazioni del moto. Se infatti si conoscono tutte le forze che agiscono su un corpo, la sua quantità di moto, la posizione occupata nello spazio e nel tempo allora le equazioni relative ammettono sempre una soluzione: il moto di un corpo è esattamente descritto, per il passato, il presente e il futuro da tali equazioni. Nell’universo newtoniano niente accade per caso, ma tutto è necessario in quanto soggetto alle leggi deterministiche della natura. Il mondo fenomenico, descritto dalle equazioni deterministiche del moto, è conoscibile con certezza, almeno in via di principio. Per esempio, conoscendo le condizioni iniziali possiamo determinare gli effetti che provocherà una palla A colpendo una palla B su un tavolo da biliardo.

Le equazioni di Newton descrivono come le masse mutano nel tempo la loro posizione nello spazio. Poiché, come avevano mostrato Galileo e prima ancora Nicola d’Oresme. tutti i moti uniformi sono relativi, e quindi possiamo riferire il moto di un corpo solo relativamente ad un altro corpo, non esiste un esperimento che ci consenta di stabilire se, ad esempio, dati due corpi in moto rettilineo uniforme, uno di questi sia in moto o in quiete, o tutti e due siano in moto o in quiete assolutamente. La fisica di Newton accetta il principio galileiano di relatività per i moti rettilinei uniformi, sicché nel suo universo non possono esistere sistemi di riferimento realmente in quiete (o inerziali). Newton credette di aver trovato il modo per misurare, in via dì principio, il moto di un corpo con velocità uniforme. Egli suppose l’esistenza di uno spazio assoluto, vuoto, tridimensionale, invisibile, non modificabile dalle masse e fermo rispetto al loro moto. Era così possibile misurare il moto uniforme di un corpo rispetto a questo spazio assoluto. Lo spazio di Newton è dunque una sostanza estesa all’infinito, una proprietà di questo mondo, indipendente dal moto delle particelle e non influenzato in qualche modo da queste. Ecco la celebre definizione newtoniana dei Principia: «lo spazio assoluto, per sua natura senza relazione ad alcunché di esterno, rimane sempre uguale e immobile».

Ogni corpo occupa nello spazio assoluto una posizione determinata ed unica, e due corpi possono occupare lo stesso spazio, ma solo in tempi diversi. Il tempo misura così la successione e la simultaneità degli eventi nello spazio. E come lo spazio anche il tempo 919c27j assoluto di Newton viene concepito in termini matematici: è composto da una serie continua di istanti, disposti in un’unica dimensione. Il tempo è per Newton una realtà fisica, universale e assoluta, non alterabile dai corpi e dal loro moto. Esso fluisce, inesorabile, istante dopo istante, e permette di misurare in modo assoluto il moto dei corpi. Questo concetto di tempo da un significato fisico alle nozioni di simultaneità e successione, e consente di misurare eventi che hanno luogo in punti diversi dello spazio. Questa è la celebre definizione newtoniana: <Il tempo assoluto, vero, matematico, in s, e per sua natura senza relazione con alcunché di esterno, scorre uniformemente».

Il tempo e lo spazio assoluti sono così importanti nell’economia della meccanica classica e della sua metafisica, che Newton finirà per pensarli come il sensorio di Dio (sensorium dei). Questo tipo di atteggiamento, a favore della fisica matematica di Newton fu condiviso da Kant, egli infatti sosteneva che la conoscenza fosse possibile solo grazie a delle forme della mente che sono date a priori. Spazio e tempo sono per Kant delle forme a priori che ci permettono di individuare un oggetti secondo un ordine di simultaneità e successione, lo spazio è considerato invece una grandezza infinita data, esprimibile con la geometria tridimensionale euclidea.

La crisi della meccanica classica e la relatività di Einstein.

Agli inizi dell’ottocento la meccanica Newtoniana cominciava a mostrare incrinature e sembrava venir meno la possibilità di spiegare tutti i fenomeni fisici in base alle sue leggi fondamentali, come risultati di forze agenti tra particelle. La fisica di Newton, con la sua la forza di gravità che agisce a distanza istantaneamente, sembrava incompatibile con la nuova teoria di Faraday e Maxwell, che descriveva l’azione esercitata dalle forze elettromagnetiche sul moto delle cariche elettriche. La teoria prediceva l’esistenza di onde elettromagnetiche, che sostituiscono le particelle puntiformi della meccanica, che si propagano nello spazio, non più concepito in termini newtoniani (assolutamente vuoto e insensibile all’azione delle forze), ma pensato come una specie di fluido, per quanto invisibile, detto etere. La velocità di trasmissione delle forze, cioè di propagazione delle onde elettromagnetiche nell’etere, era stata predetta dalla teoria con un valore di circa 300.000 kmls. Poiché vari esperimenti precedenti avevano stabilito la velocità della luce nel vuoto proprio con un valore di circa 300.000 Kmls, si comprese che la luce visibile era composta di onde elettromagnetiche, generate dal moto di particelle elettricamente cariche, che si propagano nello spazio come vibrazioni del mezzo etereo, o moto ondulatorio. La teoria prevedeva l’esistenza di altri tipi di onde elettromagnetiche, poi effettivamente scoperte: le onde radio. Tutte le onde elettromagnetiche si propagano alla stessa velocità, che dipende dalla frequenza e dalla lunghezza d’onda.

Il Secondo Principio della termodinamica conteneva una concezione del tempo che implicava processi fisici irreversibili. Questi processi sembravano incompatibili sia con la teoria di Newton che con quella di Maxwell. Per la meccanica classica il tempo ha una sola dimensione, ma non ha una direzione privilegiata. La successione degli eventi, misurata dal fluire del tempo, può scorrere indifferentemente verso il futuro o verso il passato. Per contro il Secondo Principio afferma che in ogni sistema energetico chiuso ci sarà un aumento di entropia, passaggio dall’ordine al disordine, fino al raggiungimento dell’equilibrio termico. Secondo la teoria termodinamica dunque il tempo è asimmetrico, scorre in una direzione privilegiata e misura processi irreversibili. Neppure la teoria del campo elettromagnetico di Maxwell appariva compatibile coi processi irreversibili della termodinamica. Infatti non si riusciva a comprendere la ragione del fatto che, se è vero il Secondo Principio, la materia non ceda tutta la sua energia all’etere (sotto forma di calore) per mezzo di onde elettromagnetiche. Il tentativo di superare questo conflitto tra la termodinamica e l’elettromagnetismo ha prodotto la rivoluzionaria teoria della meccanica quantistica.

La rivoluzione relativistica fu invece il prodotto del sempre più evidente contrasto tra la descrizione del moto delle particelle elettricamente cariche nei campi di Maxwell e la descrizione del moto secondo le leggi della meccanica di Newton. La fisica classica conteneva il principio della relatività del moto, ed anche la nozione di un moto assoluto, intesa come possibilità – mai sperimentalmente verificata – di poter misurare il moto uniforme di un corpo rispetto allo spazio e al tempo assoluti. Per la teoria elettromagnetica il campo elettrico genera un moto di attrazione e di repulsione delle cariche, cioè un flusso di cariche (quelle dello stesso segno si respingono, quelle di segno diverso si attraggono) detto corrente elettrica. Una corrente elettrica induce un campo magnetico. Ora se applichiamo il principio della relatività del moto ai fenomeni elettromagnetici, dovremmo notare che la velocità delle cariche elettriche dipende dal sistema di riferimento dell’osservatore. Dato un certo sistema di riferimento l’osservatore vedrà la carica in moto, dato un altro la vedrà in quiete. Il primo osservatore constaterà allora l’esistenza di un certo fenomeno, cioè la formazione di un campo magnetico; il secondo osservatore non vedrà nulla.

Per quanto con la teoria elettromagnetica di Maxwell fosse possibile operare trasformazioni matematiche, grazie soprattutto al lavoro di Lorentz, tra un sistema di riferimento e un altro, queste trasformazioni non erano compatibili con le leggi del moto di Newton. Infatti una qualunque onda elettromagnetica viaggia alla velocità della luce di 300.000 Km/s, velocità che rimane costante come tutti gli esperimenti avevano confermato. Ora se questa velocità rimane costante per qualunque sistema di riferimento, comunque trasformato, allora c’è evidente violazione del principio di Galileo e di Newton della relatività del moto uniforme.

Se questi sono i fatti, sarà vera la teoria elettromagnetica di Maxwell, col suo principio della costanza della velocità della luce, o sarà vera la meccanica classica di Newton, col suo principio della relatività del moto? Se fosse vero il principio di relatività classica, la velocità della luce dovrebbe variare in relazione al sistema di riferimento dell’osservatore. Eppure l’astronomo olandese De Sitter, osservando l’emissione elettromagnetica delle stelle doppie, aveva dimostrato che la velocità della luce non dipende dalla velocità della sorgente. Sembrava un colpo mortale per il principio di relatività classica. La meccanica classica si trasforma da un sistema di riferimento ad un altro mediante il teorema di addizione W = v + w. Supponiamo che un vagone ferroviario viaggi sulle rotaie con velocità uniforme v, che un passeggero corra, nella stessa direzione di marcia del treno, all’interno del vagone stesso con velocità uniforme w. Ora rispetto ad un osservatore immobile rispetto alla banchina della stazione quale sarà la velocità W del passeggero in corsa sul treno? La velocità W sarà data dalla somma di v + w. Rispetto all’osservatore infatti il passeggero ha il suo moto proprio, più il moto del vagone sul quale poggia i piedi.

Se il principio di relatività del moto uniforme fosse vero la velocità della luce dovrebbe variare al variare del moto dell’osservatore, cioè rispetto al suo sistema di riferimento. Per il teorema di addizione infatti un’onda elettromagnetica, come la luce, la cui sorgente fosse posta su un vagone ferroviario con moto uniforme v, dovrebbe viaggiare rispetto ad un osservatore immobile sulla banchina della stazione con la velocità W = c + v. La velocità sarebbe superiore alla velocità della luce c (300.000 Km/s), e ciò violerebbe una legge di natura: ecco una palese contraddizione tra due leggi di natura, il principio della relativita galileiano e il principio della costanza della velocità della luce. Infatti la velocità della luce per un osservatore seduto all’interno del vagone sarà di 300.000 km/s, mentre, come dimostrato, per l’osservatore posto sulla banchina dovrebbe essere superiore (se l’impulso viaggiasse in direzione contraria al moto del vagone per l’osservatore sulla banchina la velocità della luce sarebbe minore di 300.000 km/s). Dunque rispetto ad un sistema di riferimento la velocità della luce avrà un certo valore, rispetto ad un altro sistema di riferimento avrà un altro valore ancora. Tuttavia le leggi di natura dovrebbero essere valide, per esser tali, per tutti i sistemi di riferimento: in questo caso la legge di propagazione della luce nel vuoto, violando di conseguenza il principio di relatività del moto uniforme (che pure e un altra legge universale di natura), dovrebbe essere uguale per tutti gli osservatori.

Alla fine dell’Ottocento, fu possibile mettere a punto un esperimento per misurare il moto della Terra rispetto allo spazio assoluto e al tempo assoluto. Fino a quel momento nessuno era riuscito a congegnare un esperimento meccanico per misurare la velocità assoluta della Terra. Si poteva misurare solo il moto relativo rispetto al Sole, ai pianeti, e altri corpi celesti. Ma la nuova teoria elettromagnetica del campo, appunto, consentiva di dare un senso all’idea di un moto assoluto nello spazio.

Nel 1887 due fisici americani, Michelson e Morley, effettuarono l’esperimento, poi ripetuto nel 1904 da Morley e Miller. I risultati furono negativi. Non era possibile misurare il moto assoluto dello Terra rispetto all’etere per meno di onde elettromagnetiche come la luce. Fra un risultato clamoroso! in primo luogo era evidente che l’etere di Maxwell non esisteva. In secondo luogo, a meno di credere che la Terra fosse ferma nello spazio – e ciò era ritenuto assurdo 300 anni dopo Keplero e Galileo – il risultato sperimentale metteva in evidenza l’esistenza di gravi errori nelle stesse basi della fisica classica. Un errore poteva scaturire dall’apparente contraddizione tra il principio della relatività del moto e il principio della propagazione della luce. Sarà la rivoluzione relativistica di Einstein a permettere di capire perché l’esperimento dì Michelson e Morley era fallito. Nel 1905, quando come fisico lavorava all’Ufficio brevetti di Berna, Einstein trovò la soluzione. Dimostrò che si poteva salvare sia il principio della relatività del moto, sia il principio della costanza della velocità della luce a patto di rinunciare a ciò che si riteneva immutabile: lo spazio e il tempo assoluti!

Einstein dimostrò la relatività della simultaneità, cioè del tempo, con un argomento deduttivo, un esperimento ideale. Colleghiamo una sorgente di luce esattamente al centro di un vagone ferroviario, predisposta in modo da emettere due impulsi nel medesimo tempo, uno verso la testa e uno verso la coda del treno, Il passeggero A, seduto al centro del vagone nella stessa posizione della sorgente, lascia partire contemporaneamente i due impulsi di luce in direzione opposto mentre, con moto uniforme, il treno attraversa la stazione. Sulla banchina è in attesa, nel punto B, un osservatore. I due raggi di luce iniziano la corsa verso le due estremità del vagone esattamente quando il centro del vagone, e il passeggero A con la sorgente dì luce, passa davanti all’osservatore B. Sia il passeggero A che l’osservatore B hanno la funzione di misurare il tempo impiegato dai due raggi per raggiungere le due estremità del vagone. Il passeggero A vedrà che i due raggi raggiungeranno le estremità del vagone nello stesso tempo (simultaneamente), perché percorrono lo stesso spazio con la medesima velocità di 300.000 Km/s. L’osservatore B vedrà un altro fenomeno. Infatti i due impulsi viaggiano in direzione opposta alla stessa velocità di 300.000 Km/s, tuttavia il suo sistema di riferimento non è come nel primo caso costituito dal treno in moto uniforme, ma dalla banchina della stazione. L’osservatore B è dunque in quiete rispetto al treno, e allora misurerà come un raggio arrivi prima dell’altro alle due estremità del vagone. Infatti se il treno si muove rispetto all’osservatore B da sinistra verso destra, allora l’impulso di sinistra – pur procedendo con la stessa velocità di quello di destra – percorrerà rispetto a B meno spazio. D’altra parte l’impulso di sinistra dovrà percorrere più spazio. Poiché l’impulso di sinistra percorre uno spazio minore arriverà prima dell’impulso di destra. In tal modo è evidente che i due osservatori, con due diversi sistemi di riferimento, non potranno vedere l’evento nello stesso tempo. Ciò che per uno di loro (A) è simultaneo, per l’altro (B) è successivo. Dunque il tempo cambia a seconda dell’osservatore.

Sarebbe inesatto supporre che il passeggero A veda correttamente il fenomeno, mentre l’osservatore B si stia ingannando o sogni. Entrambi hanno ragione: la relatività einsteiniana dimostra appunto che non esistono sistemi di riferimento privilegiati. Per usare le parole dello stesso Einstein diciamo che «gli eventi che sono simultanei rispetto alla banchina non sono simultanei rispetto al treno e viceversa (relatività della simultaneità) ogni corpo di riferimento (sistema di coordinate) ha il suo proprio tempo particolare: un’attribuzione di tempo è fornita di significato solo quando ci venga detto a quale corpo di riferimento tale attribuzione si riferisce». Con il suo esperimento mentale Einstein dimostrò che non esiste affatto contraddizione tra il principio della relatività del moto e la legge di propagazione della luce, purché si renda relativo il fluire del tempo. Questo fluire del tempo aumenta o decresce, accelera o rallenta a seconda del sistema di riferimento dell’osservatore, e della sua velocità relativa. Un analogo ragionamento si può fare per lo spazio, che si allunga e si accorcia, si estende o si contrae secondo il sistema di riferimento dell’osservatore, e la sua volontà relativa. Supponiamo infatti che il passeggero A misuri, col suo metro, partire dal centro la distanza fra questo e rispettivamente le due estremità del vagone. Poiché il passeggero è a bordo di un treno in moto uniforme la misura Aq e Ap risulterà esattamente uguale. Ora, se i due segmenti Aq e Ar vengono misurati dalla banchina, rispetto alla quale si muovono di moto uniforme, e dove è in quiete l’osservatore B, si otterrà lo stesso risultato? Per effettuare questa misura sarebbe necessario determinare i punti q e p proiettati sulla banchina, mentre il treno sta passando. Questa misura deve essere fatta in un determinato tempo t, esattamente quando lungo la banchina passano i punti q e p segnati sul vagone. Ora il tempo dell’evento è stabilito dalla lettura delle posizioni delle lancette di un orologio posto in vicinanza dell’evento. Ma il tempo è relativo al sistema dì riferimento, e quindi l’evento t misurato sul treno sarà diverso da quello misurato sulla banchina. Se è così allora la lunghezza del segmento Aq e Ap può essere differente se misurata dal treno o dalla banchina. Einstein connetteva così in un’unica situazione sperimentale lo spazio e il tempo.

Per riassumere possiamo affermare che Einstein dimostrò che la meccanica classica si basava su due assunti errati; 1) che la misura del tempo fra gli eventi fosse indipendente dal moto dell’osservatore; 2) che la misura dello spazio fra due punti di un sistema di riferimento fosse indipendente dal moto dell’osservatore. Se si lasciano cadere questi due assunti, le contraddizioni fra il principio di relatività galileiana e il principio della costanza della velocità della luce scompaiono, perché non varrebbe più il teorema d’addizione. In tal modo Einstein estese la validità del principio di relatività della meccanica classica (corpi rigidi) ai fenomeni elettromagnetici. Grazie alle regole di trasformazione della sua teoria era possibile trasformare un sistema di riferimento in un altro senza violare la legge di propagazione della luce, la cui velocità e non varia per nessun evento dell’universo. Le leggi di natura sono invarianti e valgono per tutti gli osservatori dell’universo, mentre lo spazio e il tempo dei fenomeni sono relativi al moto (sistema di riferimento) in cui si trova un determinato osservatore. Ne consegue che occorre rivedere profondamente le leggi della dinamica dì Newton: queste in senso forte non possono più essere considerate descrizioni vere dei fenomeni naturali. La nuova teoria che sostituisce la dinamica di Newton sarà chiamata teoria della relatività speciale, o ristretta.

Teoria della Relatività ristretta

Il terzo e più importante studio del 1905, dal titolo Elettrodinamica dei corpi in movimento, conteneva la prima esposizione completa della teoria della relatività ristretta, frutto di un lungo e attento studio della meccanica classica di Isaac Newton, delle modalità dell’interazione fra radiazione e materia, e delle caratteristiche dei fenomeni fisici osservati in sistemi in moto relativo l’uno rispetto all’altro. La base della teoria della relatività ristretta, che comporta la crisi del concetto di contemporaneità, risiede su due postulati fondamentali: il principio della relatività, che afferma che le leggi fisiche hanno la stessa forma in tutti i sistemi di riferimento inerziale, ossia in moto rettilineo uniforme l’uno rispetto all’altro, e che è una naturale estensione del precedente principio di relatività galileiano, e il principio di invarianza della velocità della luce, secondo cui la velocità di propagazione della radiazione elettromagnetica nel vuoto è una costante universale, che sostituisce il concetto newtoniano di tempo assoluto.

Sulla base del risultato dell’esperimento di Michelson e Morley e delle precedenti considerazioni di Lorentz, egli suggerì inoltre che le trasformazioni galileiane dovessero essere sostituite con quelle di Lorentz. Queste ultime prevedono che la variabile temporale vari in due sistemi di riferimento in moto relativo rettilineo uniforme, e quindi che un orologio in moto relativo rispetto a un osservatore rallenti. Il principio di tempo assoluto della meccanica newtoniana fu sostituito dal principio di invarianza della velocità della luce dallo stato di moto dell’osservatore. La scoperta dell’elettrone fornì poi la possibilità di verificare la correttezza delle trasformazioni di Lorentz; gli elettroni emessi dalle sostanze radioattive, infatti, hanno velocità prossime a quella della luce, tali cioè da far assumere al fattore beta valori apprezzabili. Gli esperimenti confermarono le predizioni di Einstein; la massa di un elettrone dotato di velocità prossime a quelle della luce risulta maggiore della massa a riposo, esattamente nella misura prevista. L’incremento della massa dell’elettrone era dovuto alla conversione dell’energia cinetica in massa, secondo la formula E=mc2. La teoria di Einstein fu confermata anche mediante esperimenti sulla velocità della luce in corpi d’acqua in moto e sulle forze magnetiche di alcune sostanze.

L’ipotesi fondamentale su cui poggiava tutta la teoria di Einstein era che per due osservatori in  moto relativo uno rispetto all’altro a velocità costante valessero le stesse leggi della natura. L’abbandono del concetto di simultaneità comporta che due eventi registrati come simultanei da un osservatore non risultino tali rispetto a un secondo osservatore in moto rispetto al primo. In altre parole, non ha senso assegnare l’istante in cui avviene un evento senza definire un riferimento spaziale. L’evoluzione di ogni particella o oggetto nell’universo viene descritta da una cosiddetta linea universale in uno spazio a quattro dimensioni (tre per lo spazio e la quarta per il tempo), detto spazio-tempo. La nuova geometria si adattava perfettamente alle equazioni di Maxwell.

La “distanza” o “intervallo” tra due eventi qualsiasi può essere accuratamente descritta per mezzo di una combinazione di intervalli di spazio e di tempo.

Se il moto è relativo, la velocità della luce sembrerebbe dover variare a seconda del moto dell’osservatore. Tuttavia sappiamo dall’elettromagnetismo e dall’esperienza che la propagazione della luce è costante. Non rimane dunque che considerare lo spazio e il tempo come variabili di ogni sistema di riferimento. Infatti la velocità della luce (velocità = quantità di spazio percorsa nell’unità di tempo) può essere considerata costante nei diversi sistemi di riferimento solo se lo spazio e il tempo variano a seconda del moto relativo degli osservatori.

Si potrebbe pensare a questo punto che la relatività metta in crisi il principio di causalità. Ma non e cosi. Questo principio rimane valido, è parte delle leggi d’invarianza della relatività speciale. Apparentemente potrebbe verificarsi che, se un evento A è causa dell’effetto B, un osservatore in moto abbia una tale velocità da vedere prima l’effetto B che la causa A. Questo osservatore invertirebbe il nesso causale, e in tal caso dovremmo concludere che il principio di causalità non è valido. Ma le leggi relativistiche proibiscono che si possa mai verificare un caso siffatto: nessuna informazione può viaggiare più velocemente della luce, così vedremo sempre prima le cause e poi gli effetti. Per questo possiamo dire che la relatività di Einstein rimane una teoria classica: è deterministica e usa il principio di causalità.

Nel pensare lo spazio e il tempo come relativi, Einstein mostrava di aver appreso la lezione del positivismo machiano. Poteva fare a meno del moto assoluto, perché questo concetto non ha alcun significato sperimentale (o euristico) nell’ambito di una scienza costruita sulla base del principio di economia. Se il giovane Einstein era in debito verso il positivismo machiano, nella sua epistemologia non mancava una venatura di realismo. Infatti egli non accettava le finzioni della fisica classica; non ammetteva ad esempio la realtà fisica dei sistemi di riferimento inerziali. Einstein si domandava, a differenza di Newton, che cosa sia la gravità e perché ci sia equivalenza tra carica gravitazionale e massa inerziale. Proprio il realismo può aver condotto Einstein a non credere più all’azione a distanza della gravitazione newtoniana. Se è vera la teoria della relatività speciale, col suo principio della costanza della velocità della luce, allora questa è incompatibile con la forza di gravità di Newton che agisce istantaneamente a distanze infinite. Egli lavorò al problema per diversi anni, nel 1915 aveva in mano la soluzione: la teoria della relatività generale. principi della relatività speciale venivano estesi ai moti accelerati, mentre in origine si riferivano ai soli moti uniformi (che rappresentano sempre delle idealizzazioni). Poiché tutte le masse sono soggette alla forza di gravità, e quindi sono accelerate (non sono mai realmente in moto uniforme, o inerziale), le leggi relativistiche vengono fatte valere per l’intero universo.

Teoria della Relatività Generale

Ancor prima di lasciare l’Ufficio Brevetti nel 1907, Einstein iniziò a lavorare a una teoria più generale, che potesse essere estesa ai sistemi non inerziali, cioè in moto relativo non uniforme. Enunciò il principio di equivalenza, in base al quale il campo gravitazionale è equivalente a una accelerazione costante che si manifesti nel sistema di coordinate, e pertanto indistinguibile da essa, anche sul piano teorico. In altre parole, un gruppo di persone che si trovino su un ascensore in moto accelerato verso l’alto non possono, per principio, distinguere se la forza che avvertono è dovuta alla gravitazione o alla accelerazione costante dell’ascensore. La teoria della relatività generale non venne pubblicata sino al 1916. In essa le interazioni dei corpi, che prima di allora erano state descritte in termini di forze gravitazionali, vengono spiegate come l’azione e la perturbazione esercitata dai corpi sulla geometria dello spazio-tempo, uno spazio quadridimensionale che oltre alle tre dimensioni dello spazio euclideo prevede una coordinata temporale.

Einstein, alla luce della sua teoria generale, fornì la spiegazione delle variazioni del moto orbitale dei pianeti, fenomeno fino ad allora non pienamente compreso, e previde che i raggi luminosi emessi dalle stelle si incurvassero in prossimità di un corpo di massa elevata quale, ad esempio, il Sole. La conferma di quest’ultimo fenomeno, durante l’eclissi solare del 1919, fu un evento di enorme rilevanza. Per il resto della sua vita Einstein dedicò molto tempo alla ricerca di un’ulteriore generalizzazione della teoria e alla ricerca di una teoria dei campi, che fornisse una descrizione unitaria per i diversi tipi di interazioni che governano i fenomeni fisici, incluse le interazioni elettromagnetiche, e le interazioni nucleari deboli e forti. Tra il 1915 e il 1930 si stava sviluppando la teoria quantistica, che presentava come concetti fondamentali il dualismo onda-particella, che Einstein aveva già prima ritenuto necessario, nonché il principio di indeterminazione, che fornisce un limite intrinseco alla precisione di un processo di misurazione. Einstein mosse diverse e significative critiche alla nuova teoria e partecipò attivamente al lungo e tuttora aperto dibattito sulla sua completezza. Commentando l’impostazione, per certi versi intrinsecamente probabilistica della meccanica quantistica, affermò che “Dio non gioca a dadi con il mondo”. La relatività ha trovato un gran numero di conferme sperimentali da quando è stata introdotta. Ad esempio, durante l’eclisse del 1919 è stata verificata la deflessione di un raggio di luce nelle immediate vicinanze del Sole, come previsto dalla teoria. Recentemente sono stati effettuati test analoghi per misurare la deflessione delle onde radio emesse da quasar lontani, mediante l’uso di interferometri a radiotelescopio. I risultati di questi test concordano entro un margine di errore dell’1% con le previsioni della relatività generale.

Un’altra conferma sperimentale viene dal moto del perielio (il punto in cui un pianeta passa più vicino al Sole) dell’orbita di Mercurio. Tale moto, che non trova spiegazione nell’ambito della fisica classica, è invece previsto dalla teoria della relatività e le recenti misure radar effettuate sono in ottimo accordo con le previsioni. Un altro fenomeno prescritto dalla relatività generale è lo spostamento verso il rosso della lunghezza d’onda della radiazione emessa da oggetti posti in intensi campi gravitazionali; esso è stato più volte osservato mediante misurazioni astronomiche.

Per Einstein la forza di gravità di Newton non esiste, le masse non si muovono perché attratte dalla forza di gravità, piuttosto si muovono in un campo gravitazionale, simile al campo elettrico. Le masse si attraggono perché curvano lo spazio-tempo, e seguono cosi il percorso più breve, la geodetica. Il fluire del tempo è determinato dalla massa (e quindi dall’energia), così come lo spazio viene deformato dalla massa (energia): maggiore é la massa, più lo spazio è deformato e più rallenta il fluire del tempo. La relatività ristretta metteva in discussione la natura intuitiva del concetto di tempo. Ora la stessa sorte toccava all’idea intuitiva dello spazio tridimensionale euclideo. Lo spazio di Newton veniva infatti sostituito con una nuova geometria dello spazio, un continuo spazio-temporale a quattro dimensioni. La geometria del cosmo è non-euclìdea. Cosi Einstein dava un significato fisico alla geometria di Riemann, e poneva fine alle discussioni sui fondamenti della geometria euclidea e alle dispute epistemologiche sul carattere convenzionale della conoscenza umana, tenute tra la fine dell’Ottocento e l’inizio del Novecento.

L’epistemologia nell’età dello spazio-tempo e dei quanti.

E’ facile pensare come la relatività di Einstein, fin dal suo apparire, abbia introdotto nel dibattito epistemologico elementi di discussione molto forti, circa il ruolo dell’osservatore, lo status delle leggi naturali, il processo di formazione dei concetti scientifici e il loro valore. Lo stesso si può dire, a maggior ragione, per la meccanica quantistica. E necessario inoltre immaginare quanto disorientamento abbia prodotto la comparsa delle due teorie. Per due secoli infatti la meccanica classica aveva avuto un grande successo nello spiegare i fenomeni; era considerata una teoria vera, un meraviglioso edificio eretto dall’intelligenza umana. Ora questa teoria si era dimostrata falsa, incapace di spiegare i fenomeni elettromagnetici e atomici. Al suo posto c’erano teorie che introducevano la relatività del tempo e dello spazio, l’indeterminazione quantistica, il dualismo onda-particella e altri “strani” fenomeni.

Karl Popper pubblicava nel 1934 la Logica della scoperta scientifica nella collana del Circolo di Vienna ‘Scritti per la concezione scientifica del mondo”. Popper non aveva mai fatto parte del Circolo, ma era in contatto con alcuni neopositivisti come Carnap e Feigl. Nel 1919 egli aveva 17 anni, ed era seguace del marxismo e della psicanalisi del suo maestro e amico Alfred Adler. Nel maggio dello stesso anno, fu uditore dì una conferenza di Einstein a Vienna, da cui rimase «sbalordito». Nella sua Autobiografia intellettuale Popper ricorda che fino a quel momento aveva avuto un’illimitata fiducia nelle capacità della teoria marxista di prevedere futuro della storia e della psicanalisi di prevedere il comportamento individuale. L’incontro con queste due dottrine, specialmente con la prima, scrive Popper «mi insegnò la sapienza del detto socratico: io so di non sapere. Mi rese fallibilista, e impresse in me il valore della modestia intellettuale. E mi fece consapevole delle differenze esistenti tra pensiero dogmatico e pensiero critico». Sempre nel 1919, durante degli scontri di piazza tra polizia e marxisti rivoluzionari ci furono dei morti a Vienna. Il giovane comunista Popper, che aveva assistito agli eventi, si domandò se la dottrina marxista, con il suo obiettivo di costruire un mondo nuovo per meno della conoscenza delle leggi della storia, fosse stata esaminata criticamente, se si fosse mai cercato qualche fatto empirico che potesse smentirla. Lo stesso si poteva dire della psicanalisi di Freud e Adler: era proprio vero che il comportamento patologico o normale degli uomini confermava sempre le loro teorie della psiche? Dice Popper: “cominciai a sentirmi sempre più insoddisfatto di queste tre teorie: la teoria marxista della storia, la psicanalisi e la psicologia individuale; [.] perché queste teorie sono così diverse dalle teorie fisiche, [.] e soprattutto dalla teoria della relatività? [.] Esse sembravano in grado di spiegare praticamente tutto ciò che accadeva nei campi cui si riferivano: [.] il mondo pullulava di verifiche della teoria. Qualunque cosa accadesse, la confermava sempre; e, quanto agli increduli, si trattava chiaramente di persone che non volevano vedere la verità manifesta, che si rifiutavano di vederla. [.] Era precisamente questo fatto – il fatto che dette teorie erano sempre adeguate e risultavano sempre confermate – ciò che agli occhi dei sostenitori costituiva l’argomento più valido a loro favore. Cominciai a intravedere che questa loro apparente forza era in realtà il loro elemento di debolezza”.

Popper cominciò a contrapporre l’atteggiamento di Marx e dei marxisti, di Freud e di Adler a quello dì Einstein. L’insegnamento di Einstein produsse effetti durevoli sulla sua evoluzione intellettuale: «esercitò – scrive – l’influenza dominante sul mio pensiero». Einstein aveva ufficialmente affermato che la mancata osservazione della deflessione dei raggi di luce in prossimità di un intenso campo gravitazionale, o dello spostamento verso il rosso dello spettro delle galassie, avrebbe dimostrato la falsità della sua teoria della relatività. Proprio nel maggio del 1919 una spedizione di astronomi inglesi guidata da Eddington, osservò durante un’eclisse di Sole il fenomeno della deflessione della luce, come previsto dalla teoria (più tardi sarà osservato lo spostamento verso il rosso). Questo di Einstein era, secondo il giovane Popper, in esempio di atteggiamento critico nei confronti della sua propria teoria, poiché egli ne cercava la confutazione, e non era dogmatico, come appariva invece quello di marxisti e psicanalisti, che cercavano nelle osservazioni solo delle conferme, o verifiche, alle loro teorie. «Giunsi così, -scrive Popper – sul finire del 1919, alla conclusione che l’atteggiamento scientifico era l’atteggiamento critico, che non andava in cerca di verificazioni, bensì di prove cruciali prove che avrebbero potuto confutare la teoria messa alla prova, pur non potendola mai confermare definitivamente».

Nel 1932 Popper scrisse un libro sull’argomento, I due problemi fondamentali della teoria della conoscenza, che per ragioni editoriali sarà pubblicato col titolo Logica della scoperta scientifica due anni dopo, anche se con la data 1935. I due problemi della teoria della conoscenza sono per Popper il problema della demarcazione e il problema dell’induzione. Popper prendeva le distanze dalle tesi del Circolo di Vienna sul principio di verificazione, e sul criterio di significato. Fin dagli anni precedenti sì era convinto che non era necessario demarcare la scienza dalla metafisica, quanto piuttosto la scienza (come quella di Einstein) dalla pseudo-scienza (come quella di Marx e Freud). E che, inoltre, c’era un criterio migliore per farlo: non il significato empirico delle proposizioni, ma il principio di falsificabilità, che gli era stato suggerito in qualche modo dall’atteggiamento critico di Einstein verso le proprie teorie relativistiche, era necessario per demarcare la scienza dalla pseudo-scienza. Una teoria è scientifica, in linea di principio, quando dai suoi enunciati possono essere dedotte previsioni su certi possibili eventi empirici. Per meglio dire una teoria scientifica deve proibire il verificarsi di certi eventi, se questi ciò nonostante sono osservati empiricamente, allora la teoria è falsa. Una teoria è perciò scientifica quando esistono delle potenziali osservazioni che potrebbero confutarla, è pseudo- scientifica quando non esiste nessun falsificatore potenziale, cioè quando non è possibile renderla falsa con qualche osservazione. In quest’ultimo caso la metafisica non è falsificabile, ma ciò non significa che sia priva di senso. Molte teorie scientifiche incorporano elementi metafisici, e d’altra parte un giorno ciò che prima non era possibile sperimentare, potrà esserlo.

Dal problema della demarcazione Popper era finito inevitabilmente nel problema classico dell’induzione. Contro le tesi del Circolo di Vienna sostenne che nessun asserto scientifico potrà mai essere verificato, né con certezza né con probabilità. Egli notava infatti un asimmetria tra verificazione e falsificazione. Una teoria scientifica ingloba proposizioni e termini aventi valore di universalità, ma nessuna osservazione empirica – come già Hume aveva dimostrato -, che è sempre particolare, potrà essere sufficiente a verificarla. Credere che l’osservazione di alcuni casi particolari, come vuole la logica induttiva, siano sufficienti a verificare, cioè a dimostrare vera, una teoria che ha un ambito di applicazione universale non è risultato di una inferenza logica, razionale. In ultima analisi si dovrebbe credere nel principio di uniformità della natura, ma, come aveva insegnato Hume, non c’è alcuna ragione necessaria, in senso logico, che garantisce che ciò che è accaduto nel passato accadrà nello stesso modo nel futuro. E’ sufficiente invece una sola osservazione per rendere falsa una teoria.

Allora, e qui Popper prendeva le distanze dalla psicologia dell’abitudine di fiume, noi possiamo utilizzare i principi della falsificazione e della demarcazione per mantenere una teoria razionale della scoperta scientifica e del progresso della conoscenza umana, evitando di cadere nello scetticismo e nell’irrazionalismo. Le teorie scientifiche sono quelle che hanno dei falsificatori potenziali, e noi dovremmo cercare attivamente di renderle false, in tal modo si ha progresso della conoscenza; e per quanto queste teorie rimangano sempre ipotesi, o mere congetture, ritenerle verosimili fino a prova contraria. Il progresso scientifico, quello verificatosi dal passaggio dalla meccanica classica a quella relativistica, consiste in un processo verso teorie con un maggiore contenuto empirico, con teorie sempre migliori che sostituiscono quelle che hanno fallito alla prova dei fatti. La crescita della conoscenza non consiste in una semplice accumulazione di osservazioni, come vuole il metodo induttivo classico, ma nella eliminazione di teorie che l’esperienza ha falsificato. Scrive Popper che «non c’è induzione alcuna, ché le teorie universali non sono deducibili dagli enunciati singolari. Ma tali teorie possono essere confutate da enunciati singolari, giacché esse possono scontrarsi con descrizioni di fatti osservabili». In tal modo Popper risolse a suo modo il problema dell’induzione.

«In quel periodo – scrive ancora Popper- mi consideravo un kantiano non ortodosso e un realista». E in effetti le tesi di Popper concordano, almeno in parte, con quelle di Kant e anche di Einstein, quando affermava che le teorie scientifiche sono prodotte dall’uomo; sono il risultato di un tentativo di imporre regolarità, liberamente create dal nostro intelletto, alla natura. Tuttavia dovremmo adottare verso di esse un approccio critico, non dogmatico. Popper è disposto ad ammettere, con Kant, che la nostra conoscenza non si origini da una tabula rasa; che ci siano alla base dei processi cognitivi degli elementi geneticamente e psicologicamente a priori. Tuttavia nessuna conoscenza può essere considerata valida a priori, come mostra la fine della fisica di Newton e lo sviluppo della teoria relativistica e quantistica. E almeno su quest’ultimo aspetto Popper è in accordo coi neopositivisti.

E’ necessario osservare che dopo la pubblicazione del libro di Popper sì apri un dibattito molto intenso all’interno del Circolo di Vienna intorno alla falsificazione delle teorie. Molti esponenti del Circolo, a cominciare da Carnai abbandonarono le posizioni verificazioniste originarie, sotto lo stimolo della critica di Popper alla logica induttiva. Al punto che lo stesso Popper ha confessato di aver ucciso il positivismo logico. L’irrisolto problema dell’induzione, da parte dei neopositivisti, rendeva infatti indifendibili i due pilastri della loro filosofia, il principi di verificazione e il criterio di significanza.

E’ forse un curioso caso della storia intellettuale che il modello epistemologico al falsificazionismo popperiano ad aver avuto più successo, dopo la II guerra mondiale e la completa dissoluzione del Circolo di Vienna, sia stato pubblicato in un volume della collana americana della Enciclopedia della Scienza unificata. Questa collana infatti intendeva essere la prosecuzione, sul suolo statunitense, della precedente collana del Circolo di Vienna:”Scritti per la concezione scientifica del mondo”. In seguito agli eventi del potere nazista e della guerra mondiale, molti neopositivisti emigrarono negli U.S.A., continuando nelle Università di quella libera nazione il programma del manifesto per la concezione scientifica del mondo e per la scienza unificata.

Questo libro è La Struttura delle rivoluzioni scientifiche (1962) di Thomas Kuhn. Sebbene l’autore consideri come caso esemplare di rivoluzione scientifica la rivoluzione copernicana, le sue idee sono adattabili anche alla rivoluzione relativistica e quantistica. Dal suo punto di vista c’è nella storia della scienza un periodo di scienza normale, in cui i membri della comunità scientifica adottano in modo acritico determinati paradigmi. Questi sono assunti di carattere teorico, posti alla base di ogni ricerca empirica. Il lavoro normale dello scienziato viene svolto alla luce dei paradigmi, mai seriamente messi in discussione, per cui la ricerca tende a consolidare nel tempo la forza esplicativa della teoria. Cosi potremmo considerare la salda fiducia dei newtoniani nelle leggi del moto, nella forza di gravità, nel tempo assoluto, o quella dei discepoli di Maxwell nell’esistenza dell’etere, come esempi ottimali di scienza normale. Poi alcuni individui, di solito marginali rispetto alla comunità scientifica ufficiale, vedono alcune difficoltà nella teoria dominante, e iniziano a metterne in discussione i paradigmi. E’ il periodo della scienza rivoluzionaria, attraverso cui una teoria scientifica viene sostituita con una nuova spiegazione dei fatti, messa a punto con l’assunzione di nuovi paradigmi. Così Planck, notando le difficoltà del vecchio paradigma “continuista” nello spiegare i fenomeni termodinamici, introduce il nuovo paradigma della discontinuità quantica della natura. Einstein, per salvare l’universalità delle leggi di natura, introduce la relatività del tempo e dello spazio.

Ciò che non convinceva alcuni della bontà della tesi di Kuhn, a cominciare dallo stesso Popper, era la vaghezza della nozione di paradigma, e il fatto che la sostituzione di una teoria con un altra sembrava consistere, più che in un processo razionale, in una sorta di “conversione religiosa”, di un atto di fede verso il nuovo paradigma. E a rendere più difficile la posizione di Kuhn era la sua insistenza successiva sull’incommensurabilità dei paradigmi quasi a voler sostenere che una teoria scientifica vale l’altra, e che il processo di sostituzione fra teorie alternative sia, in ultima analisi, indipendente dalla ricerca della verità. Le tesi di Kuhn saranno comunque destinate ad un grande successo, e feconderanno la cosiddetta nuova filosofia della scienza, post-popperiana e anti-popperiana. Su questa via si arriverà all’enfatizzazione della tesi del carico teorico (theory ladenness) sulle osservazioni, in altre parole al rovesciamento del senso comune induttivista: non sono i fatti a formare le teorie, ma piuttosto le teorie a creare i fatti. Alla fine non rimase che il tutto va bene, anything goes, di Paul Feyerabend: il principio epistemologico secondo cui scienziati e stregoni sono esattamente sullo stesso piano.

[Via http://quantistica.altervista.org]


 



 

Commenta l'articolo

commenti

Pin It on Pinterest

Share This

Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più, consulta la nostra cookie policy. Chiudendo questo banner, scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all’uso dei cookie. Informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi