Michel Bitbol
CREA/CNRS, 1 , rue Descartes, 75005 Paris FRANCE
Phenomenology and the Cognitive Science, 1, 181-224, 2002

prima parteseconda parte – terza parte

3- La Meccanica Quantistica: un prototipo di scienza partecipatoria[48]

Molti autori (Velmans, 1998, 1999; Wallace, 2000) hanno fatto notare che l’inserzione della coscienza nella struttura globale della scienza risulterebbe molto più semplice se la scienza non venisse costruita restrittivamente come un’opposizione statica di soggetto e oggetto. Al contrario, contenuti esperienziali potrebbero venire prontamente inseriti all’interno di una struttura generalizzata di accordo intersoggettivo, in cui a una cognizione attiva situata è data priorità logica rispetto a invarianze condivise. Ma questo punto di vista è in linea con il presente stato della scienza?
E’ abbastanza facile convincersi che esso sia in ultimo compatibile con qualche branca della ricerca scientifica, inclusa l’intera fisica classica, la chimica e la biologia. Kant per esempio propose una lettura straordinaria della fisica Newtoniana in questi termini, sia nella Critica della Ragion Pura che nei Principi Metafisici della Scienza della Natura. Ma, alla luce di una parte significativa delle sue interpretazioni disponibili, il caso della meccanica quantistica suscita ancora più meraviglia. Come stabilito da queste interpretazioni, la meccanica quantistica non è solo compatibile con un intendimento intersoggettivo e partecipatorio della scienza; essa mostra il suo stato partecipatorio nella sua struttura profonda, e per così dire ci costringe a cambiare la nostra attuale epistemologia[49]. I padri fondatori di queste interpretazioni sono stati Bohr[xvi] e Heisenberg[xvii].
In verità, nessun argomento interno alla fisica è stato in grado di dare a questa concezione una qualche decisiva superiorità sulle interpretazioni rivali. Letture alternative della fisica quantistica includenti residui di dualismo epistemico e/o di atomismo formale (come la meccanica Bohmiana del 1952), sono ancora sostenibili attualmente, mostrando che l’ambito di discussione è abbastanza ristretto. Sebbene una delle caratteristiche di base dell’interpretazione di Bohr e Heisenberg (cioè l’olismo) ha un equivalente in ogni altra interpretazione, mantenere un punto di vista analitico del mondo e dei processi cognitivi è ancora fattibile, sia compensandolo con interazioni non-locali[50], sia superimponendo grezzi frammenti della terminologia analitica tradizionale su di un più profondo livello di formalismo integrato. Ma non appena il campo di discussione viene ampliato per includere il problema di come la scienza possa in generale occuparsi della situatità, l’interpretazione di Bohr e Heisenberg (o una versione più moderna di essa) è verosimilmente da preferirsi. Infatti, questa interpretazione fornisce un esempio eccellente di come noi possiamo considerare la nostra situazione antropologica senza rinunciare a un ideale di conoscenza valida universalmente. Un’interpretazione di una particolare teoria scientifica (in questo caso la meccanica quantistica), potrebbe essere favorita grazie alla sua abilità di chiarire un dilemma ricorrente della scienza che la riguarda nella sua totalità.
Allo scopo di ottenere una migliore comprensione del problema di come l’esperienza vissuta si inquadri nella struttura generale della scienza, è utile analizzare questo problema sullo sfondo di una concezione della fisica (come la meccanica quantistica interpretata da Bohr e Heisenberg) in cui il processo di oggettivazione non è dato per scontato. L’analogia è impressionante. Da una parte, si deve fare i conti con una manifestazione di embodiment situato, con nessuna possibilità di distanziarsi da esso e di assumerlo come un oggetto o una proprietà. Dall’altra, si ha a che fare con asserzioni generate da una inserzione situata, all’interno del mondo e ad un certo stadio della scala delle lunghezze (per es. rapporti di fenomeni sperimentali), con nessuna possibilità di prendere le distanze dal mondo e acquisire una sorta di occhio di Dio. Il mio obiettivo in questa sezione (Bitbol, 2000) è perciò quello di disegnare un confronto sistematico tra la struttura epistemologica della scienza della coscienza e la struttura epistemologica della meccanica quantistica[xviii].
Bohr stesso tentò un simile confronto nei primi anni trenta (Bohr, 1987). Così, anche se il suo approccio non è privo di ambiguità, comincerò con esso, e poi proseguirò con le mie precisazioni. L’osservazione di base di Bohr è che in ogni esperimento di microfisica, i processi sono “disturbati” dall’atto della misura; o piuttosto, in modo più profondo e accettabile, i fenomeni sono indissolubilmente co-definiti dagli esperimenti usati per renderli manifesti[51]. Il “soggetto”[52] materiale di un esperimento di microfisica (cioè l’apparato di misura) non può propriamente essere separato dal suo proprio campo di indagine. In altri termini, il “soggetto” materiale appartiene al suo campo di indagine. Ma se uno tenta di circoscrivere un oggetto microfisico (questo è il requisito epistemologico di base secondo Bohr)[53], nonostante questa impossibilità di separazione, sorge una difficoltà. Ogni volta che una particolare divisione tra oggetto e soggetto materiale è convenzionalmente imposta, un frammento di ciò che deve essere conosciuto rimane tagliato fuori[54]. Così, si può giungere a una piena caratterizzazione del cosiddetto micro-oggetto solo attraverso molti approcci sperimentali “complementari” (reciprocamente esclusivi e insieme esaustivi)[55]. Nello stesso modo, dice Bohr, durante il processo di introspezione, i contenuti esperienziali vengono alterati dall’attenzione che il soggetto dirige su di loro. Più correttamente, i contenuti esperienziali sono co-definiti da questo atto di attenzione. Il soggetto introspettivo appartiene al suo campo d’investigazione. Supporre una separazione convenzionale soggetto-oggetto al posto di esso, cioè tentare di tagliare fuori artificialmente il soggetto introspettivo dal suo campo di investigazione, significa che la conoscenza generata da questo processo può essere solo parziale[56]. Anche in questo caso, il cosiddetto “oggetto” di introspezione necessita di molti approcci “complementari” per essere caratterizzato[57].
Seguendo questa analogia, l’adesione alla nozione di “complementarità” appare ancora più ampia di quella suggerità da K.-O. Apel. Apel ha inserito alcune caratteristiche della complementarità onda-corpuscolo di Bohr nelle relazioni tra spiegazione e comprensione. Comunque, ritornare al flusso dell’informazione può essere come una rivelazione. Ricordiamoci che la versione apeliana della complementarità comporta una reciproca esclusività ed esaustività di (i) descrizioni, simili a leggi, di processi oggettivati (comportamento o eventi neurali) e (ii) di simulazione di co-soggetti. Si tratta della complementarità tra distanziamento e situatità condivisa. Ma se analizzata con cura, la complementarità onda-corpuscolo di Bohr può essere letta esattamente in questo modo, evidenziando che non si deve dare troppa importanza a una delle due parti di un modello classico. Infatti, si dovrebbe enfatizzare il loro stato e la loro funzione nella pratica della microfisica. Tanto per iniziare, onde (3n-dimensionali) sono usate per calcolare le probabilità di alcune possibili misure conseguenti a una qualche preparazione sperimentale. Esse sono predittori invarianti, per quanto operino indipendentemente dalla situazione sperimentale per la quale c’è bisogno di predizione. Per contrasto, il termine “corpuscoli” offre una metafora classica per indicare una serie di eventi discreti che accade ogniqualvolta certe misure vengono effettuate. Le onde (predittori invarianti continui) sono il risultato di uno sforzo di distanziare una struttura teoretica nel rispetto di situazioni speciali di misura. Ma la nozione di corpuscolo è usata per esprimere (liberamente) quei fenomeni discontinui che appaiono in determinate situazioni sperimentali. I termini della coppia onda/corpuscolo possono perciò essere detti “complementari” nello stesso senso, e per la stessa ragione, dei termini della coppia spiegazione/comprensione.
Anche se la motivazione di base (cioè la contestualità) della comparazione di Bohr tra microfisica e scienza della coscienza è del tutto convincente, il modo in cui l’ha sviluppata rimane aperto a una critica. La sua richiesta che a un qualche livello sia imposta una divisione tra un oggetto e la varietà di soggetti (materiali o introspettivi), è una norma epistemologica piuttosto diffusa; ma può essere omessa all’interno della struttura di una concezione non-rappresentazionalista della cognizione. Uno dei maggiori vantaggi derivanti dall’essere dispensati da questa dicotomia consiste nel fatto che non si è più forzati ad adottare il sottile ma ancora mal definito concetto Bohriano di complementarità. Perciò due frammenti distinti di informazione devono essere considerati complementari solo se essi riguardano lo stesso oggetto.
La perdita del concetto di complementarità non è da deplorarsi. Dopo tutto, entrambe le parti di questo concetto sono discutibili.
L’esclusività reciproca è una formulazione eccessiva sia in fisica che in ermeneutica. L’aspetto ondulatorio dei fenomeni microfisici è esclusivo rispetto a quello corpuscolare (discreto) solo in circostanze ideali. Abitualmente, entrambi gli aspetti sono presenti allo stesso tempo, anche se non nella loro piena estensione[58]. Da una parte, ciò che è distribuito secondo gli schemi d’interferenza di tipo ondulatorio è una serie di interazioni discrete di tipo corpuscolare[59]; e dall’altra parte, la distribuzione di eventi approssimativamente allineati che definisce una traiettoria di tipo corpuscolare è determinata da effetti di diffrazione di tipo ondulatorio (Held, 1994)[xiv]. In modo simile, l’esclusività reciproca tra la “conoscenza” ermeneutica e la “spiegazione” scientifica è attribuibile a uno stato ideale delle cose; la comprensione di co-soggetti generalmente trae beneficio dall’essere inserita in una rete di spiegazioni oggettive, e di converso resoconti oggettivi si originano da una coordinazione generalizzata di possibili esperienze incorpate (embodied).
Quanto all’esaustività co-realizzata, essa è ancora più opinabile. Dire che il predittore di tipo ondulatorio dipinge solo un aspetto di un presunto oggetto più profondo, equivale a negare che il componente universalmente valido della microfisica venga completamente catturato da questo predittore invariante. Tutto questo significa accettare che la meccanica quantistica sia in qualche modo “incompleta”, il che, dal punto di vista di Bohr, equivale ad arrendersi agli argomenti di Einstein[60]. Similmente, asserire che le spiegazioni scientifiche debbano essere complementate con una comprensione co-soggettiva per raggiungere l’esaustività riguardo qualcosa, equivale ad immaginare un terzo termine che nessun approccio (nè oggettivo, nè intersoggettivo) è in grado di determinare interamente. Ma evocare tale terzo termine (per esempio la sostanza Spinoziana) significa che l’ermeneutica è caduta in una sorta di metafisica, che non è certamente parte del suo progetto.
Dobbiamo allora tornare alle limitazioni di base condivise dalla microfisica e dalla scienza della mente, e rimanere del tutto collegati ad esse. I fenomeni microfisici dipendono dai congegni che si suppone li “rivelino”; e l’esperienza cosciente è legata agli esseri coscienti. In entrambi i casi una separazione è impossibile o artificiale. Perciò, che cosa bisogna fare in tali circostanze, se non si tenta di imporre una divisione dualistica? Heisenberg ha suggerito la seguente soluzione: “(…) anche quando un dato stato di cose non può essere oggettivato, (…) questo stesso fatto può essere oggettivato a sua volta e studiato in connessione con gli altri fatti” (Heisenberg, 1998, p.268). In altri termini, ogni volta che una oggettivazione primaria di un certo insieme di fenomeni non è ottenibile o è forzata, una oggettivazione secondaria è ancora realizzabile. Ma che cos’è esattamente un’oggettivazione secondaria? Come dobbiamo intendere l’urgenza di Heisenberg di oggettivare il fatto stesso che l’oggettivazione (primaria) non è raggiungibile? Io suggerisco la seguente interpretazione di questa strategia. L’oggettivazione secondaria equivale a:
(i) una descrizione oggettiva delle condizioni sotto cui avvengono i fenomeni che non sono suscettibili di oggettivazione;
(ii) una elaborazione di regole valide universalmente per predire questi tipi di fenomeni;
(iii) una formulazione di prescrizioni universalmente efficienti per padroneggiare direttamente i perfezionamenti tecnologici delle regole predittive.
Secondo la visione popolare della scienza, l’obbiettivo è quello di formulare un modello distanziato della realtà “la fuori” (basato sulla “complementarità”), e poi di derivare predizioni e applicazioni tecnologiche da questo modello. Ma nella visione alternativa della scienza che sta emergendo, questa tradizionale gerarchia non può essere ulteriormente mantenuta. La tecnologia ha relazioni non gerarchiche a due vie con oggettivazioni secondarie o locali. In primo luogo, la tecnologia è guidata da queste oggettivazioni. Ma d’altra parte, essa le supporta attraverso i suoi successi, e inoltre fornisce loro una struttura di base (per es. la struttura elementare delle procedure razionali usate in tecnologia è improntata sulla base delle regole predittive oggettivate secondariamente). Accettato questo, i residui di una concezione delle teorie come “theoria”, cioè come pura contemplazione da fuori, scompaiono.
Le teorie viste dal di dentro sono semplicemente espressioni strutturali del più ampio ventaglio di possibili pratiche e di possibili risultati in un determinato stadio stazionario del progredire della scienza.
La microfisica e la scienza della coscienza entrambe si accordano con questa caratterizzazione.
(a) Microfisica:
In primo luogo, i fenomeni microscopici non possono essere parcellizzati. Non si può discriminare tra il contributo dell’apparato e il contributo dell’ipotetico oggetto. I fenomeni non sono dissociabili dal contesto in cui appaiono. Ancora, le condizioni sperimentali (macroscopiche) sotto le quali questi fenomeni avvengono, possono essere oggettivate attraverso un modo classico o semi-classico di descrizione.
In secondo luogo, i fenomeni microscopici possono essere predetti direttamente attraverso il formalismo della meccanica quantistica, che è universalmente valido. In terzo luogo, la tecnologia quantistica non è semplicemente un sottoprodotto ausiliare di una descrizione teoretica di un dominio separato di oggetti. Piuttosto, essa instaura relazioni a due-vie con il formalismo della meccanica quantistica. Lungo la prima via, le prescrizioni tecnologiche sono guidate da modelli frammentari derivati dalla teoria quantistica. Essi sono determinati anche dal formalismo quantistico. Ma dall’altro lato, le procedure tecnologiche hanno anche un ruolo assolutamente essenziale per le regole oggettivate secondariamente e per le invarianze di questo formalismo. Infatti, come ho mostrato in un lavoro precedente (Bitbol, 1996a, 1998), il formalismo di base della meccanica quantistica può facilmente essere costruito come un presupposto strutturale di una qualsiasi attività di produzione e anticipazione unificata di fenomeni contestualizzati e reciprocamente incompatibili.
(b) La scienza della coscienza:
Primo, l’esperienza cosciente non può essere dissociata dal contesto vissuto complessivo del suo accadere. Ancora, le condizioni neurofisiologiche, corporee, e ambientali sotto cui avvengono vari tipi di esperienze possono essere oggettivate secondo i criteri della scienza classica. Secondo, niente proibisce per principio di usare queste oggettivazioni (secondarie) per scopi predittivi. Terzo, tecnologie neuro-farmacologiche e neuro-funzionali per modificare stati di coscienza non derivano da una qualche utopica conoscenza di interazioni tra un pseudo-oggetto chiamato “coscienza” e un oggetto chiamato “cervello”. Esse sono basate su di una gamma sempre incrementabile di regole predittive, e al contrario esse contribuiscono all’elaborazione di queste regole.
Per ricapitolare, la scienza della coscienza non è una scienza nel senso ristretto di una “conoscenza distanziata di un dominio di oggetti”; piuttosto essa è una tecnologia di embodiment, o una scienza nel senso più ampio di Varela di una “relazione dialettica tra punti di vista soggettivi e invarianze intersoggettive”. Similmente, considerando la meccanica quantistica come una tecnologia generale di azione mesoscopica e sperimentazione, o come una relazione dialettica tra fenomeni situati e invarianti predittivi, facilmente si dà senso al suo formalismo di base e automaticamente si dissolvono i maggiori paradossi (Bitbol, 1996a).
Il tratto caratteristico di questa concezione alternativa della scienza in entrambe le aree, consiste nella sostituzione del dualismo con un parallelismo pragmatico (Bitbol, 1996b) piuttosto che con un eliminativismo monistico o con il riduzionismo. In quanto l’eliminativismo è incurabilmente pregiudizievole, e ogni versione di riduzionismo (dalla teoria dell’identità al funzionalismo) ha in sè una versione materialistica di dualismo: il dualismo cervello-mondo per la teoria dell’identità, e il dualismo sofware-hardware per il funzionalismo. Definiamo ora in poche parole il parallelismo pragmatico, prima di mostrare come esso si applichi sia al problema mente-corpo sia ai consueti enigmi quantistici.
Adottare il parallelismo equivale ad accettare che si possano dare due resoconti distinti autosufficienti e paralleli ogniqualvolta si è immersi in un processo partecipatorio. Dire che questo parallelismo è solo “pragmatico” significa che si scartano, fin dall’inizio, versioni metafisiche del parallelismo. Qui, i due resoconti paralleli non indicano due gamme di proprietà o aspetti di una singola sostanza. Come ho già accennato prima, rifacendomi a K.-O. Apel, essi indicano semplicemente:
– due differenti “interessi” (la condivisione di una situazione e lo sganciarsi dalla situatità);
– due distinte attitudini pragmatiche (l’essere impegnati in e il prendere le distanze);
– due differenti focalizzazioni nella ricerca (partecipazione e sforzo verso l’invarianza);
– due differenti funzioni del discorso (espressiva e descrittiva).
La loro unità non è dovuta a un loro dirigersi verso un comune oggetto trascendentale, ma piuttosto alla loro derivazione (in due differenti direzioni) da un comune retroterra immanente che si potrebbe definire con il termine husserliano “Lebenswelt” (mondo della vita)61. Quanto alla circostanza che ne sono richiesti due, essa non rivela una dualità di aspetti di un presunto oggetto trascendentale; essa piuttosto punta verso i limiti dell’oggettività, cioè verso il fatto negativo che il prendere le distanze e il cercare l’invarianza non può esaurire tutti gli aspetti della vita all’interno di un flusso immanente.
Osservati da questa prospettiva, gli enigmi del dualismo appaiono originarsi da: (i) l’abitudine comune di mescolare i due tipi di resoconti in una singola serie, e (ii) la tentazione di entificare ognuno di essi. Di per se stesso alternare i resoconti non porta danno, e può avere una qualche giustificazione pratica. Ma non appena l’idea di sostanza o proprietà riprende posto o funzione all’interno del resoconto composto, ci si trova in grave difficoltà nel costruire relazioni causali tra le due false entità. La questione che si sente emergere è: “Quando, dove, e come le due entità interagiscono?”. Ma nessuna risposta a questa domanda è disponibile.
Il più sorprendente esempio di questo tipo di enigma è il problema mente-corpo. Analizziamolo seguendo questo filo conduttore. Com’è attualmente accettato, data una serie di eventi coinvolgenti un “agente”, si può sviluppare sia un resoconto completamente intenzionale sia uno completamente causale di esso (Anscombie, 1957, §23). Il resoconto intenzionale parte da una decisione di un agente, procede con un’azione, e quindi si sviluppa attraverso una sequenza indefinita di conseguenze intenzionate. Il resoconto causale presumibilmente partirebbe da certe scariche di neuroni nel cervello dell’agente (anche se la serie causale può partire arbitrariamente prima), procederebbe con le contrazioni muscolari, e quindi passerebbe attraverso una sequenza indefinita di effetti nel mondo. Comunque, i resoconti attuali sono mescolati. Comunemente si usa prima il linguaggio intenzionale (nelle immediate circostanze che riguardano l’agente), e poi il linguaggio causale (per gli effetti remoti). Il confine tra i due tipi di resoconti è una questione di convenienza pratica. In dipendenza del fatto che uno sia medico o avvocato, questo confine può essere spostato più vicino o più lontano dal cervello dell’agente. Il problema è che il linguaggio intenzionale viene subito reificato e trasformato in una descrizione di ciò che accade nella mente di qualcuno (o, secondo la versione materialista del dualismo, nel cervello di qualcuno). Anche il linguaggio causale viene reificato e trasformato in una descrizione di ciò che accade nel mondo esterno. Da quel punto di vista, le domande “quando, dove, e come si origina il ponte tra la mente e il corpo (o tra la mente e il mondo)?” sembrano inevitabili e senza risposta.
A queste domande non si può rispondere, infatti:
– perchè la domanda “come?” è completamente fuori luogo. Se, come H. Putnam ha messo in luce, la mente non può definitivamente essere concepita come una cosa o una proprietà; se, invece, “parlare della mente è parlare delle nostre capacità di essere-alle-prese-con-un-mondo e delle nostre attività di partecipare-a” (qui va evidenziato l’uso del verbo partecipare), allora la questione di come le due “cose (o proprietà)” interagiscono non sorge (Putnam, 1999, p.170).
– perchè le risposte alle domande “quando e dove?” sono per lo più materia di convenienza pratica come l’uso dei linguaggi intenzionali e causali. Il luogo dell’interazione tra mente e corpo (o mondo) rimane quindi intrinsecamente indeciso. Persino il dualismo materialista è incapace di definire contorni precisi delle due entità ontologicamente omogenee che esso pone: la domanda “dove il processore informazionale termina (nel cervello, al confine tra corpo e mondo, o da qualche parte nell’ambiente)?”[xx] non ha una risposta chiara e definitiva.
Ma il fatto che le domande “quando, dove, e come (la mente interagisce con il corpo)?” non siano affatto evitabili, ci spinge a tornare indietro verso la loro vera origine (ermeneutica), come abbiamo appunto tentato di fare.
Il nostro secondo esempio di conversione dualistica del parallelismo è presa a prestito dalla microfisica. Consideriamo il caso del rilevamento dei raggi-gamma nella camera a nebbia di Wilson, così come è stata analizzata da N.F. Mott (Mott, 1929; Bitbol, 2002). Si possono sviluppare due resoconti di questo processo. Un resoconto è chiaramente situato, per quanto esso sia relativo a ciò che si può osservare in una camera a nebbia: esso descrive il processo come una successione di ionizzazioni di atomi di idrogeno e conseguenti condensazioni di gocce di acqua approssimativamente allineate[62]. L’altro resoconto descrive solo l’evoluzione di una funzione d’onda multi-dimensionale (la funzione d’onda entangled [particella alfa + molecole di acqua]). Esso implica una distanziazione secondaria, poichè la funzione d’onda può essere interpretata come un predittore invariante (invariante rispetto all’ampia gamma delle successioni di eventi irreversibili e individualmente irriproducibili che possono svilupparsi durante esperimenti microscopici). Comunque, i resoconti più comuni delle tracce (delle particelle) sono di tipo misto: essi mescolano processi continui di tipo ondulatorio ed eventi discontinui, predittori oggettivi (di tipo secondario) e resoconti situati. I fisici descrivono l’evoluzione di una funzione d’onda tridimensionale per particelle alfa, quindi “riducono” questa funzione d’onda ogniqualvolta avviene una ionizzazione (Heisenberg, 1930), poi propagano di nuovo l’onda ridotta ecc[63]. Il confine tra il resoconto ondulatorio e il processo di “riduzione” è in larga misura materia di convenienza pratica. Esso dipende dalla precisione richiesta per le conseguenti previsioni. Di nuovo, il problema consiste nella reificazione di entrambi i resoconti (quelli oggettivati secondariamente e quelli situati). Il predittore ondulatorio universale viene spesso reificato in una descrizione di processi ondulatori reali. Secondo questo modo di vedere, la riduzione della funzione d’onda (di relativo interesse) è considerata come una esauriente descrizione di un qualche (stranamente istantaneo e ubiquitario) collasso di un reale processo ondulatorio. Se questa duplice reificazione viene accettata, le questioni “quando, dove, e come avviene la improvvisa transizione tra la propagazione ondulatoria continua e la riduzione discontinua?” sembrano inevitabili e senza risposta. Infatti, attualmente queste domande stanno stimolando un fiorente programma di ricerca[xxi]. Ma le risposte desiderate rimangono persistentemente elusive. Una via più promettente, quindi, è quella di realizzare che le questioni riguardanti il “dove, quando e come” della riduzione potrebbero essere senza significato. Infatti, a prima vista, la riduzione non è una “cosa”, un evento, o un processo; essa salta fuori come un artificio di calcolo usato ogniqualvolta vi è la necessità di ridefinire il predittore invariante per prendere in considerazione il resoconto di un precedente risultato sperimentale situato[xxii]. Per di più, come artificio di calcolo, non è nemmeno indispensabile (Van Frassen, 1991, p.257). Si può perfettamente tornare alla strategia di Mott, che consiste nel descrivere l’evoluzione di una funzione d’onda progressivamente entangled, in parallelo con la sequenza di eventi di cui si producono predizioni probabilistiche.
E’ interessante notare, a questo riguardo, che due delle più avanzate “soluzioni” al problema della misura in meccanica quantistica, cioè l’interpretazione di Everett e le teorie della decoerenza, non si sforzano affatto di rispondere a questioni legate allo stato di riduzione. L’interpretazione di Everett ha a che fare solo con l’apparenza della riduzione (per uno sperimentatore situato), mentre essa sviluppa indefinitamente il parallelo tra l’evoluzione continua (unitaria) di una funzione d’onda globale e le serie discontinue di osservazioni[64]. Analogamente le teorie della decoerenza descrivono la transizione da probabilità quantistiche (con effetti di interferenza) a probabilità quasi-classiche (con trascurabili termini d’interferenza); non hanno nulla da dire circa lo stato di riduzione in senso stretto, per esempio circa un presunto salto istantaneo da uno stato di sovrapposizione a uno degli autostati dell’osservabile misurata (Lye, 1999).
Per riassumere questo punto, ora vediamo che le questioni “quando, dove, e come?” sorte in concomitanza della cosiddetta riduzione dello stato, non sono inevitabili nemmeno esse, a condizione che si torni all’effettivo ruolo che può avere il concetto di riduzione al di sotto del livello delle entità reificate, e gli si rimanga completamente aderente. Ciò che è contato fino ad ora è stato solo il lato negativo della strategia di dissoluzione. L’ “hard problem” della coscienza è stato decostruito lungo la stessa linea del problema della misura in meccanica quantistica. Ma si può spingere questa accurata analogia un passo oltre, così da ottenere delle conoscenze convergenti positive su entrambi gli enigmi.
Un primo insegnamento positivo gira attorno all’origine convergente di entrambi gli enigmi. Come abbiamo osservato precedentemente, l’origine del “problema difficile” della coscienza come descritto da D. Chalmers consiste nel fatto che, dalle teorie scientifiche oggettive standard, si può solo ricavare più strutture e relazioni, ma niente circa le caratteristiche non strutturali dei fenomeni, tanto meno circa il fatto assoluto della fenomenalità. Le teorie scientifiche oggettive assumono il puro fatto dell’esperienza, ed estraggono da essa un’invariante strutturale; non ci si deve aspettare da esse una derivazione convincente della loro condizione di possibilità più fondamentale. Allo stesso modo, dalla meccanica quantistica standard, si possono ottenere solamente più strutture predittive (oggettivate secondariamente) e correlazioni, ma niente che riguardi la natura di ogni singolo fenomeno in determinate circostanze sperimentali, per non parlare del bruto fatto che ci sono fenomeni ben definiti. La meccanica quantistica assume che ci sono fenomeni sperimentali che si manifestano ad una scala macroscopica (le sue previsioni riguardano quest’ultimi); non ci si deve aspettare da essa una derivazione completa del proprio retroterra di assunzioni elementari.
Molti autori neo-bohriani hanno insistito su quel punto. Tra di essi, M. Mugur-Schachter (Mugur-Schachter, 1997) e U. Mohroff hanno trovato alcune espressioni singolari. Secondo quest’ultimo autore, basta una piccola riflessione per realizzare che “la Meccanica Quantistica sempre presuppone, e perciò mai ci permette di inferire l’esistenza di un fatto (…)” (Morhoff, 2000). I simboli di questa teoria sono generatori oggettivati secondariamente di possibilità e probabilità. Essi emergono come sottoprodotti di un tentativo sistematico di evidenziare un elemento formale dal flusso di fenomeni attuali situati. E’ perciò completamente assurdo pensare che qualche elemento dell’attualità eliminata possa essere recuperato da una delle possibili strutture astratte: “La Meccanica Quantistica ci porta dal mondo reale nel regno dei mondi possibili, e ci lascia li”.
Un’altro sostenitore di questa idea è R. Omnes. “I fatti esistono”, egli scrive. “Nessuno può spiegare ciò come conseguenza di qualcosa di più fondamentale” (Omnès, 1994, p.350). Questo può suonare strano, specialmente se detto da uno specialista delle teorie di decoerenza. Ma è veramente così sorprendente? Dopo tutto, come ho già sottolineato, le teorie di decoerenza da sole non sono in grado di estrarre il quadro di un fenomeno particolare attuale dalla varietà di fenomeni possibili in una data situazione sperimentale. Esse mostrano solamente come la struttura probabilistica, che è tipica della disgiunzione di un fenomeno, può emergere da una struttura probabilistica più accoppiata. Comunque, anche per raggiungere tale risultato limitato, i teorici della decoerenza non possono evitare di

introdurre delle ipotesi antropocentriche. W. H. Zurek, per esempio, ha assunto che la catena di misure consista di tre elementi: il micro-oggetto, l’apparato, e l’ambiente circostante. Ma, dichiaratamente (Zurek, 1982), questa divisione si mantiene solamente al livello emergente delle manifestazioni macroscopiche e perciò essa è cripto-antropocentrica. Un’altra assunzione antropocentrica viene fatta da M. Gell-Mann, che ha posto una struttura a grana grossa delle storie coerenti, e ha giustificato questa struttura a grana grossa attraverso la dimensione macroscopica di una popolazione di “sistemi di utilizzo e di filtraggio delle informazioni” antropomorfici (IGUS). Le teorie di decoerenza, perciò, non provano che un mondo classico di eventi disgiunti e proprietà necessariamente emerga da un micro-livello quantistico; esse non derivano un mondo classico da un mondo quantistico. Esse mostrano solamente come i due livelli di teorizzazione, cioè i livelli classici e quantistici, possono divenire reciprocamente compatibili sotto certe assunzioni. Ma naturalmente, questa compatibilità non è semplicemente un optional: essa è metodologicamente obbligatoria. Perciò le conseguenze della teoria (la meccanica quantistica in questo caso) devono essere rese compatibili con i suoi presupposti epistemologici elementari (il livello classico delle proprietà e degli eventi riguardo ai quali la meccanica quantistica produce delle previsioni, in questo caso). Se questa compatibilità non viene assicurata, un tipo profondo di inconsistenza minerebbe il paradigma quantistico. Assodato questo, le ipotesi addizionali (antropocentriche) dei teorici della decoerenza non devono essere ancora una volta disdegnate. Esse sono condizioni per la reciproca compatibilità tra la meccanica quantistica e i suoi elementari presupposti. Esse sono gli operatori per imporre vincoli reciproci tra la teoria fisica e lo sfondo epistemologico di partenza.
Siamo così arrivati al nostro secondo insegnamento positivo su entrambe le questioni: quella mentale e quella quantistica. Come ora ci rendiamo conto, eliminare ogni riferimento alle questioni problematiche non equivale a derivare l’attualità (cosciente o sperimentale) da una qualche descrizione oggettiva[xxiii]. Semplicemente ciò significa imporre vincoli reciproci tra (i) l’attualità che è necessariamente presupposta dalla descrizione, e (ii) certi elementi che fanno parte della descrizione. Si richiede niente di più e niente di meno che una dettagliata formulazione dell’autoconsistenza del sovrastante sistema epistemico che comprende sia i resoconti oggettivi che il loro retroterra pragmatico o sperimentale. Rendiamo queste formulazioni più specifiche, adattandole successivamente ai problemi che riguardano la mente e la teoria dei quanti.
A – Nel caso mentale, vincoli reciproci vengono imposti tra contenuti esperienziali stabilizzati e certi processi neurofisiologici, secondo la neurofenomenologia di Varela. Tali vincoli reciproci operano a due livelli.
(1) Il primo livello è strutturale. Sarebbe ingenuo pensare che una “correlazione psico-fisica” sia già presente la fuori, pronta per essere osservata. Le categorie neuroscientifiche e fenomenologiche devono essere reciprocamente aggiustate allo scopo di renderle completamente confrontabili. Questo richiede la formulazione di concetti neurologici appropriati (come le correlazioni corticali ad ampio intervallo, o il legame temporale dell’attività neurale) da una parte, e l’impegno in metodi affidabili di stabilizzazione fenomenologica con relativi resoconti dall’altra.
(2) Il secondo livello è individuale. Non appena sia stata selezionata una gamma di categorie rilevanti, serie discontinue di resoconti fenomenologici vengono posti in una corrispondenza uno-a-uno con serie discontinue di eventi neurali.
B – Nel caso quantistico, vincoli reciproci vengono imposti tra fenomeni sperimentali e certi aspetti del formalismo. Questo tipo di vincoli reciproci ancora una volta opera a due livelli.
(1) Il primo livello è di nuovo strutturale. Le categorie sperimentali e teoretiche quantistiche sono state progressivamente adattate, allo scopo di divenire completamente consistenti le une rispetto alle altre. L’aspetto iniziale di questo adattamento è stato generalmente non consapevole (anche se il principio di Bohr è servito da guida). Esso è consistito nel (i) selezionare elementi formali appropriati (chiamati “osservabili”) che potessero essere associati con elementi microfisici, e, di converso, (ii) definire situazioni sperimentali (come il microscopio di Heisenberg) che potessero dare senso alle relazioni algebriche delle osservabili quantistiche. Per quanto riguarda l’aspetto più recente dell’aggiustamento strutturale degli esperimenti e della meccanica quantistica, ha avuto un ruolo importante la dimostrazione, resa disponibile dalle teorie di decoerenza, che la struttura delle probabilità teoretiche quantistiche è compatibile alla scala mesoscopica con un fondamentale presupposto di ogni esperimento: l’unicità e la definitezza dei suoi risultati.
(2) Il secondo livello è individuale. Non appena è stata completata la reciproca accomodazione fra le modalità teoretiche e sperimentali, eventi sperimentali discontinui possono essere forzati dentro la teoria, o attraverso il postulato di riduzione, o cambiando i contenuti della “memory bracket” di Everett.
Riassumendo, esiste un parallelo dettagliato tra il problema mente-corpo e il problema della misurazione in meccanica quantistica. Ho considerato questo parallelo altamente significante, perché rivela i comuni limiti della conoscenza scientifica raggiunta classicamente, e perché esso richiede di conseguenza una ridefinizione generale della scienza. Entrambi i problemi sono sorti da un inevitabile punto cieco intrinseco alla descrizione oggettiva. Entrambi i problemi hanno motivato uno sforzo (senza frutti) volto a includere il punto cieco dell’attualità all’interno della struttura oggettiva che risulta da una sistematica eliminazione delle attualità situate in favore delle invarianze inter-situazionali. Entrambi i problemi possono quindi trovare una (dis)soluzione generale lungo la seguente linea. Non si dovrebbe negare il punto cieco (eliminativismo radicale), né tentare di forzarlo nel campo visivo della scienza oggettiva (riduzionismo), né reificarlo e considerarlo come una “cosa” distinta dal campo visivo (dualismo(i)). Si deve piuttosto:
(i) Identificare quelle caratteristiche strutturali o dinamiche nel campo visivo delle scienze oggettive, che indirettamente puntano verso la persistenza del punto cieco. Questa attenta analisi nel rintracciare le difficoltà è la fase diagnostica, che troppo spesso viene trascurata.
(ii) Ampliare il metodo della scienza con lo scopo di imporre una forte relazione reciproca tra i suoi contenuti oggettivi da una parte, e ciò che l’atto stesso di oggettificazione obbliga a lasciare fuori dall’altra. Questo è il passaggio terapeutico, secondo la prescrizione di Varela.

In verità, lo straordinario isomorfismo che abbiamo appena documentato ha inoltre stimolato un senso di vaga analogia, se non di identità, tra i due problemi. Molti tentativi di incorporare il problema mente-corpo e il problema della misura in meccanica quantistica sono stati fatti in passato, nel nome di questo isomorfismo. Un primo gruppo di autori, da C.G. Darwin (Darwin, 1929) a E. Wigner (Wigner, 1979), avevano contato su una visione dualistica del problema mente-corpo per dare al problema della misura una “soluzione” dubbia: il collasso della funzione-d’onda per opera di un atto di consapevolezza cosciente. Un secondo gruppo di autori, specialmente H. Stapp (Stapp, 1993) e R. Penrose (Penrose, 1994), si aspettano in meccanica quantistica una “soluzione” riduzionistica del problema mente-corpo. Specialmente la tesi di Stapp è affascinante a questo riguardo, per il fatto che essa conta sulla pura fusione dell’attualità dei microfenomeni sperimentali (e della loro controparte formale, cioè lo stato di riduzione), con l’attualità dell’esperienza cosciente. Secondo Stapp, un atto cosciente è il “sentire” della riduzione di uno stato quantico generale del cervello (Stapp, 1993, pp. 43, 149, 153)[xxiv]
Ma alla luce della nostra analisi, tutti questi approcci derivano da un duplice errore e da una duplice confusione: (i) confondere il punto cieco della conoscenza oggettiva con una entità mancante (materiale o mentale), e (ii) il tentativo confuso di collocare questa falsa “entità” da qualche parte all’interno di un dominio di conoscenza la cui reale esistenza presuppone l’istituzione e il mantenimento del corrispondente punto cieco.

Conclusioni

In questo articolo abbiamo esplorato due “soluzioni” trasversali del problema difficile della coscienza. Queste due “soluzioni” erano profondamente mescolate, ma possono essere separate come segue. La prima si concretizza in un rilassamento delle tensioni e ci permette di essere penetrati dal senso di mistero che si genera proprio dal fatto di “esser-ci”, in questa situazione speciale umana e individuale. La seconda consiste nell’impegnarsi in un programma di ricerca, in continuo sviluppo, circa i correlati neurali ( o condizioni necessarie) dei contenuti esperienziali, senza preoccuparsi di cercare una spiegazione dell’esperienza cosciente attraverso processi neurali. Come ho tentato di mostrare, lontano dall’essere incompatibili l’una con l’altra, le due vie emerse sono verosimilmente complementari (nel senso usuale, non bohriano). Di conseguenza, nonostante la cieca fede materialista nell’onnicomprensivo potere della scienza, la seconda via è permanentemente destinata ad assumere la prima come la sua tacita ancora creativa presupposizione. Ma allo scopo di raggiungere una visione più chiara di questa complementarità, sono richieste alcune considerazioni più precise riguardo ai due orientamenti di pensiero.
Tanto per cominciare, è interessante notare che un atteggiamento “atarassico” nei confronti del problema della coscienza è stato assunto non solo dopo ma anche prima dell’avvento delle neuroscienze cognitive. Perciò, seguendo il “monismo neutro” di E. Mach, o l’empirismo radicale di W. James e di B. Russel, R. Carnap assunse ” (…) ciò che è epistemologicamente primario, ovvero le esperienze stesse nella loro totalità e unità indivisa” (Carnap, 1967, §67) come “base” del suo primo comportamentismo costruttivista. Secondo il giovane Carnap, optare per qualsiasi altra scelta, per es. tentare di spiegare ogni cosa (incluso l’esperienza cosciente) su di una base fiscalista, equivarrebbe a sviare, perché significherebbe invertire l'”ordine epistemico” che di fatto va dal retroterra esperienziale alle entità costruite. Ciò è garantito, spiegando l’esperienza come già avviene, attraverso una definizione al di fuori della portata delle scienze oggettive. Infatti le spiegazioni scientifiche possono usare solo concetti costruiti, e perciò fin dall’inizio non sono in grado di giustificare il materiale usato per le loro costruzioni. Similmente, Carnap ha sottolineato che una spiegazione scientifica del “parallelismo psicofisico” è per definizione irraggiungibile. La metafisica tenta di fornire spiegazioni speculative, postulando una terza entità sostanziale di cui le due serie sono meri aspetti. In contrasto, la scienza oggettiva non può fare più che constatare che “(…) sequenze parallele di questo tipo possono essere prodotte come costrutti”. In altri termini, non si può andare oltre il mostrare che una corrispondenza reciproca può essere imposta tra le serie psicologiche e le numerose serie fisiche (inclusa quella neurofisiologica). Comunque, ” (…) questo non significa che ci sia una lacuna nella scienza: una questione che va oltre, non può persino essere formulata all’interno della scienza” (Carnap, 1967, §169). Qui il punto cieco costitutivo della scienza è pienamente riconosciuto. Ma nello stesso tempo viene prontamente messo al sicuro da ogni manifesta lacuna.
Fino a un certo punto, Carnap era sulla strada giusta. Le sue vedute sono efficienti specialmente nello sminuire il conflitto ricorrente tra la Nagel-Jackson-Chalmers dichiarazione d’incompletezza della scienza naturale e la rivendicazione eliminativista o riduzionista di completezza. Infatti, la posizione di Carnap può essere caratterizzata come una via di mezzo bilanciata: Sì, c’è un punto cieco; no, non c’è alcuna lacuna. O, parlando più precisamente: Sì, c’è un’incompletezza costitutiva; no, non c’è un’incompletezza epistemica.
(a) Incompletezza costitutiva.
La scienza oggettiva non può comprendere il truismo (la verità evidente) che tu sei tu; un essere umano, non un pipistrello. Per di più, in quanto modalità di conoscenza, la scienza oggettiva è completamente estranea alla circostanza che tu possa mai essere un pipistrello. Infatti, in quel caso, nessun elemento di conoscenza verrebbe guadagnato con un cambiamento della tua identità e della tua specie. Anche essendo un pipistrello, non sapresti ancora “che cosa si prova a essere un pipistrello”; saresti soltanto immerso in esso. La conoscenza (oggettiva) richiede una distanza, mentre “che cosa si prova a essere un pipistrello” presuppone il ritrovarsi nell’esser-ci.
(b) Completezza epistemica.
E’ chiaro che la scienza oggettiva non perde nessun dato di tipo fattuale, nessun elemento di conoscenza, come conseguenza del tipo elusivo di incompletezza menzionato nel punto (a). Infatti la scienza oggettiva potenzialmente comprende ogni caratteristica strutturale dell’esperienza, e la struttura rappresenta tutto ciò che può essere saputo relativamente a “ciò che si prova a essere un pipistrello”. Il resto è pura partecipazione.
Ricapitolando: sì, l’argomento di Nagel-Jackson-Chalmers suona perfettamente; no, la difesa eliminativista o riduzionista della scienza oggettiva non è sbagliata. Questa è una lezione cruciale da imparare dal primo sistema costruttivista di Carnap.
Comunque, molte obiezioni possono essere mosse contro questo sistema costruttivista. Esse sono state formulate da molti autori, incluso il Carnap della maturità. Una obiezione fondamentale riguarda i cosiddetti elementi della costruzione. Nonostante Carnap abbia criticato Mach per aver chiamato “elementi” una gamma di entità astratte (per es. i dati di senso), le sue indivise “esperienze elementari” non se la passano meglio. Infatti dopo tutto, come è stato ripetutamente sottolineato dopo Wittgenstein, ciò che si dice circa le esperienze non può essere considerato primitivo. Anzi, si tratta del più elaborato tipo di discorso, perché basato sulla retrostante accettazione del linguaggio ordinario e sul riferimento a oggetti pubblici. L’esperienza può essere giustamente considerata primaria dal punto di vista fattuale, ma secondaria dal punto di vista discorsivo. Prenderla come base essenziale in una teoria discorsiva è perciò fortemente discutibile. Questo può spiegare perché le concezioni che assumono l’esperienza come il loro incondizionato punto di partenza non siano mai state molto popolari nonostante siano intuitivamente attraenti. Un’altra obiezione è che Carnap, così come molti altri filosofi, non ha niente da dire riguardo a come una reciproca corrispondenza possa essere implementata tra serie psicologiche e fisiche. Il programma di disciplina esperienziale, che è così centrale nella neurofenomenologia di Varela, viene completamente saltato da Carnap.
Così, torniamo ora alle più recenti varietà di attitudini “atarassiche” libere da queste mancanze. Scostandosi dalla tradizione empirista radicale, H. Putnam è molto attento nel criticare le nozioni filosofiche popolari di dati di senso ed esperienza privata. Egli ha sistematicamente riabilitato espressioni comuni quali “appare ad A che l’oggetto X è bianco”, invece dell’idioma filosofico “che sono ‘bianco’ i dati di senso nella mente/cervello di A”. Al contrario di Carnap, Putnam non ascrive all’esperienza alcuno stato teoretico fondamentale; egli piuttosto invoca una posizione “realista naturale” attorno al senso comune e al linguaggio ordinario. Di più, quando alla fine egli accetta di affrontare “il mistero del mentale”, Putnam rifiuta ogni prospettiva di spiegazione, attraverso la derivazione o l'”emergenza” da una base fisica. Egli equipara questo mistero al mistero dell’esistenza dell'”universo fisico stesso” (Putnam, 1999, p.174), del quale non abbiamo niente da dire perché è la condizione di tutto il resto. Questa identificazione può essere presa come un riconoscimento obliquo e non-ambiguo che l’esperienza è (in ultimo) tanto primitiva quanto l’universo. Secondo Putnam, non appena si nega uno statuto scientifico (e/o significativo) alla domanda “perché c’è un universo fisico piuttosto che niente?”, si dovrebbe negare uno statuto scientifico (e/o significativo) alla domanda “perchè c’è esperienza piuttosto che niente?”. Una ragione per questo comune rifiuto è verosimilmente il fatto che queste due domande sono strettamente in relazione. Dopo tutto, il tipo di domanda (non-scientifica e/o non-significativa) che inquadra meglio tale questione è: “perché c’è l’esperienza-di-un-universo-fisico piuttosto che niente?” o anche “perchè c’è (questo indiscriminato) qualcosa piuttosto che assolutamente niente?”. Ogni slittamento tra l’ “esperienza” e l’ “universo fisico” in questo contesto è destinato ad essere un sottoprodotto dualistico (discutibile) dell’analisi filosofica. Se qualsiasi domanda sul “perchè?” dell’esistenza dell’universo fisico esperito è scientificamente senza significato, allora così è, automaticamente, per qualsiasi domanda sul “perché?” dell’esistenza dell’esperienza di un universo fisico.
Per riassumere, la posizione di Putnam combina (i) la negazione esplicita dello stato teoretico di base delle entità esperienziali in uno stile Wittgensteiniano, e (ii) l’implicita presupposizione dell’esperienza come onnipervasivo e non problematico sottofondo di ogni sviluppo teoretico e discorsivo. Il punto (ii) dell’approccio di Putnam ci guida ora verso la seconda direzione emersa: esattamente pratica; connessa appunto allo sviluppo dell’interrogare scientifico. In verità un’eccessiva focalizzazione sulla pratica scientifica può generare illusioni e asimmetrie, nel momento in cui ci spinge a negare ciò che non è (e non può essere) l’oggetto di indagine di una qualche realtà. Ma un piccolo sforzo riflessivo è necessario per realizzare che quelle pratiche verbali o sperimentali che non hanno niente da dire sull’esperienza situata, sono ciononostante inestricabilmente incastonate con questa esperienza situata. Le pratiche perciò possono esprimere il loro retroterra esperienziale (o mostrare indirettamente qualcosa di esso), ma possono anche dargli forma. Le pratiche possono essere studiate con questo spirito, e possono essere complementate allo scopo di aumentare la loro capacità a mostrare o a modellare.
Wittgenstein è stato il primo consistente esponente di questo programma di ricerca cripto-fenomenologico. Egli era consapevole di poter essere facilmente accusato di trascurare ” (…) ciò che accade al di là del dire”, cioè “l’esperienza o qualunque cosa tu possa indicare con questo termine (…) ovvero il mondo dietro le pure e semplici parole” (Wittgenstein, 1968b). Ma egli insisteva sul fatto che, proprio perché ciò accade indipendentemente dal dire (poiché è universalmente presupposto), egli non potesse fare altrimenti[xxv]. Come poter descrivere ciò che è la tacita presupposizione di ogni descrizione senza violare le regole costitutive del linguaggio? L’accusa di negligenza è stata perciò vista essere irrilevante: “Ciò che mi rimproveri non è come se dicessi: ‘Nel tuo linguaggio, tu stai solo parlando!’ ” (Wittgenstein, 1968b). Di conseguenza (vedi la sezione 1), Wittgenstein si è concentrato su come una complessa forma di vita che includa l’esperienza in prima persona, la comunicazione intersoggettiva e la caratterizzazione oggettiva del comportamento, possa fissare le regole d’uso di una terminologia espressiva. Questa terminologia dischiude e modella allo stesso tempo un insieme di ambiti esperienziali.
Come ho menzionato precedentemente, anche Varela si è concentrato sulle pratiche, piuttosto che su illusorie spiegazioni teoretiche dell’esperienza cosciente. Il suo specifico suggerimento consisteva nel complementare la gamma di pratiche standard della scienza con una attenzione disciplinata, e nel connettere l’esito in prima persona di questa attenzione con le invarianze neurobiologiche. Tali pratiche sofisticate chiaramente hanno un’attitudine svelante (attraverso la loro componente “descrittiva” fenomenologica), ma si focalizzano anche sul modellare l’esperienza (i) attraverso la riduzione fenomenologica sulla quale esse si basano, e (ii) attraverso il feedback circolare neurofenomenologico che esse istituiscono. Lontano dal generare una sorta di miopia oggettivistica, il motto “sviluppare proprio l’interrogare scientifico” prende parte a un progetto più ampio in cui la soggettività viene riconosciuta sia come un retroterra ubiquitario sia come un partner dialettico. Per concludere, dobbiamo capire che adottando tale attitudine, Varela ha promosso un salto epistemologico che può solo essere comparato con il Darwinismo.
Prima di Darwin, la scienza naturale era metodologicamente ristretta a fatti riproducibili e alla necessità di una descrizione basata su leggi. Ogniqualvolta la contingenza vi entrava, essa era importata da un ambito non scientifico (per es. dalla teologia dove era presente il finalismo). Ma Darwin incluse la contingenza nel dominio scientifico estendendo i metodi della scienza a una storia naturale fatta di variazioni casuali (genotipiche e fenotipiche) più la “selezione del più adatto”. Questo metodo risultò così potente che alcuni autori recentemente hanno offerto una spiegazione darwiniana di un tipo di contingenza onnipervasiva: quella delle leggi della natura stesse (Smolin, 1999).
Similmente, fino ad ora, la scienza naturale (nel senso della Naturwissenschaften tedesca) bandiva intrinsecamente la soggettività, o più in generale la situatità, e le stesse procedure di “simulazione” intersoggettiva o intersituazionali. Essa era costitutivamente (e per eccellenti ragioni epistemologiche) estranea a quella che possiamo chiamare la contingenza ultima: che tu sei tu, con questa nascita, questa biografia, questo genotipo, questi progetti, questi punti di vista, questo modo di vedere le cose, questi sentimenti … questa situazione. Non il secco fatto (terza persona) che ci sia una tale entità nel mondo comune, ma la banalità generante timore riverente (prima o seconda persona) che tu coincidi con questo unico centro di prospettiva, che tu sei il centro di coordinate del tuo mondo locale. Questo strutturalmente escludeva un aspetto della scienza naturale cui tradizionalmente veniva data importanza (per un motivo o per l’altro) dalle scienze dello spirito (Geisteswissenschaften), nel loro più specifico senso tedesco. Ma attualmente siamo testimoni di una molteplice tendenza a una fertilizzazione reciproca delle due Wissenschaften incompatibili in passato. Dopo la contingenza storica e ordinaria, il “comprendere” ermeneutico, con la sua capacità di affrontare quella che ho chiamato la “contingenza ultima”, si sta insinuando in molti livelli della scienza (nonostante la caricatura di Sokal). La ragione di questo fatto è che il programma di “naturalizzazione” richiede imperativamente una mai avvenuta prima rottura (e un ampiamento) della rete procedurale della scienza naturale allo scopo di superare il momentaneo fallimento delle varie forme di riduzionismo. Nel campo della scienza della mente, l’implicita ermeneutizzazione della scienza oggettiva da parte di P. Churchland (ispirata da Kuhn), rappresenta un mezzo riconoscimento di questo bisogno. Ma il programma di Varela di sviluppare vincoli reciproci tra le descrizioni in prima persona e quelle in terza persona sembra essere la prima diretta formulazione della tendenza ad espandere l’area di entrambe le Wissenschaften unificando le loro branche precedentemente separate a un livello metodologico più alto. Varela ha posto chiaramente il disegno e i principi del progresso epistemologico.
Come ho mostrato nella sezione 3, le sue idee furono anticipate solo dalla meccanica quantistica (anche se criticamente, nel modus operandi del formalismo e in una delle sue interpretazioni). Infatti, nella struttura della meccanica quantistica, la svolta metodologica, che consiste nell’includere sia i resoconti situati sia le entità invarianti in un processo non riduttivo di sintonizzazione fine, è già stata messa in pratica. Poche decadi ancora (e un po’ più di lavoro circa i fondamenti) possono essere necessari per realizzare questo in modo più convincente. Qui come nella scienza della mente, ci sono ancora delle resistenze. Ma la caduta delle resistenze che si generano in entrambe le discipline è probabile che venga drammaticamente promossa da una piena presa di coscienza della loro origine comune.

di Michel Bitbol
Traduzione a cura di Fabio Negro, Centro Studi ASIA
Revisione: Michel Bitbol

Note dell’autore:
[XVI] ” (…) la nuova situazione in fisica ci ha così forzatamente richiamato alla mente la vecchia verità che noi siamo e spettatori e attori nel grande dramma dell’esistenza” (Bohr, 1987, p. 119).
[XVII] “La scienza naturale non ci descrive e spiega semplicemente la natura; essa fa parte dell’intergioco tra la natura e noi stessi; essa descrive la natura così come è esposta al nostro modo di indagarla” (Heisenberg, 1990, p. 69).
[XVIII] Perfino quelli che non sono interessati agli sviluppi puramente epistemologici dovrebbero considerare seriamente il bisogno di uno studio parallelo tra la meccanica quantistica e la scienza della mente senza un preconcetto di tipo fisico. Come M. Lockwood ha persuasivamente notato, “Mi sembra che il pregiudizio in favore della materia svuoti di ogni musicalità (bellezza? Fascino?) la ricerca scientifica di un fondamento. La meccanica quantistica ha spogliato la materia della sua solidità concettuale quasi tanto quanto della sua pura solidità. La mente e la materia sono in egual misura profondamente misteriose, filosoficamente parlando. E ciò che il problema mente-corpo richiede, quasi certamente, è una reciproca accomodazione: tale da richiedere un’aggiustamento concettuale da entrambi i lati del confine mente-corpo” (Lockwood, 1898, p. X).
[XIV] Misure non precise costituiscono un altro modo, più formale, di vedere che i due aspetti cosiddetti “esclusivi” sono entrambi presenti in qualche misura in ogni caso.
[XX] L’idea che le capacità di risolvere problemi, normalmente ascritte alla mente, siano effettivamente distribuite tra il corpo (umano o animale) e il mondo, sta attualmente guadagnando terreno. (Clark, 1997, p. 160-166; Thompson & Vaela, 2001).
[XXI] Vedi per esempio il programma di “Riduzione Oggettiva” di Penrose, in connessione con la gravitazione quantistica (Penrose, 1994). L’idea di una riduzione oggettiva spontanea è stata da prima sviluppata da G.C. Ghirardi, A. Rimini, & T. Weber nel 1986 ed è stata sostenuta da J.S. Bell.
[XXII] Il primo a suggerire questa idea è stato Schrödinger (Schrödinger, 1935). E’ stata poi sviluppata in (Van Frassen, 1991; Omnès, 1994).
[XXIII] In un caso la descrizione neurofisiologica oggettiva di tipo primario, nell’altro il formalismo quantistico oggettivo.di tipo secondario.
[XXIV] Senza menzionare la mancanza di credibilità ontologica dello “stato di riduzione”, si può facilmente notare, nello stile di Chalmers, che non c’è assolutamente alcuna ragione per associare questi supposti processi oggettivi chiamati “riduzione” con un “sentimento”
[XXV] ” ‘Io ho coscienza’ – ecco un enunciato su cui non è possibile alcun dubbio’. Perché quest’enunciato non dovrebbe voler dire la stessa cosa di quest’altro: ‘Io ho coscienza’ non è affatto una proposizione?'” (Wittgenstein, 1967, §401).

Note del traduttore:
[48] “Che cosa sono i quanti, e da quando sono entrati nella nostra vita? Facciamo una breve digressione storica. Verso la fine dell’Ottocento negli stati industrializzati era in atto uno scontro fra due tecnologie, entrambe adatte in linea di massima a illuminare le strade. Era meglio usare il gas o la nuova scoperta, l’elettricità?… bisognava scoprire quale forma di illuminazione, a parità di costo, fornisse più luce…La strada più semplice è quella di confrontare direttamente le due fonti. Però si incontrano ben presto delle difficoltà, perché la luce emessa dipende da moltissimi fattori. Nel caso della luce elettrica, per esempio, varia a seconda della composizione e della forma del filamento, della quantità di corrente trasmessa, del gas con cui è riempito il bulbo e così via. Lo stesso si può dire per la luce a gas. Invece di confrontare direttamente le due fonti, quindi, è meglio cercare un confronto con una sorgente le cui proprietà non dipendano da questi parametri, una sorgente cioè che produca “luce ideale”. E i fisici dell’epoca avevano scoperto proprio una sorgente di questo tipo: una cavità vuota incandescente. Grazie ad analisi teoriche sofisticate si era arrivati infatti a capire che, all’interno di una cavità, la luce emessa dipende solo dalla temperatura delle sue pareti, e non dalla sua composizione materiale… Questo risultato piuttosto sorprendente è anche facilmente comprensibile. Se le pareti della cavità sono incandescenti, emettono luce ma possono anche assorbirla… Quindi la quantità di luce che si trova nella cavità aumenterà se la luce viene emessa dalle pareti e diminuirà se invece le pareti assorbono luce, fino al raggiungimento di un equilibrio. La quantità di luce nella cavità non può dunque aumentare in modo indefinito, ma si stabilizza ad un valore che si raggiunge quando la quantità di luce emessa dalle pareti equivale alla quantità di luce da loro assorbita. Questo valore di equilibrio nella cavità dipenderà, naturalmente, dalla temperatura: più le pareti circostanti sono calde, più luce conterranno. La quantità di luce sarà però indipendente dalla composizione delle pareti, perché il rapporto tra la quantità di luce emessa da una superficie a una certa temperatura e la quantità di luce assorbita è uguale per tutti i corpi, se si trovano in stato di equilibrio. La cavità rappresenta così una sorgente ideale, perché la luce che emette non dipende dalle caratteristiche della sorgente. Questa è quindi la pietra di paragone che cercavamo, con la quale possiamo confrontare tutte le altre fonti di luce. Ma come è possibile sfruttare questa luce ideale nella pratica, visto che si tratta di cavità chiuse? La soluzione è molto semplice. Si considera una cavità molto grande, in cui si fa un foro piccolissimo. Attraverso questo foro sarà emessa luce, a ogni temperatura, ma le dimensioni relative sono tali che la quantità di luce emessa è trascurabile rispetto alla quantità di luce all’interno della cavità. L’influenza del foro sulla natura della luce nella cavità è praticamente nulla. Questa radiazione emessa è detta radiazione di cavità o di corpo nero… vorremmo ottenere una relazione matematica precisa che fornisca la quantità di luce emessa dalla cavità, e il suo colore. Ma che cos’è il colore da un punto di vista fisico? La luce è in primo luogo un fenomeno ondulatorio. In altre parole si diffonde come un’onda… e può essere descritta da una lunghezza d’onda e da una frequenza. La lunghezza d’onda non è altro che la distanza tra due creste dell’onda… la frequenza indica invece il numero di volte al secondo in cui un determinato punto sale e scende sulla superficie dell’acqua… La lunghezza d’onda visibile è molto piccola: va da 0,4 a 0,7 millesimi di millimetro, cioè è circa cento volte minore dello spessore di un capello. Ha una frequenza molto, molto alta: in un secondo oscilla circa cinquecentomila miliardi di volte… Una sorgente di luce incandescente non emette solo un colore, quindi una sola lunghezza d’onda, ma un insieme di onde di tipi diversi, chiamato spettro… si sapeva ormai da tempo che lo spettro della radiazione di corpo nero dipendeva esclusivamente dalla temperatura, e che quindi, per principio poteva avere solo una forma molto semplice. L’equazione che la governava era però allora sconosciuta e dovette essere ricavata per via sperimentale… Quando però si riuscì a determinare la forma esatta dello spettro, ci si trovò di fronte a un mistero che nessuno, con i mezzi della fisica di allora, poteva risolvere. [Se applichiamo i principi della fisica classica alla radiazione di corpo nero otterremmo come risultato che dallo sportello aperto di una comune caldaia dovrebbero uscire raggi X e raggi γ, il che non si verifica]. La soluzione si ebbe nel 1900 grazie a Max Planck… il frutto delle sue riflessioni fu presentato il 14 dicembre del 1900 alla Società dei Fisici di Berlino, in una seduta passata alla storia. Questa è considerata, generalmente, la data di nascita della fisica quantistica. Per spiegare la radiazione di corpo nero Planck aveva lavorato per molto tempo all’interno della teoria allora dominante, secondo la quale la luce è composta da onde, scontrandosi però con grandi difficoltà. Il successo arrivò solo quando, come ebbe a dire lui stesso, si costrinse a un “atto disperato”: ipotizzò che la luce non fosse emessa dalle pareti della cavità come un’onda, ma sotto forma di piccoli pacchetti indivisibili, i cosiddetti quanti. Questi quanti di luce chiamati anche fotoni, hanno un’energia fissa, determinata solo dalla frequenza, quindi dal colore, della luce, e da una grandezza fisica del tutto nuova: il quanto d’azione, detto anche costante di Planck (h)…” (A.Zeilinger, p.4-10).

[49] “Consideriamo un oggetto della nostra realtà quotidiana, per esempio questo libro che state leggendo. Come facciamo a sapere che ci troviamo di fronte a un libro? Lo sappiamo perché lo vediamo, perché riusciamo a toccarlo… in secondo luogo, però, dobbiamo già avere in mente il significato della definizione “libro”…Abbiamo bisogno delle impressioni sensoriali e di concetti preesistenti da confrontare con queste impressioni. Vediamo che nel caso di oggetti molto piccoli entrambe le condizioni non sono più così chiare…Percepire le impressioni sensoriali, in qualsiasi forma, implica in fondo un’interazione con l’oggetto osservato…Sappiamo che per gli oggetti della vita quotidiana, come appunto questo libro, l’interazione necessaria per l’osservazione non ha molta importanza…per esempio il numero di pagine o la grandezza dei caratteri, sono indipendenti dal fatto che si osservi il libro o no e che per farlo si usi una semplice candela o un potente faro…Ma che cosa succede se rendiamo il libro sempre più piccolo, se passiamo a oggetti sempre più piccoli? Chiaramente, più l’oggetto è piccolo più sarà disturbato dall’interazione necessaria all’osservazione. Si potrebbe dire che questo disturbo può essere ridotto quanto si vuole. Si può illuminare l’oggetto in modo sempre più debole. Se la luce diventa così debole che non riusciamo a vederla, utilizzeremo una macchina fotografica e pellicole sempre più sensibili…o magari, semplicemente, rendere la luce debole allontanandola dall’oggetto. Nella fisica classica si sarebbe adottato proprio questo metodo. Si dava per scontato che la luce si potesse ridurre fino al livello desiderato, anche se è ovvio che poi non si sarebbe visto più nulla. Ma ora pensiamo a un problema nuovo, che deriva dalla natura quantistica della luce. Abbiamo imparato da Planck che la luce è composta da parti piccolissime e indivisibili, i fotoni o quanti di luce. Se facciamo diventare la luce sempre più debole per illuminare un oggetto molto piccolo senza disturbarlo, arriviamo a un limite, dato dal quanto: possiamo illuminarlo solo con uno, due, tre o più quanti di luce, non con meno di uno. Ma ogni quanto di luce, come una particella, urterà il piccolissimo oggetto osservato, e questo urto non può essere ridotto quanto si vuole. Dal punto di vista dell’oggetto osservato questo urto può essere molto grande, e non può essere ridotto diminuendo l’intensità della luce. In ogni caso tale urto può provocare variazioni significative delle proprietà del nostro oggetto, che per esempio potrebbe essere un piccolo atomo…Si potrebbe ritenere ancora che il nostro atomo, prima della misurazione, abbia certe sue proprietà ben definite…No, nemmeno questo…non siamo nemmeno in grado di affermare che un sistema, prima di essere osservato, abbia proprietà ben definite, sebbene non le si possa conoscere…Alla realtà, qualunque essa sia, abbiamo solo un accesso indiretto. E’ sempre qualcosa – un’immagine, un’idea, un pensiero -che costruiamo in base alle nostre idee ed esperienze…la nostra realtà è puntellata dai sostegni forniti dai risultati dell’osservazione. Questi ultimi sono realmente essenziali. Ma in fondo che cosa sono i risultati dell’osservazione? Nient’alto che informazioni, risposte a domande…Nel caso più elementare ci troviamo di fronte ad alternative semplici, cioè all’unità minima dell’informazione quantistica. Un certo rivelatore è scattato o no? Oppure tra due rivelatori è stato l’A o il B a scattare? Tutto il resto è una costruzione della mente…Senza osservazione, senza misurazione, non possiamo attribuire a un sistema alcuna proprietà. Anzi, la situazione è ancora più radicale. Non possiamo supporre automaticamente che le proprietà che attribuiamo a un sistema in un determinato contesto di osservazione esistano anche in un’altra osservazione…Ciò forse significa che tutto è solo informazione? Addirittura che forse la realtà non esiste?…Evidentemente il nostro dilemma di fondo è che non possiamo distinguere, dal punto di vista operativo e in modo comprensibile, l’informazione e la realtà…Evidentemente non ha senso parlare di una realtà su cui non si possono avere informazioni. Ciò che si può sapere diventa il punto di partenza per fare ipotesi sulla realtà…Ogni domanda complessa si può riformulare per renderla del tipo “si-no”. Ma questo è il limite sotto il quale non si può scendere, la “particella elementare” dell’informazione: è la semplice alternativa tra si e no…Nella nostra concezione, allora, l’informazione, la conoscenza, è la materia primordiale dell’universo. Possiamo chiederci: la conoscenza di chi?” (Zeilinger, p. 15-18, 195-198, 200, 209).

[50] L’espressione “interazioni non-locali” si riferisce al fatto che in un sistema entangled (it. impigliare, intrappolare, in questo caso significa “legato”) la misurazione di una delle due particelle del sistema stabilisce automaticamente anche lo stato in cui si trova l’altra particella, a prescindere dalla sua distanza e dall’ordine spazio-temporale delle misurazioni. [sistemi entangled: sistemi quantistici composti da due o più particelle, legate fra loro in modo particolare].”(…) Il modo migliore di discutere l’entanglement è considerare l’esperimento proposto dal fisico americano David Bohm nel 1952. Prima però dobbiamo parlare dello spin, una tra le proprietà delle particelle della meccanica quantistica (vedi figura).

Lo spin corrisponde in gran parte al momento angolare della fisica classica, ma ha alcune caratteristiche interessanti che se ne distaccano. Il momento angolare descrive in parole semplici, lo slancio con cui un corpo gira intorno al proprio asse. E’ una quantità propria dei sistemi… L’esperimento proposto da Bohm si basa su una particella senza spin, cioè senza momento angolare. Questa particella è fatta in modo tale da decadere in due particelle, ognuna con il minimo spin possibile. Sull’asse di rotazione questo spin può assumere soltanto un valore… Per semplicità si indica ogni momento angolare con una freccia, che nel caso più semplice qui rappresentato è orientata in senso parallelo o antiparallelo rispetto all’asse di rotazione… L’aspetto interessante in meccanica quantistica è che lo spin può solo essere rivolto in su o in giù lungo una qualsiasi direzione prefissata, cioè non può assumere posizioni intermedie… Questo è del tutto indipendente dal fatto che prima della misurazione lo spin fosse ben definito o no, e dalla direzione in cui era rivolto. Non appena in un esperimento chiediamo alla particella “com’è il tuo spin lungo questo determinato asse?”, potrà rispondere solo “in su” o “in giù”, sempre con la stessa grandezza… Se per entrambe le particelle (dell’esperimento concettuale di Bohm) si misura lo spin a una certa distanza dalla sorgente e lungo una certa direzione, una particella ha lo spin rivolto in questa direzione e l’altra nella direzione opposta. Questa è una conseguenza diretta del fatto che il momento angolare nella fisica quantistica rimane costante, e che con il decadimento della particella originale deve essere trasmesso alle due particelle nuove. La somma dei momenti angolari delle due particelle deve essere ancora uguale a zero. Di primo acchito il fatto che gli spin delle due particelle debbano essere opposti sembra del tutto innocuo, ma nasconde sorprese incredibili se ci chiediamo lungo quale direzione queste due particelle hanno lo spin antiparallelo. Visto che la particella originale non aveva momento angolare, non c’è un asse di rotazione preferibile a un altro. Sembra ragionevole, allora supporre che la sorgente emetta molte coppie con spin diversi, lungo varie direzioni tutte ugualmente probabili. Questo modello, che sembra così semplice crea però un problema, legato alla natura quantistica dello spin. Per esempio, scegliamo tra le molte coppie emesse dalla sorgente quelle che, come nella figura, sono rivolte in su o in giù sul piano dell’immagine. Pensiamo che cosa succede a queste particelle se eseguiamo una misurazione alternativa, cioè se misuriamo il loro spin in una direzione perpendicolare al piano dell’immagine. In un primo momento si potrebbe supporre che qui lo spin debba essere uguale a zero, perchè ora il nuovo asse è perpendicolare a quello precedente, ma questo contraddice la regola di base che abbiamo citato in precedenza: in una misurazione, lungo qualsiasi direzione, lo spin deve essere rivolto in su o in giù. Esiste un’altra regola, che si può confermare subito con un esperimento: se l’asse lungo il quale è orientato originariamente lo spin e l’asse lungo il quale lo spin viene misurato sono ortogonali l’uno rispetto all’altro, lo spin della particella ha il 50 per cento di probabilità di trovarsi lungo la nuova direzione e il 50 per cento di probabilità di trovarsi nella direzione opposta. Questa regola è del tutto casuale e non ha cause recondite. La particella destra, quindi, ha spin rivolto verso il piano dell’immagine con probabilità 50 per cento; lo stesso dicasi per la particella sinistra. Ora però si rivela un risultato davvero interessante. Se gli spin possono essere rivolti in una direzione o nell’altra, potrebbe darsi che siano uguali nei due casi. Questo però è in contraddizione con il fatto fondamentale, citato in precedenza, che in ogni misurazione, lungo qualsiasi direzione, i due spin debbano sempre essere opposti. Ci deve essere qualcosa di sbagliato nel nostro ragionamento. Che cosa risponde la fisica quantistica? In pieno accordo con il fatto che tutte le direzioni per lo spin siano ugualmente plausibili, afferma che le direzioni lungo le quali è orientato lo spin, anche durante l’emissione, non sono ancora fissate. Questo significa che nessuna particella ha uno spin prima di essere misurata. Se però una delle particelle viene misurata lungo una qualsiasi direzione, soddisfa a caso una delle due possibilità, cioè di essere parallela o antiparallela rispetto a questa direzione. L’altra particella, a prescindere dalla distanza, assumerà la direzione esattamente opposta. Quindi ora abbiamo qualcosa di nuovo e sorprendente, cioè il fatto che la misurazione di una delle due particelle stabilisca automaticamente anche lo stato in cui si trova l’altra particella, a prescindere dalla sua distanza. Inoltre è sbagliato supporre che le due particelle abbiano già prima della misurazione lo spin da noi osservato con la misurazione stessa. Il motivo è semplicemente questo: possiamo decidere all’ultimo momento la direzione lungo cui misurare lo spin. Nè la sorgente nè le particelle emesse possono sapere quale direzione scegliamo alla fine. Quindi, se gli spin fossero ben definiti dalla sorgente, dovremmo per forza essere in presenza di tutte le direzioni contemporaneamente, in accordo con il modello discusso in precedenza, e questo non è corretto… Il fatto stupefacente è che i risultati della misurazione delle due particelle sono correlati al 100 per cento, se per entrambe misuriamo lo spin lungo la stessa direzione, ma lo spin delle singole particelle non può assolutamente essere determinato. Abbiamo così due processi casuali, perfettamente legati tra loro a grandi distanze. Einstein chiamava questo fenomeno “azione fantasma a distanza” e sperava di darne una spiegazione che si basasse su altri concetti più profondi”. (Zeilinger, p. 59-63).

[51] “Nella trattazione dei problemi atomici, i calcoli possono molto convenientemente venire eseguiti ricorrendo alla funzione di stato di Schrödinger, dalla quale mediante ben definite operazioni matematiche possono venire dedotte le leggi statistiche che regolano le osservazioni ottenibili sotto condizioni assegnate. Va però osservato che si tratta di un procedimento puramente simbolico, la cui interpretazione fisica univoca richiede in ultima analisi un riferimento all’intero dispositivo sperimentale… E’ questa una necessità logica evidente, poiché la stessa parola “esperimento” si riferisce a una situazione in cui dobbiamo essere in grado di dire che cosa abbiamo fatto e che cosa abbiamo appreso. Tuttavia la differenza fondamentale, rispetto all’analisi dei fenomeni, tra fisica classica e fisica quantistica, è che nella prima l’interazione tra gli oggetti e gli apparati di misura può venire trascurata o eliminata, mentre nella seconda questa interazione è parte integrante del fenomeno. L’unità essenziale del fenomeno trova la sua espressione logica nella circostanza per cui ogni tentativo di farne un’analisi ben definita richiede una modificazione dell’apparato incompatibile col verificarsi del fenomeno stesso… In questo contesto si parla talvolta di “perturbazione del fenomeno per opera dell’osservatore”, o di “creazione di attributi fisici dei sistemi atomici per mezzo delle operazioni di misura”. Simili espressioni possono tuttavia ingenerare confusione, poiché parole come fenomeni e osservazioni, attributi e misure, sono usate qui in un modo incompatibile col linguaggio comune e le corrispondenti definizioni pratiche. Nell’ambito della descrizione oggettiva è infatti più appropriato usare il termine fenomeno per far riferimento solo a osservazioni effettuate in circostanze la cui descrizione tiene conto anche dell’intera apparecchiatura sperimentale. Con questa terminologia, il problema osservazionale in fisica quantistica viene sfrondato da ogni complicazione e inoltre la nostra attenzione è costantemente richiamata sul fatto che ogni fenomeno atomico è chiuso, nel senso che l’osservazione è basata su registrazioni ottenute per mezzo di opportuni apparecchi di amplificazione a funzionamento irreversibile…” (Bohr, p. ,105,64,65).

[52] “E’ importante distinguere tra l’influenza diretta di un osservatore, che è il problema più spinoso della fisica quantistica (problema della misurazione) e l’influenza di un apparato fisico sull’esito di un esperimento, che può essere compreso e descritto nei termini della teoria quantistica” (Arthur Zajonc, “Nuove immagini dell’universo”, p.22).

[53] “Il nuovo aspetto essenziale nell’analisi dei fenomeni quantici consiste nell’introduzione di una fondamentale distinzione tra lo strumento di misura e l’oggetto in esame. Questa è la conseguenza diretta della necessità di una descrizione in termini puramente classici delle funzioni dello strumento, con esclusione di principio di ogni riferimento al quanto d’azione. D’altra parte gli aspetti quantici del fenomeno sono contenuti nell’informazione dedotta dall’osservazione degli oggetti atomici” (Bohr, p. 103).

[54] “Il problema epistemologico in discussione può essere caratterizzato brevemente nel modo seguente. La descrizione della nostra attività mentale richiede da una parte un contenuto oggettivamente dato, contrapposto a un soggetto percipiente, mentre, dall’altro canto, com’è già implicito in tale asserzione, una netta separazione tra oggetto e soggetto non può essere sostenuta in quanto anche quest’ultimo appartiene al nostro contenuto mentale. Da ciò segue non solo il significato relativo di ogni concetto, – meglio, di ogni parola, – che viene a dipendere dall’arbitrarietà del punto di vista, ma altresì che noi dobbiamo, in generale, essere preparati ad accettare il fatto che una spiegazione completa di una stessa questione possa richiedere diversi punti di vista che non ammettono una descrizione unitaria. Infatti, strettamente parlando, l’analisi consapevole di un qualunque concetto si trova in relazione di esclusione con la sua applicazione immediata… ciò che caratterizza le cosiddette scienze esatte è, ingenerale, il tentativo di conseguire l’univocità evitando ogni riferimento al soggetto percipiente. Si può forse riscontrare tale sforzo nella sua forma più consapevole nel simbolismo matematico, che ci pone davanti agli occhi un ideale di oggettività al cui raggiungimento non si frappone quasi alcun limite, finchè si rimane all’interno di un campo in sé conchiuso di logica applicata. Nelle scienze naturali vere e proprie, non è però possibile parlare di campi di applicazione dei principi logici in sé rigorosamente conchiusi, in quanto si deve essere sempre preparati alla comparsa di nuovi fatti, la cui sistemazione nel quadro delle esperienze precedenti può richiedere una revisione dei nostri concetti fondamentali. Abbiamo recentemente assistito a una siffatta revisione col sorgere della teoria della relatività destinata a mettere in luce, attraverso un’approfondita analisi dell’osservazione, il carattere soggettivo di tutti i concetti della fisica moderna. Nonostante il grande sforzo che tale teoria richiede alle nostre capacità di astrazione, essa si accosta in notevolissima misura all’ideale classico di unità e connessione causale della descrizione della natura. Soprattutto ci si attiene ancora rigorosamente alla concezione della realtà oggettiva dei fenomeni osservati. Come Einstein ha sottolineato, l’ipotesi che ogni osservazione dipenda, in ultima analisi, dalla coincidenza nello spazio e nel tempo dell’oggetto e del dispositivo di misurazione, e che ogni osservazione sia perciò definibile indipendentemente dal sistema di riferimento dell’osservatore, è infatti fondamentale per l’intera teoria della relatività. Dopo la scoperta del quanto d’azione, sappiamo però che non è possibile raggiungere nella descrizione dei fenomeni atomici tale ideale classico. In particolare ogni tentativo d’introdurre un ordinamento spazio-temporale porta a una rottura nella catena causale in quanto a esso è collegato un essenziale scambio di quantità di moto e di energia tra gli enti fisici e i regoli e gli orologi usati per l’osservazione; ed è proprio di questo scambio che non può essere tenuto conto se gli strumenti di misura devono servire al loro scopo. Viceversa, ogni conclusione sul comportamento dinamico dei singoli enti, dedotta in modo non ambiguo dalla rigorosa conservazione dell’energia e della quantità di moto, richiede una completa rinuncia a seguirne il corso nello spazio e nel tempo. In generale possiamo dire che la descrizione spazio-temporale e causale si presta all’ordinamento delle nostre esperienze usuali solo in ragione della piccolezza del quanto d’azione rispetto alle azioni da noi incontrate nei fenomeni ordinari. La scoperta di Planck ci ha posti nella situazione analoga a quella in cui ci siamo venuti a trovare dopo la scoperta del fatto che la luce si propaga con velocità finita. L’adeguatezza della netta distinzione tra spazio e tempo suggerita dai nostri sensi dipende infatti interamente dalla piccolezza delle velocità con cui abbiamo a che fare nella vita di tutti i giorni in confronto alla velocità della luce. Nella questione della connessione causale dei fenomeni atomici, il carattere reciproco dei risultati delle misurazioni non è più trascurabile in effetti di quanto lo sia la loro relatività nella questione della simultaneità.” (Bohr, p. 6, 7, 8).

[55] “Nello studio dei fenomeni atomici però ci si trova in una situazione in cui la ripetizione di un esperimento con lo stesso dispositivo può portare a differenti registrazioni, ed esperimenti fatti con diversi dispositivi possono dare risultati che a prima vista sembrano contraddirsi a vicenda. La spiegazione di questi apparenti paradossi è venuta attraverso l’osservazione che l’interazione tra gli oggetti e i mezzi di osservazione, che ordinariamente può venire trascurata o valutata a parte, nell’ambito della fisica quantistica forma invece parte inseparabile dei fenomeni. In tal modo le varie esperienze non possono più venire integrate nel modo usuale, bensì i diversi fenomeni devono venir considerati come complementari, nel senso che insieme esauriscono tutta l’informazione sugli oggetti atomici univocamente esprimibile.” (Bohr, p. 121).

[56] “Ogni comunicazione univoca circa lo stato e l’attività della nostra mente implica naturalmente una separazione tra il contenuto della coscienza e ciò cui genericamente si allude col termine di Sé, ma ogni tentativo di descrizione esauriente della ricchezza della vita cosciente richiede in situazioni differenti una diversa localizzazione della divisione tra soggetto e oggetto… Basterà ricordare qui la sensazione, spesso citata dagli psicologi, che ognuno ha sperimentato tentando di orientarsi in una camera oscura per mezzo di un bastone. Se il bastone non è tenuto rigidamente, esso appare al senso del tatto come un oggetto; se esso è tenuto invece fermamente, si perde la sensazione che si tratti di un corpo estraneo e il tatto si localizza immediatamente nel punto in cui il bastone tocca il corpo ispezionato. (N. Bohr, p.8, 9).

[57] “Non è forse esagerato sostenere, puramente sulla base di esperienze psicologiche, che i concetti di spazio e di tempo acquistano per la loro stessa natura un significato solo per il fatto che è possibile trascurare l’interazione con gli strumenti di misurazione. In generale, l’analisi delle nostre impressioni sensoriali rivela una notevole indipendenza dei fondamenti psicologici dei nostri concetti di spazio e di tempo da un lato, e di quelli di energia e quantità di moto, fondati sull’azione di forze, dall’altro. Questo campo è però caratterizzato soprattutto, come si è detto, da relazioni di reciprocità che dipendono dal carattere unitario della coscienza e rivelano una singolare analogia con le conseguenze fisiche del quanto d’azione. Pensiamo in questo momento a ben note proprietà caratteristiche dell’emotività e della volontà, che sfuggono completamente a una rappresentazione intuitiva. In particolare, l’apparente contrasto tra il continuo fluire del pensiero associativo e il permanere dell’unità della personalità presenta una suggestiva analogia con la relazione tra la descrizione ondulatoria del comportamento delle particelle materiali, dominata dal principio di sovrapposizione, e l’indistruttibile individualità delle particelle stesse. L’inevitabile influenza esercitata dall’osservazione sui fenomeni atomici trova qui il suo corrispondente nel ben noto cambiamento di colorazione dell’esperienza psichica, che accompagna l’atto di dirigere l’attenzione sull’uno o sull’altro dei suoi diversi elementi.” (Bohr, p. 9).

[58] A questo punto è indispensabile spiegare brevemente due fenomeni ottici di grande rilevanza concettuale per l’argomento di cui stiamo trattando: la diffrazione della luce e l’interferenza di due fasci luminosi.

“Diffrazione: se illumino uno schermo in cui è praticato un foro di dimensioni macroscopiche (per esempio un centimetro quadrato) vedo, al di là dello schermo l’immagine geometrica del foro. La luce non diffrange, si propaga rettilineamente. Ma se rendiamo il foro così piccolo che le sue dimensioni diventano paragonabili a quelle della lunghezza d’onda della luce, allora vediamo che la luce può deviare e la figura risultare allargata.
Interferenza: il fascio che investe i due fori dà origine a due onde che si propagano nella regione a destra dello schermo. In ogni punto dello spazio il campo elettrico risulta quindi la somma dei campi associati alle onde che provengono dai due fori sovrapposizione). E’ intuitivamente evidente che in un punto (quale quello indicato come M nella figura) che sta sullo schermo di fronte al punto intermedio tra i due fori, i due campi elettrici, che hanno percorso cammini uguali dalle rispettive origini, arrivano per così dire in fase, e pertanto si sommano rafforzandosi (interferenza costruttiva). In punto come D per il quale la differenza tra i due cammini è di mezza lunghezza d’onda, mentre il campo proveniente dal primo è, ad esempio, rivolto verso l’alto, quello proveniente dal secondo sarà rivolto verso il basso e la loro somma risulta essere zero (interferenza distruttiva)” (G.C. Ghirardi, “Un’occhiata alle carte di Dio”, p.12-13, 2003).

Adesso siamo pronti per una breve presentazione dell’esperimento sensazionale con cui, nel 1802, il medico inglese Thomas Young dimostrò la natura ondulatoria della luce, che fino ad allora era stata considerata composta da particelle. “L’esperimento è molto semplice (vedi figura). La luce entra in una piastra con due fenditure. Si osserva quindi, su un apposito schermo che raccoglie le immagini, posizionato a una certa distanza dietro la fenditura, il comportamento della luce dietro le due fenditure. La cosa interessante, e per quei tempi rivoluzionaria, è che Young vide sullo schermo bande chiare e scure che si alternavano. Se però copriva una delle due fenditure in modo che la luce passasse solo all’altra, le bande scomparivano. Perché, vista l’idea che allora i fisici avevano della luce, questo era così sorprendente? Pensiamo a quali risultati ci si può aspettare dall’esperimento di Young se immaginiamo che la luce sia costituita da piccolissime particelle. Inizialmente supponiamo che nella piastra ci sia solo una fenditura, relativamente larga. Le particelle sicuramente percorrono una traiettoria rettilinea, e sullo schermo vedremo una banda larga e chiara…Se man mano stringiamo la fenditura, anche la banda chiara sullo schermo sarà sempre più stretta, fino ad arrivare a un punto in cui il comportamento cambia. Infatti, quando la fenditura è molto stretta, un gran numero di particelle viene in qualche modo deviato e sullo schermo si forma così una banda un po’ più grande di quella prevista. Supponiamo ora di avere due fenditure strette, l’una vicina all’altra…Sicuramente in alcuni punti, soprattutto in quelli che si trovano tra le due fenditure, le particelle possono arrivare in due modi diversi: o attraverso una fenditura, dopo una leggera deviazione, o attraverso l’altra, subendo sempre una leggera deviazione. In ogni caso, se entrambe le fenditure sono aperte, il numero delle particelle che raggiungono un determinato punto sarà semplicemente la somma delle quantità di particelle che sono passate attraverso le due fenditure…In altre parole la luminosità dipende direttamente dal numero di particelle: più particelle arrivano in un punto, più esso ci apparirà luminoso. Purtroppo però con questa ipotesi non riusciamo a spiegare le bande effettivamente osservate da Young. In particolare non riusciamo a spiegare perché in certi punti avvenga un fenomeno bizzarro: sono in luce se è aperta solo una delle due fenditure, non importa quale, e al buio quando entrambe le fenditure sono aperte. E’ questo il motivo delle bande scure che si osservano. Come è possibile che in alcuni punti l’apertura di una seconda fenditura faccia diminuire la luminosità, invece di aumentarla? La semplice ipotesi di partenza, secondo la quale la luce è composta da particelle, è smentita da un’osservazione sperimentale altrettanto semplice, cioè la comparsa di bande chiare e scure…Ci aiuta il fatto che un comportamento simile è ben noto, da secoli, nel caso di un altro tipo di onde. L’esperimento di Young si può eseguire molto facilmente con onde d’acqua (vedi figura).

È naturale allora spiegare i risultati ottenuti da Young ipotizzando che la luce si comporti come un’onda su un lago, cioè concludere che la luce sia un’onda che si diffonde nello spazio…Con il colpo di scena di Planck, il problema si ripresentò, più esplosivo che mai, in modo imprevisto e inaspettato…Come possiamo interpretare la figura d’interferenza, cioè le bande chiare e scure, da un punto di vista corpuscolare? Evidentemente i punti scuri sono quelli in cui non arrivano particelle, mentre in quelli chiari ne arrivano molte. Quindi le bande chiare e scure significano semplicemente che si alternano punti in cui arrivano molte particelle e punti in cui ne arrivano poche, o nessuna. Ci posiamo porre due domande, che portano a considerazioni interessanti: che strada percorre una singola particella prima di arrivare sullo schermo? Cosa fa sì che una particella arrivi in un determinato punto?…Se manteniamo la concezione corpuscolare, tendiamo ragionevolmente a supporre che il fotone passi da una e una sola delle due fenditure. Supponiamo che passi dalla fenditura superiore. Naturalmente raggiungerà poi lo schermo di osservazione in un determinato punto. L’aspetto interessante però è questo: il fatto che la fenditura inferiore sia aperta o chiusa fa una grande differenza. In particolare, se è aperta solo una fenditura la particella può arrivare ovunque sullo schermo. Se però anche la seconda fenditura è aperta, ci sono punti, corrispondenti alle bande scure, in cui una particella non può assolutamente arrivare. La domanda fondamentale allora è questa: come fa la particella che passa dalla fenditura superiore a sapere se la seconda è aperta o no?” (Zeilinger, p. 23-31).

[59] Una sorprendente dimostrazione della contemporanea presenza degli aspetti ondulatorio e corpuscolare di particelle materiali è costituita dagli esperimenti di interferenza con elettroni eseguiti da A. Tonamura nel 1989. In essi il fisico sperimentale “mostra concretamente per mezzo di una serie di “fotografie a tempi diversi” del processo che porta ad impressionare la lastra fotografica, come appunto i singoli elettroni finiscano ciascuno in un punto scelto apparentemente a caso e che solo l’accumularsi dei processi dovuti ai successivi impatti di molti elettroni porta all’emergere della figura d’interferenza.

Alcune semplici osservazioni. Innanzitutto vale la pena di osservare che poiché il fascio incidente è estremamente debole, di fatto, ogni singolo elettrone ha ampiamente il tempo di attraversare l’apparecchio e finire sulla lastra prima che un successivo elettrone entri nell’apparecchio stesso. Questo illustra chiaramente quanto risulti imbarazzante il dovere tenere conto del duplice aspetto ondulatorio e corpuscolare dei processi fisici. Infatti l’elettrone, che ci è difficile immaginare non passi da una delle due fenditure della nota 58, sembra sapere se l’altra fenditura è aperta o no. Se una sola delle fenditure fosse aperta non si avrebbe interferenza ma solo diffrazione e conseguentemente un’immagine leggermente allargata della fenditura stessa. Similmente nel caso in cui solo l’altra fenditura fosse aperta si avrebbe un’altra campana di diffrazione. Se gli elettroni non si comportassero come onde (e si badi bene, ogni singolo elettrone deve comportarsi come tale perché nell’apparecchio c’è un solo elettrone per volta) si avrebbero quindi due sole campane e non la serie di frange di interferenza che è tipica del processo. Questa capacità di “interferire con se stesso” di un oggetto che ogni volta che cerchiamo di rivelare ci appare come un corpuscolo costituisce la prima chiara indicazione della carica rivoluzionaria della teoria la quale, come appropriatamente sottolineato da Einstein, richiede di trovare una nuova base concettuale per tutta la fisica (Ghirardi, p.44-45).

[60] La disputa tra Bohr e Einstein rappresenta il confronto tra le due principali interpretazioni del formalismo della meccanica quantistica. Secondo la cosiddetta “interpretazione ortodossa” della Scuola di Copenhagen “la meccanica quantistica si configura come un modello teorico che consente affermazioni probabilistiche circa i possibili esiti di misura, tuttavia affermazioni condizionate al fatto che le misure vengano effettivamente eseguite. Per questa sua caratteristica si può affermare legittimamente, con Einstein, Schrödinger e Bell, che la teoria, per la sua stessa struttura formale, parla solo di “ciò che troveremo se eseguiamo una misura” e non di ciò che “esiste la fuori… Il problema cruciale è quello del conflitto tra la descrizione classica che vede ogni processo fisico svolgersi in un continuo spazio-temporale e la natura essenzialmente discontinua dei processi quantistici” (Ghirardi, p. 94, 102). Infatti, per il principio di indeterminazione di Heisenberg, “dopo aver misurato la velocità, diciamo che la posizione della particella in questione diventa indeterminata – ma che significa? E’ semplicemente che noi non siamo in grado di conoscerne la posizione, oppure è questa che, in un certo senso, cessa di esistere? Dal punto di vista classico noi concepiamo gli oggetti come cose esistenti in un certo posto. Che succede se la misura della velocità distrugge qualunque significato della nozione di “posto in cui la particella è collocata?” (Arthur Zajonc, p.59)… “ove si assuma valida e completa la descrizione quantistica dei sistemi fisici, le probabilità quantistiche risultano, nel linguaggio dei filosofi della scienza, non epistemiche, il che significa che non possono essere attribuite ad ignoranza, ad una mancanza di informazione sul sistema che, se fosse disponibile, ci consentirebbe di trasformare le asserzioni probabilistiche in asserzioni certe.” (Ghirardi, p.55). Per esempio nell’esperimento della doppia fenditura, “la fisica quantistica riesce a prevedere in modo molto preciso come avviene la diffrazione della luce con le due fenditure. In altre parole, data la durata dell’esperimento, si riesce a calcolare quante particelle arriveranno in un certo punto. Non è possibile, però, prevedere dove arriverà precisamente una determinata particella; anzi, se facciamo passare nello strumento una sola particella, possiamo solo calcolare la probabilità di trovarla in una certa zona dello schermo, e niente più… Questa è un’affermazione fondamentale che non può essere ulteriormente precisata. La fisica non dice altro: l’effettivo comportamento di una singola particella, la sua traiettoria, è lasciato al caso” (Zeilinger, p.34). E proprio il caso, cioè l’aleatorietà degli esiti incorporata nella struttura stessa del formalismo, e l’impossibilità intrinseca di attribuire proprietà alle particelle prima di misurarle (per es. posizione e velocità), spinsero alcuni fisici (Einstein, Schrödinger, de Broglie, Bohm) a considerare la meccanica quantistica una teoria incompleta e a ipotizzare l’esistenza di proprietà, a noi sconosciute (variabili nascoste), che determinano precisamente la traiettoria di ogni particella e il suo punto d’arrivo sullo schermo. “L’aspetto interessante è che queste variabili nascoste sono concepibili in linea di principio, ma dovrebbero avere delle proprietà assolutamente insolite e molto difficili da accettare. In breve dovrebbero essere non-locali, cioè il comportamento di ogni particella dovrebbe dipendere, come se mossa da una mano invisibile, da ciò che accade nello stesso momento in un luogo molto lontano” (Zeilinger, p.36).

[61] “Termine introdotto da Husserl nella Krisis per designare “il mondo in cui viviamo intuitivamente, con le sue realtà, così come si danno, dapprima nella semplice esperienza poi anche nei modi in cui esse diventano oscillanti nella loro validità (oscillanti tra l’essere e l’apparenza ecc.)” (Krisis, § 44). Husserl contrappone tale mondo a quello della scienza, considerato come un “abito simbolico” che “rappresenta” il mondo della vita ma trova posto in esso, che è “un mondo per tutti””. (N. Abbagnano, “Dizionario di Filosofia”).

[62] L’apparecchio noto col nome di camera a nebbia o camera di Wilson è largamente usato negli esperimenti di fisica nucleare, in cui gli atomi di gas ionizzati (su cui si condensa il vapore acqueo) formano lunghe tracce che mostrano il moto delle varie particelle atomiche. Ma le tracce della camera a nebbia non sono linee matematiche e sono anzi molto più spesse di quanto permetterebbe la relazione di indeterminazione di Heisenberg. Poichè in fisica atomica e nucleare la nozione di traiettorie lineari classiche perde inevitabilmente ogni valore, è evidentemente necessario studiare un altro metodo per descrivere il moto delle particelle materiali, e qui ci vengono in aiuto le funzioni d’onda Ψ. (G. Gamow, “Trent’anni che sconvolsero la fisica”, p.114).

[63] Con le espressioni “riduzione del pacchetto d’onde” o “riduzione dello stato quantistico” viene indicato il repentino cambiamento dello stato del sistema per effetto del processo di misura. Per esempio nell’esperimento della doppia fenditura, prima di eseguire la misura, la particella si trova in quel che i fisici chiamano stato di sovrapposizione, cioè nella sovrapposizione della possibilità che attraversi la fenditura superiore e della possibilità che attraversi quella inferiore. Invece, nel momento in cui misuriamo la traiettoria della particella, quest’ultima non si trova più in una sovrapposizione delle due possibilità, ma in una e in una sola delle due. Alcune domande fondamentali sorgono di conseguenza: che cosa accade realmente nel momento in cui fra molte possibilità se ne verifica concretamente una? Perché si verifica proprio la possibilità osservata e non un’altra? E soprattutto, se il formalismo della meccanica quantistica è completo come conciliare la teoria con la nostra esperienza quotidiana? Nessuno di noi è mai entrato in una stanza passando simultaneamente attraverso due porte. Il problema è serio perché il processo di misura coinvolge sistemi microscopici e sistemi macroscopici: infatti se vogliamo ottenere informazioni su un sistema microscopico dobbiamo ricorrere a un processo di amplificazione che correli strettamente le proprietà del primo con situazioni percettivamente distinguibili. Ora se descriviamo il processo di misura attraverso la perfettamente deterministica e lineare equazione di Schrödinger, dobbiamo concludere che lo stato finale è una sovrapposizione di due stati macroscopicamente differenti (+1 e -1 dell’indice dell’apparecchio), cioè l’indice dell’apparecchio non ha una posizione ben definita; se riteniamo che il processo di misura induca la riduzione del pacchetto il risultato sarà uno dei due termini della somma. “Il postulato della riduzione del pacchetto contraddice logicamente l’ipotesi che l’evoluzione del sistema che stiamo trattando sia governata dalla meccanica quantistica. In altre parole, la teoria non è in grado di spiegare come mai nell’interazione tra un sistema ed un apparecchio si verifichi quel peculiare processo che porta ad un esito definito, vale a dire come mai gli apparecchi funzionino nel modo che essa postula…si devono adottare due principi di evoluzione, uno che governa tutti i processi che coinvolgono interazioni tra microsistemi e che è rappresentato dall’equazione di Schrödinger, l’altro cui si deve far ricorso per descrivere i processi di misura, e che è descritto dal postulato di riduzione del pacchetto. Il problema che rimane, e che non è di poco conto, è quello di riuscire ad identificare in modo non ambiguo la linea di demarcazione tra questi due livelli del reale che richiedono essenzialmente due descrizioni fisiche diverse e inconciliabili” (Ghirardi, p.320-321).

[64] L’interpretazione a molti mondi di H. Everett III “richiede di eliminare dal formalismo il processo di riduzione: l’equazione di Schrödinger ha validità assolutamente universale…Si immagina che le varie parti della funzione d’onda che, come ripetutamente sottolineato corrispondono a situazioni macroscopicamente e percettivamente incompatibili ma che vanno tutte prese in considerazione, si riferiscano di fatto a mondi diversi tra i quali non vi è alcuna relazione”. Questa interpretazione richiede “un coinvolgimento radicale dell’osservatore nel processo: esso stesso non può sottrarsi alle ferree e universali leggi che governano tutti gli eventi e quindi l’unica realtà è rappresentata da una funzione d’onda che contiene tutte le possibilità. Tra di esse esistono anche quelle di osservatori con percezioni incompatibili (Ghirardi, p.350-351). “Così in ogni misurazione, con ogni osservazione, l’universo si divide in più universi, e in ognuno di questi si realizza una delle possibilità previste dalla fisica quantistica… Quando l’universo si “suddivide” in due copie, in ognuna delle quali avviene uno dei due eventi, questo accade anche alla nostra coscienza, che in un caso constaterà” uno dei due eventi e nell’altro caso l’altro evento. “Ci sono anche teorie che cercano sì di accettare l’esistenza delle sovrapposizioni, limitandole però al mondo microscopico, rendendole per così dire innocue. In questo caso è necessario introdurre un meccanismo che spieghi come le sovrapposizioni, pur esistendo per particelle microscopiche, piccolissime, spariscano per i sistemi grandi, come i gatti e in generale gli oggetti del nostro mondo macroscopico. Queste interpretazioni sembrano sostenute dal fatto sperimentale che non si osservano sovrapposizioni macroscopiche: una palla da biliardo ha solo una posizione, un gatto è o vivo o morto, e così via. Il fenomeno grazie al quale le sovrapposizioni quantistiche si perdono è detto decoerenza… nell’esperimento della doppia fenditura abbiamo visto che ciascuna delle due onde attraversa una delle due aperture. Queste due onde interferiscono col piano di osservazione in modo tale che si annullano reciprocamente in alcuni punti e si rafforzano in altri. Tale annullamento o rafforzamento è però possibile solo se queste due onde oscillano in modo regolare e hanno un rapporto fisso tra le lunghezze d’onda… In tal caso si parla di onde coerenti o, in generale , di coerenza completa… E’ però del tutto possibile che col tempo il nostro sistema perda questa coerenza. Può succedere, per esempio, per colpa di un’interazione con l’ambiente circostante… può essere semplicemente il fatto di illuminare il sistema, come nel caso della doppia fenditura, per vedere dove si trova la particella. Con questa osservazione disturbiamo il sistema, cioè cambiamo il rapporto fisso tra le due onde parziali, che non riescono più ad annullarsi o a rafforzarsi come prima. Perdiamo quindi la coerenza e la figura di interferenza sullo schermo di osservazione scompare. Questo meccanismo distruttivo è appunto detto decoerenza. Possiamo dire in generale che la decoerenza si verifica quando il sistema porta nell’ambiente informazioni sullo stato in cui si trova…I sostenitori di questa interpretazione basata sulla decoerenza ritengono che i sitemi piccoli siano coerenti – e che quindi l’esperimento della doppia fenditura funzioni con particelle elementari – solo perché hanno pochissime possibilità di essere disturbati dall’ambiente. Ma più un sistema è grande, più questo disturbo è probabile, cioè più forte diventa la decoerenza… Un’interpretazione alternativa sostiene che queste sovrapposizioni macroscopiche siano impossibili per principio, anche in teoria, e che quindi non si potranno mai osservare… Come si può arrivare a escludere per principio le sovrapposizioni nei sistemi macroscopici? La teoria quantistica attuale non offre alcuna possibilità, perché niente autorizza a pensare che le sovrapposizioni siano possibili, per principio, solo per sistemi e particelle molto piccoli. Bisogna quindi avanzare una nuova teoria se si vogliono escludere queste sovrapposizioni a priori e definitivamente. Ciò è stato fatto dai fisici italiani Giancarlo Ghirardi, Alberto Rimini e Tullio Weber, oltre che dall’americano Philip Pearle; nella loro proposta si presuppone molto semplicemente una riduzione spontanea dello stato quantistico. In altre parole si ipotizza che le onde di probabilità, di tanto in tanto, spariscano da sole anche senza osservazione. Dopo questa “riduzione spontanea” a uno stato definito, una particella non si potrà più trovare dappertutto, ma solo in uno spazio preciso. A questo punto, però, può ricomparire un’onda di probabilità, e il processo si ripete. Per spiegare i dati sperimentali, in questa teoria si postula, senza prove ulteriori, che tale riduzione spontanea sia tanto più frequente quanto più grosso è il sistema osservato. Per una singola particella elementare è così rara che non si presenta praticamente mai per tutta la durata dell’universo; per un granello di polvere invece è così frequente che non potremo mai vederlo in uno stato di sovrapposizione” (Zeilinger, p.137, 140, 141, 142).