Modelli universali e teorie alternative

page0_blog_entry241_1

Quello della fisica teorica è un argomento che ho sempre trovato particolarmente interessante, per la sua evoluzione e il suo modo di descrivere l’universo. Vi sono questioni che hanno sempre accompagnato l’uomo durante tutta la sua storia, a incominciare dall’Homo Sapiens e l’uomo di Neanderthal (il principio dell’usanza di praticare culti religiosi), stiamo parlando di tutti quei dilemmi esistenziali, dal quale l’uomo oggi come allora non ha mai trovato alcuna risposta. Oggi un nuovo interrogativo è questo: come mai da milioni di anni ha questa parte nessun uomo è riuscito a trovare una soluzione a questi grandi interrogativi che lo hanno sempre accompagnato? Grazie alle recenti teorie nate da quasi un secolo a questa parte, quest’ultima questione sembra trovare soluzioni valide, tutto sembra divenire improvvisamente più chiaro, ma in che modo? Andando in ordine di tempo, nel 1927, la fisica quantistica postulò un’interessante teoria. IL PRINCIPIO DI INDETERMINAZIONE DI HEISENBERG: formulata dal fisico teorico Werner Heisenberg, la teoria in sintesi sostiene che non è possibile simultaneamente posizione e quantità di moto di un determinato oggetto con precisione arbitraria. Per intenderci, supponiamo di avere un segnale che varia nel tempo, come un segnale sonoro e che si vogliono sapere le frequenze esatte che compongono il segnale in un dato momento, questo sembra essere impossibile poichè per determinare la frequenza del segnale con precisione è necessario campionare il segnale in un determinato intervallo temporale e si perde di conseguenza la precisione sul tempo (un suono non può avere sia un tempo preciso come un breve impulso, che una frequenza precisa, come un tono puro e continuo). Il tempo e la frequenza nel tempo dell’onda, sono analoghi alla posizione e al momento dell’onda nello spiazio. Ancora possiamo immaginare di avere una particella in movimento, della particella possiamo sapere la velocità di spostamento ma non la sua posizione esatta in un determinato momento, oppure possiamo comoscere la collocazione precisa della particella ma non la sua velocità di spostamento. Una definizione della teoria può essere questo: esistono “leggi” in natura che ci consentono di conoscere uno o rispettivamente l’altro dato di un esperimento preso in considerazione. Non è possibile dunque conoscere entrambi i risultati contemporaneamente. Sicessivamente neque la teoria della gravità quantica, LOOP QUANTUM GRAVITY: nata negli anni ottanta è un campo che tende ad unificare la meccanica quantistica che descrive tre delle forze fondamentali in natura (elettromagnetismo, interazione forte e deole) con la teoria della relatività generale, riguardanti le quarta forza fondamentale: la gravità. Lo scopo ultimo di alcune teorie derivanti è quello di ottenere una struttura unica per tutte le quattro forze esistenti e quindi di realizzare una teoria del tutto (M-Theory). In primo luogo, in beve, secondo la LOOP QUANTUM GRAVITY, il nostro universo prima del principio dei tempi (Big Ban) era uno spazio colmato da particelle virtuali, esisterebbe insomma una sorta di oceano quantico, da questo “oceano” di gravità quantica avrebbe preso vita anche il nostro universo, assieme a infiniti altri universi paralleli al nostro, qui nasce una prima interpretazione dei mondi paralleli. Da qui successivamente naquero le recenti 5 teorie delle stringhe, unificate successivamente dalla teoria delle brane, prendendo in considerazione la teoria della supergravità (descritta nel TREAD di NATOXCORRERE riguardo alla mareria mancante dell’universo, nel comparto eliofisica e astronomia). Le 5 teorie delle stringhe avevano una lacuna, non erano in grado di unificare le 4 forze esistenti in natura, poichè entravano in contrasto l’una con l’altra. Tutte le 5 versioni prevedevano un numero diverso di dimensioni spazio-temporali, una ne prevedeva 10 dimensioni, l’altra 26 dimensioni, ecc… ecc… Fu quando si prese in considerazione la teoria della supergravità che a sua volta prevedeva l’esistenza di 10 dimensioni spaziali +1 dimensione temporale che improvvisamente ci si accorse che tutte le 5 versioni della teoria delle stringhe erano corrette, solo poste in modo diverso. A questo punto la meccanica quantistica ebbe una grande svolta: aveva finalmente realizzato il grande sogno di Albert Heinstein, aveva trovato una teoria del tutto (M-Theory) in grado di accordare relatività generale e meccanica quantistica (da sempre in disaccordo), unificando le 4 forze fondamentali esistenti in natura in un unica entità, grazie a un unico modello scentifico e matematico. Da qui naque una nuova interpretazione dei molti mondi, o più precisamente delle realtà parellele descritte dal fisico quantistico Michio Kaku, uno degli artefici della teoria delle superstringhe. Secondo questa interpretazione molto brevemente, ogni possibile evento che si possa verificare nell’universo, si verifica realmente, noi vediamo solo una possibile variante, poichè tutte le altre si verificano in altri universi che si espanderebbero in alcune delle dimensioni a noi oscure (7), ossia in realtà parallele. Una teoria alternativa a quella delle superstringhe tenta di descrivere l’universo in maniera dl tutto originale. TEORIA DELL’UNIVERSO OLOGRAFICO: Nel 1982 un’équipe di ricerca dell’Università di Parigi, diretta dal fisico Alain Aspect, ha condotto quello che potrebbe rivelarsi il più importante esperimento del 20° secolo. Aspect ed il suo team hanno infatti scoperto che, sottoponendo a determinate condizioni delle particelle subatomiche, come gli elettroni, esse sono capaci di comunicare istantaneamente una con l’altra indipendentemente dalla distanza che le separa, sia che si tratti di 10 metri o di 10 miliardi di chilometri. È come se ogni singola particella sapesse esattamente cosa stiano facendo tutte le altre. Questo fenomeno può essere spiegato solo in due modi: o la teoria di Einstein che esclude la possibilità di comunicazioni più veloci della luce è da considerarsi errata, oppure le particelle subatomiche sono connesse non-localmente. Poiché la maggior parte dei fisici nega la possibilità di fenomeni che oltrepassino la velocità della luce, l’ipotesi più accreditata è che l’esperimento di Aspect sia la prova che il legame tra le particelle subatomiche sia effettivamente di tipo non-locale. David Bohm, noto fisico dell’Università di Londra, recentemente scomparso, sosteneva che le scoperte di Aspect implicavano che la realtà oggettiva non esiste. Nonostante la sua apparente solidità, l’universo è in realtà un fantasma, un ologramma gigantesco e splendidamente dettagliato. Ologrammi, la parte e il tutto in una sola immagine Per capire come mai il Prof. Bohm abbia fatto questa sbalorditiva affermazione, dobbiamo prima comprendere la natura degli ologrammi. Un ologramma è una fotografia tridimensionale prodotta con l’aiuto di un laser: per creare un ologramma l’oggetto da fotografare viene prima immerso nella luce di un raggio laser, poi un secondo raggio laser viene fatto rimbalzare sulla luce riflessa del primo e lo schema risultante dalla zona di interferenza dove i due raggi si incontrano viene impresso sulla pellicola fotografica. Quando la pellicola viene sviluppata risulta visibile solo un intrico di linee chiare e scure ma, illuminata da un altro raggio laser, ecco apparire il soggetto originale. La tridimensionalità di tali immagini non è l’unica caratteristica interessante degli ologrammi, difatti se l’ologramma di una rosa viene tagliato a metà e poi illuminato da un laser, si scoprirà che ciascuna metà contiene ancora l’intera immagine della rosa. Anche continuando a dividere le due metà, vedremo che ogni minuscolo frammento di pellicola conterrà sempre una versione più piccola, ma intatta, della stessa immagine. Diversamente dalle normali fotografie, ogni parte di un ologramma contiene tutte le informazioni possedute dall’ologramma integro. Questa caratteristica degli ologrammi ci fornisce una maniera totalmente nuova di comprendere i concetti di organizzazione e di ordine. Per quasi tutto il suo corso la scienza occidentale ha agito sotto il preconcetto che il modo migliore di capire un fenomeno fisico, che si trattasse di una rana o di un atomo, era quello di sezionarlo e di studiarne le varie parti. Gli ologrammi ci insegnano che alcuni fenomeni possono esulare da questo tipo di approccio. Questa intuizione suggerì a Bohm una strada diversa per comprendere la scoperta del professor Aspect. Diversi livelli di consapevolezza, diverse realtà Bohm si convinse che il motivo per cui le particelle subatomiche restano in contatto indipendentemente dalla distanza che le separa risiede nel fatto che la loro separazione è un’illusione. Egli sosteneva che, ad un qualche livello di realtà più profondo, tali particelle no entità individuali ma estensioni di uno stesso “organismo” fondamentale. Per spiegare la sua teoria Bohm utilizzava questo esempio: immaginate un acquario contenente un pesce. Immaginate anche che l’acquario non sia visibile direttamente ma che noi lo si veda solo attraverso due telecamere, una posizionata frontalmente e l’altra lateralmente rispetto all’acquario. Mentre guardiamo i due monitor televisivi possiamo pensare che i pesci visibili sui monitor siano due entità separate, la differente posizione delle telecamere ci darà infatti due immagini lievemente diverse. Ma, continuando ad osservare i due pesci, alla fine ci accorgeremo che vi è un certo legame tra di loro: quando uno si gira, anche l’altro si girerà; quando uno guarda di fronte a sé, l’altro guarderà lateralmente. Se restiamo completamente all’oscuro dello scopo reale dell’esperimento, potremmo arrivare a credere che i due pesci stiano comunicando tra di loro, istantaneamente e misteriosamente. Secondo Bohm il comportamento delle particelle subatomiche indica chiaramente che vi è un livello di realtà del quale non siamo minimamente consapevoli, una dimensione che oltrepassa la nostra. Se le particelle subatomiche ci appaiono separate è perché siamo capaci di vedere solo una porzione della loro realtà, esse non sono “parti” separate bensì sfaccettature di un’unità più profonda e basilare che risulta infine altrettanto olografica ed indivisibile quanto la nostra rosa. E poiché ogni cosa nella realtà fisica è costituita da queste “immagini”, ne consegue che l’universo stesso è una proiezione, un ologramma. Il magazzino cosmico di tutto ciò che è, sarà o sia mai stato Oltre alla sua natura illusoria, questo universo avrebbe altre caratteristiche stupefacenti: se la separazione tra le particelle subatomiche è solo apparente, ciò significa che, ad un livello più profondo, tutte le cose sono infinitamente collegate. Gli elettroni di un atomo di carbonio del cervello umano sono connessi alle particelle subatomiche che costituiscono ogni salmone che nuota, ogni cuore che batte ed ogni stella che brilla nel cielo. Tutto compenetra tutto. Sebbene la natura umana cerchi di categorizzare, classificare e suddividere i vari fenomeni dell’universo, ogni suddivisione risulta necessariamente artificiale e tutta la natura non è altro che una immensa rete ininterrotta. In un universo olografico persino il tempo e lo spazio non sarebbero più dei principi fondamentali. Poiché concetti come la località vengono infranti in un universo dove nulla è veramente separato dal resto, anche il tempo e lo spazio tridimensionale (come le immagini del pesce sui monitor TV) dovrebbero venire interpretati come semplici proiezioni di un sistema più complesso. Al suo livello più profondo la realtà non è altro che una sorta di super-ologramma dove il passato, il presente ed il futuro coesistono simultaneamente; questo implica che, avendo gli strumenti appropriati, un giorno potremmo spingerci entro quel livello della realtà e cogliere delle scene del nostro passato da lungo tempo dimenticato. Cos’altro possa contenere il super-ologramma resta una domanda senza risposta. In via ipotetica, ammettendo che esso esista, dovrebbe contenere ogni singola particella subatomica che sia, che sia stata e che sarà, nonché ogni possibile configurazione di materia ed energia: dai fiocchi di neve alle stelle, dalle balene grigie ai raggi gamma. Dovremmo immaginarlo come una sorta di magazzino cosmico di Tutto ciò che Esiste. Bohm si era addirittura spinto a supporre che il livello super-olografico della realtà potrebbe non essere altro che un semplice stadio intermedio oltre il quale si celerebbero un’infinità di ulteriori sviluppi. Poiché il termine ologramma si riferisce di solito ad una immagine statica che non coincide con la natura dinamica e perennemente attiva del nostro universo, Bohm preferiva descrivere l’universo col termine “olomovimento”. Affermare che ogni singola parte di una pellicola olografica contiene tutte le informazioni in possesso della pellicola integra significa semplicemente dire che l’informazione è distribuita non-localmente. Se è vero che l’universo è organizzato secondo principi olografici, si suppone che anch’esso abbia delle proprietà non-locali e quindi ogni particella esistente contiene in se stessa l’immagine intera. Partendo da questo presupposto si deduce che tutte le manifestazioni della vita provengono da un’unica fonte di causalità che include ogni atomo dell’universo. Dalle particelle subatomiche alle galassie giganti, tutto è allo stesso tempo parte infinitesimale e totalità di “tutto”. Il cervello è un ologramma capace di conservare 10 miliardi di informazioni… Lavorando nel campo della ricerca sulle funzioni cerebrali, anche il neurofisiologo Karl Pribram, dell’Università di Stanford, si è convinto della natura olografica della realtà. Numerosi studi, condotti sui ratti negli anni ‘20, avevano dimostrato che i ricordi non risultano confinati in determinate zone del cervello: dagli esperimenti nessuno però riusciva a spiegare quale meccanismo consentisse al cervello di conservare i ricordi, fin quando Pribram non applicò a questo campo i concetti dell’olografia. Il Dott. Pribram crede che i ricordi non siano immagazzinati nei neuroni o in piccoli gruppi di neuroni, ma negli schemi degli impulsi nervosi che si intersecano attraverso tutto il cervello, proprio come gli schemi dei raggi laser che si intersecano su tutta l’area del frammento di pellicola che contiene l’immagine olografica. Quindi il cervello stesso funziona come un ologramma e la teoria di Pribram spiegherebbe anche in che modo questo organo riesca a contenere una tale quantità di ricordi in uno spazio così limitato. È stato calcolato che il cervello della nostra specie ha la capacità di immagazzinare circa 10 miliardi di informazioni, durante la durata media di vita (approssimativamente l’equivalente di cinque edizioni dell’Enciclopedia Treccani!) e si è scoperto che anche gli ologrammi possiedono una sorprendente capacità di memorizzazione, infatti semplicemente cambiando l’angolazione con cui due raggi laser colpiscono una pellicola fotografica, si possono accumulare miliardi di informazioni in un solo centimetro cubico di spazio…. ma anche di correlare idee e decodificare frequenze di ogni tipo. Anche la nostra stupefacente capacità di recuperare velocemente una qualsivoglia informazione dall’enorme magazzino del nostro cervello risulta spiegabile più facilmente, se si suppone che esso funzioni secondo principi olografici. Non è necessario scartabellare attraverso una specie di gigantesco archivio alfabetico cerebrale perché ogni frammento di informazione sembra essere sempre istantaneamente correlato a tutti gli altri: un’altra particolarità tipica degli ologrammi. Si tratta forse del supremo esempio in natura di un sistema a correlazione incrociata. Un’altra caratteristica del cervello spiegabile in base all’ipotesi di Pribram è la sua abilità nel tradurre la valanga di frequenze luminose, sonore, ecc. che esso riceve tramite i sensi, nel mondo concreto delle nostre percezioni. Codificare e decodificare frequenze è esattamente quello che un ologramma sa fare meglio. Così come un ologramma funge, per così dire, da strumento di traduzione capace di convertire un ammasso di frequenze prive di significato in una immagine coerente, così il cervello usa i principi olografici per convertire matematicamente le frequenze ricevute in percezioni interiori. Vi è una notevole quantità di dati scientifici che potrebbero confermare la teoria di Pribram, ormai, infatti, condivisa da alcuni altri neurofisiologi. Il ricercatore italo-argentino Hugo Zucarelli ha recentemente applicato il modello olografico ai fenomeni acustici, incuriosito dal fatto che gli umani possono localizzare la fonte di un suono senza girare la testa, abilità che conservano anche se sordi da un orecchio. È risultato che ciascuno dei nostri sensi è sensibile ad una varietà di frequenze molto più ampia di quanto supposto. Ad esempio: il nostro sistema visivo è sensibile alle frequenze sonore, il nostro senso dell’olfatto percepisce anche le cosiddette “frequenze osmiche” e persino le cellule del nostro corpo sono sensibili ad una vasta gamma di frequenze. Così come un ologramma funge, per così dire, da strumento di traduzione capace di convertire un ammasso di frequenze prive di significato in una immagine coerente, così il cervello usa i principi olografici per convertire matematicamente le frequenze ricevute in percezioni.Questo è quello che dice la teoria del “paradigma olografico”, si tratta di una teoria che nonostante abbia suscitato un certo interesse all’interno della comunità scentifica, non trova tutt’oggi molti riscontri scentifici, non abbastanza da poter prendere la teoria come possibile modello scentifico che sia valido. Inoltre l’esperimento di Aspect potrebbe provare la non località, non l’esistenza di un universo olografico in tutto e per tutto, oltre al buon senso che ci dice che una persona anche in nostra assenza ha interazioni con il mondo circostante, contrariamente ha quanto lascia intendere la teoria. Io personalmente trovo affascinanti anche queste teorie un po “bizzarre”, comunque molto originali, anche se infine tendo sempre a restare fedele alla M-Theory che trovo particolarmente interessante.

Tratto da: Universo olografico Infine esiste un’altra teoria altrnativa a quella delle superstringhe. Teoria dei Q-Bit: oggi grazie all’era dei computer sappiamo che un Bait è costituito da 8 informazioni (Bit), ogni singola informazione può corrispondere 1 o 0 che corrisponde al numero binario, usato anche per creare segnali digitali per le informazioni radio-televisive. In futuro si crede che l’uomo arrivera a progettare computer dotati di super calcolazione grazie all’ausilio dei Q-Bit che può contenere anche in tal caso 1 o 0 , che però possono sovrapporsi, potendo così contenere sia uno che l’altro in una sola informazione. Per definire il Q-Bit è indispensabile introdurre inanzi tutto un concetto nuovo, ovvero il quanto di informazione. Con quanto di informazione si intende la più piccola porzione in cui una qualsiasi informazione codificata può essere scomposta ed è quindi l’unità di misura dell’informazione codificata. Così come il Bit è il quanto di informazione della computazione classica, la computazione quantistica si basa su un concetto analogo: il quantum bit. Al pari del bit, il Q-Bubit è un oggetto matematico con determinate specifiche proprietà. Il vantaggio nel trattare i Q-ubit come entità astratte risiede nella libertà di costruire una teoria generale della computazione quantistica che non dipende dagli specifici sistemi utilizzati per la sua realizzazione. Ebbene secondo la teoria dei Q-Bit formulata dal filosofo Nick Bostrum, il nostro universo è una sorta di supercomputer, ove tutti gli eventi sono il risultato di complessi calcoli matematici. Anche la nostra stessa anima, ammettendo che esista, per il mondo scentifico questa sarebbe situata nel cervello, composta da informazioni Q-Bit.Avendo visto la struttura dell’universo descritta da alcune delle numerose teorie esistenti, verrei pure riportare una teoria riguardante la sua forma. Per prima cosa occorrerebbe stabilire se l’Universo è piatto, ossia rispetta le regole della geometria euclidea su grande scala. Al momento, la maggior parte dei cosmologi pensa che l’universo osservabile sia (quasi) piatto, esattamente come la superficie della Terra è (quasi) piatta. In secondo luogo, occorre stabilire se l’Universo sia topologicamente connesso oppure no. Secondo il modello del Big Bang, l’Universo non ha un confine spaziale, ma potrebbe comunque essere spazialmente finito. Questo può essere compreso mediante un’analogia con le due dimensioni: la superficie della Terra non ha confini, ma ha comunque un’area finita. Si può pensare anche ad un cilindro, e poi immaginare di liberarsi dalle costrizioni imposte dalla geometria ordinaria e immaginare di unire le due estremità del cilindro, ma senza piegarlo. Anche questo è uno spazio a due dimensioni con un’area finita, ma a differenza della superficie terrestre è piatto, ed è quindi un modello migliore. Ne segue che, strettamente parlando, dovremmo chiamare le sopra menzionate stelle e galassie “immagini” di stelle e galassie, poiché è possibile che l’Universo sia finito e così piccolo che possiamo vedere una o più volte “attorno” ad esso, ed il numero reale di stelle e galassie fisicamente distinte potrebbe essere più piccolo. Alcune osservazioni sono in corso per cercare di confermare o escludere questa possibilità. Ecco le principali teorie riguardanti il destino ultimo dell’universo: Il Big Freeze è uno scenario in cui la continua espansione provocherebbe un universo troppo freddo per sostenere la vita. Potrebbe avvenire nel caso di una geometria piatta o iperbolica, poiché tali sistemi sono condizioni necessaria per la continua espansione dell’universo. Uno scenario simile è la morte termica, secondo la quale l’universo raggiungerebbe uno stato di massima entropia in cui tutto risulta essere omogeneo e non vi sono gradienti. Per esempio, questa è una possibile cronologia, basata sulle teorie fisiche contemporanee, di un universo aperto che va incontro ad una morte termica: 1014 anni: tutte le stelle si sono raffreddate 1015 anni: tutti i pianeti si sono separati dalle stelle 1019 anni: la maggior parte delle stelle si è separata dalle galassie 1020 anni: le orbite di ogni tipo sono decadute a causa delle onde gravitazionali 1031 anni: decadimento del protone, se le teorie di grande unificazione sono giuste 1064 anni: i buchi neri stellari evaporano grazie al processo di Hawking 1065 anni: tutta la materia è diventata un liquido allo zero assoluto 10100 anni: i buchi neri supermassicci evaporano grazie al processo di Hawking 101500 anni: tutta la materia decade in ferro (se il protone non è decaduto prima) 10100,000,000,000,000,000,000000,000 anni (): limite inferiore perché tutta la materia venga inglobata in buchi neri 1010,000,000,000,000,000,000,000,000,000,000,000,0 00,000,000,000,000,000,000,000,000,000,000,000,000 ,000 anni=1×10(76): limite superiore perché tutta la materia venga inglobata in buchi neri. Nel 2003, la rivista americana New Scientist pubblicò un articolo di Robert R. Caldwell, Marc Kamionkowski e Nevin N. Weinberg in cui essi, in base ad alcune osservazioni, facevano l’ipotesi che la fine dell’universo possa avvenire come un “Big Rip” (Grande Strappo), che distruggerebbe la struttura fisica dell’universo. In un universo aperto, la relatività generale prevede che questo avrà un’esistenza futura indefinita, ma che raggiungerà una condizione in cui la vita, come la intendiamo noi, non potrà esistere. In questo modello la costante cosmologica causa un’accelerazione del ritmo di espansione dell’universo. Portata all’estremo, un’espansione costantemente accelerata significa che ogni oggetto fisico dell’Universo, a partire dalle galassie per finire con gli esseri umani individuali, i batteri e i granelli di sabbia, sarà alla fine fatto a pezzi e quindi ridotto a particelle elementari non legate tra loro. Lo stato finale sarà un gas di fotoni, leptoni e protoni (o solo i primi due se gli ultimi decadono) che diventerà sempre meno denso. La teoria del Big Crunch è una visione simmetrica della vita dell’Universo. Così come il Big Bang ha iniziato un’espansione cosmologica, questa teoria suppone che la densità media dell’Universo sia sufficiente a fermare l’espansione e ad iniziare una contrazione cosmica. Non si sa bene quale sarebbe il risultato: una semplice estrapolazione vedrebbe tutta la materia e lo spazio-tempo dell’Universo collassare in un punto matematico, una singolarità gravitazionale adimensionale, ma a queste scale occorrerebbe considerare gli effetti della meccanica quantistica, ignorati dalla relatività generale. Alcuni usano quest’opportunità per postulare un universo oscillante, che inizia di nuovo ad espandersi (vedi anche: Gravità quantistica). Questo scenario non elimina la teoria che il Big Bang fosse preceduto da un Big Crunch di un universo precedente. Se ciò avviene ripetutamente si ha un universo oscillante. L’universo potrebbe quindi consistere di un’infinita sequenza di universi finiti, ognuno dei quali finito con un Big Crunch coincidente con il Big Bang del successivo. Sarebbe a questo punto inutile distinguere un Big Bang da un Big Crunch, e si parlerebbe di singolarità ricorrenti.

Lo scenario del multiverso (o dell’universo parallelo) vuole che, mentre il nostro universo sia di durata finita, questo sia uno di tanti universi. La fisica del multiverso potrebbe permettere a questo di esistere indefinitamente. In particolare, altri universi potrebbero essere soggetti a leggi fisiche diverse a quelle del nostro universo.

Alcuni fisici famosi hanno speculato che una civiltà avanzata potrebbe usare un ammontare finito di energia per sopravvivere un tempo effettivamente infinito. La strategia è quella di avere brevi periodi di attività, alternati da periodi di ibernazione sempre più lunghi. Anche il contrario è vero, per una civiltà che si trovasse nel mezzo del Big Crunch. Qui, un ammontare infinito di tempo soggettivo può essere estratto dal tempo finito rimanente, usando l’enorme energia del Big Crunch per “accelerare” la vita più di quanto il limite si stia avvicinando. Anche se possibile in teoria, non è ben chiaro se possa esistere una possibilità pratica di utilizzare tali meccanismi, per quanto avanzata possa essere una civiltà.

La gravità quantistica a loop (LQG dal termine inglese Loop Quantum Gravity) è conosciuta anche coi termini di gravità a loop, geometria quantistica e relatività generale canonica quantistica. È stata proposta quale teoria quantistica dello spazio-tempo che cerca di unificare le apparentemente incompatibili teorie della meccanica quantistica e della relatività generale. Questa teoria fa parte di una famiglia di teorie chiamata gravità canonica quantistica. È stata sviluppata in parallelo con la quantizzazione a loop, una struttura rigorosa della quantizzazione non perturbativa della teoria di gauge a diffeomorfismo invariante. In parole semplici è una teoria quantistica della gravità in cui il vero spazio in cui accadono tutti gli altri fenomeni fisici è quantizzato. La LQG è una teoria dello spazio-tempo che si fonda sul concetto di quantizzazione dello spazio-tempo mediante una teoria matematicamente rigorosa della teoria della quantizzazione a loop. Essa conserva gli aspetti fondamentali della relatività generale, come ad esempio l’invarianza per trasformazioni di coordinate, ed allo stesso tempo utilizza la quantizzazione dello spazio e del tempo alla scala di Planck caratteristica della meccanica quantistica. In questo senso essa combina la relatività generale e la meccanica quantistica. Tuttavia la LQG non è una ipotetica Teoria del tutto, perché non affronta il problema di dare una descrizione unificata di tutte le forze. La LQG è solo una teoria che descrive le proprietà quantistiche della gravità, e descrive le proprietà quantistiche dello spazio tempo, e non un tentativo di scrivere la teoria del mondo.

Nel 1986 il fisico Abhay Ashtekar (nato il 5 Luglio 1949 in India e oggi attivo presso la Penn State Univerisity) ha riformulato le equazioni di campo della relatività generale di Einstein usando ciò che oggi è conosciuto col nome di variabili di Ashtekar, una variante particolare della teoria di Einstein-Cartan con una connessione complessa. Nella formulazione di Ashtekar i campi fondamentali sono una regola per il trasporto parallelo (tecnicamente, una connessione) ed una struttura di coordinate (dette un vierbein) ad ogni punto. Dal momento che la formulazione di Ashtekar era indipendente dallo sfondo, è stato possibile utilizzare i loop di Wilson come base per la quantizzazione non perturbativa della gravità. L’invarianza del diffeomorfismo esplicito (spaziale) dello stato di vuoto gioca un ruolo essenziale nella regolarizzazione degli stati del loop di Wilson.

Intorno al 1990 Carlo Rovelli e Lee Smolin hanno ottenuto una base esplicita degli stati della geometria quantistica che è stata denominata reti di spin di Penrose. In questo contesto le reti di spin si sono presentate come una generalizzazione dei loop di Wilson necessarie per trattare i loop che si intersecano reciprocamente. Dal punto di vista matematico le reti di spin sono correlate alla teoria del gruppo di rappresentazione e possono essere usate per costruire invarianti di nodi come il polinomiale di Jones. Nel settembre 2004, alcuni ricercatori hanno mostrato matematicamente come uno spazio-tempo a quattro dimensioni possa emergere da una schiuma quantistica gravitazionale. Divenendo strettamente correlata alla teoria quantistica topologica dei campi e alla teoria della rappresentazione di gruppo, la LQG è per la maggior parte costruita ad un livello rigoroso di fisica matematica. Il cuore della gravità quantistica a loop è rappresentato da una struttura per la quantizzazione non perturbativa delle teorie di gauge a diffeomorfismo invariante che può essere chiamata quantizzazione a loop. Originalmente sviluppata al fine di quantizzare il vuoto della relatività generale in 3+1 dimensioni, il formalismo matematico può aiutare la dimensionalità arbitraria dello spazio-tempo, i fermioni (Baez e Krasnov), un gruppo di gauge arbitrario (o anche un gruppo quantistico) e la supersimmetria (Smolin) e porta alla quantizzazione della cinematica delle corrispondenti teorie di gauge a diffeomorfismo invariante. Rimane ancora molto lavoro da svolgere riguardo la dinamica, il limite classico ed il principio di corrispondenza, tutti necessari, in un modo o nell’altro, per poter effetuare esperimenti.

Le tecniche di quantizzazione a loop sono particolarmente utili nel trattare le teorie topologiche quantistiche di campo dove esse danno corpo a modelli state-sum/spin-foam come il modello Turaev-Viro della relatività generale a 2+1 dimensioni. Una delle più conosciute teorie è la cosiddetta teoria BF in 3+1 dimensioni perche la relatività generale classica può essere formulata come una teoria BF con costrizione, e si spera che una quantizzazione significativa della gravità possa derivare dalla teoria perturbativa dei modelli BF a schiuma di spin.

Questa è la teoria dal quale in seguito prese spunto la teoria delle superstringhe, si tratta praticamente di un’evoluzione di tale teoria.

Teoria di un’universo “specchio” Recentemente, grazie alle osservazioni effettuate nel “visibile”, grazie all’ausilio del satellite telescopico Hubble, si è notato che vi sono galassie relativamente giovani posizionate vicino a galassie molto più “vecchie”. Secondo alcuni scenziati questo fenomeno è spiegabile con il fatto che il nostro universo, molto più piccolo di come possiamo osservarlo, si comporterebbe proprio come uno specchio. Infatti molte ipotesi cosmologiche suggeriscono che le tre dimensioni spaziali a noi percepibili, potrebbero essere immaginete: come la buccia che circonda un’arancia. L’arancia nel suo insieme potrebbe rappresentare l’universo, mentre la buccia circostante potrebbe essere paragonabile alle 3 dimensioni spaziali a noi note. In questo modo la luce di una galassia espandendosi attraverso lo spazio tridimensionale, potrebbe dare l’illusione di mote più galassie rispetto a quelle fisicamente esistenti. La luce di una galassia insomma, potrebbe rispecchiare in aree diverse, la stessa immagine della galassia in aree diverse dell’universo, dando in questo modo l’illusione di aver a che fare con centinaia di miliardi di galassie, quando invece in realtà, ve ne sarebbero molte meno in uno spazio molto più ristretto di come lo possiamo osservare noi grazie ai satelliti telescopici come quello di Hubble. Sarebbe un po come entrare in un locale 2×2 metri, avente tutte le pareti tappezzate di specchi, all’interno del piccolo locale subito si avrebbe l’illusione di uno spazio infinito, lo stesso varrebbe per l’universo secondo la teoria dell’universo “specchio”. Dunque se una galassia relativamente giovane, si trova stranamente vicina ad una galassia molto più “vecchia”, è perchè in realta è una galassia “fantasma”, ossia il riflesso di una galassia posta in un punto copletamente diverso da quello osservato. Inoltre una sola galassia potrebbe riflettersi, grazie all’espansione della luce, diverse volte all’interno dello spazio tridimensionale, dando l’illusione di molte galassie, allo stesso tempo, galassie visibili e apparentemente “solide”, in realtà potrebbero essere il riflesso di un numero nettamente inferiore di galassie. Questo è quello che dice la teoria. Teoria di un universo elettrico Scienziati “dissidenti”, promotori della teoria dell’Universo Elettreico, hanno potuto usufruire di nuovi dati a supporto del loro modello grazie alla recente missione Deep Impact che ha portato una sonda NASA all’interno di una cometa.I teorici dell’Universo Elettrico, raccolti intorno al sito Thunderbolts.info, credono che l’elettricità giochi un ruolo determinante nel cosmo, più di quanto non tengano conto i modelli gravitazionali standard, secondo cui le forze elettriche sono insignificanti su scala cosmica. I promotori dell’Universo Elettrico, sostengono che il loro modello può spiegare molti dei bizzarri e misteriosi fenomeni cosmologici del nostro Sistema Solare. Il gruppo di “ribelli” di The Thunderbolts comprende scrittori, ricercatori, ingegneri elettrici, perfino studiosi di mitologia comparata, ed è guidato dal fisico australiano Wallace Thornhill. Le comete sono un caposaldo di tale modello, date le loro eccentriche orbite intorno al sole. Secondo il modello elettrico, le comete non sarebbero affatto inerti masse di ghiaccio e polvere di stelle, ma dei solidi piccoli asteroidi contenenti acqua allo stato ghiacciato, carichi negativamente, che durante il loro moto reagisacono con le cariche positive dei venti solari, che producono il loro caratteristico bagliore e la loro inconfondibile coda.

Prima del Deep Impact, il gruppo dell’Universo Elettrico aveva predetto che ci sarebbero stati due distinti impatti: il primo, a contatto con l’atmosfera elettrificata della cometa, il secondo, più violento, a contatto con la superficie. Ed è esattamente quello che è avvenuto il 4 luglio, lasciando gli scienziati NASA a bocca aperta. “È stato veramente sorprendente”, ha detto Peter Schultz, addetto alla missione. Prima, c’è stato un piccolo lampo, poi una breve attesa, e poi una luce molto più intensa.

Nel frattempo, gli scienziati NASA teorizzano che l’intensa luce provocata dalla collisione sia dovuta alle tonnellate di polvere stellare sollevata dall’impatto e illuminata dal sole. E che il doppio lampo sia dovuto al fatto che il proiettile abbia penetrato due superfici nella cometa: uno strato più soffice e uno più spesso di roccia e ghiaccio.

C’è anche chi ha avanzato l’ipotesi, come Donald Yeomans, scienziato della missione Deep Impact, che la cometa in questione, la Tempel 1, sia differente da quelle standard, il che potrebbe significare che i nuclei di diverse comete possano avere diverse composizioni. Gli scienziati dissidenti rispondono che le immagini di varie comete ottenute da varie sonde hanno rivelato oggetti rocciosi privi di ghiaccio, mentre altre immagini fornirebbero la prova di scariche elettriche in azione.

Secondo David Hughes, esperto di comete e professore di astrofisica alla University of Sheffield, si tratta di “assoluto non-senso”. Poiché, per essere carico elettricamente, il materiale astronomico dovrebbe essere in forma di gas caldo ionizzato, conosciuto come plasma. “L’interno di una cometa ha una temperatura tipica di -100 gradi Celsius. È da escludere la possibilità di elettricità sulla sua superficie”, ha detto Hughes. Per avere una prima risposta a questa questione, occorrerà attendere i dati delle letture a raggi-x e le analisi spettroscopiche. Questa notizia è stata pubblicata dal periodico “Wired News”.

Alessio Mannucci

Teoria di un universo quantistico In meccanica quantistica, il “computer quantico universale” o “universal quantum Turing machine” (UQTM) è una macchina teorica che combina la tesi di Church-Turing (secondo cui se un problema si può calcolare, allora esisterà una macchina di Turing, ovvero un computer, in grado di risolverlo, cioè di calcolarlo) con le leggi quantistiche.È stato proposto per la prima volta nel 1985 dal fisico David Deutsch della Oxford University che suggerì delle “porte quantistiche” che avrebbero potuto funzionare al posto delle tradizionali porte logiche associate alla computazione digitale binaria. L’idea, insieme a quella di Richard Feynman di sfruttare il fenomeno quantistico della sovrapposizione di stati delle particelle subatomiche (entanglement), ha portato alla concezione moderna di “qubit” – bits quantistici – e computazione quantistica. Ad un paio di decenni di distanza, Seth Lloyd, professore al MIT di ingegneria meccanico-quantistica, sostiene nel suo ultimo libro, “Programming the Universe: A Quantum Computer Scientist Takes On the Cosmos”, che la macchina quantistica di Turing universale altro non è che l’universo stesso, una sorta di mega-computer a stati quantici, e di sapere come programmarlo. Seguono alcuni brani dell’intervista rilasciata da Lloyd a Kevin Kelly, guru di Wired e autore di “Out of Control Nuova Biologia delle Macchine dei Sistemi Sociali e dell’Economia Globale”. (Urra Apogeo)

“L’Universo computa se stesso. Computa il flusso di un succo d’arancia mentre lo beviamo, computa la posizione di ogni atomo nelle nostre cellule. Quando manipoliamo la materia o la luce per costruire un computer quantistico è come se stessimo ‘piratando’ il sistema esistente. È come ‘dirottare’ la computazione che già avviene nell’universo, così come un hacker viola i computers altrui”.

Stai parlando forse di una sorta di Matrix ?

“No. Tutto quello che vedi nella matrice è un falso, una simulazione digitale, è solo una facciata di ciò che di reale c’è dietro. Il nostro universo invece è una simulazione così esatta che è indistinguibile dalla realtà. È un grande computer meccanico-quantistico. Questa non è un’idea nuova, o una mia idea. La nozione di universo quantistico è vecchia come ‘The Last Question’ di Isaac Asimov, o i lavori di Ed Fredkin e Konrad Zuse negli anni ‘60”.

“Quando insegno la programmazione ai miei allievi, dico loro che tutto nell’universo è fatto di bits, zeri e uni, pezzetti di informazione. Mia figlia Zoey dice: ‘No papà, tutto è fatto di atomi, eccetto che la luce’. E io le rispondo: ‘Sì, Zoey, ma gli atomi sono anche informazione’. Puoi pensare agli atomi anche come dei vettori che trasportano bits di informazione, oppure puoi pensare ai bits di informazione come trasportatori di atomi. È la relazione tra energia e materia scoperta da Einstein. L’informazione corrisponde a energia, gli atomi alla materia. Ma le due cose no separabili”.

Dunque, “tutto è computabile” ?

“I computers costituiscono al momento la migliore metafora, con cui possiamo descrivere tutto. La realizzazione che il mondo è informazione si deve alla meccanica statistica, alla base di tutta la chimica. La definizione matematica di informazione si deve invece a Claude Shannon e Norbert Weiner, che tra gli anni ‘30 e ‘40 hanno fondato la teoria dell’informazione. Senza dimenticare il lavoro fondamentale di James Clerk Maxwell e Ludwig Boltzmann che nel corso del Novecento hanno esplorato la natura dell’atomo, lavorando sulla termodinamica, scoprendo che il mondo è costituito da informazione”.

Si può anche dire che l’universo è una grande mente ?

“Si può usare anche questa metafora. In questo modo, tutto diventa pensiero, le persone, gli animali, le cose. Ma, purtuttavia, la grande maggioranza del pensiero dell’universo riguarda sempre sottili vibrazioni e collisioni di atomi”. Sembri voler dire che il concetto di universo come un grande computer quantistico non sia solo una metafora, ma una realtà…

“Assolutamente. Atomi ed elettroni sono come bits che entrano continuamente in collisione. L’universo è un sistema in cui gli specifici dettagli e le specifiche strutture sono create dalla de-coerenza quantistica, quando i qubits – bits quantistici – scelgono un percorso tra i molteplici possibili. Questo processo corrisponde alla computazione quantica. In questo senso intendo la programmazione dell’universo”.

Sarà. Rimangono sempre dei quesiti insoluti e forse insolubili. Chi è il programmatore ? Chi scrive il software ? Chi sceglie ? Chi o che cosa dà forma all’universo-multiverso ? E a quale scopo ?

“DATI INSUFFICIENTI PER UNA RISPOSTA SIGNIFICATIVA”, rispose l’AC Cosmico.

Fonte: Wired News Marzo 2006

David Deutsch e colleghi della University of Oxford hanno presentato le equazioni chiave della meccanica quantistica che descrivono la matematica degli universi paralleli. “Si tratta di uno dei lavori più importanti nella storia della scienza”, ha detto Andy Albrecht, unfisicodella University of California.

L’indeterminazione quantistica permette di prevedere solo la probabilità di misurare determinati valori all’atto dell’esperimento. Secondo la meccanica quantistica, le particelle non osservate sono descritte come “funzioni d’onda” o “onde di probabilità”, perché rappresentano una serie di stati probabili (la dualità onda-particella è una caratteristica fondamentale, ndr). Quando un osservatore fa una misurazione, in qualche modo determina la natura corpuscolare della particella che si posiziona secondo una delle multiple opzioni. Il team di Oxford guidato da David Deutsch ha mostrato matematicamente come la natura probabilistica degli esiti quantistici può spiegare la struttura multiversale degli universi paralleli.

Secondo Deutsch, che è uno dei padri della computazione quantistica, la possibilità di realizzare computer quantistici costituisce la prova sperimentale dell’esistenza di una iper-struttura cosmologica “multiversale”. Per “multiverso” si intende un insieme di universi alternativi al di fuori del nostro spazio-tempo, spesso denominati dimensioni parallele o universi paralleli, che nascono come possibile conseguenza di alcune teorie scientifiche, o fanta-scientifiche, come la teoria dell’Inflazione eterna di A. Linde o quella secondo cui da ogni buco nero esistente nascerebbe un nuovo universo, ideata dal fisico Lee Smolin (le dimensioni parallele sono contemplate in tutti i modelli correlati alla teoria delle stringhe).Il nostro universo è nato per effetto di costanti naturali fissate al tempo del Big Bang, come la  dell’elettrone o la velocità della luce, straordinariamente calibrate per favorire la nascita del mondo in cui viviamo. Se la gravità fosse stata leggermente più forte, le stelle avrebbero bruciato il loro combustibile nucleare in meno di un anno. Se invece la forza che tiene uniti gli atomi fosse stata più debole, gli astri non sarebbero neanche esistiti. Insomma, la vita nell’Universo, e in particolare sulla Terra, è il risultato di circostanze così specifiche e di condizioni così restrittive, da essere considerato di per sé un evento altamente improbabile (principio antropico). Ammettere che si formino di continuo interi universi, ognuno con caratteristiche del tutto casuali, aumenterebbe la probabilità statistica che, tra i tanti, possa nascere un Universo con le condizioni giuste per generare l’uomo così com’è. Questa è l’idea del “multiverso” o universo quantistico. Lee Smolin ha addirittura azzardato una teoria sull’origine e l’evoluzione degli universi in termini di selezione naturale. Secondo la sua teoria, ogni qualvolta che da un universo ne nasce un altro, le leggi fisiche si modificano un po’, come avviene per gli esseri viventi. Così ci sono universi che nascono e si estinguono in breve tempo. Questa idea è basata sulla constatazione della meccanica quantistica che a livello microscopico la particella è come se interferisse con una “controparte”, invisibile, oscura, ma reale. Se queste piccole particelle hanno tutte una controparte, ne deriva che anche gli oggetti più grossi hanno a loro volta una controparte. Queste due realtà potrebbero non essere alternative, ma verificarsi entrambe: il minimo cambiamento nello stato di una particella subatomica crea una biforcazione nella storia dell’Universo, generando una rete pressoché infinita di mondi, tutti dotati di una propria concretezza.

Può darsi che esistano infiniti altri universi, e che fra gli altri mondi e il nostro avvengano scambi, separazioni ed intersezioni che forse un giorno si riusciranno a rivelare. Le cosiddette costanti universali, come la velocità della luce, forse non sono così costanti, né così universali. Lo sostiene uno dei fondatori della teoria delle stringhe, Leonard sskind, dell’Università di Stanford (California). Il suo libro “Cosmic Landscape: String Theory and the Illusion of Intelligent Design”, illustra il concetto di “multiverso”: l’universo in cui viviamo sarebbe solo uno dei tanti universi che compongono il multiverso, ognuno con diverse costanti fondamentali.

La visione cosmologica convenzionale non permette di interpretare il nostro spazio (o spazio-tempo) come immerso all’interno di qualcos’altro: lo spazio-tempo costituisce la totalità assoluta e completa di ciò che esiste. Secondo la teoria delle stringhe, invece, il nostro spazio è immerso in qualcosa di più grande: un volume multidimensionale (bulk) dove lo spazio-tempo in cui viviamo rappresenta solo una piccola parte della totalità dell’universo (identificata con il bulk).

Il punto debole di questa affascinante teoria è sempre stata la verifica sperimentale: nessuno finora è mai tornato da un universo parallelo, se non nei racconti fantastici. Secondo sskind, però, un indizio a favore della teoria potrebbe essere vicino: se i calcoli basati sulle osservazioni astronomiche indicheranno che la curvatura dello spazio è negativa, cioè che lo spazio non è né piatto né sferico, allora il concetto di multiverso diventerà molto più plausibile per i fisici.

Tutto nasce dalla cosiddetta “interpretazione a molti mondi” della meccanica quantistica, originariamente proposta da Hugh Everett III nella sua tesi di dottorato (“The Many-Worlds Interpretation of Quantum Mechanics”), secondo cui ogni misura quantistica porta alla divisione dell’universo in tanti universi paralleli quanti sono i possibili risultati dell’operazione di misura (Deutsch è sempre stato uno dei maggiori sostenitori di questa teoria, ndr).

Nel 1957, Everett, studente di John Wheeler a Princeton, propose una nuova interpretazione della meccanica quantistica che, nonostante le sue implicazioni sorprendenti, non suscitò grande interesse fino a quando, dieci anni più tardi, non fu portata all’attenzione generale da Bryce DeWitt, che coniò l’espressione “molti mondi” per descrivere l’idea principale. Everett aveva usato un titolo più sobrio: “Formulazione a stati relativi della meccanica quantistica”. Un noto fisico fu spinto a definirla «il segreto più custodito della fisica».

Everett non pubblicò altri articoli scientifici. Quando fu pubblicato il suo articolo, stava già lavorando per il Weapons Systems Evaluation Group del Pentagono. Pare che fosse un fumatore accanito e morì a poco più di cinquant’anni. La base dell’interpretazione di Everett è l’endemico fenomeno dell’entanglement quantistico. Per sua stessa natura, l’entanglement si può avere soltanto nei sistemi composti (che consistono di due o più parti). L’elemento essenziale dell’interpretazione dei molti mondi, cosi come la si intende quasi universalmente oggi, è che l’universo può e deve essere diviso in almeno due parti – una parte che osserva e una parte che è osservata.

Everett desiderava trovare un’applicazione delle proprie idee nel contesto delle teorie del campo unificato, «dove non è possibile supporre di isolare gli osservatori e gli oggetti. Sono tutti rappresentati in un’unica struttura, il campo».

La grossolana contraddizione tra un universo quantistico statico e la nostra esperienza diretta del tempo e del movimento fu individuata chiaramente da DeWitt, che accennò alla sua soluzione nel 1967: sono le correlazioni quantistiche che, in qualche modo, devono dar vita al mondo. L’idea centrale di DeWitt è che si possano descrivere e dunque prevedere le correlazioni di un mondo che in effetti si evolve, in modo classico o quantistico, nel tempo. Sono passati circa quindici anni prima che i fisici, e comunque soltanto alcuni, iniziassero a prendere sul serio l’idea. La verità è che la maggior parte degli scienziati tende a lavorare su problemi concreti nell’ambito di programmi consolidati: pochi si possono permettere il lusso di tentare di creare un nuovo modo di considerare l’universo. Un problema particolare in tutto quel che riguarda la gravitazione quantistica è che al momento attuale è assolutamente impossibile effettuare prove sperimentali dirette, poiché le scale a cui si prevedono effetti osservabili sono troppo piccole [...],

(Julian Barbour, “La fine del tempo La rivoluzione fisica prossima ventura”, Einaudi, Torino, 2003)

In sintesi: l’interpretazione dei molti mondi sostiene che ad ogni atto di misurazione corrisponde una scissione del nostro universo in una miriade di universi paralleli, uno per ogni possibile risultato del processo di misurazione. Deutsch ha descritto un esperimento in cui un osservatore può sentirsi “come se fosse stato scisso in due parti di sé esistenti parallelamente allo stesso tempo poi riunitesi per formare il suo sé attuale”.

Nella Teoria Quantistica dei Molti Mondi di Andrew Gray, l’intera storia cosmica è frutto di selezioni spazio-temporali, con uguali probabilità per ogni selezione di essere assegnata ad ogni possibile storia. Ogni intera storia cosmica verrebbe selezionata calcolando anche tutte le possibili interferenze su livello microscopico. Per Henry Stapp, gli effetti quantici hanno una grande influenza anche sul modo di operare del cervello, che può essere visto proprio come un “computer quantico”.

Roger Penrose, in “La mente nuova dell’imperatore” e “Ombre della mente”, osserva che le leggi della fisica conosciute non costituiscono un sistema completo e che l’intelligenza artificiale non potrà mai eguagliare l’intelligenza dell’uomo. Penrose ipotizza che la consapevolezza umana potrebbe essere il risultato di fenomeni quantistici ancora ignoti che avrebbero luogo nei microtubuli dei neuroni e che rientrerebbero in una nuova teoria capace forse di unificare la teoria della relatività di Einstein con la meccanica quantistica.

Max Tegmark, in uno scritto pubblicato sulla rivista Physical Review E, ha calcolato che la scala di tempo di attivazione ed eccitazione di un neurone nei microtubuli è più lento del tempo di decoerenza pari a un fattore di almeno 10.000.000.000. Nel luglio del 2007, Tom Gehrels della University of Arizona ha pubblicato un articolo dal titolo “The Multiverse and the Origin of our Universe”, in cui vengono suggeriti degli effetti misurabili dell’esistenza del multiverso.

Alessio Mannucci

Teoria di un universo ciclico Martin Bojowald, professore di fisica alla Penn State University, ha introdotto un nuovo modello matematico-quantistico che al posto del Big Bang prevede un “Big Bounce”, secondo cui la nascita del nostro universo corrisponderebbe al collasso di un universo precedente, avvalorando la teoria dell’universo ciclico. La ricerca di Bojowald, che è stata annunciata sull’edizione on line di Nature Physics e sarà pubblicata sulla versione cartacea nel mese di agosto, suggerisce anche che alcune proprietà dell’universo primigenio sono impossibili da calcolare a causa delle estreme forze quantistiche che caratterizzano il Big Bounce.Come descritto dalla Teoria della Relatività Generale di Einstein, l’origine del Big Bang è uno stato di non-senso matematico, una singolarità di volume zero che tuttavia conteneva una densità e un’energia infinite. Bojowald e altri fisici della Penn State University stanno dunque esplorando un territorio sconosciuto perfino ad Einstein, il tempo prima del Big Bang, usando una macchina del tempo matematica chiamata “Loop Quantum Gravity” (“Gravità Quantistica a Loop”). La loro teoria, che combina quella einsteniana della Relatività Generale con equazioni della fisica quantistica che non esistevano all’epoca di Einstein, è la prima descrizione matematica per stabilire sistematicamente l’esistenza del Big Bounce e dedurre le proprietà dell’universo primigenio. “Le equazioni quantistiche, non incluse nella Relatività Generale, sono necessarie per descivere le energie estreme che dominavano il nostro universo nelle sue prime fasi di evoluzione”, ha spiegato Bojowald. La Loop Quantum Gravity, sviluppata all’Institute for Gravitational Physics and Geometry della Penn State University, è considerata oggi come lo strumento principale per raggiungere l’obiettivo ambizioso di unificare la relatività generale con la fisica quantistica. Finora, gli scienziati che stanno conducendo le indagini hanno scoperto che il punto di inizio del nostro universo aveva un volume minimo diverso da zero e un’energia massima non infinita. Proprio grazie a questi limiti, le equazioni della teoria continuano a produrre risultati matematici validi che stanno fornendo una finestra retroattiva per osservare il tempo prima del Big Bounce.

La teoria della gravità quantistica indica che la struttura dello spazio-tempo ha una geometria atomica intrecciata con una stringa quantistica mono-dimensionale. Una struttura violentemente lacerata dalle energie estreme che caratterizzano il tempo vicino al Big Bounce, che spingono la gravità a diventare talmente repulsiva che, invece di scomparire nell’infinito, come predetto dalla Relatività Generale di Einstein, l’universo si riversa nel Big Bounce da cui nascerà il nostro universo in espansione. La teoria rivela un universo in contrazione prima del Big Bounce, con una geometria spazio-temporale che altrimenti sarebbe stata simile all’universo attuale.

La teoria della Loop Quantum Gravity necessitava di un modello più preciso. Per questo Bojowald ha sviluppato un modello matematico per produrre delle soluzioni analitiche più esatte, risolvendo una serie di equazioni. Per essere ancora più preciso, Bojowald ha poi sviluppato un secondo modello, riformulando le descrizioni matematiche quantistiche, in modo da rendere il tutto più semplice e più esplicito. Le equazioni differenziali della gravità quantistica richiedono molti calcoli di numerose e consecutive sottili variazioni temporali; Bojowald le ha incorporate in un sistema integrato in cui una quantità cumulativa di tempo può essere specificata per aggiungere tutte le piccole variazioni.

Si tratta di equazioni che cercano di descrivere lo stato del nostro universo attuale in modo estremamente accurato, per poi viaggiare matematicamente nel tempo, fino agli stadi primigeni. Per fare questo, le equazioni contengono anche alcuni parametri “liberi”, non conosciuti con esattezza. Bojowald ne ha scoperti due complementari: uno è relativo quasi esclusivamente al tempo dopo il Big Bounce, l’altro al tempo prima del Big Bounce. Questi due parametri rappresentano l’ “incertezza quantistica” del volume totale dell’universo prima e dopo il Big Bang. “Queste incertezze sono parametri addizionali che applichiamo in contesti quantistici come la teoria della gravità quantistica”, ha detto Bojowald, “per via dell’incertezza tipica della fisica quantistica, dove esiste una complementarietà tra la posizione di un oggetto e la sua velocità che impedisce misurazioni precise. Giungere a calcolare con precisione questi fattori di incertezza è praticamente impossibile”.

Bojowald è giunto alla conclusione che almeno uno dei parametri relativo all’universo precedente pravviverà al viaggio verso il Grande Salto, e che l’universo successivo, il nostro, non costituisce una perfetta replica del suo predecessore. “La ricorrenza eterna di universi assolutamente identici al momento è oscurata da una intrinseca dimenticanza cosmica”, ha concluso Bojowald.

Un nuovo modello cosmologico, in contrasto con le teorie relative al Big Bang, propone l’idea che l’universo può espandersi e contrarsi all’infinito.

Il modello ciclico proposto dai fisici Paul Frampton e Louis J. Rubin Jr., professori di fisica al College of Arts and Sciences della University of North Carolina, insieme al loro studente Lauris Baum, si divide in 4 parti essenziali: espansione, turnaround (inversione di tendenza), contrazione e rimbalzo. Durante l’espansione, l’energia oscura spinge tutti i frammenti di materia in parti così distanti che niente può fare da ponte tra i gaps. Tutto, dai buchi neri agli atomi, si disintegra. Questo punto, solo una frazione di secondo prima della fine del tempo, costituisce il turnaround, in cui ogni parte frammentata collassa e si contrae singolarmente, invece di riunirsi in una sorta di Big Bang rovesciato. Le varie parti diventano così un numero infinito di universi indipendenti che si contraggono e poi balzano di nuovo all’esterno rigonfiandosi in maniera simile al Big Bang. Solo uno di questi è il nostro universo. “Questo ciclo, che accade un numero di volte infinito, elimina ogni inizio e fine del tempo”, dice Frampton, “non c’è alcun Big Bang”. Come a dire: “Nulla si crea e nulla si distrugge”.

Il primo modello alternativo al Big Bang – relativo ad un universo oscillante, senza inizio e senza fine, secondo cui l’Universo si espanderà fino ad un certo punto, e poi si ritrarrà in uno stato simile a quello del Big Bang, quindi ripetendo il processo per l’eternità, attraverso il meccanismo del “Grande Balzo” (Big Bounce) – fu proposto nel 1930. Ma l’idea fu presto abbandonata, poiché le oscillazioni non potevano essere riconciliate con le regole della fisica, inclusa la seconda legge della termodinamica, secondo cui l’entropia non può essere distrutta. Ma se l’entropia aumenta tra un’oscillazione e l’altra, l’universo si espanderebbe ad ogni ciclo, “come una palla di neve rotolante”, dice Frampton. Frampton e Baum hanno aggirato l’ipotesi del Big Bang postulando che, al turnaround, ogni rimanente entropia sia in porzioni troppo distanti per poter interagire: divenendo ogni porzione un universo separato, si può supporre che ogni universo si contragga in assenza di materia e entropia. “La presenza di materia causerebbe difficoltà insuperabili alla contrazione”, dice Frampton.

Un’altra chiave fondamentale della teoria di Frampton e Baum è l’assunzione riguardo l’equazione matematica che descrive pressione e densità dell’energia oscura: secondo Frampton e Baum lo stato dell’energia oscura è sempre meno di -1, mentre il precedente modello ciclico proposto nel 2002 dai fisici Paul Steinhardt e Neil Turok aveva stabilito che il valore non era mai meno di -1. Questo valore negativo assunto dall’equazione di Frampton e Baum implica che la densità dell’energia oscura divenga uguale alla densità dell’universo e che ad un certo punto l’espansione si fermi, poco prima del “Big Rip”.

Data articolo: luglio 2007 Fonte: Space Daily

Creare un universo virtuale di Matrix A che condizioni un computer che riproduce dei filmati di grafica artificiale, ossia elaborati al computer in tempo reale, può realizzare una realtà virtuale del tutto indistinguibile dalla vera realtà? In altri termini, quale test deve superare una realtà prodotta interamente al computer per essere pienamente identica e non distinguibile da quella reale?Deve superare il cosiddetto “Test di Turing grafica”, che in soldoni significa che l’occhio di un osservatore, che non sa quale è lo schermo che riproduce la realtà prodotta al computer e quello che invece mostra un video con la realtà ripresa dal mondo reale, non è in grado di distinguere le due rappresentazioni. Michael McGuigan, ricercatore del Brookhaven National Laboratory, ha provato a testare gli esiti derivanti dalla produzione di un mondo interamente elaborato al computer con uno dei più potenti supercomputer esistenti, il Blue Gene/L al Brookhaven National Laboratory di New York.

Il risultato è stato sorprendente, ma non tale da superare il Test di Turing grafica. L’osservatore può ancora capire cosa è artificiale e cosa no. La ricerca però ha permesso di gettare delle prospettive un po’ più precise su quando sarà possibile creare un universo virtuale perfetto, simile a quello immaginato nel film di fantascienza cult “Matrix”.

Secondo McGuigan manca davvero poco: «Dai dati che ho ottenuto sarà possibile ottenere una riproduzione perfetta con una velocità di un milione di miliardi di operazioni al secondo un risultato che dovrebbe essere raggiunto in pochi anni».

Autore: Pierluigi Emmulo

67 lenti gravitazionali scoperte da Hubble Di tutte le immagini identificate dal programma COSMOS, le più impressionanti mostrano la luce distorta di una o due galassie di sfondo.Dalle immagini ad alta risoluzione ottenute grazie a Hubble, completate da osservazioni compiute da terra, gli astronomi hanno identificato 67 galassie fortemente distorte dal fenomeno di lente gravitazionale. È questo il risultato di un recente ed esteso progetto di osservazione del di una singola porzione di cielo che misura 1,6 gradi quadrati – pari a nove volte l’area dell’intera Luna – per mezzo di diversi osservatori astronomici situati a a Terra. Il progetto COSMOS, guidato da Nick Scoville del California Institute of Technology, ha utilizzato infatti gli accurati strumenti dei telescopi spaziali Hubble, e Spitzer, della navicella XMM-Newton, del Chandra X-ray Observatory, del Very Large Telescope (VLT), baru Telescope e del Canada France Hawaii Telescope (CFHT).

I colleghi europei guidati da Jean-Paul Kneib, del Laboratoire d’Astrophysique de Marseille e Cécile Faure, del Zentrum für Astronomie dell’Università di Heidelberg hanno poi analizzato i risultati dell’Advanced Camera for rveys (ACS) di Hubble. Grazie proprio alle immagini ad alta risoluzione di questo strumento, integrate da osservazioni di follow-up compiute da Terra, sono state identificate 67 immagini di galassie distanti, fortemente distorte dal fenomeno di lente gravitazionale.

L’effetto di lente gravitazionale è un fenomeno previsto dalla teoria della relatività generale, che consiste nella deflessione dei raggi di luce che passano in prossimità di grandi masse celesti, costituite il più delle volte da galassie o da ammassi di galassie. Quando si osservano oggetti molto distanti nel cosmo e lungo la direzione di vista è posto un oggetto molto massiccio, quest’ultimo si comporta come una lente, distorcendo o moltiplicando l’immagine dell’oggetto distante.

Le lenti gravitazionali offrono spesso agli astronomi un’occasione unica di effettuare osservazioni in regioni molto remote dell’universo e di gettare così un’occhiata alle fasi primordiali del cosmo.

L’effetto prodotto da galassie massicce, sottolineano i ricercatori, è molto più comune degli “archi giganti” già osservati dallo stesso Hubble, ma sono più difficili da individuare perché meno estesi nello spazio e di forma molto varia.

Delle 67 lenti gravitazionali identificate dal programma COSMOS, le più impressionanti mostrano l’immagine distorta di una o due galassie molto distanti. Almeno quattro, inoltre, danno luogo ad anelli di Einstein, una immagine completa e circolare che si forma quando una galassia di sfondo, una galassia massiccia in primo piano e il telescopio Hubble sono perfettamente allineati.

Homepage | Le Scienze

L’universo è pulsante? Secondo i risultati di un recente studio, l’Universo potrebbe essere pulsante. L’attuale Universo sarebbe nato a seguito della contrazione di uno precedenteSecondo il modello standard cosmologico, l’Universo nacque poco meno di 14 miliardi di anni fa con una immane esplosione da cui hanno avuto origine la materia e lo spazio-tempo: il Big Bang. Tutto sarebbe quindi iniziato in maniera estremamente violenta e le primissime fasi evolutive dell’Universo si sarebbero susseguite in tempi incredibilmente brevi. Da quella esplosione primordiale sarebbe emerso un agglomerato densissimo di radiazione e materia, tenuto insieme da una forza molto intensa, unione delle quattro forze naturali oggi note (gravitazionale, elettromagnetica, nucleare forte e nucleare debole). La forma dell’Universo si è determinata tutta nelle primissime frazioni di secondo dopo il Big Bang: con il progressivo raffreddamento causato dalla rapidissima espansione, radiazione e particelle si sono separate e lo stesso è accaduto per le quattro forze fondamentali che adesso governano l’Universo. La materia ha prevalso sull’antimateria, i quark (le più piccole particelle elementari finora conosciute) si sono legati tra di loro per formare i nuclei; a questo punto (circa 300.000 anni dopo il Big Bang) l’universo da opaco è diventato trasparente. Da quel momento avrebbero avuto inizio la formazione e l’evoluzione dei corpi celesti che oggi conosciamo. Le teorie classiche sull’origine e l’evoluzione dell’universo non permettono però di risalire indietro nel tempo, prima del momento in cui si è verificato il Big Bang, ma alcuni ricercatori dell’Università della Pennsylvania hanno dimostrato la possibilità di superare questo limite. Per farlo, hanno combinato i principi della meccanica quantistica e della relatività generale – un primo approccio apparentemente fruttuoso al problema non ancora risolto dell’unificazione della relatività generale e della fisica quantistica -, utilizzando strumenti matematici e sistemi di calcolo che non erano disponibili quando Einstein propose la sua teoria della relatività generale, su cui si basano i moderni modelli cosmologici. Secondo i risultati di questo nuovo modello, prima del Big Bang esisteva un altro universo in contrazione con una geometria dello spazio-tempo del tutto simile a quella dell’universo in cui viviamo, che è in fase di espansione. Con l’avanzare della contrazione, le proprietà quantistiche dello spazio-tempo dell’universo precedente raggiunsero delle condizioni tali da rendere la gravità una forza repulsiva anziché attrattiva, ad un’immane implosione sarebbe quindi seguita una violentissima fase espansiva da cui si sarebbe originato l’universo che conosciamo. Applicando delle modificazioni quantistiche alle equazioni cosmologiche di Einstein, sarebbe stato quindi dimostrato che invece del classico Big Bang si sarebbe verificato un “Big Bounce”, cioè un grande rimbalzo. L’idea di un universo pulsante, in cui a un periodo di espansione ne segue uno di contrazione e così di seguito non è nuova, ma adesso è la prima volta che viene fornita la descrizione matematica che ne dimostrerebbe la correttezza.

Focus

Lascia un Commento