sobota, 9 lutego 2008

Kosmologia i Zasada Macha

Dlaczego woda w obracającym się wiadrze gromadzi się wokół jego brzegów, tworząc wklęsły menisk, a przy dużej prędkości obrotów zaczyna wylewać się z wiadra? Dlaczego na półkuli północnej wiatr ma tendencję do skręcania w prawo, a na południowej – w lewo? Dlaczego płaszczyzna ruchów długiego i ciężkiego wahadła powoli obraca się zamiast pozostawać nieruchoma względem powierzchni Ziemi? Oczywiście od razu odpowiemy, że za wszystkie te zjawiska odpowiada siła bezwładności, która w pierwszym przypadku przejawia się jako siła odśrodkowa, w drugim, jako siła Coriolisa, w trzecim zaś sprawia, że ruch obrotowy Ziemi wokół własnej osi manifestuje się obserwowanym obrotem płaszczyzny ruchów wahadła. Każda jednak znana nam siła jest relacją dwóch lub więcej wzajemnie oddziałujących ciał. Czy siła bezwładności może tu być wyjątkiem? Czy woda w umieszczonym w pustej przestrzeni obracającym się kubełku zgromadziłaby się przy jego ściankach? Po czym jednak w pustej przestrzeni poznalibyśmy, że kubełek się obraca? Czy istnieje coś takiego jak ruch obrotowy względem samej przestrzeni? Ale jeśli na takie pytanie odpowiadamy twierdząco, to czy tym samym nie musimy pójść dalej i uznać, że również istnieje ruch prostoliniowy względem przestrzeni, a może także jakiś bezwzględny środek układu współrzędnych przestrzeni jako takiej? Czy wahadło Foucaulta zachowuje stałą płaszczyznę wahania względem przestrzeni? Czymże jednak jest przestrzeń? Czy nie jest to tylko matematyczna miara relacji między bytami materialnymi? Czy ontologiczny status przestrzeni jest zasadniczo inny niż geometrycznych figur lub powszechników, o które toczył się słynny średniowieczny spór? Czy więc nie jest tak, że o przestrzeni możemy mówić wyłącznie w kontekście materialnych obiektów, jako o strukturze pewnych relacji między nimi? Przecież tak właśnie uznali już w XVIII wieku Gottfried Leibniz i George Berkeley i pogląd ten brzmi bardzo współcześnie. Jednak skoro ruch względem przestrzeni nie istnieje, nie może też istnieć przyspieszenie lub obrót względem przestrzeni. Wszak przyspieszenie jest niczym innym, jak zmianą tempa zmiany położenia i jako takie zyskuje sens wyłącznie w kontekście jakichś materialnych bytów, do których się odnosi. Możemy powiedzieć, że „kamień A znajduje się w odległości 3 metrów od kamienia B”, ale nie możemy powiedzieć, że „kamień A znajduje się w odległości 3 metrów”, nie dodając - przynajmniej domyślnie - od czego. Ale skoro pojęcie odległości ma sens wyłącznie względny, jako relacja między dwoma materialnymi bytami, to - powtórzmy - również zmiana odległości w czasie (prędkość) i zmiana zmiany odległości (przyspieszenie) posiadają wyłącznie sens względny. Podobnie musi też być z obrotem. Pójdźmy dalej. Skoro w pustej przestrzeni obrót nie istnieje, nie może więc też istnieć siła wywołana obrotem. Co więc wywołuje siłę odśrodkową? Czyż może to nie te same obiekty, które pozwalają nam stwierdzić, że jakieś ciało się obraca? Czy jest tylko przypadkiem, że umieszczone na biegunie ziemskim wahadło Foucaulta zachowuje stałą płaszczyznę wahania względem odległych gwiazd i galaktyk?
Takie właśnie pytania postawił w swym słynnym dziele „Die Mechanik in ihrer Entwicklung” austriacki fizyk i filozof Ernst Mach. Myśliciel ten doszedł do wniosku, że siły bezwładności muszą być pochodną oddziaływania odległych mas we Wszechświecie. Inaczej mówiąc, gdyby nie było odległych gwiazd, woda w obracającym się wiadrze nie gromadziłaby się przy jego brzegach. Mach odniósł się w ten sposób do argumentu rzekomo świadczącego o istnieniu przestrzeni absolutnej użytego w „Philosophiae Naturalis Principia Mathematica” przez Newtona. Co ciekawe, sam Mach nigdzie nie sformułował w precyzyjny sposób swej słynnej zasady. Była ona formułowana później przez wielu uczonych nią zainspirowanych – do ich grona należał między innymi Albert Einstein, który Zasadę Macha nazwał kiedyś główną inspiracją dla Teorii Względności. Zgodność z nią uważał za test każdej porządnej teorii naukowej. Tak było aż do czasu, gdy okazało się, że Ogólna Teoria Względności jest z Zasadą Macha sprzeczna. Wśród innych uczonych, którzy Zasadę Macha uznawali za jedną z najważniejszych zasad w fizyce wymienić trzeba Richarda Feynmana, który w oparciu o nią rozbudowywał swoją teorię oddziaływania na odległość.


Jaka jest jednak natura oddziaływań wywołujących bezwładność? Jaki to rodzaj siły: czy są to oddziaływania grawitacyjne, elektromagnetyczne czy też jakieś jeszcze inne? Inaczej mówiąc, jakie właściwości odległych ciał o wielkości tej siły decydują? Drugie pytanie, to, co sprawia, że odpowiadają za ich występowanie ciała odległe, a nie bliskie? Trzecie - jakim wzorem matematycznym możemy te siły opisać?
By odpowiedzieć na te pytania zauważmy najpierw, że masa grawitacyjna i masa bezwładna, z tak wielką dokładnością, na jaką pozwalają nam najdoskonalsze metody badawcze, są sobie równe. Równoważności masy grawitacyjnej i bezwładnej dowodzą na przykład eksperymenty przeprowadzane w sztucznych satelitach Ziemi: gdyby masa bezwładna – występująca we wzorze F = m*a - różniła się choćby minimalnie od masy występującej we wzorze G*m*Mz/r^2 wówczas w stacjach orbitalnych nie występowałaby prawdziwa nieważkość.
Wynika stąd, że natura sił bezwładności i grawitacji jest identyczna. Oznacza to też, że cechą odległych ciał wywołujących bezwładność wody w „kubełku Newtona” jest ich masa.
Co jednak sprawia, że na siłę tą wpływają ciała odległe, a nie bliskie? Jeśliby zależność tego oddziaływania była odwrotnie proporcjonalna do kwadratu odległości – tak jak we wzorze na statyczną składową grawitacji, wówczas oddziaływanie Ziemi byłoby nieporównanie większe niż oddziaływanie odległych gwiazd i wahadło Foucaulta nie zachowywałoby się w obserwowany sposób.
Już od XIX wieku wielu uczonych próbowało tworzyć uogólnione wzory dla oddziaływań (głównie elektromagnetycznych), w których obok zależności od odległości i od prędkości występowałaby też zależność siły od przyspieszenia. Wspólną cechą tych wzorów, była zależność składnika przyspieszeniowego od odwrotności odległości oddziałujących ciał i zasadniczo wszyscy fizycy są zgodni, że jeśli istnieje składowa siły zależna od przyspieszenia to musi ona maleć w ten właśnie sposób. Siła bezwładności rzędu 1/r tłumaczy nam dlaczego odległe galaktyki wywierają znacznie większy wpływ na bezwładność znajdujących się na Ziemi ciał niż nasza własna planeta. Amitabha Ghosh w swej fascynującej książce „Origin of Inertia” pokazuje zestawienie wpływu rozmaitych ciał na bezwładność ciała o masie 1 kg znajdującego się na powierzchni Ziemi: Ziemia – 10^-9 kg, Słońce – 10^-7 kg, Droga Mleczna – 10^-6 kg, reszta Wszechświata = pozostała część 1kg. Tak rozkłada się wpływ rozmaitych obiektów na bezwładność 1 kg, przy założeniu, że siła bezwładności spada odwrotnie do odległości. Ze względu na ogromne podobieństwo sił grawitacyjnych i elektromagnetycznych, Ghosh zapożycza od D.W.Sciamy wzór na siłę zależną od przyspieszenia, która w przypadku grawitacji (po uwzględnieniu oddziaływania z całym Wszechświatem) jest siłą bezwładności:

F = (G*m1*m2/(c^2)*r)*a

We wzorze G to stała grawitacji, a c to prędkość światła (podstawiając masę Ziemi jako m1, a promień Ziemi jako r otrzymujemy wielkość tej siły, rzędu 10^-9 kg, o czym mówiłem wyżej).

Zastanowiło mnie, jak taką koncepcję sił bezwładności daje się pogodzić z ideą nieskończonej ilości materii we Wszechświecie. Przecież nieskończona masa, musiałaby wytworzyć nieskończoną siłę bezwładności (chyba, żeby wymiar fraktalny Wszechświata był w wielkich kosmologicznych skalach mniejszy od jedności, tego jednak nic nie potwierdza). Rozwiązanie wiąże się (choć Ghosh tego wprost nie pisze) ze zjawiskiem przesunięcia widma odległych galaktyk ku czerwieni, któremu musi odpowiadać analogiczne zjawisko słabnięcia energii grawitonów wraz ze wzrostem pokonywanej odległości. Za oba te zjawiska w kosmologii Ghosha odpowiada prędkościowy składnik siły grawitacyjnej (ogólny wzór na siłę grawitacji i jej zależność od odległości, prędkości i przyspieszenia w dalszej części). Grawitacja jest więc tu nie tylko odpowiedzialna za redshift, ale i za samoograniczanie własnej przyspieszeniowej składowej w skali kosmologicznej.
Ghosh pokazuje, że zjawisko utraty energii przez wędrujący foton lub grawiton musi wykładniczo zależeć od pokonywanej odległości:

z = (λ-λ0)/λ0 = e^(kx/c)-1

gdzie z to współczynnik przesunięcia ku czerwieni, λ0 to początkowa długość fali, λ to długość fali po przebyciu dystansu x, k to stała wyprowadzona przez Ghosha z uogólnionego wzoru na grawitację (patrz niżej), a c to prędkość światła. Dla x znacznie mniejszych od c/k, stosując wzór na rozwinięcie w szereg funkcji wykładniczej otrzymujemy relację: z = kx/c. Jeśli chcielibyśmy taką zależność przesunięcia ku czerwieni od dystansu interpretować jako ucieczkę galaktyk (tak jak czyni to kosmologia Wielkiego Wybuchu), wówczas po podstawieniu tej relacji do wzoru v = cz, otrzymalibyśmy znany wzór v=kx, a więc k okazuje się być stałą Hubble-a (H=73±3 km/s/Mpc ). I rzeczywiście, dla obserwowanego obecnie kosmosu różnica między przebiegiem powyższej funkcji wykładniczej i funkcji liniowej jest niemożliwa do ustalenia.

Wracając do siły bezwładności - jest ona całką po Wszechświecie siły opisanej wzorem F = (G*m*M/(c^2)*r)*a, na który dodatkowo nakłada się efekt słabnięcia siły o przebiegu wykładniczym. Choć Ghosh takiego wzoru nie podaje, jednak moim zdaniem powinien on mieć postać:

F = {[G*m*M*e^(-H*r/c)]/(c^2)*r}*a

Całka po Wszechświecie z takiej funkcji jest oczywiście skończona i przy założeniu gęstości materii 7*10^-27 kg/m^3 mniej więcej odpowiada obserwowanej wartości bezwładności (i to niezależnie od tego czy materia rozmieszczona jest w sposób fraktalny czy jednorodny). Tak więc prędkościowa składowa grawitacji wyjaśnia nie tylko kosmologiczny redshift, ale i zbieżną wartość siły bezwładności.

Oba rozszerzenia wzoru grawitacji o czynniki przyspieszeniowy i prędkościowy nazywa Ghosh poszerzoną Zasadą Macha. Ogólny wzór na oddziaływanie grawitacyjne między dwoma ciałami ze składową statyczną, prędkościową i przyspieszeniową ma u niego postać:

F = -(G m1 m2 / r^2) u -(G m1 m2/c^2 r^2) v^2 f(o1) u -(G m1 m2/c^2 r) a f(o2) u,

gdzie G to stała grawitacji, c to prędkość światła, m1 i m2 to masy oddziałujących ciał, r to dystans między nimi, u to wersor skierowany równolegle do r, o1 to kąt między wektorem prędkości, a przedłużeniem promienia łączącego oba ciała, o2 to kąt między wektorem przyspieszenia, a przedłużeniem promienia łączącego oba ciała, a f to funkcja trygonometryczna cosinus lub inna funkcja o podobnym przebiegu (Ghosh przeprowadza tu szczegółowe analizy, oraz argumenty za taką, a nie inną postacią tego wzoru oraz występującej w nim funkcji f).
Na podstawie tego wzoru tłumaczy Ghosh cały szereg tajemniczych zjawisk astronomicznych i kosmologicznych, też „z naszego podwórka”, jak na przykład osobliwości w ruchu Marsa i jednego z jego satelitów (pokazuje przy okazji całkowitą zawodność prób wyjaśnienia tych fenomenów za pomocą Ogólnej Teorii Względności). Tłumaczy też nietypowe prędkości ramion galaktyk i osobliwości występujące w świecie gromad galaktyk.

Do podobnych, a w wielu punktach identycznych wniosków co Ghosh, dochodzi autor innej znakomitej książki poświęconej kosmologicznym konsekwencjom Zasady Macha – Brazylijczyk Andre K.T. Assiss. W jego dziele „Relational Mechanics” wśród wielu interesujących przykładów znajdujemy wyprowadzenie zależności przyspieszenia ziemskiego od ilości (gęstości) masy we Wszechświecie. Gdyby na przykład podwoić gęstość masy w odległych przestrzeniach, wówczas przyspieszenie ziemskie wyniosłoby 4,9 m/s^2, a nie 9,81 m/s^2.

Postaram się w którymś z najbliższych postów na tym blogu pokazać przykłady analiz przeprowadzonych przez Ghosha i Assisa, oraz możliwe ich modyfikacje uwzględniające fraktalny rozkład materii we Wszechświecie – obaj uczeni przyjęli bowiem rozkład jednorodny.

sobota, 2 lutego 2008

Odkrycie kosmicznych fraktali

Pierwszym uczonym, który już w pierwszych latach XIX wieku zasugerował, że możliwy jest taki rozkład gwiazd, który wyjaśniałby zagadkę „ciemności nocnego nieba” był William Herschel. Pisał on: „...łatwo wyobrazić sobie strukturę Wszechświata dosłownie nieskończoną, która umożliwiałaby dowolną ilość kierunków, w których nie natrafilibyśmy na gwiazdę. Tak byłoby, gdyby składał się on z układów podzielonych zgodnie z prawem, że każda struktura wyższego rzędu jest znacznie bardziej odległa od środka struktury niższego rzędu...”.
Ponad sto lat później, starając się znaleźć odpowiedź na paradoks Olbersa i na Paradoks Grawitacyjny, wykładowca fizyki w Birmingham, Edmund Fournier D'Albe zaproponował model kosmosu, w którym gwiazdy rozmieszczone są w sposób hierarchiczny. Przykładowy model tego typu przedstawia poniższy rysunek:


Pięć gwiazd (w trójwymiarowej przestrzeni siedem gwiazd), skupionych jest w pewnym obszarze, tworząc gromadę. Pięć takich gromad tworzy gromadę wyższego rzędu – odległości między gromadami wyższego rzędu są większe od rozmiarów gromad rzędu niższego. Gromady rzędu wyższego, tworzą w analogiczny sposób gromady jeszcze wyższego rzędu i tak dalej, aż do nieskończoności.
Idee Fourniera D'Albe rozwinął szwedzki uczony Carl Charlier. To on właśnie wyprowadził zależność, o której pisałem w poprzednim poscie – by rozwiązać ciemności nocnego nieba oraz paradoks grawitacyjny hierarchia musi spełniać nierówność Ri+1/Ri>=pierwiastek(N i+1). Oczywiście taka hierarchia, by spełniać swoje zadanie przy rozwiązywaniu paradoksów, rozciągać się musi aż do nieskończoności.
W roku 1922 austriacki uczony Franz Selety, pokazał, że hierarchia zaproponowana przez Charliera wcale nie wymaga istnienia środka – środków może być nieskończenie wiele. Przedstawił on następujące postulaty kosmologiczne, które jak pokazał, wcale nie muszą być ze sobą sprzeczne:
* nieskończona przestrzeń
* nieskończona łączna masa
* masa wypełniająca przestrzeń w taki sposób, że wszędzie ma skończoną gęstość
* uśredniona gęstość masy we Wszechświecie jest zerowa
* brak centralnego punktu lub obszaru we Wszechświecie

(Selety nosił wcześniej nazwisko Jeiteles i kto wie czy to nie on właśnie opisany został w jednym z opowiadań Franza Kafki jako mędrzec rozprawiający w praskich synagogach o dziwach Wszechświata.)

Oczywiście wszyscy ci uczeni zdawali sobie sprawę, że hierarchia kosmiczna nie będzie tworzyła regularnych geometrycznych wzorów i rozkład ciał niebieskich jest w znacznym stopniu przypadkowy, ale nie ma to większego znaczenia dla opisywanych praw. W czasach, gdy tworzyli oni swoje teorie obserwacje Wszechświata były jeszcze bardzo słabo rozwinięte, nic więc nie mogło tych hipotez potwierdzić.
Fakt, że gwiazdy grupują się w galaktykach, a Mleczna droga jest po prostu jedną z wielu takich galaktyk odkryty został dopiero w połowie lat dwudziestych. W latach trzydziestych zauważono, że galaktyki mają tendencje do skupiania się w gromady. Amerykański astronom Edwin Carpenter dokonał zastanawiającego odkrycia, że ilość gwiazd w gromadzie nie wzrasta wraz z trzecią potęgą rozmiarów gromad (czego należałoby oczekiwać), ale rośnie wolniej i wykładnik potęgi wynosi 1,5. Pod koniec lat sześćdziesiątych zaobserwowaną przez Carpentera prawidłowość badać zaczął Francuz Gérard Henri de Vaucouleurs. Potwierdził on obserwacje Carpentera, oraz zauważył dość dziwną prawidłowość, że wszyscy obserwatorzy, umieszczeni w dowolnym miejscu we wnętrzu hierarchii stwierdzą, że zwiększając zasięg obserwacji, średnia gęstość materii maleje. Prace de Vaucouleursa zostały źle przyjęte w środowisku kosmologów i on sam przestał na te tematy pisywać.
Przełom nastąpił, gdy w 1977 roku Benoit Mandelbrot przewidział, że galaktyki we Wszechświecie rozmieszczone są w sposób fraktalny i podał pierwszy matematyczny opis ich rozkładu. Zaproponował on dojrzały matematyczny model rozkładu materii, gdzie „nie ma środka, a jest hierarchia”.
Oczywiście kosmologiczne fraktale, są to fraktale rzeczywiste, które różnią się od ich matematycznych ideałów w analogiczny sposób, co kształt ziemskiego globu różni się od matematycznej kuli. Do tego są to fraktale stochastyczne, a więc takie, przy których tworzeniu decydującą rolę odgrywają procesy chaotyczne. Matematycznym przykładem fraktala stochastycznego może być zbiór Cantora, w którego konstrukcji losowo wybieraliśmy odrzucany odcinek. W kosmologii czynnikiem powodującym „przypadkowość” rozmieszczenia materii są niemożliwe do przewidzenia czynniki związane z ruchem i oddziaływaniami poszczególnych elementów.
Z pojęciem fraktali łączy się ważne pojęcie wymiaru fraktalnego. W kosmologii pojęcie to można traktować jako miarę zależności ilości galaktyk od odległości. Dla modelu Charliera wymiar fraktalny wynosi dwa, co oznacza, że ilość materii wzrasta z kwadratem, a nie z trzecią potęgą rozmiarów. Najbardziej nieoczekiwanym odkryciem, którego na początku lat osiemdziesiątych dokonała grupa włoskich astrofizyków pod kierownictwem Luciano Pietronero, było to, że (w skali do pięciu megaparseków) obserwowany rozkład galaktyk wykazywał strukturę fraktalną, o wymiarze niemal dokładnie równym 2. Obrońcy jednorodności rozkładu galaktyk nie poddali się i model fraktalny został gwałtownie zaatakowany. W 1996 roku doszło do słynnego zakładu między Pietronero, a broniącym jednorodności Davisem, o to czy skala fraktalności przekroczy 15 megaparseków (lokalna gromada galaktyk ma średnicę około jednego megaparseka). Fakt że konserwatywni kosmologowie nie chcieli się zgodzić na model fraktalny nie powinien nas dziwić. Przy fraktalnym rozkładzie materii Big-Bang przestanie już być potrzebny przy wyjaśnianiu paradoksów Olbersa i grawitacyjnego. Co ważniejsze jednak jednorodność jest podstawowym założeniem tłumaczącym ekspansję Wszechświata (dla kosmosu fraktalnego nie można by zastosować modeli Fridmana przewidujących jednorodną ekspansję Wszechświata), do tego gigantyczne fraktalne struktury wymagałyby do swego uformowania czasu znacznie większego niż przewidywany przez BB wiek Wszechświata. Fraktalność (wprawdzie dopiero przy istnieniu ogromnych ilości ciemnej materii skupionej w sposób analogiczny co materia świecąca) może również wytłumaczyć redshift jako efekt przesunięcia grawitacyjnego. Wracając do wspomnianego wyżej zakładu między dwoma uczonymi, najnowsze obserwacje wyłoniły już zwycięzcę - fraktalność potwierdzona została najpierw w skali 50 megaparseków, potem w skali 100 megaparseków, a obecnie, w sposób niemal całkowicie pewny w skali 500 megaparseków, zaś w sposób bardzo prawdopodobny w skali gigaparseka.

Jednorodność była intuicyjnym założeniem, które opanowało ludzkie umysły i spod którego władania uwolnić się było niesłychanie trudno. Podobnie było kiedyś z pojęciem środka Wszechświata. Wydawało się, że Wszechświat musi mieć środek i nawet tak wybitny umysł, jak Kopernik, zdołał ów środek zaledwie przesunąć z Ziemi ku Słońcu. Wieleset lat później, wierzono, że środek istnieje i znajduje się w sercu Drogi Mlecznej. Kolejne przesuwanie tego „środka Wszechświata”, ku coraz to dalszym obszarom, doprowadziło wreszcie uczonych do koncepcji, że środek w ogóle nie istnieje. Podobnie może być z koncepcją kosmologicznej jednorodności. Gdy fraktalność potwierdza się na coraz to większych skalach, dla nowych pokoleń uczonych może się stać czymś naturalnym, że granica, od której "zaczyna się już jednorodność" po prostu nie istnieje.
Warto tu przypomnieć słynne powiedzenie Maxa Plancka, że: "Nowe naukowe prawdy nie triumfują dzięki przekonaniu ich oponentów i ukazaniu im światła prawdy, lecz raczej dlatego, że ich oponenci umierają, a kolejne pokolenie łatwiej przyjmie to co nowe lecz już ‘oswojone’."

wtorek, 1 stycznia 2008

Co było

Alternatywy dla Big-Bangu zaczęły pojawiać się już w latach czterdziestych. Opracowany przez Hoyla, Golda i Bondiego model stanu stacjonarnego, do połowy lat sześćdziesiątych cieszył się w środowisku naukowym większym nawet uznaniem od teorii Wielkiego Wybuchu. Model ten akceptował ucieczkę galaktyk, zakładał jednak kreację materii w miejscu powstającej pustki, tak, by gęstość materii pozostawała stała w czasie. Był to model zgodny z tak zwaną Silną Zasadą Kosmologiczną, która postuluje, że dla odpowiednio dużej skali, kosmos pozostaje jednorodny w czasie i przestrzeni (we wszechświecie nie istnieją wyróżnione miejsca, ani wyróżnione zdarzenia). Po odkryciu mikrofalowego promieniowania tła, teoria stanu stacjonarnego została zarzucona. Nastąpił wtedy trwający aż do połowy lat dziewięćdziesiątych okres, w którym rozmaici uczeni próbowali znaleźć alternatywne sposoby wyjaśnienia poszczególnych fenomenów, dotąd tłumaczonych wyłącznie przez model Big-Bangu. W miarę kompletne teorie pojawiły się dopiero w latach dziewięćdziesiątych, a wśród nich najbardziej obiecującą jest chyba koncepcja kosmosu plazmowego, nazywana też teorią kosmosu elektrycznego.

Początki modelu kosmosu elektrycznego sięgają lat pięćdziesiątych, kiedy to Fermi i Chandrasekhar wysunęli hipotezę, że zakrzywienie ramion galaktyk spiralnych powstaje pod wpływem pola magnetycznego. Ich hipoteza nie była w żadnym razie próbą zakwestionowania modelu Big-Bangu, a jedynie zwróceniem uwagi na trudności w grawitacyjnej interpretacji zjawiska oraz na możliwości jakie daje interpretacja elektromagnetyczna. Jeszcze wcześniej, bo pod koniec lat czterdziestych Ralph Juergens przedstawił koncepcję elektrycznego Słońca. Za twórcę koncepcji kosmosu plazmowego uważa się jednak szwedzkiego astrofizyka i laureata Nagrody Nobla, Hannesa Alfvena. Uczony ten w latach sześćdziesiątych postawił tezę, że zjawiska elektromagnetyczne są dominującym fenomenem w kosmosie (lub przynajmniej odgrywają równie istotną rolę co grawitacja). Koncepcja kosmosu plazmowego zakłada, że zdecydowana większość (99,999%) materii we wszechświecie znajduje się w stanie plazmy oraz, że zjawiska plazmowe (struktury dwuwarstwowe, struktury włókniste, struktury spiralne) obserwowane w laboratorium są dowolnie skalowalne, aż do rozmiarów kosmologicznych. Miały one tłumaczyć formowanie galaktyk (później Alfven uznał, że również supergromad). Teoria Alfvena była jednak niekompletna. Nie tłumaczyła ani zjawiska przesunięcia widma galaktyk ku czerwieni, sposobu powstawania oraz obfitości występowania lekkich pierwiastków, rozkładu i źródła mikrofalowego promieniowania tła, nie rozwikływała Paradoksu Olbersa, ani Paradoksu Grawitacyjnego, nie podawała też żadnych obserwacji, które mogłyby ją sfalsyfikować. Była więc ona bardziej wskazaniem kierunku, intuicją, hipotezą, a nie porządną teorią kosmologiczną.
Idee Alfvena zostały jednak podjęte przez innych badaczy, z których w pierwszej kolejności wymienić trzeba Anthony’ego Peratt’a, Donalda Scotta i Erica Lernera. Ostatnio ważną postacią jest też Ari Brynjolfsson. I choć uczeni ci nie we wszystkim ze sobą są zgodni i żadna z proponowanych przez nich wersji plazmowej kosmologii nie rozwiązuje wszystkich kosmologicznych dylematów, koncepcje ich są jednak znacznie bardziej zgodne z obserwacjami niż kosmologia Wielkiego Wybuchu. Uzupełnienie kosmologii plazmowej koncepcją kosmosu fraktalnego (co robi na przykład Lerner) daje już teorię w przekonujący sposób wyjaśniająca większość kosmologicznych zagadek.

Koncepcja kosmosu elektrycznego wyjaśnia formowanie galaktyk spiralnych bez wprowadzania żadnych dodatkowych tajemniczych bytów. Wyjaśnia powstanie wielkich kosmicznych struktur przy użyciu tego samego mechanizmu, którym wyjaśnia powstawanie galaktyk. Koncepcja ta nie napotyka przy tym na problem braku czasu potrzebnego na ich uformowanie, bo kosmos jest tu wieczny – nigdy nie miał swego początku. Jej przewidywania są zgodne z zaobserwowaną ostatnio fraktalną strukturą wszechświata - zwolenników Big-Bangu obserwacje te wprawiają w przerażenie.

Teoria kosmosu plazmowego – jak pokazuje Lerner - lepiej od teorii Wielkiego Wybuchu wyjaśnia sposób powstania pierwiastków w obserwowanych ilościach. Teoria ta mówi, że pierwiastki powstały w procesie nukleosyntezy w gwiazdach oraz (zwłaszcza izotopy wodoru i litu: deuter i 7lit) w pobliżu gwiazd, pod wpływem emitowanego przez nie promieniowania kosmicznego.
Koncepcja, że źródłem pochodzenia pierwiastków są procesy syntezy jądrowej zachodzące we wnętrzach gwiazd zaproponowana została już pod koniec lat pięćdziesiątych, przez grupę uczonych nazywaną B2FH: Margaret i Geoffrey’a Burbidge, William Fowler oraz Fred Hoyle, jako alternatywa dla teorii Gamova, który uważał, że za proces powstania pierwiastków odpowiedzialny był Wielki Wybuch. Zgodnie z teorią grupy B2FH za występowanie wyprodukowanych w ten sposób pierwiastków w pyle międzygwiazdowym, czy w składzie chemicznym planet odpowiedzialne miały być wybuchy supernowych. Zwolennicy Big-Bangu ostatecznie przyznali, że synteza jądrowa odbywająca się we wnętrzach gwiazd odegrała istotną rolę w tworzeniu pierwiastków cięższych od litu, ale pierwiastki lżejsze powstały ich zdaniem na skutek Wielkiego Wybuchu. Okazuje się jednak, że koncepcja kosmosu plazmowego (nukleosynteza w gwiazdach oraz w plazmie w pobliżu gwiazd) jest o wiele bardziej zgodna z obserwacjami: Lerner1 i Lerner2.

Zwolennicy kosmosu elektrycznego uczciwie przyznają, że nie posiadają takiego wyjaśnienia relacji między odległością galaktyk a przesunięciem ich widma ku podczerwieni, które nie indukowałoby kolejnych pytań, wielu z nich skłania się jednak ku hipotezie, że za to zjawisko odpowiedzialna jest międzygalaktyczna plazma, która oddziałuje ze światłem na zasadzie podobnej do tej, która wywołuje Efekt Comptona. Musi to być jednak jakieś nieco inne zjawisko, bo obraz odległych galaktyk nie ulega rozmyciu (pozostaje „ostry”). Koncepcja taka jest wariantem idei „męczącego się światła”, będącej jedną z wcześniejszych prób alternatywnego wyjaśnienia obserwowanej zależności. Tu - im większa odległość, tym więcej interakcji światła z plazmą, a więc tym większy redshift (przesunięcie widma ku czerwieni). W innych modelach "męczącego się światła", czynnik powodujący „zmęczenie” może być inny. Obrońcy Big-Bangu szansę na skontrowanie wszystkich takich koncepcji odnaleźli w obserwacjach wybuchów odległych supernowych klasy Ia. Dane obserwacyjne zdawały się sugerować, że wraz ze wzrostem dystansu (którego miarą był redshift) wzrasta czas ekspozycji wybuchu: przeciętnie wynosi on około dwóch tygodni, tymczasem dla supernowych z dużym przesunięciem widma wynosił on znacznie więcej – nawet powyżej miesiąca. Uznano to za dowód na przewidziane przez teorię Wielkiego Wybuchu „puchnięcie” przestrzeni: w trakcie przelotu światła przestrzeń, a wraz z nią fala świetlna oraz punkty wyznaczające początek i koniec eksplozji gwiazdy, oddalają się od siebie i docierają do obserwatora dokładnie w tym samym stosunku rozciągnięte. Ta kontra obrońców Big-Bangu została jednak znakomicie zrekontrowana przez Ariego Brynjolfssona, który pokazał, że jeśli uwzględniamy jasność eksplozji, obserwowane dane lepiej pasują do koncepcji plazmowej – potężniejsze eksplozje trwają dłużej i wytwarzają więcej plazmy, przez którą musi przenikać światło wybuchu. Tak więc, niespodziewanie dla obrońców Big-Bangu, obserwacje supernowych Ia mocno uprawdopodobniły hipotezę, że przynajmniej za niektóre przesunięcia ku czerwieni odpowiedzialna jest plazma, przez którą przenika światło.
Koncepcja plazmowego pochodzenia redshiftu supernowych jest koncepcją falsyfikowalną. Eksplozje supernowych w sąsiednich galaktykach lub w naszej Galaktyce mogą w niedługim czasie ją obalić, jeśli tylko ich widma nie wykażą spodziewanego przesunięcia ku czerwieni. Sytuacja przeciwna byłaby zaś gwoździem do trumny dla teorii Wielkiego Wybuchu. Na odpowiednio bliski wybuch supernowej prawdopodobnie nie będzie trzeba długo czekać. Szacuje się, że eksplozji supernowej w którejś z sąsiednich galaktyk (o niedużym przesunięciu ku czerwieni) możemy się spodziewać w najbliższych dwudziestu latach. Brynjolfsson sam podaje kilka sposobów na sfalsyfikowanie jego teorii. Jednym z nich mogłaby być obserwacja gwiazd przez koronę słoneczną - brak redshiftu oznaczałby, że jego plazmowe wyjaśnianie jest błędne.
Teoria Brynjolfssona dotycząca supernowych ma ważne konsekwencje nie tylko dla lansowanej przez niego koncepcji, że za przesunięcie widma galaktyk odpowiedzialna jest międzygalaktyczna plazma, ale też dla wszystkich alternatywnych prób wyjaśnienia tego zjawiska – na przykład dla bardzo ciekawej koncepcji hinduskiego astrofizyka Amitabha’y Ghosh’a, który redshift wywodzi z zasady Macha (zdaniem autora niniejszego blogu Zasada Macha jest najważniejszą i najgłębszą zasadą fizyki).

Jak najbardziej spójna z koncepcją kosmosu elektrycznego, koncepcja kosmosu fraktalnego rozwikłuje nam dwa paradoksy - Paradoks Olbersa i Paradoks Grawitacyjny - których rozwiązywalność uznajemy za test każdej porządnej teorii kosmologicznej.
Idea, że rozkład materii we wszechświecie może nie być jednorodny, a – przy nieskończonej ilości gwiazd – średnia gęstość materii jest zerowa, zaproponowana została już w 1907 roku przez pracującego w Anglii Francuza Fournier'a d'Albe i w 1908 przez Szweda Carla Charliera, jako próba rozwiązania wymienionych paradoksów. W tamtych czasach nie było jednak na to żadnych dowodów. W latach siedemdziesiątych na fraktalną strukturę kosmosu zwrócił uwagę najsłynniejszy badacz fraktali - Benoit Mandelbrot. Jego ideę podchwyciła grupa włoskich astrofizyków: Francesco Sylos-Labini, Marco Montuori, Luciano Pietronero. Prowadzone przez nich badania – analiza rozkładu przesunięcia ku czerwieni widma galaktyk, potwierdza hipotezę Mandelbrota z niemal całkowitą pewnością, przynajmniej w skali kilkuset megaparseków.
Dlaczego kosmos fraktalny rozwiązuje Paradosk Olbersa i Paradoks Grawitacyjny? Dla przykładu przyjmijmy, że pewne ilości galaktyk tworzą skupisko, które nazwijmy supergalaktyką rzędu 2. Supergalaktyki rzędu 2 tworzą supergalaktyki rzędu 3 i tak dalej. Jeśli w każdej supergalaktyce rzędu n znajduje się x supergalaktyk rzędu n-1, a przeciętne odległości między sąsiednimi supergalaktykami rzędu n-1 są y lub więcej razy większe od ich przeciętnej średnicy, a pierwiastek trzeciego stopnia z x jest mniejszy od kwadratu y, wówczas zarówno siła grawitacji pochodząca z dowolnie wielkiego obszaru kosmosu pozostaje skończona, jak też i ilość światła dochodzącego do Ziemi z całego nieskończonego wszechświata nie przekroczy dwukrotności ilości światła dochodzącego z naszej Galaktyki: sumując ilości światła dochodzące do Ziemi z kolejnych supergalaktyk, coraz to wyższych rzędów, otrzymamy zbieżny szereg geometryczny. Ujmując tą zależność inaczej, iloraz promienia supergalaktyki wyższego rzędu do promienia supergalaktyki bezpośrednio niższego rzędu musi być większy od pierwiastka z ilości supergalaktyk niższego rzędu składających się na supergalaktykę rzędu bezpośrednio wyższego. I choć rzeczywisty obraz kosmicznych fraktali nie jest tak prosty jak w podanym przeze mnie przykładzie, jego konsekwencje dla rozwiązywalności kosmologicznych paradoksów zachowują swoją moc.

Wracając do kosmosu plazmowego,Lerner pokazuje, że wyjaśnia on pochodzenie oraz anizotropię rozkładu mikrofalowego promieniowania tła. Lepiej od Big-Bangu tłumaczy też na przykład obserwowane zjawisko absorpcji fal radiowych.

Jeden ze zwolenników kosmosu elektrycznego - Donald Scott, nawiązując do koncepcji Juergens’a rozwinął teorię elektrycznego Słońca. Scott nie neguje, że wewnątrz Słońca zachodzą reakcje termojądrowe, twierdzi jednak, że to nie one są głównym źródłem jego (i innych gwiazd) energii. Polemikę z tą koncepcją podjął Tim Thompson, a Scott odpowiedział. Większość zwolenników plazmowego modelu kosmosu - w tym Eric Lerner - zachowuje dystans wobec koncepcji Scotta, jest ona jednak ciekawą alternatywą dla dominującej dziś wizji.