Profile cover photo
Profile photo
Jerzy Michał Pawlak
773 followers
773 followers
About
Jerzy Michał Pawlak's posts

Post has attachment
Praca formalnie jeszcze w preprincie, ale już "accepted for publication". Zresztą skoro "Nature" się zdecydowała o niej napisać, to my chyba też możemy...

W roku 2014 ukazała się praca, której autorzy przeanalizowali orbity znanych wówczas obiektów pasa Kuipera (czyli obiektów położonych dalej niż orbita Neptuna), skupiając się na tych, które poruszają się po bardzo wydłużonych elipsach, oddalając się w najdalszym punkcie orbity na odległość rzędu 300 jednostek astronomicznych i więcej od Słońca. Wiele takich nie było, ale i tak wyszło im, że ich orbity nie są przypadkowo w przestrzeni położone, pewne parametry orbit są preferowane. I postawili hipotezę, że przyczyną może być nieznana masywna planeta, krążąca wokół Słońca w odległości znacznie większej niż odległość orbity Neptuna i też po dość wydłużonej elipsie. Jej oddziaływanie miałoby zakłócać orbity drobniejszych obiektów i powodować unikanie pewnych orbit.

Wynik ten z radością przyjęli wyznawcy Nibiru, Nemesis i tym podobnych pomysłów, chociaż oparty był na niezbyt pewnej analizie dość niewielkiej próbki obiektów.

Autorzy pracy o której chcę napisać spędzili 4 lata na poszukiwaniu nowych obiektów pasa Kuipera, przy pomocy teleskopu o średnicy 3.6 m, ustawionego na Hawajach. W sumie odkryli ich kilkaset, w tym 8 takich na bardzo wydłużonych orbitach, spełniających warunki selekcji jakie wymyślili autorzy pracy z 2014 roku. I postanowili powtórzyć z nimi tamtą analizę, ale najpierw bardzo uważnie sprawdzić wpływ efektów selekcji na swoją próbkę.

O co chodzi z tymi efektami selekcji: otóż najogólniej o to, że nawet jeżeli mamy dwa bardzo podobne obiekty na podobnych orbitach, różniących się tylko położeniem tych orbit w przestrzeni, to szansa ich odkrycia w takich poszukiwaniach nie jest taka sama. Bo na przykład poszukuje się generalnie w pobliżu płaszczyzny ekliptyki, więc jeżeli jakiś obiekt w momencie przechodzenia blisko Słońca (kiedy jest dość jasny by była szansa go zauważyć) jest od tej płaszczyzny daleko, to go nie zobaczymy. Albo dlatego, że szansa odkrycia tak słabo świecących obiektów na tle gwiazd w płaszczyźnie Drogi Mlecznej jest właściwie żadna, więc się tam nawet nie szuka. Dalej są efekty specyficzne dla konkretnego teleskopu: na przykład w różnych porach roku widoczne są różne części nieba, ale różna jest też długość nocy i warunki atmosferyczne, więc w pewnych rejonach patrzymy po prostu rzadziej i szansa znalezienia czegoś jest mniejsza. I tak dalej. Autorzy wykonali staranną analizę prawdopodobieństwa zauważenia obiektu w ich obserwacjach w funkcji parametrów jego orbity.

No i gdy już mieli takie rozkłady prawdopodobieństwa to porównali je z rzeczywistym rozkładem parametrów orbitalnych tych ośmiu odkrytych przez siebie planetoid. I doszli do wniosku, że żadnej znaczącej rozbieżności nie ma, czyli nie podtrzymują wniosków pracy z 2014 roku i nie widzą żadnych poszlak wskazujących na istnienie "dziewiątej planety".

Teraz, żeby się komuś nie wydawało, że autorzy tej pracy z 2014 roku nie byli dość staranni: oni oczywiście zdawali sobie sprawę z istnienia efektów selekcji i najpoważniejsze z nich uwzględnili w swojej analizie. Problem w tym, że nie mieli możliwości uwzględnienia wszystkich, bo nie mieli nawet danych o tym gdzie odkrywcy poszczególnych obiektów ich szukali. Mogli tylko założyć, że ponieważ obiekty były odkrywane przez różne grupy i różnymi instrumentami, to te instrumentalno-obserwacyjne efekty selekcji się zniosą. Ale to niekoniecznie jest słuszne założenie, zwłaszcza gdy się ma małą próbkę.

Czyli podsumowując: istnienie "planety 9" zrobiło się wątpliwe. Teleskopy nadal przeszukują niebo, odkryjemy zapewne jeszcze wiele obieków pasa Kuipera, może przy analizie większej próbki coś się wyjaśni.

Link do pracy w arXiv: https://arxiv.org/abs/1706.05348

Post has attachment
Doroczny festiwal "Otwarte Ogrody" w Brwinowie. W tym roku w ogrodzie państwa Wernerów mogliśmy obejrzeć i wysłuchać "Straszny Dwór", w wersji wprawdzie dość minimalistycznej, ale w pięknym wykonaniu artystów Opery Narodowej.

#fkbrwinow #fkotwarteogrody

Post has attachment
O tym, że LIGO złapało trzeci "czysty" przypadek fali grawitacyjnej z połączenia czarnych dziur to już pewno wszyscy słyszeli, bo nawet gazety pisały. Ale pomyślałem, że dodam trochę szczegółów, które nie wszędzie opisane były. Ciekawe swoją drogą kiedy dojdziemy do tego, że nie będzie osobnej publikacji o każdej obserwacji, tylko zaczną się pojawiać jakieś bardziej zbiorcze publikacje.

W każdym razie LIGO zobaczyło sygnał 4 stycznia 2017, czyli mniej-więcej miesiąc po rozpoczęciu zbierania danych (przez większość ubiegłego roku zespół pracował nad modyfikacjami detektora). Widać go było w obydwu lokalizacjach, z przesunięciem czasowym 3 milisekund. Obliczone z danych masy łączących się czarnych dziur wynosiły 31 i 19 mas Słońca (znowu jakby troszkę "za ciężkie" jak na pozostałości po supernowych). Końcowa masa czarnej dziury powstałej z połączenia wynosiła 48 mas Słońca, znaczy energia równoważna dwóm masom Słońca została uniesiona przez fale grawitacyjne w końcowej fazie procesu łączenia.To nie przestaje zadziwiać.

Oszacowana odległość źródła od Ziemi wyniosła około 3 miliardy lat świetlnych, z dość dużą niepewnością (od 1.6 do dobrze powyżej 4 miliardów). Z trzech dotychczas zarejestrowanych to było więc najodleglejsze. Odległość źródła mierzy się porównując zmierzone natężenie sygnału, z wyliczoną z utraty masy mocą źródła. A duża niepewność bierze się z tego, że fale grawitacyjne są w takim układzie emitowane nieizotropowo, w płaszczyźnie orbity czarnych dziur fala jest silniejsza, niż w kierunku prostopadłym do tej płaszczyzny. Ponieważ nie wiemy jak względem nas ta orbita była ustawiona, więc nie wiemy jaka część mocy emitowana była w naszą stronę i stąd niepewność wyznaczenia odległości.

LIGO oszacowalo też częstotliwość zachodzenia zjawisk łączenia się czarnych dziur (na podstawie tego ile zjawisk zobaczyliśmy w danym czasie pracy detektora). Nowa obserwacja zgadza się pod tym względem z oszacowaniami wynikającymi z przypadków zaobserwowanych w roku 2015 i jest trochę wyższa od przewidywanej przez różne modele teoretyczne. Nie dramatycznie wyższa, ale wystarczająco, by zastanowić się czy czegoś w tych modelach nie przeoczyliśmy. .

Autorzy wykonali jeszcze dwie dodatkowe analizy. Jedna z nich dotyczy względnego ustawienia osi obrotu sklejających się czarnych dziur. Ma to o tyle znaczenie, że może coś powiedzieć na temat jak taki układ powstał. Jeżeli powstał jako układ podwójny masywnych gwiazd, które następnie eksplodowały i pozostawiły po sobie układ podwójny czarnych dziur, wtedy ich osie wirowania powinny być z grubsza równoległe i z grubsza prostopadłe do płaszczyzny ich orbity. Jeżeli natomiast obie czarne dziury powstały niezależnie od siebie, a potem dopiero "spotkały się" i złapały na orbitę (co wymaga obecności dodatkowego obiektu, który przejmie część energii - czyli może się zdarzyć w środowisku gęstej gromady gwiazd lub w okolicach centrum galaktyki), to ich osie obrotu będą generalnie ustawione przypadkowo. Analiza jest bardzo delikatna i niepewna, opiera się na drobnych różnicach w kształcie nadchodzącej fali w zależności od ustawienia osi wirowania względem płaszczyzny orbity. Dlatego autorzy piszą tylko ostrożnie, że dane faworyzują wersję "gromady gwiazd", znaczy niezależnego powstania obu czarnych dziur.

Druga dodatkowa analiza wykorzystuje fakt, że było to najodleglejsze z obserwowanych dotychczas źródeł, do poszukiwania dyspersji fal grawitacyjnych. Ogólna Teoria Względności przewiduje, że fale grawitacyjne rozchodzą się zawsze z prędkością światła. Ale istnieją też alternatywne teorie i niektóre z nich przewidują, że prędkość rozchodzenia się fali grawitacyjnej może zależeć od jej częstotliwości. Autorzy przeanalizowali więc sygnał pod kątem sprawdzenia, czy wszystkie częstotliwości wydają się docierać do nas jednocześnie i dochodzą do wniosku, że żadnych odchyleń od stałości prędkości rozchodzenia nie widzą, co tłumaczy się na jakieś ograniczenia dla tych alternatywnych teorii.

To tyle, oryginalna praca (open access) jest tutaj: https://doi.org/10.1103/PhysRevLett.118.221101. LIGO kontynuuje zbieranie danych (i, sądząc po dotychczasowej częstości obserwacji, może już mieć kolejne przypadki, ale o tym na razie milczą). Detektor powinien pozostać aktywny do jesieni. Gdzieś latem uda się być może włączyć europejski detektor VIRGO - połączenie danych z dwóch lokacji LIGO z danymi VIRGO dałoby możliwość wyznaczenia kierunku z którego fale nadeszły.

Post has attachment
Wieżowiec w technologii stealth.

#fkwarszawa
Photo

Post has attachment
Cassini odezwał się. Po pierwszym przelocie pomiędzy pierścieniami a planetą, podczas którego zgodnie z planem sonda była odwrócona anteną do przodu i w związku z tym milczała, dziś rano odebrano sygnał. Obecnie anteny Deep Space Network odbierają dane o stanie sondy, w następnej kolejności pobiorą dane naukowe zebrane podczas przelotu.

Post has attachment
Trochę się ostatnio szumu zrobiło wokół detekcji fal grawitacyjnych w LIGO, a to za sprawą preprintu duńskich fizyków, którzy spróbowali sami pobawić się danymi z detektora. A jest to możliwe, dzięki temu, że coraz częściej uczeni publikują nie tylko wynik końcowy i opis jak do niego doszli, ale też surowe dane ze swoich eksperymentów i programy których używali do ich analizy. Taka otwartość danych pozwala innym na powtórzenie analizy i sprawdzenie wyników, a może nawet na wyciągnięcie z danych czegoś nowego, czego oryginalni autorzy nie zauważyli.

No więc LIGO też publikuje swoje surowe dane, a ich analizy spróbował zespół z Instytutu Nielsa Bohra w Kopenhadze. Jej wyniki opisali na razie w preprincie (https://arxiv.org/abs/1706.04191). To co zrobili, to wzięli dane z 32 sekund wokół pierwszego i najsilniejszego z dotychczas zarejestrowanych sygnałów (czyli tego z września 2015) i spróbowali wykonać oczyszczenie ich według zamieszczonego przez LIGO opisu, ale swoimi programami. Rysunek ilustrujący ten wpis pokazuje, jak ważne jest to wstępne czyszczenie: te poszarpane krzywe na górze i na dole to surowy sygnał z detektorów, czarny z Hanford, czerwony z Livingston. Jak widać nic z nich nie widać. Dopiero kiedy z tego sygnału usunie się wszystkie częstotliwości spoza zakresu największej czułości detektora (od 35 do 350 Hz), i jeszcze dodatkowo kilka indywidualnych częstotliwości odpowiadających mechanicznym rezonansom różnych jego elementów, do dostaje się dwie krzywe pokazane w środkowej części rysunku (na rysunku są wzmocnione o czynnik 100 w stosunku do tych surowych - inaczej nie byłoby nic widać) i na ich tle widać sygnał (przy 16 s, trzeba się dobrze przyjrzeć).

I teraz co zauważyli Duńczycy: po pierwsze, widzą korelacje fazy pomiędzy różnymi częstotliwościami szumu. W takim prawdziwym białym szumie fazy powinny być losowo rozłożone, a im wychodzą skupione wokół jednej wartości. Po drugie, i to bardziej niepokojące by było: otóż twierdzą że widzą korelację pomiędzy szumami z obydwu detektorów (a detektory są odległe od siebie o coś 3 tys. kilometrów) i, co gorsza, przesunięcie czasowe dające najsilniejszą korelację wynosi 7 ms - tyle samo, ile opóźnienie sygnału od fal grawitacyjnych pomiędzy detektorami. Osłabia to według nich oszacowaną przez LIGO istotność statystyczną sygnału (1 do 10 milionów zdaje się). Co więcej, dla dwóch pozostałych sygnałów Duńczycy zrobili taką samą analizę i twierdzą, że też widzą korelację szumów z przesunięciem takim samym, jak przesunięcie czasowe sygnałów w detektorach.

No więc pytanie co na to LIGO. W pierwszym ruchu nic, znaczy oficjalnie zespół nie skomentował pracy, a prywatnie, co pisze Sabine w artykule poniżej, powiedzieli, że "Duńczycy coś robią źle" i już. Nie muszę chyba pisać że to mocno niezadowalająca odpowiedź i chyba w samym LIGO to zauważyli, bo dwa dni temu na blogu Seana Carrolla (https://www.preposterousuniverse.com/blog/2017/06/18/a-response-to-on-the-time-lags-of-the-ligo-signals-guest-post/) pojawiła się nieoficjalna, ale merytoryczna odpowiedź jednego z członków kolaboracji LIGO. Pisze on, że korelacje fazowe szumu są artefaktem sposobu robienia analizy fourierowskiej (na dowód publikuje program, który odtwarza je na wygenerowanej losowo i poddanej takie samej analizie próbce danych) - tu jestem w stanie się zgodzić i nawet sam takie coś po przeczytaniu pracy podejrzewałem. Natomiast ta korelacja szumów pomiędzy detektorami to jego zdaniem efekt niedoskonałego odjęcia sygnału. Znaczy mamy dane z dwóch detektorów, zawierające sygnał (przesunięty w czasie o 7 ms) i nieskorelowany szum. W analizie dopasowujemy jak umiemy kształt tego sygnału i odejmujemy go od danych, co powinno pozostawić sam szum. Ale że nie znamy dokładnie kształtu sygnału, to rekonstruujemy go z jakimś błędem, i dlatego w danych po odjęciu sygnału zrekonstruowanego trochę prawdziwego sygnału jednak pozostaje i to on produkuje tę korelację.

Brzmi sensownie, z drugiej strony zastanawiam się, czy przy sygnale trwającym poniżej pół sekundy pozostałości byłyby dość silne, by wyprodukować wyraźną korelację całej 32-sekundowej próbki. Ale w sumie dziwię się, że Duńczycy nie spróbowali powtórzyć tej analizy na kolejnych 32 sekundach danych, kiedy sygnału na pewno już tam nie ma. Jeżeli i tam dostaliby korelację z podobnym przesunięciem czasowym, to byłoby ewidentne że coś tu śmierdzi. Natomiast brak wyraźnej korelacji świadczyłby o tym, że jest to artefakt odejmowania sygnału.

No nic, plotki mówią, że wbrew pierwszemu stanowisku, będzie jednak jakaś oficjalna odpowiedź od LIGO. A może nawet znajdę chwilę czasu żeby sobie ściągnąć te pythonowe notebooki które opublikował autor powyżej wspomnianej odpowiedzi i samemu spróbował się pobawić? Chociaż jakoś im człowiek starszy tym mniej ma czasu... Więc chyba pozostaje czekać.

Post has attachment
OK, piszę z oporami, głównie w reakcji na rozchodzące się po necie informacje, że "sygnał Wow! wyjaśniony". Jeżeli komuś się nie chce czytać dalej to od razu informuję: moim zdaniem nie wyjaśniony.

Jako krótkie przypomnienie sygnał "Wow!" został odebrany w sierpniu 1977 roku przez radioteleskop zwany Big Ear (czyli "wielkie ucho") należący do uniwersytetu w Ohio. Nazwę wziął od entuzjastycznego dopisku na marginesie wydruku, autorstwa Jerry'ego R. Ehmana, astronoma który pierwszy przeglądał wyniki obserwacji z tego dnia. Sygnał był bardzo silny, ponad 30 razy ponad normalny poziom szumów, nadawany w wąskim paśmie wokół częstotliwości 1420 MHz (odpowiadającej emisji atomowego wodoru), spójny z punktowym charakterem źródła, no i przede wszystkim znikł w czasie obserwacji. A może nie znikł, tylko wręcz przeciwnie, pojawił się. Radioteleskop podczas obserwacji działał w ten sposób, że patrzył sobie w stałym kierunku, a niebo nad nim obracało się, dając efekt "przemiatania". Big Ear miał dwie anteny, patrzące w nieco różnych kierunkach, i rejestrował tylko różnicę sygnałów od nich (a dokładniej wartość bezwzględną różnicy), co miało redukować szumy od atmosfery ziemskiej. Punktowy obiekt na niebie powinien więc pozostawić w nim dwa sygnały, od przejścia przez pole widzenia najpierw jednej a potem drugiej anteny. Tymczasem sygnał Wow! jest widoczny tylko raz i nie wiadomo, w pierwszej czy w drugiej antenie.

Szukając źródła sygnału wykluczono z dużym prawdopodobieństwem jakiś szum aparatury (na zasadzie że przez prawie 30 lat obserwacji nic nawet odlegle podobnego się nie wydarzyło), sygnał pochodzenia ziemskiego, sygnały od planet i asteroid, bo ich w polu widzenia nie było... Nikt inny też niczego podobnego nigdy nie zarejestrował, ani w tym samym ani innym obszarze nieba.

No i teraz o co chodzi w tą pracą: otóż autor postawił hipotezę, że źródłem sygnału mogła być kometa. Komety w pobliżu Słońca, jak wiadomo, mają gazowe otoczki, które często zawierają wodór, więc mogłyby emitować sygnał radiowy na tej częstotliwości. Aby to sprawdzić, autor użył małego, amatorskiego właściwie radioteleskopu na Florydzie, obserwując różne obiekty, w tym kometę 266/P Christensen. Kometa ta odkryta została w roku 2008, ale śledzenie wstecz jej orbity pokazuje podobno, że podczas detekcji sygnału Wow! była w tej okolicy nieba. Podobno, bo niestety w pracy nie ma żadnych efemeryd ani mapki która by to pokazywała. W zasadzie jedyne co z niej wynika, to że komety emitują w paśmie 1420 MHz. Brak jest analizy jak się ma natężenie tej emisji do natężenia sygnały Wow!, nie ma słowa o tym dlaczego sygnał miałby nagle zniknąć pomiędzy obserwacjami przez obie anteny, nie ma też nic o tym, że kometa jest rozciągłym obiektem, a sygnał z Big Ear jest doskonale spójny ze źródłem punktowym. Krótko mówiąc, brak mi przekonujących dowodów że jest to wyjaśnienie tamtego sygnału.

Praca (napisana raczej po amatorsku) została opublikowana przez Journal of the Washington Academy of Sciences i jest dostępna tutaj: http://planetary-science.org/wp-content/uploads/2017/06/Paris_WAS_103_02.pdf. Chyba nie ma nawet DOI, przynajmniej nie udało mi się go ustalić. Tak, że nie wierzcie dzieci we wszystko co w internecie wypisują. Nawet jeżeli ktoś się pracą naukową podpiera, warto do niej zajrzeć i sprawdzić. Nie mówię, że źródłem tamtego sygnału nie mogła być kometa, ale ta praca przekonującym dowodem na to na pewno nie jest.

Post has attachment
Dziś będzie praca teoretyczna, której nie powinienem chyba opisywać, bo mnie przerasta. Nie chodzi nawet o matematykę, wierzę że autorzy błędu nie popełnili i recenzenci dobrze to sprawdzili, ale nie mam po prostu żadnej intuicji czy to jest dobrze i czy różne uproszczenia i założenia które autorzy robią by w ogóle móc to policzyć nie zmieniają istotnie wyniku. Ale jeżeli nie, to praca może być nieoczekiwanym rozwiązaniem problemu gnębiącego fizyków od dziesięcioleci.

Idzie o tak zwany problem stałej kosmologicznej. Żeby móc objaśnić co takiego autorzy tej pracy wymyślili, to muszę trochę go bliżej naświetlić. Otóż we współczesnej fizyce podstawowym sposobem opisu mikroświata jest kwantowa teoria pola. Jak do tej pory nigdy nas ona nie zawiodła, z jednym wyjątkiem: grawitacji. Wszystkie zjawiska mikroświata dają się opisać w jej języku, a jej przewidywania są zgodne ze wszystkimi wykonanymi dotychczas doświadczeniami. Właściwie to kwantowa teoria pola jest na wyrost nazwana teorią, bo jest raczej podstawą na której buduje się dopiero rzeczywiste fizyczne teorie. Model Standardowy fizyki cząstek elementarnych jest przykładem kwantowej teorii pola. Jego proponowane rozszerzenia są innymi, bardziej złożonymi jej przykładami.

Podstawowym bytem w tej teorii jest, jak sama nazwa wskazuje, wszechobecne pole kwantowe (a nawet cały zestaw tych pól, odpowiadających różnym cząstkom, ale dla poniższego rozumowania to nieistotne). Wszystkie cząstki jakie znamy, zarówno te tworzące atomy naszego świata, jak i te przenoszące oddziaływania, są falami się w tych polach rozchodzącymi. Klasycznie o polu mówimy, jeżeli każdemu punktowi przestrzeni możemy przypisać wartość jakiejś wielkości fizycznej (wartość ta może być zmienna w czasie). Na przykład w klasycznym polu elektromagnetycznym tymi wielkościami są wektory natężenia pól, elektrycznego i magnetycznego. Aby wyjaśnić różnicę pomiędzy polem klasycznym a kwantowym posłużę się jednak innym modelem, nie tak intuicyjnym, ale matematycznie równoważnym obrazkowi przestrzeni w której w każdym punkcie mam strzałkę. Pole można sobie mianowicie wyobrazić jako bardzo wielką (wręcz nieskończoną) liczbę oscylatorów, każdy z nich opisuje jeden sposób w jaki pole może falować: częstotliwość, kierunek rozchodzenia się fali i jej polaryzację. Brzmi to może dziwnie, ale matematycznie można udowodnić, że te dwa sposoby opisu pola są sobie równoważne.

I teraz: pole kwantowe różni się od klasycznego tym, że te wszystkie oscylatory zachowują się zgodnie z regułami mechaniki kwantowej. A to po pierwsze znaczy, że każdy ma ściśle określone poziomy energetyczne, nie może sobie tak falować z dowolną amplitudą i energią, muszą one przyjmować określone dyskretne wartości. I to bardzo dobrze, bo wyjaśnia nam dlaczego świat jest "skwantowany" i nie widzimy nigdy połówek cząstek. Każdy taki oscylator wchodzący w skład pola kwantowego możemy traktować jak możliwy stan cząstki która jest wzbudzeniem tego pola, więc możemy mieć tylko całkowitą liczbę cząstek w danym stanie. I jest jeszcze druga własność kwantowego oscylatora: otóż nie może on się nigdy całkowicie zatrzymać. Z powodów związanych z zasadą nieoznaczoności, kwantowy oscylator ma pewną minimalną energię poniżej której nie da się go sprowadzić. Przetłumaczone na nasz model pola kwantowego oznacza to, że wszystkie te wchodzące w jego skład oscylatory wibrują sobie cały czas, nawet jeżeli nie ma w jakimś obszarze żadnych cząstek, mamy w nim doskonałą próżnię. Brzmi to nonsensownie, wiem, sam tak uważam, ale wynika z tego, że kwantowa próżnia nie ma wcale zerowej energii - ma energię równą sumie energii tych wszystkich (nieskończenie wielu) oscylatorów - więc energię wręcz nieskończoną! Na szczęście w kwantowej teorii pola to nie jest problem: fizycy wynaleźli metodę matematyczną, zwaną renormalizacją, pozwalającą się pozbyć takich nieskończoności w matematycznie spójny sposób. Z grubsza wygląda to tak, że ponieważ ten stan o olbrzymiej energii jest zarazem stanem o energii najniższej z możliwych, więc odbieramy go jako stan o energii zerowej i mierzymy tylko różnicę pomiędzy nim, a stanem naszego układu fizycznego. Brzmi podejrzanie, ja wiem, ale jak dotychczas pozwala nam przewidzieć rachunkowo wynik każdego eksperymentu jaki przeprowadzimy w mikroświecie, więc wygląda, że musimy z tym żyć.

No i właśnie: o ile ta olbrzymia, ocierająca się o nieskończoność energia próżni nie jest problemem dla samej kwantowej teorii pola, to staje się nim w momencie jak dodamy grawitację. Ogólna Teoria Względności, kolejna teoria fizyczna która dotychczas nigdy nie zawiodła i pozwoliła przewidzieć różne zjawiska zanim się udało je zaobserwować, mówi, że każdy rodzaj energii jest źródłem grawitacji. A więc i ta energia kwantowej próżni też. Jeżeli się po prostu włączy taką energię próżni (przyjmując że jest ona wielka, ale skończona - istnieje jakaś najwyższa częstotliwość z jaką pole może falować) w równania Einsteina opisujące grawitację, to ona pojawia się tam w taki sam sposób jak stała kosmologiczna. Stała kosmologiczna to taki dodatkowy wyraz który Einstein dodał do swoich równań aby uzyskać statyczny wszechświat, a potem, kiedy się okazało że wszechświat nie jest statyczny lecz rozszerza się, bardzo tego żałował. I niepotrzebnie, bo okazuje się, że nasz wszechświat wydaje się mieć jednak bardzo niewielką stałą kosmologiczną, odpowiedzialną za przyspieszanie jego ekspansji. Ogólnie stała kosmologiczna, w zależności od znaku, może albo powodować właśnie takie przyspieszające się rozszerzanie, albo odwrotnie, dodawać hamowanie i prowadzić do zapadania się wszechświata. No i tu mamy właśnie nasz problem: z jednej strony kwantowa teoria pola mówi, że próżnia ma olbrzymią energię, co oznacza olbrzymią stałą kosmologiczną, z drugiej obserwujemy ją malutką. W zależności od przyjętych w rachunkach założeń nasze przewidywanie różni się od wartości doświadczalnej o pomiędzy 50 a 120 rzędów wielkości. To jest naprawdę najgorsza predykcja całej fizyki teoretycznej!

Jest z sytuacji wyjście, ale nikogo ono za bardzo nie zadowala: otóż pól kwantowych jest wiele, każde z nich ma pewne parametry: masa cząstki którą opisuje, jej spin, siły oddziaływań pomiędzy polami, do tego może jeszcze istnieć ewentualna "naturalna" stała kosmologiczna, czyli nie związania z istnieniem pól. Jest taka hipotetyczna możliwość, aby te parametry tak precyzyjnie zestroić ze sobą, żeby te wkłady się prawie znosiły, taką metodą jak odejmowanie bardzo wielkich ale bliskich siebie liczb dało liczbę małą. Nie jest to bardzo ładne rozwiązanie, bo niby czemu te parametry miałyby być tak zestrojone, ale jest to przynajmniej jakaś szansa na uratowanie naszego opisu świata.

Fizycy problem ten traktują bardzo poważnie i dotychczasowe próby jego rozwiązania szły zasadniczo w dwóch kierunkach: jednym było poszukiwanie takiego mechanizmu fizycznego, takiej teorii pola, w której ta stała kosmologiczna automatycznie wychodziłaby mała. Stąd wziął się np. pomysł supersymetrii: dla każdego pola miałoby w nim istnieć symetryczne pole ciągnące stałą kosmologiczną w przeciwnym kierunku. Przy wysokich energiach, czyli dla tych najbardziej energetycznych oscylatorów, symetria byłaby pełna i w ten sposób nie dawałyby one żadnego wkładu do stałej kosmologicznej. Tylko te o niskich energiach, przy których supersymetria nie jest już symetrią dokładną, powodowałyby że widzimy niewielką wartość tej stałej. Ładny pomysł, tyle że tych supersymetrycznych cząstek nigdzie nie widać.

Drugi pomysł jest taki bardziej filozoficzny: niektórzy traktują ten problem jako dowód na istnienie "wieloświata", czyli olbrzymiej liczby równoległych wszechświatów. Te wszechświaty miały by się rodzić z losowymi parametrami swoich pól kwantowych. W olbrzymiej większości z nich mielibyśmy więc ogromną stałą kosmologiczną, która powodowałaby albo błyskawiczne rozszerzanie się do stanu kompletnej pustki, albo zapadnięcie się z powrotem niemal natychmiast po powstaniu takiego świata. Ale że tych wszechświatów jest tak strasznie dużo, więc czasem w niektórych trafi się przypadkowo taka akurat kombinacja parametrów, która produkuje to, co widzimy. A że tylko taki wszechświat daje szansę na powstanie życia i rozumu, więc i nic dziwnego, że w takim właśnie się znaleźliśmy. Nie jest to pomysł który by mi się podobał, uważam go za zwykłą próbę zamiecenia czegoś pod dywan, ale są ludzie którzy poważnie coś takiego proponują.

Dla kompletności, są też tacy (raczej nie fizycy) którzy widzą w tym dowód na istnienie Stwórcy. Znaczy że On sobie gdzieś siedział i liczył pilnie, do wszystkich rzędów rachunku zaburzeń (albo może ma metodę, żeby znajdować rozwiązania równań kwantowej teorii pola ściśle) i znalazł taki zestaw parametrów, który produkuje bliską zeru stałą kosmologiczną. I z tym zestawem parametrów stworzył potem świat. Niejasne dlaczego nie wyzerował jej w takim razie zupełnie, ale nieważne, ten pomysł moim zdaniem jest jeszcze słabszy niż poprzedni.

I tu, po bardzo długim wstępie dochodzimy do bardzo krótkiego omówienia dość długiej pracy. Otóż jej autorzy zakwestionowali ten punkt rozumowania, według którego duża gęstość energii próżni oznacza dużą stałą kosmologiczną. Bo wyprowadzając tę zależność czyni się założenie, że gęstość energii próżni jest stała. Tymczasem, jak zauważają autorzy, ona przecież podlega kwantowym fluktuacjom. Jeżeli policzymy średnią energię próżni w jakimś większym obszarze (słowo "większy" należy rozumieć względnie, atom jest w tym wypadku obiektem bardzo dużym) no to ona będzie stała, ale jeżeli popatrzymy dokładniej, w takiej skali odległości na jaką na razie zajrzeć nie potrafimy, to zobaczymy tam fluktuacje kwantowe o wielkości podobnej jak ta średnia energia. Próżnia oglądana w bardzo dużym powiększeniu nie jest gładka, a bez przerwy się kotłuje, tak w czasie jak i w przestrzeni. W rezultacie i sama czasoprzestrzeń w tej skali podlega potężnym deformacjom, jedne obszary rozszerzają się gwałtownie, inne zapadają i cały ten obraz bez przerwy się zmienia. W tej sytuacji, argumentują autorzy pracy, przybliżanie rozkładu energii próżni stałą jest grubym błędem i prowadzi do błędnych wniosków.

Pytanie teraz jak to w takim razie zrobić. Problem w tym, że rozpatrujemy tak małe odległości i tak wielkie fluktuacje energii, że właściwie to potrzebujemy kwantowej grawitacji, której nie mamy. Autorzy stosują więc takie półklasyczne podejście, przestrzeń jest klasyczna, ale pola w niej kwantowe. No i przy samym rozwiązywaniu równań trzeba poczynić pewne upraszczające założenia. I jak już się to zrobi to wychodzi, że te efekty naprzemiennej ekspansji i kurczenia się przestrzeni w maleńkich obszarach prawie dokładnie się znoszą, czyli że ta wielka energia kwantowej próżni wcale nie przekłada się na katastrofalną ekspansję wszechświata z powodu olbrzymiej stałej kosmologicznej. To znoszenie się ekspansji i kurczenia byłoby dokładne, gdybyśmy dopuścili drgania o wszystkich częstotliwościach, aż do nieskończoności. Jednak generalnie spodziewamy się, że gdzieś przy częstotliwościach odpowiadających masie Plancka nasze równania się i tak załamią - jeżeli włożyć więc w nie taką maksymalną energię i częstotliwość fluktuacji, to kasowanie nie jest dokładnie i ekspansja troszeczkę wygrywa. Dostajemy więc świat podobny do tego, co obserwujemy: bardzo niewielkie przyspieszanie ekspansji. I dostajemy to nie wkładając do równań żadnej zewnętrznie narzuconej stałej kosmologicznej, ani nie dobierając starannie parametrów. Autorzy twierdzą nawet, że to obserwowane tempo przyspieszenia ekspansji zależy od liczby istniejących pól kwantowych, więc jak się to uda dokładniej policzyć, to z pomiarów parametru przyspieszenia ekspansji wszechświata można by w zasadzie dowiedzieć się czegoś o fizyce cząstek elementarnych.

To tyle, praca jest obszerna i w większości dość techniczna. Trudno jest ocenić jak bardzo te wyniki zależą od przyjętych założeń i jak bardzo się mogą zmienić gdyby udało się skwantować grawitację, dlatego jestem bardzo ostrożny w ocenie "przełomowości" tego wyniku. Niemniej jednak jest to bardzo interesująca próba rozwiązania za jednym zamachem dwóch problemów męczących współczesną fizykę: dlaczego stała kosmologiczna nie jest wielka i dlaczego nie jest zerowa. I to bez postulowania istnienia dodatkowych pól, typu "ciemnej energii".

Link do pracy: http://dx.doi.org/10.1103/PhysRevD.95.103504, do arXiv: https://arxiv.org/abs/1703.00543. Przepraszam za długość tego wpisu, ciekawe ile osób dotrwało do końca...

Post has attachment
Brwinów, dworek "Zagroda".

Wybudowany w latach 1905-1910 przez pisarza, Zygmunta Bartkiewicza. Mieszkał w nim do końca swoich dni. Obecnie jest siedzibą Towarzystwa Przyjaciół Brwinowa, pełni rolę lokalnego ośrodka kultury, mieści się w nim też kolekcja pamiątek po pisarzu.

#fkBrwinów #fkdworek
Photo

Post has attachment
Sonda Cassini rozpoczęła "wielki finał" - ostatni etap swojej misji badania Saturna, jego księżyców i pierścieni. Wystrzelona niemal 20 lat temu, po 13 latach na orbicie planety i z prawie pustymi zbiornikami paliwa, sonda przeleciała dziś obok Tytana i przelot ten skierował ją na orbitę prowadzącą pomiędzy najbardziej wewnętrznym pierścieniem a górnymi warstwami atmosfery planety (to jeszcze nie przelot Pirxa przez szczelinę Cassiniego, ale blisko :) ). Pierwszy z zaplanowanych przelotów nastąpi we środę przed południem naszego czasu, potem co kilka dni będą kolejne. Jeżeli wszystko dobrze pójdzie Cassini wykona 22 obiegi orbity, a przy ostatnim zbliżeniu, 15 września, zostanie skierowany w atmosferę i spłonie w niej - do końca ma jednak przekazywać dane. Wspominałem już kiedyś zdaje się, że NASA nie pozostawia martwych sond na orbitach Jowisza i Saturna, by uniknąć (bardzo mało prawdopodobnego, ale zawsze) zanieczyszczenia ich księżyców, na których, pod lodową powłoką, może istnieć życie. Akurat kilka dni temu przedstawiono wyniki analizy wykonanej podczas przelotu Cassiniego przez chmurę wyrzuconą przez "gejzer" wystrzeliwany z jednej ze szczelin w lodowej powierzchni Enceladusa i wynika z niej, że w oceanie pod lodami tego księżyca prawdopodobnie istnieją kominy hydrotermalne. Wielu uczonych uważa, że takie właśnie kominy były pierwotnymi kolebkami życia na Ziemi.

Napisałem "jeżeli dobrze pójdzie" bo manewr jest dość ryzykowny i nie wiadomo co tam w tej szczelinie pomiędzy pierścieniem a planetą może być (dlatego właśnie pozostawiono go na sam koniec misji). Na wszelki wypadek sonda zostanie obrócona tak, by użyć czaszy anteny jako tarczy, gdyby się okazało, że jest tam więcej gazów lub pyłu niż się wydaje. Naukowcy obiecują sobie po tym przelocie nie tylko doskonałych zdjęć pierścieni i powierzchni planety, ale też danych po polach magnetycznym i grawitacyjnym, które pozwolą lepiej zrozumiej jej wewnętrzną budowę.

W załączeniu zdjęcie wykonane przez Cassiniego przed świętami (dokładniej 13 kwietnia rano naszego czasu). Ta kropka w środku to Ziemia widoczna przez szczelinę pomiędzy pierścieniami A i F, Jeżeli się zdjęcie powiększy i uważnie popatrzy, to widać też Księżyc.

#saturn #cassini
Photo
Wait while more posts are being loaded