Odtwarzanie wielkoskalowej struktury Wszechświata z danych SDSS

56c449c8ccead

W ramach przeglądu BOSS przeskanowano niebo mierząc redshift (przesunięcie ku czerwieni) ponad miliona galaktyk, co pozwoliło na stworzenie trójwymiarowego obrazu jasnych źródeł w naszym Wszechświecie w zakresie do 4.5 miliarda lat temu. Międzynarodowy zespół astronomów odtworzył obserwowane struktury gromad galaktyk i określił niepewności pomiarowe obserwowanych wartości poprzez stworzenie tysięcy symulowanych katalogów galaktyk. Po raz pierwszy w historii odległości między parami galaktyk oraz odległości między trypletami galaktyk odzwierciedlają dane obserwacyjne. Dzięki temu udało się opisać kosmiczną sieć, a w szczególności puste przestrzenie między galaktykami.

Rozkład galaktyk w wielkiej skali zawiera cenne informacje o początkach i przeznaczeniu Wszechświata. Aby te informacje wyłuskać w ramach przeglądu BOSS (Baryon Oscillation Spectroscopic Survey), który jest elemenetem SDSS-III (Sloan Digital Sky Survey), zmierzono rozkład redshiftów galaktyk z niespotykaną dotąd dokładnością. Podczas analizowania danych zebranych w tego typu przeglądach pojawia się zawsze jedno ważne pytanie: jeżeli porównać wszechświat do wielkiego, unikalnego eksperymentu – to w jaki sposób można określić niepewności pomiarowe uzyskanych danych?

Podczas gdy zwykłe eksperymenty można powtarzać wielokrotnie w laboratoriach, wszechświat jest odtwarzalny jedynie za pomocą superkomputerów. Przygotowując tego typu symulacje należy uwzględnić statystyczne fluktuacje będące efektem tzw. kosmicznej niezgodności (cosmic variance), która ma swój początek w pierwotnych fluktuacjach. Niemniej jednak odtworzenie wielkoskalowej struktury obejmującej objętości porównywalne z przeglądami takimi jak BOSS z fluktuacji powstałych po Wielkim Wybuchu, aż do czasu utworzenia się galaktyk obserwowanych po 14 miliardach lat kosmicznej ewolucji to niezwykle kosztowne zadanie wymagające milionów godzin pracy superkomputerów.

Francisco Kitaura z Leibniz Institute for Astrophysics w Poczdamie (AIP) powiedział: „Opracowaliśmy techniki niezbędne do stworzenia tysięcy symulowanych katalogów galaktyk, odtwarzając w ten sposób statystyczne właściwości obserwacji.”

Stworzenie katalogów przebiegało w trzech etapach: najpierw stworzono tysiące pól ciemnej materii charakteryzujących się różnymi perturbacjami w różnych epokach kosmicznych. Następnie galaktyki zostały  rozłożone w nieliniowy, stochastyczny sposób przypominający statystyczne właściwości uzyskane z obserwacji. Na końcu odtworzono masę każdej galaktyki – określoną przez jej otoczenie. W końcu, katalogi różnych etapów historii wszechświata zostały połączone w stożki światła odtwarzające właściwości obserwowane w danych z przeglądu BOSS, takie jak geometria przeglądu, gęstość galaktyk w różnych odległościach i czasach.

Chia-Hsun Chuang z AIP tłumaczy: „Dzięki temu nowatorskiemu podejściu byliśmy w stanie wiarygodnie zawęzić niepewności parametrów kosmologicznych uzyskiwanych z danych.”

„Ośrodek superkomputerów MareNostrum należący do Barcelona Supercomputing Center (BSC) został wykorzystany do stworzenia największej w historii liczby syntetycznych katalogów galaktyk obejmujących objętości większe niż dziesięciokrotność sumy wszystkich wielkoskalowych symulacji dotychczas przeprowadzonych,” mówi Gustavo Yepes z Autonomous University of Madrid (UAM).

Właściwości statystyczne uzyskane z danych i porównane z modelami pozwoliły uzyskać nowe informacje: „Teraz lepiej rozumiemy związek między rozkładem galaktyk i wielkoskalowym polem ciemnej materii. Zamierzamy dalej dopracowywać nasze metody, które pozwolą nam lepiej zrozumieć struktury obserwowane we Wszechświecie,” podsumowuje Kitaura.

Źródło: AIP Potsdam