Connect with us

science

Komputery kwantowe: w ten sposób można uzyskać miliony kubitów

Published

on

Komputery kwantowe: w ten sposób można uzyskać miliony kubitów
Nauki Komputery kwantowe

„Potrzebujemy milionów bitów kwantowych”.

Kolumna fizyki Kolumna fizyki

Fizyk Winfried Hensinger w swoim laboratorium z komputerami kwantowymi

Źródło: Winfried Hensinger

Tutaj możesz posłuchać naszych podcastów WELT

Aby przeglądać treści osadzone, konieczne jest uzyskanie przez Ciebie odwołalnej zgody na przesyłanie i przetwarzanie danych osobowych, gdyż dostawcy treści osadzonych wymagają tej zgody jako zewnętrzni usługodawcy. [In diesem Zusammenhang können auch Nutzungsprofile (u.a. auf Basis von Cookie-IDs) gebildet und angereichert werden, auch außerhalb des EWR]. Ustawiając przełącznik w pozycji „Wł.”, zgadzasz się na to (z możliwością odwołania w dowolnym momencie). Obejmuje to również Twoją zgodę na przekazanie niektórych danych osobowych do państw trzecich, w tym do USA, zgodnie z art. 49 ust. 1 lit. a) RODO. Możesz znaleźć więcej informacji na ten temat. W każdej chwili możesz odwołać swoją zgodę korzystając z klucza i prywatności na dole strony.

Komputery kwantowe mają obecnie zaledwie kilkadziesiąt wzmacniaczy kwantowych. Oznacza to, że w zasadzie mogą udowodnić swoją funkcjonalność. Ale do zadań praktycznych potrzebna jest większa liczba kubitów. Niemiecko-brytyjski fizyk wyjaśnia, jak można to osiągnąć.

BPodczas swojej pracy doktorskiej w Australii Winfried Hensinger postawił sobie trudny cel, który chciał osiągnąć w swoim życiu jako fizyk: „Chcę zbudować komputer kwantowy”. Uniwersytet w SussexKiedy w końcu zobaczył wszystkie podstawowe wymagania, aby założyć własną firmę w 2018 roku.

Ważnym aspektem było osiągnięcie naukowe osiągnięte w 2016 roku. z „Uniwersalny kwantHensinger przyjeżdża teraz do Hamburga, ponieważ fizyk posiadający paszport brytyjski i niemiecki może skorzystać z hojnych funduszy dla innowacyjnych firm zajmujących się komputerami kwantowymi w tym kraju.

Na całym świecie istnieją dziesiątki grup badawczych i firm zajmujących się badaniami i rozwojem komputerów kwantowych. Do uzyskania tak zwanych bitów kwantowych (Qbitów) stosuje się bardzo różne techniki. To, który z nich ostatecznie zwycięży i ​​będzie lepiej dostosowany do komercyjnych komputerów kwantowych, pozostaje kwestią otwartą. Naturalnie każdy naukowiec pokłada największe nadzieje w drodze rozwoju, na której sam się znajduje.

Tak naprawdę istnieją już pierwsze komputery kwantowe, które zasadniczo udowodniły swoją funkcjonalność. Potrafili rozwiązywać określone zadania za pomocą specjalnych algorytmów kwantowych. Liczba kubitów w tych systemach to zwykle tylko dwie liczby.

„Aby móc rozwiązywać realne problemy za pomocą komputerów kwantowych w praktyce, potrzebujemy milionów kubitów” – mówi Hensinger. Z tego powodu niektóre dotychczas stosowane technologie nie będą miały szans w dłuższej perspektywie, gdyż nie są „skalowalne”.

„Technologię nazywamy skalowalną, jeśli można ją wykorzystać nie tylko do budowy systemów zawierających 100 kubitów, ale także poprzez modułowe skalowanie systemów zawierających 1000, 10 000 lub 1 milion kubitów” – wyjaśnia Hensinger. To właśnie powinno być możliwe dzięki preferowanej przez niego technologii.

Przeczytaj także

Komputer kwantowy D-Wave w Centrum Badawczym w Jülich

Kubity Hensingera są reprezentowane przez jony, czyli naładowane elektrycznie jony zawarte w pułapkach jonowych na mikrochipach. „Pierwszy chip pułapki jonowej zaprezentowałem w 2005 roku” – mówi brytyjsko-niemiecki badacz. W tym samym roku uzyskał katedrę w Anglii.

„Główną zaletą tej technologii jest jej skalowalność” – mówi Hensinger. „W Hamburgu chcemy zbudować komputer kwantowy, w którym połączymy cztery chipy polami elektrycznymi przy użyciu nowej, wymyślonej przez nas techniki. Budujemy więc prawdziwy modułowy Oczywiście w ten sam sposób można zbudować komputer kwantowy z milionami kubitów” – mówi Hensinger. Następnie można po prostu podłączyć kilka innych układów.

Bo jeśli to zadziała, to należy na tej samej zasadzie zadokować inne moduły i można zbudować skalowalny komputer kwantowy. W podobny sposób badacze wykorzystują światło lasera do komunikacji z kubitami. Jednak próba zrobienia tego z milionami kubitów jednocześnie wydaje się beznadziejna.

Mikrofale działają w technologii Qbits

„Nie można skierować milionów laserów na mikrochipy jonowe, ale w 2016 r. dokonaliśmy zdecydowanego przełomu” – mówi Hensinger. Opracowaliśmy chipy, które wytwarzają heterogeniczne monety magnetyczne w obszarze procesora. Następnie można zmienić częstotliwość rezonansową jonu, po prostu przemieszczając jon w niejednorodnym polu magnetycznym za pomocą przyłożonego napięcia. Oznacza to, że przykładając napięcie, można określić, czy jon może absorbować mikrofale. Mikrofale zmieniają następnie stan jonów i można wykonywać obliczenia, po prostu przykładając napięcie.

READ  Jad pszczeli w leczeniu - 100 razy silniejszy niż kortyzon - Heilpraxis

Dużą zaletą technologii komputera kwantowego jest to, że zasadniczo działa ona w temperaturze pokojowej. Z kolei komputer kwantowy opracowany przez Google musi zostać schłodzony do temperatur rzędu milikelwinów – nieco powyżej zera absolutnego, czyli minus 273 stopni Celsjusza. Jest to skomplikowane, kosztowne i stanowi kolejną przeszkodę w ekspansji. Doprowadzenie milionów kubitów do tak niskich temperatur jest wyzwaniem prawie niemożliwym do pokonania.

I to właśnie ta skalowalność będzie ostatecznie wymagać chłodzenia chipów Hensingera. Gdyby miliony jonów były tam aktywne w postaci kubitów, ciepło odpadowe, które nieuchronnie by powstało, byłoby bardzo duże. „Chcemy schłodzić nasze chipy do temperatury minus 200 stopni Celsjusza za pomocą helu” – mówi fizyk. „Można to osiągnąć niewielkim wysiłkiem i bardzo rozsądnymi kosztami”.

Tutaj znajdziesz treści pochodzące od osób trzecich

Aby przeglądać treści osadzone, konieczne jest uzyskanie przez Ciebie odwołalnej zgody na przesyłanie i przetwarzanie danych osobowych, gdyż dostawcy treści osadzonych wymagają tej zgody jako zewnętrzni usługodawcy. [In diesem Zusammenhang können auch Nutzungsprofile (u.a. auf Basis von Cookie-IDs) gebildet und angereichert werden, auch außerhalb des EWR]. Ustawiając przełącznik w pozycji „Wł.”, zgadzasz się na to (z możliwością odwołania w dowolnym momencie). Obejmuje to również Twoją zgodę na przekazanie niektórych danych osobowych do państw trzecich, w tym do USA, zgodnie z art. 49 ust. 1 lit. a) RODO. Możesz znaleźć więcej informacji na ten temat. W każdej chwili możesz odwołać swoją zgodę korzystając z klucza i prywatności na dole strony.

Continue Reading
Click to comment

Leave a Reply

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

science

„Zdesperowany, załamany, wściekły”: setki badaczy klimatu na całym świecie są zdesperowani

Published

on

„Zdesperowany, załamany, wściekły”: setki badaczy klimatu na całym świecie są zdesperowani

„Czasami prawie niemożliwe jest nie czuć się beznadziejnie i załamanym” – mówi Ruth Cerezo Motta. Meksykańska klimatolog wyraziła nadzieję, że po ostatnich latach suszy, powodzi i pożarów rządy na całym świecie będą gotowe wysłuchać nauki i działać w najlepszym interesie ludzi. opiekun „.

Zamiast tego Cerezo Motta przewiduje, że do końca tego stulecia globalna temperatura wzrośnie do katastrofalnego poziomu 3 stopni, co nie tylko znacznie przekroczy cel 1,5 stopnia, ale także spowoduje ogromne cierpienie miliardów ludzi. Ale to tylko jej optymistyczna ocena. Konsekwencje kryzysu klimatycznego? Nie są one odległe w przyszłość, ale są już tu dzisiaj.

„Zdesperowany, załamany, wściekły”: setki badaczy klimatu na całym świecie są zdesperowani

Cerezo Motta jest jednym z kilku badaczy klimatu z Międzyrządowego Zespołu ds. Zmian Klimatu (IPCC), z którymi rozmawiał brytyjski serwis. Ekskluzywne badanie Guardiana przeprowadzone na setkach klimatologów ukazuje przerażający obraz ziemskiego klimatu i rozpaczy wśród naukowców.

Wszyscy 843 ankietowani badacze są członkami Międzyrządowego Zespołu ds. Zmian Klimatu, organizacji Narodów Zjednoczonych znanej ze szczegółowych raportów na temat zmian klimatycznych. Raporty te uznawane są za wiarygodne źródło informacji i często służą jako wskazówka przy kształtowaniu międzynarodowej polityki klimatycznej, a może nawet złotego standardu. Ankieta przeprowadzona przez najbardziej doświadczonych ekspertów ujawnia głębokie zaniepokojenie.

Na zapytanie Guardiana odpowiedziało około 380 ekspertów, którzy wyjaśnili, że spodziewają się daleko idących zmian klimatycznych. 77% ankietowanych uważa, że ​​temperatura wzrośnie co najmniej o 2,5 stopnia Celsjusza, a prawie połowa spodziewa się wzrostu o 3 stopnie Celsjusza i więcej. Tylko 6% jest optymistą, że cel 1,5 stopnia można osiągnąć.

Przyszłość niemal dystopijna – naznaczona głodem, konfliktami i masową migracją

Zgodnie z obecną globalną polityką klimatyczną ludzkość znajduje się na trajektorii 2,7 stopnia. Wielu badaczy przewiduje „niemal dystopijną” przyszłość charakteryzującą się głodem, konfliktami i masowymi migracjami spowodowanymi niezwykle intensywnymi i częstymi falami upałów, pożarami, powodziami i burzami. Pomimo wyraźnych dowodów naukowych wielu ekspertów jest przygnębionych, złych i przestraszonych niepowodzeniami rządów w podejmowaniu odpowiednich działań.

READ  Mróz do minus 10 stopni i śnieg: Frankonia będzie w wiecznej zmarzlinie przez kilka następnych dni

„Myślę, że w ciągu najbliższych pięciu lat będziemy świadkami poważnych niepokojów społecznych” – stwierdziła Greta Bickel z Uniwersytetu Tasmanii. „Władze staną w obliczu serii ekstremalnych wydarzeń, w wyniku których produkcja żywności ulegnie załamaniu. Nie mogę sobie wyobrazić bardziej ponurej przyszłości”.

Nadzieję dają tylko dwie rzeczy: rozwiązania technologiczne i następna generacja

Prawie trzy czwarte klimatologów jako główną przyczynę niepowodzenia ochrony klimatu podaje brak woli politycznej. Ponadto wpływ lobbystów, zwłaszcza branży paliw kopalnych, wymienia się jako przeszkodę w skutecznych środkach ochrony klimatu. Kontekst ten obejmuje także utrzymującą się nierówność i brak świadomości ogromnych skutków zmian klimatycznych w najbardziej dotkniętych i najbiedniejszych regionach świata. „Żyjemy w epoce głupców” – gorzko ocenia południowoafrykański badacz.

Pomimo pesymistycznych prognoz część ekspertów potwierdza, że ​​istnieją już techniczne środki ograniczające globalne ocieplenie. „Jestem przekonany, że mamy wszystkie rozwiązania, których potrzebujemy, aby obniżyć globalną temperaturę do 1,5 stopnia Celsjusza i że wdrożymy je w ciągu najbliższych 20 lat” – powiedział optymista Henry Neufeldt z Centrum Klimatycznego ONZ w Kopenhadze. Kluczem jest tutaj szybkie wdrożenie tych działań, chociaż istnieje obawa, że ​​zostaną one wprowadzone za późno i do tego czasu zostaną przekroczone pewne punkty zwrotne.

Ale nie tylko rozwiązania techniczne dają nadzieję badaczom Międzyrządowego Zespołu ds. Zmian Klimatu. „Moją jedyną nadzieją jest to, że jako pedagog widzę, że następne pokolenie jest bardzo inteligentne i rozumie politykę” – powiedziała The Guardian niemiecka klimatolog Lisa Schipper z Uniwersytetu w Bonn.

„Żyjemy w epoce głupców”

Dlatego eksperci wzywają do szeroko zakrojonych przygotowań, które uchronią ludzi przed najgorszymi konsekwencjami. Wprowadzenie technologii przyjaznych dla klimatu, takich jak energia odnawialna i samochody elektryczne, może być dobrym punktem, ponieważ może wzmocnić spójność społeczną i globalną solidarność.

Naukowcy pilnie wzywają społeczność międzynarodową do szybkiego i zdecydowanego działania. Ochrona klimatu to nie tylko kwestia technologiczna, to także priorytet polityczny i spójność społeczna. Należy kontynuować walkę ze zmianami klimatycznymi. Każde działanie, które choć w niewielkim stopniu zmniejszyłoby skalę globalnego ocieplenia, zmniejszyłoby ludzkie cierpienie, zaoszczędziło cenny czas na wdrożenie rozwiązań i pozwoliło uniknąć punktów krytycznych w systemie klimatycznym, które mogłyby doprowadzić do nieodwracalnych zmian.

READ  Rynek witaminy B12 (kobalamina, cyjanokobalamina) (2021-2028) - Luitpold Pharmaceuticals, Merck, Bristol-Myers Squibb, Luitpold (Daiichi Sankyo), Teva (Actavis) itp.

Continue Reading

science

Beta-blokery nie są konieczne po łagodnym zawale serca

Published

on

Beta-blokery nie są konieczne po łagodnym zawale serca
  1. Strona główna
  2. Dowiedzmy się

Naciska

Według badania przeprowadzonego w Szwecji, leki beta-adrenolityczne stosowane zwykle w leczeniu łagodnych zawałów serca są przestarzałe.

FRANKFURT – Beta-blokery są często przepisywane osobom po zawale serca, aby zapobiec kolejnemu zawałowi serca. Niektórzy powinni przyjmować te leki przez ograniczony czas, a inni przez resztę życia. Beta-adrenolityki są od dziesięcioleci standardem w leczeniu zawału serca. Jednak nowe badania sugerują, że ich stosowanie przynosi niewielkie korzyści pacjentom, którzy mają mniej poważne zawały serca i mają prawidłową czynność serca.

Jest to szczególnie ważne, ponieważ preparaty te są powszechnie uważane za bardzo bezpieczne, jednak mogą wiązać się również z nieprzyjemnymi skutkami ubocznymi, takimi jak skrajne zmęczenie, zawroty głowy, depresja, przyrost masy ciała, problemy z krążeniem w dłoniach i stopach oraz zaburzenia erekcji.

Przyjmowanie beta-blokerów nie zmniejsza ryzyka wystąpienia drugiego zawału serca

Według W czasopiśmie specjalistycznym New England Journal of Medicine Opublikowane badanie Według szwedzkiego badacza przyjmowanie beta-blokerów nie zmniejsza ryzyka drugiego zawału serca i nie wpływa na śmiertelność. Naukowcy pod kierownictwem kardiologa Thomasa Jernberga z Instytutu Karolinska w Sztokholmie zrekrutowali do analizy 5020 kobiet i mężczyzn, którzy przeszli zawał serca. 95% z nich leczyło się w 47 różnych ośrodkach w Szwecji, a pozostali w Estonii i Nowej Zelandii.

Wszyscy mieli normalny współczynnik wytrysku. Wskazuje to, jak dobrze serce pompuje krew do reszty ciała. Jeśli po zawale serca mięsień sercowy staje się zbyt sztywny lub zbyt słaby, nie jest już w stanie skutecznie pompować krwi i odpowiednio zaopatrywać narządów, w takim przypadku nazywa się to niewydolnością serca. Frakcja wyrzutowa od 40 do 50 procent jest normalna; W przypadku uczestników badania było to 50 procent lub więcej.

READ  Jad pszczeli w leczeniu - 100 razy silniejszy niż kortyzon - Heilpraxis

Beta-adrenolityki są najpowszechniejszymi lekami na świecie

Połowa została losowo przydzielona do grupy otrzymującej beta-blokery, metoprolol (najpowszechniejszy lek) i bisoprolol; Druga połowa nie przyjmowała żadnego z tych leków. Badanie nie było zaślepione, co oznacza, że ​​uczestnicy i lekarze prowadzący wiedzieli, kto otrzymywał beta-blokery, a kto nie. Celem było sprawdzenie, jak korzystne byłoby podawanie beta-blokerów osobom z takimi „małymi” zawałami serca.

Podstawowy warunek unikania beta-blokerów: serce musi pozostać wystarczająco wydajne. © Imago/Bond5 Obrazy

Beta-adrenolityki to klasa leków, które należą do najczęściej przepisywanych leków na całym świecie. Podaje się je w leczeniu nadciśnienia, migotania przedsionków i innych nieregularnych uderzeń serca, niewydolności serca i po zawałach serca, ale także w celu zapobiegania migrenom oraz jako krople do oczu w leczeniu jaskry. Beta-blokery działają poprzez blokowanie niektórych receptorów, a tym samym hamowanie uwalniania hormonu stresu, adrenaliny i neuroprzekaźnika noradrenaliny, co powoduje szybsze bicie serca. Beta-blokery powodują zmniejszenie częstości akcji serca, zmniejszając nacisk na mięsień sercowy.

Badania pokazują: Przyjmowanie beta-blokerów nie zapewnia żadnych znaczących korzyści

Badanie przeprowadzono w okresie od września 2017 r. do maja 2023 r., a po średnio trzech i pół roku autorzy sprawdzili wyniki uczestników. Wynik: w grupie osób przyjmujących beta-adrenolityki 3,9% zmarło od zawału serca, natomiast w grupie, która nie otrzymywała tych leków, zmarło 4,1% (uwzględniono wszystkie zgony, nie tylko te). z powodu problemów z sercem).

4,5 procent grupy przyjmującej beta-blokery miało kolejny zawał serca, a 4,7 procent grupy kontrolnej miało kolejny zawał serca. Nie stwierdzono także statystycznie istotnych różnic w częstości występowania niewydolności serca, migotania przedsionków, udaru mózgu czy objawów takich jak duszność i ból w klatce piersiowej. Dlatego badacze doszli do wniosku, że przyjmowanie beta-blokerów nie przynosi tym pacjentom znaczących korzyści, a tym samym można uniknąć potencjalnych skutków ubocznych.

Wyniki „kwestionują rutynowe stosowanie beta-blokerów po zawale serca”

Odkrycia te, zgodnie z wkładem do bieżącego badania przeprowadzonego przez American College of Cardiology, podają w wątpliwość „rutynowe stosowanie beta-adrenolityków u wszystkich pacjentów po zawale serca”. Historia ta sięga czasów, zanim „wprowadzono wiele nowych procedur otwierania zablokowanych tętnic”. Biorąc pod uwagę dostępne obecnie możliwości, u około połowy osób po zawale serca nie rozwija się niewydolność serca.

READ  Ponad 6500 nowych przypadków korony w Berlinie - znowu ponad 1100! - BZ Berlin

Szwedzcy badacze zwracają również uwagę, że większość badań, które wykazały korzyści ze stosowania beta-blokerów po zawale serca, przeprowadzono w czasie, gdy wiele nowoczesnych, powszechnie stosowanych metod diagnostycznych i leczniczych nie było jeszcze dostępnych. Autor badania Trolls Yendegen z Uniwersytetu w Lund (Szwecja) w artykule dla American College of Cardiology stwierdził, że uszkodzenie mięśnia sercowego było większe: „Dzisiaj obserwujemy więcej zawałów mięśnia sercowego, które są mniejsze i bardziej niebezpieczne”. „Nie wpływa tak bardzo na mięsień sercowy”. Dlatego stawia hipotezę, że „po tym badaniu wielu lekarzy nie znajdzie żadnych wskazań do rutynowego leczenia beta-blokerami wszystkich swoich pacjentów po zawale serca”.

Wytyczne dotyczące leków mogą ulec zmianie po zawale serca

Szwedzki lekarz powiedział Medical News Today, że jego zdaniem wytyczne ulegną teraz zmianie i beta-blokery nie będą już zalecane pacjentom z prawidłową czynnością serca po zawale serca. Podkreśla jednak również, że „dowody nadal potwierdzają skuteczność stosowania beta-blokerów u pacjentów z dużym zawałem mięśnia sercowego i niewydolnością serca”.

Kardiolog Bashar Al-Humairi z University of Texas potwierdził ocenę swojego szwedzkiego kolegi amerykańskiemu magazynowi medycznemu „Health”. Badanie pokazuje, że „nie należy przepisywać leczenia beta-blokerami osobom, które przeszły zawał serca”. Zamiast tego należy go podawać indywidualnie „po ocenie korzyści i ryzyka”. (bum)

Continue Reading

science

NASA pokazuje film symulacyjny: Jak by to było wpaść do czarnej dziury?

Published

on

NASA pokazuje film symulacyjny: Jak by to było wpaść do czarnej dziury?

NASA pokazuje film symulacyjny
Jak by to było wpaść do czarnej dziury?

Posłuchaj materiału

Ta wersja audio została stworzona sztucznie. Więcej informacji | Wyślij swoją opinię

Czarne dziury to potwory, które połykają wszystko w kosmosie. Ekstremalne warunki, jakie stwarzają te obiekty, przekraczają ludzką wyobraźnię. Pracownik NASA opracowuje symulacje, które po raz pierwszy pokazują, jak może wyglądać czarna dziura.

NASA opublikowała symulowany film pokazujący, co by się stało, gdyby został połknięty przez czarną dziurę. the Scenariusz napisał Jeremy Schnittman Pracuje jako astrofizyk w Centrum Lotów Kosmicznych Goddarda w NASA. Opiera się na obliczeniach fizycznych zawierających ogromne ilości danych. Film z muzyką trwa cztery minuty. Dla zainteresowanych wyjaśnia z kilku perspektyw, co widzisz podczas wyimaginowanej podróży i co dzieje się po drodze.

Czarne dziury można opisać jako ścieżki grawitacyjne w przestrzeni. Siły grawitacyjne masywnych obiektów są tak silne, że nawet światło nie może opuścić tego obszaru ani przez niego przejść. Zewnętrzna granica tego obszaru nazywana jest horyzontem zdarzeń. Ani informacja, promieniowanie, ani materia nie mogą przekroczyć tego horyzontu zdarzeń od środka. Siły grawitacyjne czarnych dziur są tak silne, że mogą rozerwać nawet gwiazdy.

Podobny do Strzelca A*

Czarna dziura Schnittmanna w symulacji jest podobna do dziury w centrum Drogi Mlecznej, zwanej Sagittarius A*. Grawitację szacuje się na około 4,3 miliona mas Słońca. Horyzont zdarzeń obejmuje około 25 milionów kilometrów, co stanowi około 17% drogi z Ziemi do Słońca.

Przy tworzeniu wizualizacji Schnittman współpracował ze swoim kolegą Brianem Powellem. Zespół Goddarda korzysta z superkomputera Discover w centrum symulacji klimatu NASA. Cały projekt wymaga stworzenia i przetworzenia około 10 terabajtów danych. Stanowi to około połowę szacowanej zawartości tekstu w Bibliotece Kongresu i zajmuje około pięciu dni przy użyciu zaledwie 0,3 procent ze 129 000 procesorów Discover. Na typowym laptopie osiągnięcie tej samej wydajności zajęłoby ponad dekadę.

Punkt bez powrotu

Badania nad czarnymi dziurami, które sięgają granic praw fizyki, a nawet wykraczają poza strukturę czasoprzestrzeni z jej „nieskończonością”, czynią je szczególnie atrakcyjnymi dla badaczy. Symulacja tych trudnych do wyobrażenia procesów „pomaga mi połączyć abstrakcyjną matematykę teorii względności z konsekwencjami w prawdziwym wszechświecie” – wyjaśnia Schnittman. Dlatego symulował dwa różne scenariusze. Na jednym z nich kamera astronauty przelatuje blisko horyzontu zdarzeń czarnej dziury, a następnie zostaje ponownie wyrzucona. W drugim scenariuszu astronauta i kamera wykraczają poza horyzont zdarzeń czarnej dziury, a zatem punkt, z którego nie ma szans na powrót – wyjaśnia astrofizyk.

Ogólna teoria względności Alberta Einsteina faktycznie opisuje, jak zmienia się upływ czasu w czarnych dziurach. Schnittmann również zajął się tą strukturą, którą opisuje się jako grawitacyjną dylatację czasu. Według jego obliczeń astronauta, który odbył sześciogodzinny lot w pobliżu horyzontu zdarzeń czarnej dziury, a następnie został wyrzucony z powrotem w przestrzeń kosmiczną, byłby o około 36 minut młodszy od swoich kolegów znajdujących się w wystarczającej odległości. Jeśli jest to szybko obracająca się czarna dziura, może to zająć lata, wyjaśnia Schnittman.

Obiekty stają się spaghetti

Druga symulacja jest nieco inna. Zarówno kamera, jak i czasoprzestrzeń, w której się porusza, przyspieszają w kierunku środka czarnej dziury, jednowymiarowego punktu zwanego osobliwością, w którym prawa fizyki znane na Ziemi już nie obowiązują. „Kiedy kamera przekroczy horyzont, do zniszczenia przez spaghetti będzie już tylko 12,8 sekundy” – wyjaśnia Schnittman. Ponieważ siła grawitacji na końcu obiektu najbliżej czarnej dziury jest znacznie większa niż na drugim końcu, obiekty rozszerzają się niczym kapilara. Dlatego astrofizycy nazywają ten proces spaghetti.

Pragnienia SchnittmanaAby pewnego dnia mógł udowodnić swoją teorię o czarnych dziurach. Symulacja jest pierwszym krokiem w tym kierunku.

READ  Jad pszczeli w leczeniu - 100 razy silniejszy niż kortyzon - Heilpraxis
Continue Reading

Trending