środa, 29 kwietnia 2026

#88.3 Silniki Informacyjne w Kwantowym Wydaniu, czyli na Tropie N-Tropii vol.3



0. Wstęp.

Dobra, już kończę. Te zagwozdki o entropii doprowadzają mój mózg do szaleństwa, w dwojaki sposób. Po pierwsze, jest to szalenie ciekawe, jak entropia i termodynamika mogą wyglądać w kwantowym wydaniu. Jest mowa nawet o naginaniu twierdzenia Carnota! Rozumiecie? Najbardziej podstawowy element tego, jak działają maszyny, może zmienić pierwsze lepsze odkrycie na polu termodynamiki kwantowej. Może kiedyś nasze maszyny będą wyglądały zupełnie inaczej, ale od fundamentów fizyki ich silników poczynając?

Po drugie, wprowadziłem moje szalone pomysły do boju i być może sprowokuję kogoś do postawienia jakichś pytań, lub choćby wywołam wśród Czytelników dyskusję? Już od dawna sieję ferment w fizycznym światku, teraz poszedł większy kaliber :) 

Dziś o silnikach Szilarda w kwantowym wydaniu, i na deser termodynamika kwantowa!

1. Silniki informacyjne - kolejna garść informacji, informuje @diesphys (jeśli czyta to jakiś informatyk, niech się zgłosi, będzie ładnie wyglądać ten tytuł od strony językowej ;)

Po kilku latach, gdy Szilard sformalizował swój pomysł, Adolf Hitler został kanclerzem Niemiec. Szilard, który mieszkał w Niemczech, jako członek żydowskiej rodziny, musiał uciekać. Jego praca została zapomniana na długie lata, zanim została przetłumaczona na język angielski. Niedawno, bazując na podstawowych zasadach przetwarzania informacji, Susanne Still zdołała opracować, uogólnić i rozszerzyć pomysł silnika informacyjnego Szilarda. Pracowała przez dziesięć lat nad tym, jak traktować obserwatorów układów fizycznych, którzy są poddani własnym fizycznym ograniczeniom. W zależności od tego, jaką mają strategię przetwarzania informacji oraz do jakich danych mają dostęp, mogą oni zbliżyć się na pewną odległość do owych ograniczeń. Oczywiście, każdy z tych obserwatorów musi zdecydować, jak przechować owe informacje w swojej ograniczonej pamięci oraz jakich pomiarów dokonywać. W studiowaniu tego procesu decyzyjnego, Still dokonała odkrycia, że gromadzenie informacji, które nie pomagają obserwatorowi dokonywać użytecznych przewidywań, powoduje, że stają się one niewydajne. Zaproponowała, aby obserwator korzystał z reguły, która nazwała 'zasadą najmniejszego ograniczenia własnego'. Oznacza to wybieranie tych informacji, które dotykają jak najbliżej swoich fizycznych ograniczeń. Inaczej mówiąc, by były jak najbardziej graniczne dla swojej domeny. Po to, by ulepszyć ich prędkości dostępu i dokładności w procesie decyzyjnym. Uznała także, że te pomysły mogą być badane dalej w celu zastosowania ich do zmodyfikowanych silników informacyjnych.

2. Silnik Szilarda na pełnej mocy.

W oryginalnym pomyśle Szilarda, pomiary demona pokazywały perfekcyjnie, gdzie umiejscowiona jest cząstka. Jednakże w rzeczywistości, nigdy nie mamy idealnej informacji o układzie, ponieważ nasze pomiary są zawsze obarczone błędami. Czujniki podlegają hałasom, wyświetlacze mają ograniczoną rozdzielczość, a komputery ograniczoną ilość przechowywanych informacji. Still wykazała, że 'częściowa obserwowalność', która jest właściwą cechą dla pomiarów w świecie rzeczywistym, może być zastosowana z pewnymi modyfikacjami do silnika Szilarda. A konkretnie, chodzi o kształt rozdzielnika pudełka, w którym znajdują się cząstki. To ciąg dalszy dywagacji nad Demonem Maxwella.

Wyobraźmy sobie, że rozdzielnik jest pochylony pod pewnym kątem w pudełku, a użytkownik może widzieć jedynie poziomą pozycję cząstki (może widzi cień padający na dolną krawędź pudełka). Jeśli cień jest w pełni po prawej lub po lewej stronie rozdzielnika, wiadomo z pewnością, po której jego stronie znajduje się cząstka. Ale jeśli cień znajduje się gdziekolwiek w środkowej strefie, cząstka może być zarówno powyżej jak i poniżej przechylonego rozdzielnika. Co za tym idzie - może znajdować się zarówno po lewej jak i po prawej stronie pudełka.

Czy nie kojarzy Wam się tutaj coś ze słynnym stwierdzeniem, że cień nie przenosi informacji? Można wydedukować, że jeśli cień wskazuje nam pewną informację ale nie wprost, to może okazać się, że unikamy nadmiernego gromadzenia, przetwarzania, a co za tym idzie - jej późniejszego kasowania. Mamy więcej miejsca na inne. Dedukcja ta sprytnie omija obecność informacji w sposób fizyczny w danym układzie. Bo każda przetworzona informacja musi mieć swój wyraz w postaci fizycznej. W świecie, a jakże, fizycznym. 

Wyobraźmy sobie dwa pola, czarne i białe. Jedno z nich oświetlamy, drugie jest w zupełnym mroku. Wiemy, że drugie, nieoświetlone pole musi być koloru przeciwnego do pierwszego. Ale nie zużywamy energii (nie przetwarzamy informacji - w tym wypadku w silniku Szilarda) do oświetlenia drugiej części. Oszczędzamy energię, oszczędzamy jej przetwarzanie i co za tym idzie, minimalizujemy straty. Ale dowiadujemy się tego samego, jak gdyby oba pola były oświetlone. Jest jakby mniej tej entropii...

Nie myślicie może podobnie? Skąd wziąłem pomysł o tym, że cień nie przenosi informacji? Wynika on z ogólnej teorii względności Einsteina. Cień może poruszać się szybciej niż światło! To kolejny element, który pozwala na zyskaniu na energii, ilość informacji pozostaje ta sama, a entropia, cóż... Z nią byłbym ostrożny, ale być może pozostaje stała? Albo powiększa się w mniejszym stopniu, niż gdybyśmy wykorzystali do oświetlenia połówek (czarnej i białej) całej mocy reflektora?

Podobnie może działać splątanie kwantowe, które przenosi informacje szybciej niż światło. W pewnym sensie, entropia może mieć związek ze splątaniem kwantowym... Pewnie mi nie uwierzycie, ale nie jestem specem od splątania kwantowego i na ten pomysł wpadłem pisząc ten tekst. Entropia, cień, splątanie kwantowe... Coś jest na rzeczy! :)

Używając częściowo obserwowalnych silników informacyjnych, Still obliczyła najbardziej efektywne strategie dla pomiarów lokalizacji cząstki i zakodowania ich w pamięci. Oznacza to powstanie nowego algorytmu, czysto na bazie praw fizycznych. Używa się go obecnie w uczeniu maszynowym, znane jest jako algorytm wąskiego gardła informacji. Oferuje on sposób na efektywne kompresowanie danych poprzez zachowanie jedynie istotnych informacji. Od tamtej pory, wraz ze swoja uczennicą Dorian Daimer, Still opracowała wiele różnych rodzajów zmodyfikowanego silnika Szilarda i przestudiowała strategie optymalnych sposobów kodowań dla różnych opcji. Te modele teoretyczne służą za 'fundamentalne elementy konstrukcji procesu podejmowania decyzji przy obecności niepewności' - mówi Daimer, która posiada zaplecze naukowe w naukach poznawczych, jak i w fizyce. 'To dlatego badanie fizyki informacji jest tak ciekawe, ponieważ zataczasz w pewnym sensie pełne koło i wracasz do podstawowej koncepcji - kim jest naukowiec.'


3. Nowa Industrializacja. Taka druga część, po klasycznej.

Still nie była jedyną w Yorkishire, która marzyła o silniku Szilarda. W ostatnich latach wielu korzystających z grantów FQxI opracowało w laboratoriach silniki, w których informacja była wykorzystywana jako zasilanie urządzeń mechanicznych. W przeciwieństwie do czasów Carnota, nikt nie oczekuje, że te miniaturowe silniki będą operowały w pociągach lub wygrywały wojny. Służą jednak jako modele, które pozwalają testować fizykę fundamentalną. Jednakże tak jak ostatnio, silniki te zmuszają naukowców do przemyślenia na nowo czym są energia, entropia i informacja.

Z pomocą Still, John Bechhoefer odtworzył silnik Szilarda w koraliku silikonowym mniejszym niż cząstka kurzu unosząca się na wodzie. On i jego współpracownicy w Uniwersytecie Simona Frasera w Kanadzie uwięzili koralik za pomocą laserów i monitorowali jego losowe fluktuacje termiczne. Kiedy koralik podskakiwał ku górze, szybko podnosili pułapkę laserową, aby wykorzystać ruch koralika. Tak jak przewidywał Szilard, udało im się podnieść ciężar używając potęgi informacji.

W badaniu ograniczeń wykorzystywania praca z prawdziwych silników informacyjnych Bechhoefer i Still odkryli, że w pewnych warunkach może on całkowicie prześcignąć silniki konwencjonalne. Namierzyli także nieefektywność związaną z uzyskiwaniem częściowych informacji o stanie koralika, bazując na pracy teoretycznej Still.

4. Kwantowo o Silniku Szilarda. 

Silnik informacyjny od teraz zmniejsza się do skali kwantowej. Badaczką jest Natalia Ares, fizyczka z Uniwersytetu w Oxfordzie, która współpracowała ze Still. W silikonowych chipach Ares uwięziła pojedynczy elektron wewnątrz cienkiego węglowego przewodu. Ten został zawieszony między dwoma wspornikami. Ta nanotubka, która jest ochładzana do temperatury tysięcznych stopni powyżej zera absolutnego, wibruje jak struna gitary. Jej częstotliwość oscylacji jest określona przez stan elektronu wewnątrz. Poprzez śledzenie wibracji niewielkiej części nanotubki Ares i współpracownicy planują namierzyć uzyskaną pracę różnych zjawisk kwantowych.

Ares ma długą listę eksperymentów testujących termodynamikę kwantową, które są  rozpisane po tablicach na korytarzach. 'To taka rewolucja przemysłowa, ale na skalę nano' - mówi. Jeden z planowanych eksperymentów dotyczy pomysłów Still. Zawiera badanie jak bardzo wibracje nanotubki zależą od elektronu (kontra inne, nieznane czynniki). Jest to nic innego, jak pokrętło do dostrajania stanu niewiedzy obserwatora. Ares i jej zespół badają limity termodynamiki na najmniejszych skalach - tak zwaną siłę napędową kwantowego ognia, w pewnym sensie. W klasycznym podejściu, limity dotyczące jak bardzo efektywne są ruchy cząstek są określone w tezie Carnota. Oraz, w jaki sposób mogą zostać przekształcone na pracę. Ale w kwantowej skali, wraz z całą plejadą entropii do wyboru, jest to o wiele bardziej skomplikowane. Która z nich określi znaczące granice - a nawet - jak określić uzyskaną pracę? 'Kiedy ma się pojedynczy elektron w sowich eksperymentach, co znaczy entropia? Jesteśmy bardzo daleko w naszej niewiedzy' - mówi Ares.

Niedawne badanie prowadzone przez Nicole Yunger Halpern, fizyczkę z National Institute of Standards and Technology pokazują, jak bardzo standardowe definicje entropii nie przystają do kwantowych standardów. A wszystko ze względu na niepewność obserwacji i zależność od obserwatora. Na tej nanoskali, jest niemożliwe znać pewne właściwości w tym samym czasie. A kolejność, w jakiej mierzy się pewne wielkości może mieć wpływ na wynik pomiaru. Yunger Halpern uważa, że możemy wykorzystać te kwantowe dziwactwa na swoja korzyść. 'Istnieją dodatkowe zasoby w kwantowym świecie, które nie stosują się do klasycznej teorii. Dlatego możemy nagiąć teoremat Carnota.' - mówi.

Ares rozszerza te granice w laboratorium, licząc na to, że wybrukuje ścieżkę dla bardziej efektywnego uzyskiwania energii, ładowania urządzeń lub obliczeń. Eksperymenty mogą także dostarczyć wglądu w mechanikę najbardziej efektywnego systemu przetwarzania informacji, jaki istnieje: nas samych. Naukowcy nie są pewni, w jaki sposób ludzki mózg może wykonywać tak niesamowitą gimnastykę skomplikowanych działań umysłowych. Niesamowitą, bo używa do tego jedynie 20 watów mocy. Być może, sekretem biologicznej wydajności obliczeniowej jest także wykorzystywanie losowych fluktuacji na najmniejszych skalach. Eksperymenty Ares celują w namierzeniu każdej możliwej dogodności. 'Jeśli jest w tym jakaś korzyść, natura być może używa tego dla swoich celów'. - mówi Janet Anders, teoretyczka z Uniwersytetu w Exeter, która pracuje z Ares. 'Fundamentalne zrozumienie, nad którym pracujemy, być może pomoże nam w przyszłości odkryć, jak biologia dokonuje swoich dzieł'. 

Ares pokazuje kolejne doświadczenie. Widzimy komorę mrożenia pomalowaną na różowo, która zwisa z sufitu jej laboratorium w Oxfordzie. Żartem zaproponowała wykonawcom, że metaliczna farba mogłaby utrudniać eksperymenty. Wtedy, firma produkująca w tajemnicy przewiozła lodówkę do sklepu samochodowego i pokryła ją rażąco różową farbą. Ares widzi, jak jej nowa arena doświadczalna jest symbolem zmiany czasów, w jakich żyjemy. Odzwierciedla jej nadzieje na nową rewolucję przemysłową, która ma być inna od poprzedniej - bardziej zrównoważona, przyjazna środowisku i inkluzyjna.


5. Uchwycić nieoznaczoność.

We wrześniu 2024 roku kilkuset badaczy zebrało się w Palaiseau we Francji, aby oddać cześć Carnotowi. Miało to miejsce w 200 rocznicę wydania jego książki. Uczestnicy z różnych dziedzin nauki dyskutowali nad tym, jak entropia uczestniczy w ich polach badawczych. A te rozciągają się od ogniw słonecznych po czarne dziury. Na wstępie, dyrektor Francuskiego Narodowego Centrum Badań Naukowych przeprosił Carnota w imieniu swojego państwa. Pominięto wpływ jego badań na naukę, za co oficjalnie go przeproszono. Później w nocy, naukowcy zebrali się w dekadenckiej złotej jadalni, aby posłuchać symfonii skomponowanej prze ojca Carnota. Wykonywał ją kwartet, który składał się z dalekich krewnych i potomków kompozytora. Uchwycono zapewne muzykę, ale czy także nieoznaczoność?

Niezwykła przenikliwość Carnota wyrosła z próby całkowitego i ostatecznego przejęcia kontroli nad (światem? To raczej bohaterowie kreskówek, miejmy nadzieję, że nie o to mu chodziło) światem mechanicznym, a raczej na uzyskanie ostatecznego klucza do jego zrozumienia. A był to Święty Graal epoki Rozumu. Ale pojęcie entropii dryfowało poprzez różne dziedziny nauki. Do tego stopnia, że zmieniła się jej celowość. Początkowo uważana była za coś, co pozwoli porzucić marzenia o totalnej efektywności i perfekcyjnym przewidywaniu. Ostatecznie zaś, przyczyniła się do wplecenia w myślenia o naturze świata niemożliwą do odrzucenia niepewność. Rovelli mówi: 'W pewnym sensie oddalamy się od epoki Oświecenia w przeróżnych kierunkach. Odchodzimy powoli od determinizmu i absolutyzmu w kierunku subiektywizmu i nieokreśloności. Czy to nam się podoba czy nie, jesteśmy wszyscy niewolnikami drugiego prawa termodynamiki. Nie możemy nic poradzić na to, że świat zmierza ku ostatecznemu chaosowi. Ale nasze odnowione spojrzenie na entropię pozwala nieco optymistyczniej patrzeć w przyszłość. Tendencja do powstawania coraz większego chaosu jest tym, co napędza nasze maszyny. Pomimo, iż rozpad użytecznej energii jest naszym ograniczeniem, czasem nowa perspektywa pozwala dostrzec porządek ukryty w chaosie. Co więcej, nieuporządkowany Wszechświat jest wypełniany coraz bardziej nowymi możliwościami. Nie jesteśmy w stanie przechytrzyć niepewności (w ścisłym tego słowa znaczeniu; na przekór temu, słowa Rovellego brzmią bardzo pewnie), ale możemy nauczyć się nią zarządzać, a może nawet uchwycić ją i zrozumieć. Pomimo wszystko, niewiedza jest motywująca do wyjaśniania zagadek i zdobywania wiedzy. Konstruuje także historię naszego doświadczenia. Entropia jest tym, co czyni nas ludźmi. Można narzekać na nieuchronny upadek porządku, albo uchwycić nieoznaczoność jako szansę do nauczenia się czegoś, wyczucia i wydedukowania. Dzięki temu, dokonamy w przyszłości lepszych wyborów i skorzystamy z siły napędowej, jaką jesteśmy my sami.

Kto by pomyślał, entropia czyni mnie człowiekiem... A myślałem, że mózg i korzystanie z niego. Za te 20 watów warto go czasem uruchomić, a @diesphys da Wam do tego okazję...

Już niedługo.

@diesphys.

czwartek, 23 kwietnia 2026

#88.2 Entropia i Teoria Informacyjna, czyli Na Tropie N-Tropii vol.2


0. Wstęp.

Witajcie! Dziś kolejna dawka informacji o entropii, informacja o technologii informacyjnej, tak się złożyło... Czy jesteście ciekawi, jak entropia widziana jest z punktu informacji o systemie? Jeśli tak, zapraszam na niezwykłą przygodę w fizycznym świecie, a właściwie jej dalszą część. Mówi się, że im dalej w las tym ciekawiej. Podobnie jest w przypadku entropii. Jej ujęcie informacyjne (i nie tylko) to solidny kawał fizycznego świata, w który niniejszym zamierzam Was wprowadzić. Trzymajcie się czegoś, startujemy! Aha, będzie jeszcze o silnikach informacyjnych. To już prawie science-fiction.

1. Termodynamika a teoria informacji.

W dwóch ważnych pracach wydanych w 1957 roku, amerykański fizyk E.T. (ciekawe, czy to o nim był film Spielberga? ;)) Jaynes (chyba nie ;)) scementował owo połączenie. Popatrzył na termodynamikę poprzez pryzmat teorii informacyjnej. Rozważył termodynamikę jako naukę, która zajmuje się dokonywaniem obliczeń statystycznych z niekompletnych pomiarów cząstek. Szczególnie w wypadku, gdy znana jest częściowa informacja o systemie. Wtedy Jaynes zaproponował, żeby przypisać jednakowe prawdopodobieństwo do każdej konfiguracji, która jest kompatybilna z tymi znanymi ograniczeniami. Jego teoria 'maksymalnej entropii' dostarcza najmniej tendencyjnego sposobu do dokonywania przewidywań o jakimkolwiek ograniczonym zbiorze danych. Obecnie jest wykorzystywana w maszynowym uczeniu się (to nic innego jak poddziedzina AI). Oraz, ni mniej ni więcej, tylko w takich dziedzinach, gdziekolwiek potrzebna jest mechanika statystyczna. Jedną z nich jest... ekologia. 

Pojęcia entropii, rozwinięte w różnych kontekstach, pasują do siebie jak ulał. Wzrost entropii wiąże się z utratą danych o stanie mikroskopowym układu. W mechanice statystycznej, na przykład, rośnie tzw. entropia Gibbsa. Wygląda to tak, że w momencie, gdy cząstki w pudełku mieszają się, gubimy informacje o ich pędach i pozycji. W mechanice kwantowej, gdy cząstki stają się splątane z otoczeniem, a przez to gubią swój stan kwantowy, rośnie tzw., 'entropia von Neumanna', A kiedy materia wpada do czarnej dziury i informacja o niej znika z zewnętrznego świata, rośnie entropia Bekensteina-Hawkinga. Co entropia zawsze mierzy, to stan niewiedzy: brak informacji o ruchu cząstek, następnej cyfrze w ciągu kodu, albo dokładnym stanie systemu kwantowego. 'Możemy mówić o entropii jako o pojęciu niepewności, pomimo, że powody wprowadzenia tego pojęcia są różne w różnych dziedzinach' - mówi Renato Renner, fizyk ze szwajcarskiego uniwersytetu. Mi na myśl od razu przychodzi zasada nieoznaczoności Heisenberga, być może są jakieś powiązania? Wszakże Heisenberg w tej zasadzie mówił o wartościach skorelowanych, jednak i tu i tu pojawia się stan niewiedzy. Być może kiedyś ktoś wskaże jakieś związki, bo na razie robię to tylko ja :)

Carlo Rovelli, jako czynny student w północnych Włoszech, zyskał wiedzę o entropii (zyskał wiedzę o braku wiedzy, tak należałoby to ująć ;)). Może nawet bardziej o koncepcji entropii (od swoich profesorów) jako o wzroście nieuporządkowania. Coś mu jednak nie pasowało. Poszedł do domu, napełnił dzbanek olejem i wodą i patrzył, jak płyny rozdzielają się, gdy nim potrząsnął. Wydawało mu się, że odkrył odstępstwo od drugiej zasady termodynamiki. Przypomina sobie, jak pomyślał, że na uczelni karmią go bzdurami 'To było jasne, że istniał problem w sposobie, jaki uczono o entropii'.

Przykład Rovellego w kluczowy sposób uchwycą powód, dlaczego entropia jest tak zagadkowa. Jest mnóstwo przypadków, w których porządek wydaje się wzrastać, od dziecka sprzątającego swój pokój do lodówki, która chłodzi kurczaka. Albo mysz, jeśli wolicie. Po co mysz w lodówce? Żeby miała bliżej sera, odpowiem... ;) Rovelli zrozumiał, że jego rzekome zwycięstwo nad drugim prawem termodynamiki było pozorne. Nadludzki obserwator, z potężną mocą termowizji mógłby dostrzec, jak rozdzielanie oleju i wody wytwarza energie kinetyczną i przekazuje ją molekułom. W ten sposób, pozostawia układ w stanie większego termicznego chaosu. 'Co się okazuje to to, że porządek makroskopowy wyłania się kosztem chaosu na poziomie mikroskopowym' - mówi Rovelli. Drugie prawo termodynamiki zawsze jest zachowywane - czasem tylko znika z pola widzenia. Jaynes również pomógł wyjaśnić te sprawę. Aby dać dowód, zwrócił się w stronę eksperymentu myślowego z 1875 roku niejakiego Josiaha Willarda Gibbsa, który znany jest pod nazwą paradoksu mieszania Gibbsa. (zapewne nie Gibsona; aktor Mel to czyste maksimum entropii, chaos i zniszczenie. Nawet całkiem ładnie by pasował, ale to nie on ;)). Jeśli rośnie wiedza o stanie makroskopowym, maleje wiedza o stanie mikroskopowym. Nie przychodzi Wam na myśl zasada nieoznaczoności Heisenberga? To taka zabawa myślowa, oczywiście. Gdyby było inaczej, już dawno ktoś zwróciłby uwagę. Na pewno.

Powiedzmy, że mamy dwa gazy, A i B, oddzielone przegrodą. Kiedy podnosi się zatyczkę, drugie prawo termodynamiki wymaga, aby gaz się rozprzestrzenił i wymieszał. Powoduje to wzrost entropii. Ale jeśli A i B to identyczny gaz utrzymany w tej samej temperaturze i ciśnieniu, podniesienie zapadki nie zmienia entropii, ponieważ cząstki są już wymieszane. Pytanie brzmi: co w przypadku, gdy A i B to różne gazy, ale nie da się ich odróżnić?

Po niemal stu latach od wystosowania paradoksu przez Gibbsa, Jaynes zaprezentował rozwiązanie (na które Jaynes uważał, że Gibbs wpadł, ale nie umiał go dobrze uargumentować). Wyobraźmy sobie, że gazy w przegródkach to dwa różne typy argonu. Są identyczne, poza faktem, że jeden jest rozpuszczalny w nieznanym jeszcze pierwiastku zwanym whifnium. Przed jego odkryciem nie ma możliwości rozróżnienia gazów i podniesienie zapadki nie zmienia entropii. Po odkryciu whifnium, pewien sprytny naukowiec mógłby go dostarczyć aby rozróżnić dwa typy argonu i obliczyć wzrost entropii wynikły ze zmieszania gazów. Idąc tym tropem dalej, naukowiec mógłby zaprojektować tłok na bazie whifnium, który wydobywa wcześniej niedostępną energię z naturalnego mieszania się gazów.

Jaynes dowiódł, że 'uporządkowanie' systemu -  a jednocześnie potencjał do uzyskiwania użytecznej energii z niego - zależy od względnej wiedzy i zasobów eksperymentatora. Jeśli badacz nie może rozróżnić gazów A i B, w efekcie są one tym samym gazem. Jak tylko naukowcy zdobywają środki do rozróżnienia ich, mogą wykorzystać pracę z tendencji gazów do mieszania się. Entropia zależy nie od różnicy między gazami, ale od ich rozróżnialności przez... badającego!. Chaos tak naprawdę znajduje się w oku obserwatora. Carlo Rovelli jest zwolennikiem zależności od obserwatora w wielkościach fizycznych, włączając w to entropię.

Kłania się mechanika kwantowa i zależność wyniku pomiaru od wybrania rodzaju eksperymentu, czyli od typu obserwacji. Być może podobieństw jest więcej, zatem idźmy dalej... Bo im dalej w las, tym...


2. Paradoks Mela, a raczej Gibbsa.

'Ilość użytecznej pracy, jaką możemy uzyskać z każdego systemu zależy od faktu, jak bardzo 'subiektywne' dane posiadamy o jego mikrostanie. - napisał Jaynes. Paradoks Gibbsa kładzie nacisk na konieczność traktowania entropii jako właściwość zależną od perspektywy, a nie przypisana systemowi. Mimo tego, subiektywny obraz entropii był bardzo trudny dla fizyków do przełknięcia. W 1985 roku filozof  Kennneth Denbigh napisał w podręczniku: 'Taki pogląd, jeśli jest prawidłowy, przysporzy problemów natury filozoficznej i podważy obiektywność przedsięwzięcia zwanego nauką'. 

Poprzez zaakceptowanie definicji warunkowej entropii, wymagane jest przemyślenie od nowa fundamentalnych celów nauki. Wskazuje na fakt, że fizyka dokładniej opisuje osobiste doświadczenie niż obiektywną rzeczywistość. W ten sposób, entropia została zamieciona pod podłogę przez dużą liczbę naukowców, którzy zdali sobie sprawę, że wiele wielkości fizycznych ma sens jedynie w przypadku, gdy mówimy o czymś w relacji do obserwatora. 

Brzmi znajomo? Czy obiekt kwantowy nie istnieje (oczywiście w dużym uproszczeniu) tylko wtedy, gdy jest obserwowany? To znaczy stan kwantowy jest tylko prawdopodobieństwem do momentu, kiedy nie dokona się kolaps funkcji falowej poprzez akt obserwacji? Czysty subiektywizm. Nie ma zmiennych ukrytych, jak chciałby Einstein. Na poziomie mikroskopowym nie istnieje 'obiektywna' Rzeczywistość. 

Moich dywagacji i brania się za bary z termodynamiką ciąg dalszy :) Oczywiście to taka moja zabawa w fizyka. Spekulant ze mnie.

Przecież nawet czas został uznany za względny w teorii Einsteina. 'Fizycy nie lubią subiektywności - są na nią uczuleni' - mówi Anthony Aguirre, fizyk z Uniwersytetu w Kalifornii w Santa Cruz. 'Nie ma absolutu - to zawsze była iluzja'. Aguirre i współpracownicy opracowali nowy sposób pomiarów, które nazywają entropią obserwacyjną. Pozwala rozróżnić, do których z właściwości dany obserwator ma dostęp. A dzieje się to przez dostrojenie sposobu, w jaki te właściwości rozmywają się, lub stają się ziarniste w jego oglądzie rzeczywistości. Wtedy przypisuje równe prawdopodobieństwo każdemu mikrostanowi kompatybilnemu z tymi obserwowanymi właściwościami, zupełnie tak, jak zaproponował Jaynes. Równanie łączy entropię termodynamiczną, (która opisuje właściwości makroskopowe), i entropię informacyjną. Ta zaś uchwyca mikroskopowy szczegół. 'To spojrzenie, swego rodzaju gruboziarniste i częściowo subiektywne jest sposobem, w jaki rozpatrujemy rzeczywistość' - mówi Aguirre.

Niezależne grupy badaczy używają równania Aguirre'a do sformułowania dokładniejszego dowodu na drugie prawo termodynamiki. Aguirre liczy na to, że jego metoda pomoże wyjaśnić fakt, dlaczego Wszechświat rozpoczął się od warunków niskiej entropii (a, co za tym idzie, czas płynie do przodu). Zastanawia się także nad faktem, jak należy rozumieć entropię w przypadku czarnych dziur. 'Entropia obserwacyjna łączy pomysły Boltzmanna i von Neumanna z tym, co robią dziś naukowcy z pojęciem entropii' - wyjaśnia Philipp Strasberg, fizyk z Barcelony.



3. Subiektywność - po co to komu, a tym bardziej, fizykowi?

Tymczasem teoretycy informacji kwantowej zaproponowali inne podejście do poradzenia sobie z subiektywnością. Traktują informację jako wartość, dzięki której obserwator może wejść w interakcję z systemem. Ten zaś nieustannie miesza się ze swoim otoczeniem. Dla superkomputera z nieograniczoną mocą obliczeniową, który może śledzić dokładny stan każdej cząstki we Wszechświecie, entropia zawsze pozostawałaby stała - jako że żadna informacja nie gubiłaby się. Jednakże, czas wtedy przestałby płynąć. Ale obserwatorzy ze skończoną mocą obliczeniową swoich komputerów (np. ludzie i ich maszyny) maja zawsze do czynienia z gruboziarnistą obrazem struktury rzeczywistości. Nie możemy śledzić ruchu wszystkich molekuł w pokoju, dlatego wyciągamy ich średnie w postaci temperatury i ciśnienia. Coraz bardziej tracimy ślad szczegółów mikroskopowych, wraz z ewolucją systemów w kierunku bardziej prawdopodobnych stanów. Ta nieubłagalna tendencja nazywa się upływem czasu. 'Czas w fizyce jest, w ostatecznym ujęciu, wyrazem naszego stanu niewiedzy o świecie' - napisał Rovelli. Ignorancja kreuje naszą rzeczywistość.

'Istnieje Wszechświat na zewnątrz, oraz wszechświat, który każdy z obserwatorów niesie ze sobą - ich zrozumienie i model świata' - powiedział Aguirre. Entropia daje zawór bezpieczeństwa dla niedociągnięć w naszych wewnętrznych modelach. 'Te modele pozwalają nam dokonywać dobrych przybliżeń i stosować inteligentne zachowania w często nawet wrogim, ale zawsze trudnym fizycznym świecie'.

4. Zainspirowani wiedzą - kto to taki, może Laicy? :)

Latem 2023 roku Aguirre był gospodarzem spotkania naukowców w historycznej posiadłości w Yorkshire w Anglii. Spotkanie odbyło się dzięki założonej również przez niego organizacji, której jest współzałożycielem. Istnieje ona od 2006 roku, a jest to Instytut Pytań Podstawowych (FQxI - Foundational Questions Institute). Zebrało ono fizyków z całego świata na przyjęciu, które trwało przez weekend. Odbywały się sesje jogi, próby pływania w akwenach otwartych (próby, bo jak wiadomo, nie każde pływanie w akwenach otwartych kończy się... sukcesem ;)) oraz medytacji. Takie fizyczne party ku rozluźnieniu mięśnia wewnątrzczaszkowego ;) Spotkanie to skupiało badaczy, którzy otrzymali granty od FQxI w celu zbadania, jak informacja może służyć za paliwo... Oczywiście wiedza inspiruje, to wie każdy :). Ale nasi badacze starali się z tej zasady wydobyć nieco bardziej dosłowną ideę. Dla wielu fizyków, badanie maszyn i komputerów stało się niejako przyćmione. Nauczyli się traktować informację jako realną, policzalny zasób fizyczny - diagnostykę, jak dużo pracy może być wyekstrahowane z sytemu. Wiedza, jak się okazało, jest potęgą. Teraz starają się ujarzmić ową moc.

Kiedyś z pewnego wykładu udało mi się wyciągnąć wiadomość, jakoby informacja mogłaby mieć realną, fizyczną interpretację. Albo, że informacja ma wymiar fizyczny. Robi się ciekawie, nie uważacie?

Jednego ranka wykład przeprowadzała, po opcjonalnej sesji jogi, Susanne Still, fizyk z Uniwersytetu Hawajskiego w Manoa. Opisała nową prace badawczą, która powstała na bazie stuletniego eksperymentu myślowego zaproponowanego przez węgierskiego fizyka Leo Szilarda.

Wyobraźmy sobie pudełko z pionowym rozdzielnikiem, które może poruszać się do przodu i do tyłu, pomiędzy prawą a lewą ścianą rozdzielnika. Gdy cząstka odbija się od ściany, przesuwa rozdzielnik w prawo. Istnieje sprytny demon, który może pociągnąć za sznurek rozdzielnika. Gdy rozdzielnik zostaje uderzony przez molekułę, uruchamia linkę przywiązaną do obciążnika poza pudełkiem i unosi go. Po całym zajściu, demon może podstępnie wprowadzić rozdzielnik z powrotem do pudełka i zrestartować cały proces. Wydaje się, że zyskujemy niewyczerpane źródło energii.

Aby skutecznie wydobywać prace z pudełka, demon musi jednakowoż wiedzieć, po której jego stronie znajduje się cząstka. Silnik Szilarda jest napędzany... informacją.

Z zasady, silniki napędzane informacja są jak żaglowce. Na oceanie wykorzystuje się swoją wiedzę o kierunku wiatru, aby dostosować żagle, a te z kolei napędzają statek. Ale podobnie jak silniki parowe, silniki informacyjne nie są nigdy doskonałe. One także muszą wnieść daninę w postaci wyprodukowanej entropii. Powodem, dla którego nie możemy wykorzystywać silników informacyjnych jako niewyczerpanego źródła energii jest fakt, jak wskazał Szilard i inni, że generuje on średnio tyle samo entropii aby np. zapisać i magazynować a potem wymazać bądź nadpisać tę informacje. Cały proces potrzebny do działania silnika informacyjnego w ostatecznosci zwieksza entropię jego układu. Wiedza oznacza potęgę, ale zdobycie i zapamiętanie tej wiedzy pożera energię. 

...W następnym odcinku dowiecie się, co to są silniki informacyjne, a także poznacie moje przypuszczenie o przenoszeniu informacji przez cień i jak to się ma do silników informacyjnych. Oczywiście to taka zabawa w fizyków, bo ja jestem tylko Laikiem, a Wy... Wiernymi Czytelnikami @diesphys! Dla Tłuków robi się coraz mniej miejsca. Śmiem wątpić, czy po takiej dawce skondensowanej wiedzy o entropii jeszcze jacyś są przy życiu ;) 

Zapraszam na następny odcinek - będzie termodynamika kwantowa i owe tajemnicze silniki informacyjne. Do usłyszenia!

@diesphys.



czwartek, 16 kwietnia 2026

#88.1 Czym Jest Entropia, czyli Na Tropie N-Tropii vol.1

 


(na zdjęciu wzór opisujący entropię czarnej dziury, która jest proporcjonalna do powierzchni jej horyzontu zdarzeń; jest to liczba kwadratów o boku jednostki Plancka, jaka zmieści się na danej powierzchni. Jednym słowem - maksymalna rozdzielczość!)

0. Wstęp.

Witajcie. Dzisiaj będę naprawdę solidnie przynudzał. Temat jest długi, zły, trudny, a jednocześnie... fascynujący, fundamentalny, i porywający. Chciałem w końcu zamieścić coś solidnego o entropii, tak wiele się o niej mówi. Że jest miarą nieuporządkowania. Te wszystkie obrazki stłuczonych jajek i mieszającej się z mlekiem kawy... Są to relatywnie proste ilustracje, wiele mówią, ale równocześnie mówią o wiele za mało. Coś, co jest podstawą drugiego prawa termodynamiki, które z kolei jest podstawa fizyki, zasługuje na osobny i, mam nadzieję, satysfakcjonujący temat. Tylko nie mówcie, że nie ostrzegałem! Podobno Ludwig Boltzmann, który sformułował prawo entropii, od myślenia i zastanawiania się nad drugim prawem termodynamiki dostał hopla i się zabił. Teraz my, adepci sztuk fizycznych sto lat po nim, także... zagłębimy się w temat ;) Zaczynamy!

1. Czym jest entropia?

Dokładnie 200 lat temu francuski inżynier wprowadził pojęcie, które mierzyłoby nieuchronne postępowania Wszechświata ku rozpadowi. Ale entropia, jak obecnie się mniema, odzwierciedla bardziej fakt naszej niewiedzy niż coś konkretnego o świecie. Kiedy pozna się tę prawdę, trzeba zmienić swoje myślenie, począwszy od podejmowania racjonalnych decyzji do granic wyznaczonych dla maszyn.

Życie to historia rozpadu. Wszystko, cokolwiek się zbuduje, kiedyś się rozpadnie. Każdy, kogo kochacie, kiedyś umrze. Każde pojęcie stabilności nieuchronnie ulegnie rozkładowi. Cały Wszechświat nieustannie i zawsze dąży do stanu zamieszania.

Aby śledzić ten kosmiczny rozpad, fizycy wymyślili koncepcję zwaną entropią. Entropia jest miarą nieuporządkowania, a stwierdzenie, że entropia zawsze rośnie - znane jako drugie prawo termodynamiki - jest jednym z najbardziej fundamentalnych cech natury.

Porządek jest ulotny. Miesiące trwa planowanie i wymaga artyzmu stworzenie pięknego wazonu, ale tylko chwilę zniszczenie go za pomocą piłki. Jak ktoś kopnie za mocno. I nie w tym kierunku, co trzeba. Zajmuje nam całe życie to, aby poznać w trudzie oraz zrozumieć chaotyczny i nieprzewidywalny świat. Zaś każda próba kontroli daje co najwyżej spektakularny efekt uboczny, albo, lepiej powiedzieć, zwielokrotnioną reakcję odwrotną do naszych zamiarów. Drugie prawo termodynamiki mówi, że maszyny nigdy nie będą perfekcyjnie wydajne. Implikuje to fakt, że jakakolwiek struktura powstanie, służy jedynie temu, aby rozproszyć energię w dalszym kierunku. Na przykład gwiazda, która w końcu wybucha jako supernowa, albo żyjący organizm zamieniający pożywienie w ciepło. Wszyscy jesteśmy, pomimo swoich nieraz najszczerszych intencji, podatni na entropię, oraz jesteśmy jej pośrednikami. Seth Lloyd z Instytutu Technologii w Massachusetts (słynne MIT - bo każdy, kto twierdzi, że tam się uczył, opowiada bajki i mity ;)) powiedział, że wszystko w życiu jest niepewne oprócz śmierci, podatków i drugiego prawa termodynamiki. Wzrost entropii jest głęboko wpleciony w nasze najbardziej podstawowe doświadczenia. Włącza się w to 'dlaczego czas płynie do przodu', oraz dlaczego świat wydaje się deterministyczny bardziej niż niepewny w kwantowomechaniczny sposób. Pomimo swojego znaczenia, entropia jest, o dziwo, prawdopodobnie najbardziej dzielącą świat fizyków koncepcją. A to ze względu na fakt, że często jest dosłownie przerzucana z dziedziny na dziedzinę. Ma również podobne znaczenie, ale jednocześnie różne (nie takie same) w różnych odnogach fizyki, a także w technologii informacyjnej jak i ekologii. Dodatkowo, zrozumienie pojęcia entropii wymaga od człowieka (no przecież nie od motyla) podjęcia bardzo niekomfortowych skoków myślenia filozoficznego. Nie to, żebym miał coś do filozofii, jednak zmierzenie się z entropią wymaga naprawdę rezygnacji z pewnych utartych schematów naszego łączenia faktów, często bardzo intuicyjnych na rzecz tych trudnych.

Entropię od jakiegoś czasu przestano traktować jako słynną miarę nieuporządkowania na rzecz wielkości naszej niewiedzy. Wystarczyło poddać obiekty z powrotem pod badania mikroskopów. Entropia okazuje się nie tym, co jest bardzo typowe dla układu, ale raczej względne dla obserwatora, który wchodzi w interakcję z układem. Ten nowoczesny pogląd wskazuje na głębokie powiązanie informacji i energii. Fakt ten powoduje, że niedługo możemy być świadkami mini rewolucji przemysłowej, tym razem na bardzo małych skalach. Co niedawno się okazało, entropię zaczęło się postrzegać nie nihilistycznie a oportunistycznie. Wywraca to do góry nogami stare myślenie, nie tylko o entropii, ale także o celach nauki i naszym miejscu we Wszechświecie.


2. A co ze starym dobrym pojęciem entropii? Że stare, to niefajne?

Pojęcie entropii wykluło się w próbie doprowadzenia do perfekcji działania maszyn podczas rewolucji przemysłowej. Sadi Carnot, 28-letni inżynier wojskowy z Francji, miał za zadanie obliczyć ostateczną wydajność silnika parowego. W 1824 roku opublikował 118 stronicową książkę pod tytułem 'Rozważania o Sile Napędowej Ognia'. Kosztowała 3 franki. Jedni powiedzą 'dużo', inni nie. Tych innych zaliczamy do tych, którzy mają prawo stosować drugie prawo termodynamiki w życiu. Czyli tzw. anarchistów. 'Rozwalmy to, i tak się kiedyś zepsuje'. ;) Pozycja ta została bardzo niechętnie przyjęta przez społeczność naukową, a Carnot zmarł kilka lat później na cholerę. Jego ciało spalono, razem z wieloma jego pracami badawczymi. Ale przetrwało kilka kopii jego książki, a w nich - początki, a właściwie zręby nowej dziedziny - termodynamiki. Carnot zdał sobie sprawę (oczywiście nie po tym, jak go spalono, tylko ciut wcześniej), że silnik parowy jest w istocie maszyną, która wykorzystuje tendencję ciepła do przepływu z ciał cieplejszych do chłodniejszych. Naszkicował najbardziej wydajny silnik, jaki tylko można sobie wyobrazić. Ustalił granicę dla danej ilości ciepła, która może być zamieniona w pracę: to nic innego, jak twierdzenie Carnota. Najbardziej znaczące z jego ustaleń zostało umieszczone na końcu książki: 'Nie możemy oczekiwać, że w praktyce zużyjemy całą siłę napędową materiału palnego'. Jakaś część energii będzie zawsze rozproszona przez tarcie, wibracje, albo inną, niepożądaną formę ruchu. Perfekcja jest nieosiągalna. 

W 1865 roku niemiecki fizyk Rudolf Clausius przeczytał dzieło Carnota. Stworzył dzięki temu pojęcie ilości energii, która jest zawsze poddana ulotności. Nazwał to pojęcie 'entropią', wziętą z greckiego słowa oznaczającego transformację. Potem ułożył drugie prawo termodynamiki: 'Entropia Wszechświata ma tendencję do rośnięcia do maksimum'. Fizycy z tamtych czasów błędnie uważali, że ciepło to płyn (nazywany 'kalorycznym'). Poprzez następne dziesięciolecia, zdano sobie sprawę, że ciepło to raczej produkt uboczny zderzających się ze sobą pojedynczych molekuł. Ta zmiana myślenia pozwoliła austriackiemu fizykowi Ludwigowi Boltzmannowi na sprecyzowanie pojęcia entropii używając prawdopodobieństw.

Boltzmann rozróżniał mikroskopowe właściwości molekuł, takie jak poszczególne położenia i prędkości, od całościowych własności gazu, takich jak temperatura i ciśnienie. Rozważmy, zamiast gazu, grupę identycznych bierek na polu szachownicy. Listę współrzędnych wszystkich pionków to coś, co Boltzmann nazwał 'mikrostanem'. Ich ogólną konfigurację natomiast (nieważne czy mówimy o takich, które tworzą gwiazdę, czy też są ściśnięte razem w grupę) - makrostanem. Botlzmann zdefiniował entropię jako dany makrostan w w funkcji liczby możliwych mikrostanów, które dają kształt stanowi makro. Makrostan o wysokiej entropii to taki, który posiada wiele kompatybilnych mikrostanów - wiele możliwości ułożeń pionków, które tworzą taki sam ogólny wzorzec. Jest tylko bardzo mało konfiguracji, kiedy pionki przyjmują formacje uporządkowane. Natomiast ułożeń chaotycznych jest o wiele więcej. Stąd, entropia może być nazwana miarą chaosu. Drugie prawo staje się intuicyjnym stwierdzeniem z dziedziny prawdopodobieństw: jest więcej sposobów na ułożenie czegoś w sposób nieuporządkowany niż uporządkowany. A cały makrostan zdaje się coraz bardziej nieuporządkowany, gdy różne możliwe konfiguracje zmieniają się losowo.

Ciepło  w silniku Carnota płynie od gorąca do zimna, ponieważ jest bardziej prawdopodobnym, aby cząstki gazu były zmieszane razem, niż poukładane według prędkości. Gorące, szybko poruszające się cząstki po lewej stronie, a zimne, wolno poruszające się, po prawej. Widział ktoś kiedyś coś takiego, żeby się samoistnie wytworzyło? Jeśli tak,  proszę o kontakt, razem zdobędziemy Nobla z fizyki ;)

To samo myślenie stosuje się do faktu, dlaczego szkło się rozbija, lód topnieje, płyny się mieszają a liście gniją. Fakt, że wszystkie układy mają naturalną tendencję do przechodzenia ze stanu o niskiej entropii do wysokiej, to jedyna rzecz, jaka nadaje Wszechświatowi spójność temporalną i określony kierunek czasowości. Entropia wyrzyna strzałkę czasu w procesach, które, jeśliby kierunek przechodzenia z niskiej do wysokiej entropii był inny, mogłyby równie dobrze mieć kierunek odwrotny.

Pomysł entropii rozprzestrzenił się daleko poza ścisłe ramy termodynamiki. 'Nikt nie przewidywał, ile może w przyszłości wyniknąć z książki Carnota' - mówi Carlo Rovelli, z Uniwersytetu Aix-Marseille.



3. A jeśliby rozszerzyć pojęcie entropii? Można? :)

Entropię zaczęto obmyśliwać na nowo podczas Drugiej Wojny Światowej. Amerykański matematyk Claude Shannon pracował nad szyfrowaniem kanałów komunikacji, włączając w to linię Franklin D. Roosvelt - Winston Churchill. Praca ta poprowadziła go do fundamentalnych pojęć z dziedziny komunikacji w następnych latach. Shannon poszukiwał  sposobu na zmierzenie ilości informacji zawartej w wiadomości. Dokonał tego w sposób odwrotny, traktując informacje jako redukcję niepewności. 

Na pierwszy rzut oka, równania Shannona nie miały nic wspólnego z silnikami parowymi. Mając zestaw możliwych znaków w wiadomości, równanie Shannona definiowało niepewność, z jaką pojawi się następny znak. Znak ten był sumą prawdopodobieństwa każdego znaku, jaki już się pojawił, pomnożone przez logarytm prawdopodobieństwa. Ale jeśli każdy znak miał taką samą możliwość pojawienia się, okazało się, że równanie Shannona upraszcza się  i staje się takie samo, jak równanie entropii Boltzmanna. Fizyk John von Neumann miał nakazać Shannonowi nazwać swoją sumę 'entropią' - po części dlatego, że 'nikt nie wie, czym jest entropia i będziesz miał przewagę w debacie'. 

Tak samo, jak entropia termodynamiczna opisuje wydajność silnika, entropia informacyjna określa efektywność komunikacji. Odnosi się do pytań 'tak' lub 'nie' potrzebnych do określnie zawartości wiadomości. Wiadomość o wysokiej entropii jest taką, w której nie ma prawidłowości. Bez możliwości odgadnięcia następnego znaku, wiadomość wymaga wielu pytań, aby być w pełni czytelną. Wiadomość z wieloma prawidłowościami zawiera mniej informacji i jest łatwiejsza do odszyfrowania. Lloyd mówi: 'To wspaniały obraz informacji i entropii. Entropia jest informacją, której nie znamy, zaś informacja to treść, którą znamy'.

P.S.

Niedługo pomęczę Was technologią informacyjną, Demonem Maxwella i innymi przysmakami, które orają głowę. Za jakiś czas ciąg dalszy o entropii tej nowej i starej, a tymczasem zjedzmy jajko, które rozbiło się na podłodze, zamieszajmy naszą entropijną kawę z mlekiem. Do usłyszenia!

@diesphys.



        

poniedziałek, 13 kwietnia 2026

#87 101 Lat Mechaniki Kwantowej, czyli Czy Heisenberg Przewraca się w Grobie

 


0.Wstęp

Dzień dobry! Niekoniecznie dla wszystkich, bo jak wiadomo wielu z nas musi rano wstać do pracy. Właściwie, chyba wszyscy… Nie licząc przedszkolaków, bo te od rana do wieczora się bawią. Ale czy fizyka kwantowa jest odpowiednim tematem dla dzieci? Cóż, dla ich zdrowia psychicznego polecałbym Spider-Mana :)

Dziś o nowinkach na 101-lecie fizyki kwantowej. Czyli - jak daleko doszliśmy w rozumieniu kwantów i, przede wszystkim, do czego mogą nam one posłużyć. Przyznam, że wolę bardziej teoretyczne tematy, no ale cóż. Nie samą teorią człowiek żyje. Zapraszam na słuchowisko, to jest czytańsko.

1. Jak zrodziły się kwanty i ogólne wprowadzenie w temat.

Sto lat temu na cichej, skalistej wyspie, niemiecki fizyk Werner Heisenberg pomógł wprawić w ruch szereg naukowych rozwiązań, które poruszyły całą fizyką. Heisenberg opracował tam podstawy mechaniki kwantowej. W tamtym czasie, mechanika kwantowa była tylko szeregiem ciekawostek i pomysłów w fizyce w skali atomowej.

W czerwcu 1925 roku, 23 letni Heisenberg zadomowił się na wyspie Helgoland, aby szukać wytchnienia od przewlekłego kataru siennego. Dzięki morskiej bryzie, wyspa, znajdująca się 60 kilometrów od wybrzeża Niemiec, była rajem dla leczących się na różnorakie choroby. Okazało się, że jest także miejscem, w którym bez rozproszeń można było rozważać nad właściwościami atomów.

Wcześnie rano, Heisenberg doznał olśnienia. 'Miałem uczucie, jakbym, poprzez powierzchnię zjawisk atomowych, patrzył na niezwykłe wnętrze, piękne i dziwne. Poczułem natychmiast, że muszę zbadać to bogactwo struktur matematycznych, które natura w tak bogaty sposób mi przedstawiła' - powiedział później. 'Byłem zbyt podekscytowany by spać i gdy nastał nowy dzień, wybrałem się na południowy kraniec wyspy, gdzie wcześniej chciałem wspiąć się na skałę wrzynającą się w morze. Dziś bez problemu zrealizowałem swoje zamiary i czekałem, aż wzejdzie Słońce.'

Wszedł na skałę, pewnie spoglądał z podniesionym czołem i wypiętą piersią na wschodzące Słońce. Cóż za widok! Godny odkrycia fizyki kwantowej.

Fizycy patrzą dziś na nową kwantową erę. Prace Heisenberga i współczesnych mu naukowców zmieniły pojęcie fizyków o materii. Poprowadziły naukę do odkrycia nowych technologii, bazując na tych doświadczeniach. Dziś jesteśmy świadkami drugiej rewolucji kwantowej, jak niektórzy nazywają obecne badania. Włącza się w nią nowe spojrzenie nowy poziom kontroli nad systemami kwantowymi. Naukowcy odtwarzają je od samych podstaw, naginając do swojej woli i budując je według uznania. To wszystko, aby odkryć nowe sekrety wszechświata, a ku temu potrzebne jest zaprzęgnięcie do owych zadań najnowszych technologii.

Ta rewolucja jest wspólnym wysiłkiem fizyków na całym świecie, rozpoczynana z rożnych miejsc granic teorii kwantów. Podobnie jak pierwsza rewolucja kwantowa, nie jest to show w wykonaniu jednej osoby. Romantyczny zapis odkryć Heisenberga to tylko wierzchołek góry lodowej odkryć, które były udziałem innych naukowców, a które dały początek mechanice kwantowej.

Kiedy Heisenberg wrócił z Helgoland, rozpoczął dyskusje na temat sowich odkryć z innymi fizykami, zanim opublikował swoje prace w lipcu. Później, Max Born i Pascual Jordna stworzyli efekt krystalizacji matematycznej w pracy opublikowanej w sierpniu. W następnej także, już z udziałem Heisenberga w listopadzie. A Erwin Schroedinger opublikował swoją wielce wpływową oprawę kwantów w 1926, która potwierdziła matematycznie metodę Heisenberga.

Wpływ, jaki teoria kwantów ma na fizykę, jest nie do przecenienia. Carlo Rovelli z Centre de Physique Theorique z Uniwersyetu Aix-Marseille we we Francji mówi:'Teoria ta została odkryta, rozwinięta i zastosowana do wielkiej ilości zjawisk i reprezentuje nasze obecne rozumienie fizycznej rzeczywistości. Opisuje zjawiska począwszy od podstaw chemii do koloru obiektów, od procesów, które leżą u postaw natury światła do formacji galaktyk'.

Galaktyki galaktykami, dla nas ważniejsze jest oglądanie rolek na fb. Bez fizyki kwantowej nie obejrzałoby się!

Mechanika kwantowa jest również podstawą niezliczonych rodzajów technologii, włączając lasery, tranzystory - niezbędne w budowie np. smartfonów i innych urządzeń związanych z miniaturyzowaną elektroniką. Jest podstawą budowy np. paneli słonecznych, lamp LED, MRI (rezonans magnetyczny), zegarów atomowych oraz sprawia, że możliwa jest nawigacja GPS.




2. Superpozycja i splątanie kwantowe.

W mechanice kwantowej właściwości cząstek, takie jak: pozycja, prędkość i inne, są opisane przez prawdopodobieństwa, nie pewności. Dlatego cząstka może znajdować się w bardzo dziwnym stanie, znanym jako superpozycja. Na przykład, cząstka ma szansę bycia znalezioną w jednej bądź drugiej lokacji. Jest to sytuacja, o której moi się kolokwialnie, że cząstka jest w dwóch miejscach jednocześnie. Także słynny Kot Schroedingera może być żywy i martwy jednocześnie, w znanym eksperymencie myślowym. Znajduje się w superpozycji stanów żywego i martwego.

Splątanie to inna właściwość, która przysparza o ból głowy. Losy dwóch cząstek są splątane, ich właściwości są skorelowane z sposób niemożliwy dl klasycznej fizyki. Zmierzenie stanu jednej cząstki z pary splątanej odsłania stan tej drugiej, nawet, jeśli sa odseparowane na dalekie odległości.

Poprzez umiejętnym manipulowaniem superpozycją i splątaniem, fizycy budują techniki potrzebne do zbudowania takich struktur jak komputery kwantowe. Pozwalają na nowego rodzaju obliczenia, które są nieosiągalne dla standardowych, klasycznych komputerów. Podobnie, kwantowe czujniki pozwalają na nowego rodzaju pomiary, a sieci komunikacji kwantowej zapewniają bardziej bezpieczne sposoby na przenoszenie informacji.

Ta rewolucja zbliża naukowców do wielkiej niewiadomej fizyki kwantowej: czy istnieje fundamentalna granica, do której zjawiska kwantowe mogą występować? A jeśli tak, gdzie przebiega granica między światem kwantowym a klasycznym? Bada się także, jak mechanika kwantowa może łączyć się z teorią Einsteina - teorią grawitacji.

Im większy jest obiekt, tym trudniej zachować w nim własności kwantowe. Interakcje z otoczeniem mogą naruszyć delikatna własność jaką jest kwantowość. Mogą także spowodować, że własności kwantowe zostaną przeniesione do naszej rzeczywistości, świata codziennych doświadczeń... Ulepszone techniki izolacji większych obiektów pozwoliły badaczom na skalowanie. Dzieje się to w przypadku nawet linii granicznej obiektów makroskopowych. Niektórzy uważają, że istnieje pewna stała granica, do której można powiększać obiekty i pozostawić w nich kwantowość. Inni zaś twierdzą, że można je skalować w nieskończoność. Niedawno na Uniwersytecie w Zurichu (2023) Yiwen Chu i współpracownicy umieścili wibrujący kryształek szafiru, o masie około polowy rzęsy, w stan superpozycji. Stan dotycz ruchu atomów kryształu. Okazało się, że zachowują się jakby poruszały się w dwóch kierunkach równocześnie.

Bada się podobne struktury, aby stworzyć nowe kwantowe czujniki oraz procesory. Można także testować fizykę fundamentalną na bazie podobnych doświadczeń. Bo pojawiają się pytania - czy mechanika kwantowa ma swoje zastosowanie do makroskopowych obiektów z codziennego życia? Pokazano na przykładzie kryształów szafiru, że takie obiekty mogą w zasadzie zachowywać się kwantowomechanicznie Ale jak daleko można przesuwać granicę? Czy dojdziemy kiedyś do rozmiaru kota? Z rzęsą się udało, może kolej na króla Internetu? Ale prawdziwym wyzwaniem byłoby ujrzenie czegoś naprawdę skomplikowanego i odpowiednio dużego.

Dojdziemy na pewno, do dużego i skomplikowanego kota ;)

Takie urządzenia i detektory mogą zostać również użyte do pomiaru grawitacji i innych sił. Jeśli fala grawitacyjna uderzyłaby w obiekt makroskopowy o właściwościach kwantowych, odczułby on wibracje. Okazałoby się, ze potrafimy wykryć fale grawitacyjne o o wiele większej częstotliwości niż te w LIGO (Laser Interferometr Gravitational Observatory). Kwantowe urządzenia o wysokiej skali mogłyby również pokazać, jak mechanika kwantowa wchodzi w interakcje z teorią względności. Te dwie teorie są niekompatybilne ze sobą; rozwiązanie tego konfliktu mogłoby umniejszyć wielu problemów, z jakimi borykają się dziś fizycy. Jeden z naukowców, Vlatko Vedral z Uniwersytetu w Oksfordzie, ma propozycję dotyczącą wykrycia efektów kwantowej grawitacji. Wymagałoby to stworzenia zależności superpozycji z obiektem o wystarczającej masie. Masa ta byłaby zdolna do wprawienia drugiego obiektu w stan superpozycji. Sprawiłoby to, że dwa obiekty stałyby się splątane, wyłącznie za pomocą efektów grawitacyjnych. Można by stwierdzić na podstawie takiej relacji, czy grawitacja jest kwantowa. Vedral uważa, że przeciągu 10 lat od rozpoczęcia testowania kwantowej grawitacji naruszymy zasadę względności Einsteina. Uważa, że grawitacja jest kwantowa. Ale jego pogląd stoi w sprzeczności z oceną wielu obserwatorów konserwatywnych. Owocuje to niemałym konfliktem w światku fizyków. Mechanika kwantowa i teoria względności święciły tryumfy w przeciągu ostatnich 100 lat. Bardzo ekscytujące może okazać się przetestowanie, która z nich przeważy. Aby dokonać pomiaru kwantowej grawitacji, potrzeba obiektu o własnościach kwantowych o masie nanongrama. To osiągalne, ale czy kalkulacje fizyków są prawidłowe? Czy nie potrzeba raczej 15 kilogramowego prętu z berylu, jak sugerowałem w poprzednim temacie? Cóż rozbieżność jest duża, tylko sam Schroedinger i Einstein mogą teraz to wiedzieć, jako że fruwają z aniołkami. Z góry lepiej widać ;)




3. Termodynamika Kwantowa.

Nie tylko grawitacja została poddana obróbce kwantowej. Podobnie jest z termodynamiką, dziedziną, która zajmuje się silnikami, ciepłem i entropią, miarą nieporządku. Badania nad termodynamiką kwantową mogłyby sprawić, że silniki zyskałyby większą wydajność poprzez zaprzęgnięcie do nich zdobyczy mechaniki kwantowej. Marcus Huber pracuje na tym polu, jak również bada dziedzinę kwantowej komunikacji. Technika ta używa zasad kwantowych do bezpiecznego przesyłania informacji. Ma to ma miejsce już nawet poza laboratoriami fizycznymi. Huber mówi: 'Fizyka kwantowa znajduje się obecnie w stanie dość szczególnym. Z jednej strony, jest do niej coraz większy dostęp, a to wiąże się komercyjnym potencjałem technologii kwantowej. Z drugiej strony, idzie za tym bańka spekulacyjna dotycząca np. komputerów kwantowych i kryptografii kwantowej, co nie sprzyja rozwojowi badań. Dochodzi także aspekt geopolityczny, gdy nagle technologie kwantowe uważa się za kwestię bezpieczeństwa narodowego. Zamiast oglądać naukowców badających granice systemów kwantowych, rozpoczyna się wojna o wpływy geopolityczne i zaprzęganie nauki do polityki.

Jakie są zaś praktyczne pola, na których można stosować mechanikę kwantową? Może okazać się, że będzie ona przydatna w dla precyzyjności pomiarów. Oznacza to bardziej czułe sensory, dokładniejsze zegary atomowe. Potem dochodzi kwantowa komunikacja, bezpieczeństwo danych i prywatności. Już dziś możemy zapewnić bezpieczeństwo przeniesienia informacji w sposób bezpieczny między dowolnymi dwoma punktami. Jeśli nawet owa możliwość stosuje się do dzisiejszych, klasycznych urządzeń, dodatkowe bezpieczeństwo to gra warta świeczki. Może wynikać ono z implementacji mechaniki kwantowej do systemów bezpieczeństwa. Może także oznaczać większą skuteczność przed atakami, które mają bardzo sprecyzowany cel.

Np. można pomyśleć o dronie strzelającym działem fotonowym. Albo grawitonowym. A co, myśleliście, że po co szukają grawitonów? Dla fajniejszych dział.

Jedną z wielu zagadek jest termodynamiczna strzałka czasu. Jakie są limity pomiaru czasu? Strzałka czasu, ten stary koncept, mówi nam, że można mierzyć czas poprzez zwiększanie entropii wszechświata. Z klasycznego punktu widzenia, istnieje bardzo dokładna relacja między precyzyjnością zegara a ilością entropii, jaką należy rozproszyć, a by ten był dokładniejszy. Dotarliśmy do fundamentalnego pytania: jaki jest ogólny koszt, mierzony w entropii, tykania zegara? Czyli, ile samo tykanie zegara wpływa na pomiar upływu czasu... Dzięki technologii kwantowej możemy zbudować bardzo energooszczędne, a co za tym idzie, dokładniejsze zegary.

4. Biologia i kwanty? A dlaczego nie?

Fizyk Clarice Aiello odnajduje się w misji, aby przyznać biologii prawo do korzystania z dobrodziejstw mechaniki kwantowej. Pomysł, że efekty kwantowe są ważne dla istot żywych, zrodził się na kanwie pewnych zjawisk. Jest to fotosynteza oraz zmysł magnetyczny ptaków. Ale Aiello z Instytutu biologii Kwantowej w Los Angeles ma inne pomysły: uważa, że należałoby rozpatrzeć, jak słabe przecież pole magnetyczne Ziemi wpływa organizmy żywe. Biorąc dodatkowo pod uwagę mechanikę kwantową okazuje się, że klasyczne metody nie pozwalają na wytłumaczenie związku miedzy magnetyzmem Ziemi a żyjącymi istotami.

Kwantowe ptaki. Pomyślcie, jakie one są mądre: stosują mechanikę kwantową do lokalizacji. A my? Bez smartfona i GPS gubimy się w lesie w 5 minut.

Mówi, że można wytłumaczyć te efekty na bazie pomysłu o nazwie superpozycji spinu elektronu. Kwantowa właściwość spinu powoduje, że elektron zachowuje się jak mały magnes. Jeśli orientacja magnesu znajduje się w superpozycji kierunków, mogłoby to spowodować wystąpienie reakcji chemicznych. Reakcji wrażliwych na pola magnetyczne o słabym natężeniu. Jeśli pola magnetyczne w biologii mogą być wyjaśnione za pomocą superpozycji spinu elektronu, nasuwa się pewien wniosek. Superpozycję w komórkach zachowują się tak długo, aby być funkcjonalnymi. Im mniejsze pole, które chcemy wyczuć, tym dłużej superpozycja spinu elektronu powinna występować. Na przykład, aby wyczuć pole magnetyczne Ziemi, potrzeba 750 nanosekund trwania superpozycji. Jak mógłby wyglądać eksperyment potwierdzający te występowanie tej właściwości w komórkach? Można wziąć pod lupę przykładową komórkę w temperaturze pokojowej. Potem nauczyć się, jak wpływać na spiny w określonych białkach i mierzyć, jak długo trwałaby superpozycja. Mozna owo zagadnienie rozpatrzeć np. na przykładzie komórki kijanki. Jeśli zmierzona wartość długości trwania superpozycji w jej komórkach trwałaby około 100 nanosekund, to prawdopodobnie kijanka nie wykrywa pola magnetycznego bazując na superpozycji spinu elektronowego. Jeśli trwałaby (oczywiście nie kijanka) około 2 mikrosekund, oznaczałoby to, że kijanka wykrywa pole magnetyczne Ziemi w oczekiwany w badaniu sposób. Do tej pory udało się zaobserwować zjawisko wykrywania pola magnetycznego Ziemi za pomocą superpozycji spinu elektronowego przez muchy, dżdżownice, bakterie. Niekoniecznie musi chodzić o żaby, jak pragnęłoby to widzieć wielu obserwatorów. Ale ważny jest fakt, że istnieje zbieżność interesów i zakresów działania między mechaniką kwantową a biologią.

4. Komputery kwantowe... Melodia przyszłości (a może przyszłość jest już dziś?)

Komputery kwantowe zbierają chyba największe laury w popularności efektów kwantowych. Działają na bazie kwantowych bitów, kubitów. Te jednostki mogą zostać zrobione z małej ilości silikonu, jak również z pojedynczych atomów. Przeprowadzają obliczenia tak jak standardowe bity w klasycznych komputerach, ale są zaprojektowane za pomocą reguł mechaniki kwantowej. Kubity są tak czułe, że są bardzo podatne na błędy. Obietnica domowych komputerów kwantowych spoczywa na umiejętności radzenia sobie z tymi błędami. Technika zwana kwantową korekcją błędów łączy podatne na wielokrotne błędy kubity w bardziej rzetelne, logiczne kubity. Ostatnio zaprezentowano wydarzenie, które może okazać się kamieniem milowym dla informatyki kwantowej. Wypowiada się Barbara Terha z QuTech w Delft w Holandii.

'Potrzebujemy poprawienia błędów, aby w ogóle móc myśleć o kwantowy komputerze. To, co mamy obecnie w laboratoriach, nie można nazwać jeszcze w pełni sprawnymi komputerami. Komputer to urządzenie, które bezproblemowo rozwiązuje zadania oparte na dużych liczbach, itd. Aby myśleć o zastosowaniu komputerów kwantowych na dużą skalę, potrzebujemy korekcji błędów. Ale to nie wszystko. Korekcja błędów mówi nam coś fundamentalnego o naszym rozumieniu fizyki. Jeśli moglibyśmy bardzo dokładnie kontrolować systemy kwantowe, moglibyśmy zaobserwować kwantowe działanie w makroskopowych obiektach. Przecież logiczne kubity do takich należą. A pracują one w oparciu o mechanikę kwantową. W jakim sensie logiczne kubity są makroskopowe? Duże obiekty mają dużo stopni swobody, mają wiele możliwości, aby przejawiać określone właściwości: pęd, wagę, czy kierunek poruszania się. Na przykładzie kota Schroedingera widzimy, że obiekt makroskopowy składa się wielu atomów. My próbujemy stworzyć takie urządzenie, które ma wiele stopni swobody, ale każdy fizyczny kubit jest ścisłe kontrolowany i monitorowany pod względem błędów. W tym sensie, uzyskujemy kwantowe właściwości dla obiektów makroskopowych.

Tu nie chodzi wyłącznie o rozmiar. Bo przecież koty mogą być także malutkie ;)

Właśnie dla takich kotów przewidziana jest mechanika kwantowa. Jeśli ptak może operować kwantowomechanicznym magnetyzmem, pomyślcie, co może zrobić kot. Nie tylko Schroedingera.


wtorek, 7 kwietnia 2026

#86 Detekcja Grawitonu, czyli Po Igłę w Stogu Grawitacji

 


0. Wstęp.

Detekcja grawitonu?

A na jakiej planecie pan żyje? Bo jeśli na Jowiszu, to podobno możecie się postarać, ale jeśli na Księżycu, to lepiej niech pan tam zostanie bo na Ziemi takich wariatów nie chcemy.

Dlaczego na Jowiszu? Kiedyś pisało się i mówiło, że aby wykryć grawiton, trzeba by użyć detektora rozmiaru Jowisza. A takiego póki co nie mamy. Opiszę pokrótce, jak napisała się nowa wspaniała historia, może jeszcze nie wykrycia grawitonu, ale jakiejś próby realnego podejścia do tematu. Bardziej realnej, niż ta z Jowiszem.

Może mój blog zmartwychwstanie? :) Zrobimy Diesphys Reload, @diesphys Reaktywacja ;)

1. Detekcja grawitonu - a co to takiego? Ten cały grawiton.

Jest to hipotetyczna cząstka, która ma rzekomo przenosić siłę grawitacji. Tak zwany kwant grawitacji - na razie jeszcze hipotetyczny. Detekcja tegoż to ostateczny cel fizyki doświadczalnej. Konwencjonalna wiedza mówi natomiast, że taki eksperyment nie może zostać przeprowadzony. Według jeszcze innych pogłosek, musiałby dokonać tego detektor rozmiaru Ziemi orbitujący wokół Słońca a ten mógłby wykryć jeden grawiton na miliard lat. No dobra, zapytacie, a co z tym Jowiszem, bo tu już pozamiatane jak widać? Detektor rozmiaru Jowisza musiałby poruszać się wokół gwiazdy neutronowej, aby było ich trochę więcej, tych grawitonów. Echhh, człowiek chce dobrze, a tu...

Ale jest nowa propozycja, która obala standardowe myślenie. Połączenie nowoczesnego rozumienia zmarszczek na czasoprzestrzeni, znanego jako fale grawitacyjne, z osiągnięciami technologii kwantowej - na taki pomysł wpadła grupa naukowców. Grupa ta mówi jednak, że byłoby to zdarzenie kwantowe nie tak ściśle powiązane z grawitonem. Nadal to zadanie dla greckiego herosa, ale już osiągalne dla tej grupy naukowców w czasie, gdy jeszcze będą żyć, w laboratorium, które można zbudować. Jednym z nich jest Matteo Fadel z ETH w Zurichu. Taki przykład, że nie jest to jakaś grupa incognito.

Obecnie, ogólna teoria względności przypisuje grawitacji rolę delikatnych wybrzuszeń na tkance czasoprzestrzeni. Ale wykrycie grawitonu oznaczałoby, że grawitacja jest również siłą składająca się z kwantów, cząstek, tak jak elektromagnetyzm i inne siły fundamentalne. Większość fizyków uważa, że grawitacja ma właściwości, a raczej swoją stronę kwantową. Wykrycie grawitonu oznaczałoby spełnienie marzeń niejednego fizyka, który poświęcił życie na pracę nad kwantową grawitacją. Tak długo już jest poszukiwana owa kwantowa grawitacja.

Pomimo, iż eksperyment jest relatywnie prosty, to już interpretacja - czego detekcja mogłaby dowieść - już nie. Najprostsze wyjaśnienie wyniku pozytywnego oznaczałoby istnienie grawitonu. Ale fizycy już znaleźli takie drogi, do udowodnienia istnienia grawitonu, bez odnoszenia się do niego. Dyskusja dziś przypomina tę z początków wieku XX, kiedy debatowano nad kwantami po raz pierwszy. W 1905 roku Einstein zinterpretował dane eksperymentalne i odkrył, że światło jest 'skwantowane', i przemieszcza się przy pomocy dyskretnych cząstek, które dziś nazywamy fotonami. Inni, tacy jak Niels Bohr i Max Planck uważali, że można ocalić jeszcze klasyczną, falową teorię natury światła. Zajęło siedem dekad ku temu, aby naukowcy stwierdzili, że światło jest skwantowane, w głównej mierze ze względu na subtelną naturę kwantów jako takich.

2. Kwanty, Kwanty. Znowu?! ;)

Większość fizyków uważa, że wszystko w świecie jest skwantowane, włączając w to grawitację. Ale dowiedzenie tego założenia rozpętałoby nową wojnę, a przecież inna dopiero się zaczęła. Jak śpiewał Kazik Staszewski: ‘Kiedy ucichną działa już, wtedy się inne odezwą’.

Jest bardzo trudno próbkować grawitację eksperymentalnie, ponieważ jest bardzo słaba. Potrzeba olbrzymich mas - takich jak planety - aby znacząco odkształcić czasoprzestrzeń i wywołać jednoznaczne przyciąganie grawitacyjne. W porównaniu, magnes rozmiaru karty kredytowej przylgnie od razu do lodówki. Tak działa elektromagnetyzm, który, jak widać, jest o niebo silniejszy.

Jednym ze sposobów, aby badać te siły, jest zakłócenie obiektu, a wtedy można obserwować zmarszczki, które rozchodzą się w konsekwencji takiego zaburzenia. Gdy zakłócamy masywny obiekt, pojawiają się zmarszczki, ale czasoprzestrzeni. Emituje on wtedy fale grawitacyjne. Fale świetlne dostrzegamy gołym okiem, ale fale grawitacyjne to zupełnie inna historia. Zajęło dekady, aby zbudować olbrzymie detektory, długie na kilometry, aby stworzyć coś takiego jak LIGO (Laser Interferometr Gravitational-Wave Observatory), detektor na bazie interferometru Michelsona. Wykryto, wkrótce po zbudowaniu, pierwsze zakłócenie czasoprzestrzeni spowodowane zderzeniem dwóch czarnych dziur, w roku 2015. Einstein przewidział istnienie fal grawitacyjnych już sto lat wcześniej, no ale Einstein to Einstein, jemu wolno być tak genialnym ;)

Detekcja pojedynczego grawitonu byłaby o wile trudniejsza, coś jak wykrycie jednej molekuły wody w oceanie. W roku 2012 Freeman Dyson rozważył fale grawitacyjne pochodzące od Słońca, skoro dochodzi do nagłych i brutalnych poruszeń materii wewnątrz gwiazdy; powinny być widoczne, a raczej wykrywalne, fale grawitacyjne. Wydawało się, że jeden grawiton mógłby wystrzelić jeden elektron na wyższy poziom energetyczny, lecz Dyson wyliczył, że takich kliknięć byłoby 4 dla detektora tak dużego jak Ziemia, poruszającego się przez 5 miliardów lat wokół Słońca.

Po kilkunastu latach udało się złagodzić przewidywania Dysona. Najpierw, LIGO wykrywało regularnie fale grawitacyjne ze zderzeń odległych czarnych dziur, a okazyjnie także gwiazd neutronowych. Te zdarzenia wstrząsają czasoprzestrzenią o wiele mocniej niż poruszenia materii w Słońcu, dlatego zaświeciła się lampka o możliwości wykrycia grawitonu, w kontrze do czarnowidztwa Dysona. Po drugie, okazało się, że mamy całkiem sporo do powiedzenia, jeśli chodzi o nowe i liczne pomiary kwantowe i ich różnorakie wariacje, często bardzo pomysłowe.



3. Pojawiają się Ruscy z piwem i sprawa rozwiązana!

Igor Pivkovski (nieodłącznie kojarzy mi się z radzieckim naukowcem i z piwem), fizyk teoretyk z Politechniki w New Jersey, długo zastawiał się nad tymi osiągnięciami technologicznymi, właściwie już od roku 2016. On i jego koledzy odkryli już, że kadź z nadciekłym helem - ciecz, która przez swego rodzaju odbicia w odpowiedzi na pewnego typu fale grawitacyjne.

Należałoby rozpocząć od skoku z pomysłu zbudowania detektora fal grawitacyjnych do detektora grawitonów. A jak to możliwe?

Oto nowy świąteczny przepis:

Bierzesz 15 kilogramowy pręt berylowy (lub z podobnego materiału) i ochładzasz go do temperatury bliskiej zera bezwzględnego, najniższej możliwej do uzyskania w świecie fizycznym. Wypluty z całej energii cieplnej, pręt postanie w swoim stanie 'uziemienia' - swoim stanie o najniższej możliwej dla siebie energii. Wszystkie jego atomy zaczną zachowywać się wspólnie jak jeden system kwantowy, tak jak jeden duży atom, a raczej podobnie do niego.

Następnie czekasz dopóki fale grawitacyjne z głębokiej przestrzeni będą przelatywać obok. Szanse na jeden grawiton wejdzie w interakcje z berylem są niskie, ale fala będzie zawierać ich tak dużo, że ogólne szanse na interakcję, choćby jedną, są duże. Grupa naszych badaczy oszacowała, że jedna na trzy fale grawitacyjne odpowiedniego rodzaju (najlepsze są zderzenia gwiazd neutronowych, bo trwają dłużej niż zespolenia czarnych dziur) powinna pobudzić pręt jedną jednostką kwantową energii. Jeśli twój pręt odbije fale wspólne z tymi wykrytymi przez LIGO, będziecie świadkami koncertu a raczej kwantowego zdarzenia wywołanego przez grawitację.

Pośród wielu przeszkód inżynieryjnych związanych z otwarciem takiego okna, najtrudniejsze będzie umieszczenie ciężkiego obiektu w jego stanie zerowym i wykrycie, gdy przeskoczy on z tego stanu do swojego następnego stanu energetycznego. Jedna z grup w Zurychu, która przoduje w badaniach nad takimi urządzeniami ochłodziła małe kryształki szafiru do momentu, gdy zaczęły przejawiać właściwości kwantowe. W 2023 roku udało się wprowadzić te kryształy w dwa stany jednocześnie czyli w superpozycję - kolejną z oznak własności kwantowych. Jego masa wynosiła 16 milionowych grama - to ciężki okaz jak na obiekt kwantowy, ale wciąż pół miliarda razy lżejszy, niż wymagałby tego pręt Pivkovskiego. Pomimo tego, Fadel uważa to za osiągalne. Mówi, że nie byłoby to nawet za bardzo szalone jak na fizykę kwantową. Zbyt szalone jak na fizykę kwantową byłoby chyba tylko przywrócenie do życia tego bloga… ;)

Eksperyment Pivkovskiego - podobnie jak Dysona - emuluje ten sam eksperyment, który skłonił w 1905 roku Einsteina do stwierdzenia, że światło jest skwantowane. Frank Wilczek mówi: 'byłby to milowy krok, jeśliby udało si sprowadzić grawitony do poziomu fotonów z 1905 roku'.

Podręczniki często przypisują pracy Einsteina odkrycie fotonu. Ale prawdziwa historia jest o wiele bardziej interesująca. A tamtym czasie (1905 rok) wielu fizyków odrzucało prace Einsteina. Niektórzy nie zgadzali się z nim przez następne 20 lat. W ich opinii, eksperyment nie przedstawiał jednoznacznego dowodu. Był on raczej pierwszym argumentem w długiej na dekady wojnie o sformułowanie prawdziwej natury światła.

4. Teraz będę pisał o fotonie. A wy możecie grać w grę, ale wolałbym, byście czytali @diesphys ;)

A, tak. Fizycy dostrzegli rysę na swoim klasycznym rozumieniu rzeczywistości w ostatnich latach wieku XIX. J.J. Thomson odkrył, że prądy elektryczne rozchodzą się dyskretnych porcjach ładunku, które nazwano elektronami. W międzyczasie, również fizycy, bo przecież nie nauczyciele wychowania przedszkolnego, byli zadziwieni szeregiem eksperymentów dokonanych przez Heinricha Hertza i innych, które pokazywały, że światło można wykorzystać do wytwarzania przepływu prądu elektrycznego. Był to tak zwany efekt fotoelektryczny.

Zagadka polegała na tym, że kiedy skierowano bezpośrednie promienie światła na metalową płytkę, czasem prąd elektryczny płynął przez nią, a czasem nie. W świecie przed-kwantowym było to zjawisko trudne do wyjaśniania. Wierzono, że każda fala powinna wywołać przynajmniej mały przepływ prądu, a jaśniejsze światło powinno wytwarzać większe prądy. Dla odmiany, odkryto, że określony kolor światła - częstotliwość - powoduje, że prąd przepływa. Tylko światło o pewnej częstotliwości lub większej mogły wywoływać pojawienie się przepływu elektronów. Jasność światła miała niewiele wspólnego z przepływem prądu.

W 1905 roku Einstein zaproponował rozwianie: fala światła jest złożona z wielu dyskretnych jednostek, nazywanych kwantami, każdy z energią powiązaną z częstotliwością fali. Im wyższa częstotliwość fali światła, tym bardziej energetyczne kwanty. Oraz - im jaśniejsze światło - tym więcej pojawiało się owych kwantów. Kolejny przepis świąteczny: Jeśli spróbujesz wywołać prąd za pomocą czerwonego światła o niskiej częstotliwości, żadna ilość nie wystarczy do pojawienia się efektu fotoelektrycznego. Ale światło niebieskie o wysokiej częstotliwości (bo przecież elektrony to niebieskie kulki, więc pasuje ;)) wywołuje całą masę elektronów. Każda z tych jednostek światła niebieskiego o wysokiej częstotliwości ma wystarczająco dużo energii do wzbudzenia elektronu, nawet w bladym świetle i z małą ilością fotonów.

Teoria Einsteina wywołała falę sceptycyzmu. Fizycy jak lwy bronili 40 letniej teorii Clerka Maxwella, mówiącej, że światło to fala elektromagnetyczna. Widziano światło które zachowywało się jak fala - ulegało refrakcji, dyfrakcji i wszystkiemu innemu, co dotyczyło fal. Jak mogło więc składać się z cząstek?

Nawet po zdobyciu przez Einsteina Nagrody Nobla w 1921 za efekt fotoelektryczny, fizycy nadal debatowali. Efekt wskazywał, że coś jest skwantowane - inaczej nie istniałby minimalny próg wymagany do przepływu elektronów. Ale niektórzy, tacy jak Niels Bohr, który uważany jest za twórcę teorii kwantów, twierdzili, że tylko materia jest skwantowana, nie światło. Dziś tego typu teorie nazywane są 'pół-klasycznymi', ponieważ opisują klasyczne pola wchodzące w interakcję ze skwantowana materią.

Aby zobaczyć, jak teoria semiklasyczna może wyjaśnić efekt fotoelektryczny, wyobraźcie sobie dziecko na huśtawce. Jest jak elektron w metalu. Mają stan zerowy (gdy się nie huśta) i stan wzbudzony (huśtanie się). Klasyczna fala jest jak popchnięcia dziecka na huśtawce. Albo od razu, weźmy działo fotonowe i wzbudźmy je porządnie ;) Jeśli popchnięcia mają miejsce w losowych momentach, z losowa częstotliwością, nic się nie dzieje. Dziecko może trochę się pobujać, ale ogólnie rzecz biorąc będzie znajdować się w stanie uziemienia. Tylko w przypadku popchnięć z odpowiednią częstotliwością - częstotliwością 'rezonującą' huśtawki - dziecko nabierze odpowiedniej energii i rozpoczyna się huśtać. (elektrony w płytce metalowej zachowują się trochę inaczej; rezonują z całym ciągłym pasmem częstotliwości, zamiast jednego. Ale efekt końcowy jest taki sam: żadna fala poniżej tej częstotliwości nie robi nic elektronom, podczas gdy każdą fala w tej częstotliwości wzbudza elektrony i powoduje przepływ prądu.)

Einstein ostatecznie się wybronił, ale nie jedynie za pomocą efektu fotoelektrycznego. Późniejsze eksperymenty polegające na zderzaniu elektronów i fotonów jak pociski wykazały, że pęd również jest skwantowany, występuje w porcjach. To badanie ostatecznie dowiodło, że pół-klasyczna teoria materii i światła Bohra i jego kompanów została obalona. w 1925 roku, po obejrzeniu danych, Bohr zgodził się i powiedział, że jego teorii należy się honorowy pogrzeb. Świat fizyczny powitał światło w roli kwantowej. Kwanty światła nazwano fotonami. Nawiasem mówiąc, kompania Bohra była dość wesoła, był znany z imprez w swojej duńskiej posiadłości, gdzie duński rząd rękami Carlsberga ufundował mu browar. Przesiadywali tam i gadali. I tak powstała teoria kwantów. Żartuję, ale z tym browarem to prawdziwa historia :)

Niewielu fizyków nie zgadzało się z teorią kwantową fotonu po 1925 roku, ale wiadomo, znajdą się zawsze gorliwcy. Uznano, że nawet jeśli nikt nie wymyślił teorii semiklasycznej nie oznaczało to, że takowa nie istnieje. Ostateczny dowód na to, że fotony są realne przyszedł w późnych latach 70 XIX wieku, kiedy badacze optyki kwantowej pokazali, że światło dotarło do detektora w sposób, na jaki nie pozwoliłaby żadna teoria pół-klasyczna. Eksperymenty pokazały, że foton wystrzeliwany z działa fotonowego (a jednak ono istnieje, a już było zabawnie... te wszystkie biedne huśtające się dzieci...) raz na sekundę powodował klikniecie detektora raz na sekundę w odpowiedzi. Zakończony wojny fotonowe.


Wave interaction - interakcja falowa

E - Natężenie pola elektrycznego

H - Natężenie pola magnetycznego

k - wektor propagacji (rozchodzenia się) fali

s - wektor spinowy

(lambda) - długość fali

H - skrętność

c - prędkość światła

LCP - polaryzacja kołowa lewoskrętna

RCP - polaryzacja kołowa prawoskrętna

(jak widzimy, długość i częstotliwość fali dla grawitonu to nic innego jak połączenie lewo- i prawoskrętnej polaryzacji kołowej fotonu!)

5. Wojny grawitonowe? Znowu, kolejne wojny? Nieeee!

W sierpniu 2023 Daniel Carney i jego współpracownicy wystrzelili pierwszy strzał w nowej wojnie. I masz, nowe działa, tym razem grawitonowe, odezwały się.

Nicholas Rodd, współpracownik Carneya, miał pogląd podobny do Pivkovskiego o nowym sposobie na zbudowanie detektora grawitonów. Panowie się napalili, wiele więcej nie było im trzeba. W Lawrence Berkeley National Laboratory rozpoczął się nowy rozdział wojny grawitonowej.

Napotkali w literaturze pokręcona historię fotonu i poziomu zaangażowania optyków kwantowych w latach 70 XIX, a raczej do czego musiało dojść, by potwierdzić kwantową nature światła. Przetransformowano te pytania i odpowiedzi na kontekst grawitacyjny i okazało się, że Dyson miał rację. Naprawdę potrzebny był detektor rozmiaru planety, aby dowieść kwantowości grawitacji na zasadzie wykrycia pojedynczego grawitonu, a to według wyliczeń Pivkovskiego.

Jakże szybko musieliśmy zweryfikować swoje poglądy - powiedział Carney.

Grawiton, grawiton. Jego poszukiwacze znajdują się obecnie w szczególnej pozycji. Każdy dziś zgadza się co do głównych faktów. Po pierwsze - wykrycie pojedynczego grawitonu z fali grawitacyjnej jest, o dziwo, możliwe. Ale po drugie, stwierdzenie, że fala grawitacyjna jest skwantowana, wcale nie jest tak pewne, nawet w obliczu możliwości detekcji. 'Czy można sprawić, by klasyczna fala grawitacyjna dawała ten sam sygnał? Odpowiedź brzmi tak', mówi Carney.

Ale o tym, jak wiele dowiedziano by się z tego doświadczenia, mówi się różnie. Dla niektórych byłby to silny dowód na to, że grawitacja jest siłą kwantową ponieważ alternatywa - pół-klasyczna teoria grawitacji i materii - zostałaby w pewnym stopniu obalona. Takie teorie naruszają zasadę zachowania energii, na przykład. Jeśli pręt berylowy zyskuje jeden kwant energii, wtedy zasada zachowania energii wymaga, aby fala grawitacyjna oddała jeden kwant energii - a wtedy sama musi być kwantowa. (Einstein wskazał taki dowód dla fotonu w roku 1911). Semiklasyczne teorie ocalają klasyczność grawitacji kosztem poświęcenia zasady zachowania energii! Niektórzy fizycy może są szaleni, ale nie na tyle, by poświęcać główny filar, na którym opiera się ich dziedzina wiedzy :)

'O ile nie użyjemy bardzo sztucznych interpretacji' - mówi Wilczek, 'musi się okazać, że powinno się zastosować mechanikę kwantową do fali grawitacyjnej'.

'Jeśli chciałbym zobaczyć ślady kwantowości, nie leży w moim interesie wykluczenie patologicznych teorii w pierwszej kolejności'. - mówi Pivkovski.

Dla fizyków takich jak Carney, jednoznaczny dowodów na to, że grawitacja musi być kwantowa nie jest tak oczywisty. 'Mamy wiele dowodów na to, że cała rzeczywistość jest skwantowana. Potrzebujemy potwierdzenia, a w zasadzie eksperymentów zamykających inne zamknięte pętle teoretyczne, czyli inne, błędne teorie, nieważne, jak dziwne mogłyby się one wydawać.'

‘Istnieje taka presja, aby myśleć, że wszystko musi być kwantowe, że powinno się zatrudnić prawnika’ - mówi Carney. Prawnik, najlepiej rozmiarów Jowisza. Bo tak wielki musiałby być detektor :)

5. Punkt początkowy. Początek... wojny. Nieee!

Pomimo tego, że teoria Pivkovskiego nie jest dowodem na to, że zakończono pewien ślepy zaułek, wielu fizyków chciałoby, aby przeprowadzono jego doświadczenie. Byłby to początek ery eksperymentalnej dla kwantowej grawitacji, co jeszcze niedawno wydawało się odległą przyszłością.

Mogłoby się okazać, że eksperyment Pivkovskiego jest inspiracją dla nowych badań, co wprowadziłoby fizyków głębiej w eę kwantowej grawitacji, Podobnie jak niektóre eksperymenty niegdyś torowały drogę dla teorii fotonu. Wiadomo teraz, że mechanika kwantowa to coś więcej niż zwykłe porcjowanie. Systemy kwantowej mogą znajdować się w kombinacji stanów znanych jako superpozycja, na przykład, a ich części mogą znajdować się w splątaniu kwantowym. Powoduje to fakt, że pomiar jednej części odsłania informacje na temat drugiej... Badania wykazujące, że grawitacja zachowuje te właściwości dostarczyłyby silniejszych dowodów na jej kwantowalność, a już teraz badacze zbierają informacje, co należałoby zrobić, aby przeprowadzić te eksperymenty.

Żadne z testów dotyczące kwantowej grawitacji nie są całkowicie nie do obalenia, ale każdy dostarcza twardych danych liczbowych odnośnie najsłabszej siły fundamentalnej. A teraz - pręt z berylu w roli kandydata stanowi najsilniejszy punkt wyjściowy dla eksperymentu, który zapoczątkuje nową drogę. Drogę eksperymentalnej kwantowej grawitacji.

Jednym słowem, przyszłość kwantowej grawitacji opiera się na 15 kilogramowym pręcie :)

I tyle od @diepshys :)



sobota, 4 kwietnia 2026

#85 Dwa Łyki Termodynamiki, czyli Drugie Prawo Termodynamiki i Co Dalej

0. Wstęp.

Dzień dobry. Cześć. Czołem.

Mamy Święta, a więc urlop od fizyki, mogłoby się zdawać. Ale termodynamika jest wszędzie. Ugotujcie jajko, a okaże się, że można na nim wyjaśnić rosnącą entropię, czyli stan nieuporządkowania, od mniejszej do większej. A jak? A tak, że jajko nieugotowane ma mniej stanów nieuporządkowanych w swoich molekułach niż uporządkowanych. Dlatego ma mniejsza entropię. A ugotowane? Cóż, białko jest ścięte, struktury białkowe łączą się w chaotyczne układy. Nie ma możliwości samoistnego powrotu do stanu przed ugotowaniem, a przynajmniej nie ma wiele takich układów (woda + jajko). To znaczy jest, ale taka bardzo malutka szansa, że jajko samoistnie odda ciepło wodzie i stanie się nieugotowane. Ale nie rozważamy, w tym wypadku, termodynamiki kwantowej. Sami widzicie, że układ woda-jajko dąży do stanu równowagi termodynamicznej: woda oddaje ciepło jajku, a to układa się w bardziej chaotyczny stan (na poziomie cząsteczkowym). Cały układ ma większą entropię, niż na początku, gdy ciepła woda i nieugotowane jajko były bardziej oddzielone od siebie, a więc uporządkowane.

Ufff. Jajka, (część powie: jajca, jeśli mówimy o humorze, a tego zawsze pod dostatkiem) Święta, co jeszcze? A w tym wszystkim drugie prawo termodynamiki? Jak to połączyć? Z czym to jeść, zapytałby jakiś anonimowy łasuch?

1. Termodynamika i drugie jej prawo.

Odkąd silnik parowy zaczął modernizować świat, drugie prawo termodynamiki rządzi fizyką, chemią, inżynierią i biologią. Potężne prawo naszego świata. Ale teraz zostało ono uzupełnione o nową wiedzę.

Termodynamika - badania energii - powstało w czasach XIX wieku, kiedy silnik parowy rozpoczął rewolucję przemysłową. Aby zrozumieć drugie jej prawo, wyobraźcie sobie biszkopt. Tak, biszkopt. Wyciągamy go prosto z piekarnika i ochładzamy blat stołu. Molekuły zapachu przenoszące ciepło unoszą się w kierunku oddalania się od ciasta. Fizyk może się zastanowić: na jak wiele sposobów mogą owe molekuły zostać ułożone na pewnej objętości powietrza, która właśnie zajmują? Nazywamy to liczbą ułożeń entropii molekuł. Jeśli jako objętość przestrzeni rozważymy tę otaczającą pobliże ciasta (a dzieje się tak, gdy ciasto jest najświeższe, i, pewnie grono łasuchów świątecznych powie, najsmaczniejsze), entropia jest relatywnie mała. Jeśli weźmiemy pod uwagę całą kuchnię (w czasie, gdy molekuły zdążyły przemieścić się dalej), entropia eksponencjonalnie rośnie. W tempie wykładniczym. Wykładniczym, czyli np.: zwykły przyrost to 2+1, czyli mamy – 2,3,4,5,6... 20. Przyrost o jeden. Zaś wykładniczy to 2^1, 2^2, 2^3,… 2^20, gdzie dwa do potęgi dwudziestej to… 1048576. Jedynka jedynce nierówna... Drugie prawo termodynamiki obwieszcza, że entropia każdego zamkniętego, izolowanego układu (takiego jak kuchnia, zakładając, że okna i drzwi są zamknięte) rośnie albo pozostaje stała. Odpowiednio, zapach biszkoptu roznosi się po kuchni i nigdy nie wraca do ciasta.

Sumujemy to zachowanie jako nierówność: Sf≥ Si, gdzie Si to początkowa entropia molekuł, a Sf to ostateczna entropia. Nierówność jest użyteczna ale niejasna, ponieważ nie mówi, o ile wzrośnie entropia, z wyjątkiem specjalnego przypadku: kiedy molekuły znajdują się w stanie równowagi termodynamicznej. Tak się dzieje, kiedy właściwości o dużej skali, takie jak temperatura i objętość pozostają stałe, a żadne przepływy wielkości, takich jak energia czy dołożenie bądź uszczuplanie liczby molekuł, nie ma miejsca. To znaczy, nic nie wnosi się ani nie opuszcza układu. Na przykład, molekuły zapachu ciasta osiągają stan równowagi, gdy całkowicie wypełnią kuchnię. W stanie równowagi, drugie prawo termodynamiki urasta do równości: Sf=Si. Ta prosta, ogólna równowaga dostarcza precyzyjnych informacji o wielu różnych typach systemów termodynamicznych w stanie równowagi cieplnej.

2. A gdzie my? I co z naszą równością (termodynamiczną oczywiście)?

Ja i ty, oraz reszta świata, znajdujemy się bardzo daleko od równowagi cieplnej. A 'daleko od równowagi’ to taki dziki zachód dla fizyków teoretyków i chemików: stan nieprzewidywalny i nieuporządkowany. A nakładanie praw na takie nieuporządkowanie, czyli inaczej mówiąc dowodzenie równości w fizyce oddalonej od stanu uporządkowania - jest bardzo trudne.

Ale nie niemożliwe. Przez dekady fizycy pracowali nad równościami, które wzmacniały znaczenie drugiego prawa termodynamiki. Te równości znane są jako relacje fluktuacyjne. Łączą właściwości systemów dalekich od stanu równowagi (o których bardzo trudno mówi się w teorii) z właściwościami stanu równowagi (o których łatwiej dyskutować). Jednym słowem – łączą stany chaotyczne i uporządkowane, dostrzegając w nich jednakowe prawa… To tak jakby powiedzieć: ‘hmmm, w tym bigosie i głąbie kapusty widzę pewne podobieństwa’.

Aby zobaczyć relacje fluktuacyjne w praniu, wyobraźmy sobie mikroskopijny łańcuch DNA unoszący się w wodzie. Spokojnie unoszący się łańcuch znajduje się w stanie równowagi, posiadając temperaturę równa temperaturze wody. Używając laserów, możemy przytrzymać jeden koniec łańcucha w miejscu i pociągnąć za drugi koniec. Rozciąganie łańcucha wyrywa go ze stanu równowagi i wymaga pracy w sensie fizycznym: zorganizowanej energii zaprzęgniętej do wykonania użytecznego zadania. Wielkość pracy, która jest do tego wymagana fluktuuje z jednego pociągnięcia łańcucha do drugiego, ponieważ molekuły wody czasem odbijają łańcuch w tę i na zad, tam i z powrotem, to tu, to tam. Oznacza to, że każda możliwa ilość pracy ma szansę bycia potrzebnym w przypadku następnego pociągnięcia.



3. Ciągniecie za łańcuszki ma swoje konsekwencje (w szczególność łańcuszki DNA).

Okazuje się, że te prawdopodobieństwa (opisują one DNA w stanie dalekim od równowagi) odnoszą się bezpośrednio do właściwości, które DNA ma wstanie równowagi. A ta relacja może być uchwycona przez równość.

To element główny relacji fluktuacyjnych: właściwości systemu dalekiego od stanu równowagi uczestniczą w sposób równościowy z właściwościami stanu równowagi. Niesamowite. Jak rozpoznać i dostrzec właściwości chaotyczne i uporządkowane i powiedzieć, że mają pewne cechy wspólne? Odkrył to Chris Jarzynski z Uniwersytetu w Maryland w 1997. Jest on tak skromny, że używa nazwy nieuporządkowanych relacji fluktuacyjnych, podczas gdy cała reszta fizyków używa nazwy równości Jarzynskiego. Jest tak skromny, że nie używa kreseczki do ‘ń’. Pomimo, że eksperyment z DNA dostarczył jednych z najbardziej znanych wyników badań tej zasady, równanie to rządzi wieloma systemami, włączając elektrony, koraliki o wielkości bakterii i mosiężne oscylatory, które przypominają huśtające się opony na odległości centymetra. Wydaje się, jakieś tam relacje fluktuacyjne. A uczestniczą one w… nie chcę nawet mówić, w czym. To znaczy, jak wielka skala zastosowań ma miejsce w ich przypadku.

Relacje fluktuacyjne mają swoje implikacje zarówno fundamentalne, jak i praktyczne. Z tych równości można wyprowadzić drugie prawo termodynamiki. Także, relacje fluktuacyjne nie tylko rozszerzają naszą wiedzę o stanach dalekich od równowagi, ale również mówią dużo o tym, co wiemy o stanach równowagi.

Ale ich szczególne znaczenie leży w fakcie dość ironicznym: kiedy łatwo mówić w teorii o stanach równowagi, są one trudniejsze do przetestowania niż właściwości dalekich od równowagi. Na przykład, aby zmierzyć pracę potrzebną do rozciągnięcia DNA w stan daleki od równowagi, możemy po prostu pociągnąć za łańcuszek szybciej - w krótkim czasie. Dla kontrastu, aby zmierzyć pracę potrzebną do rozciągnięcia w czasie, gdy DNA znajduje się w stanie równowagi, musimy wykonywać rozciąganie tak wolno, że DNA znajduje się właściwie w stanie spoczynku - a nasz eksperyment zająłby nieskończenie długi czas.

4. Chemia, Biologia, fizyka teoretyczna, Wiedza o społeczeństwie, WF...

Chemicy, biologowie i farmaceuci korzystają z wiedzy o stanach równowagi protein i innych molekuł, dlatego używanie relacji fluktuacyjnych daje niesamowity materiał badawczy. Mogą oni wykonywać wiele prób stanów nieuporządkowanych i mierzyć pracę, która potrzebna jest do wykonania każdego z nich. Z tych danych można wywnioskować ile potrzebnej będzie pracy w następnej próbie badawczej stanu nierównowagi. Mogą potem użyć tych właściwości do strony stanów dalekich od równowagi reakcji fluktuacyjnych, aby określić stronę równowagi. Ta metoda nadal wymaga wielkiej ilości prób, ale badacze opracowali narzędzia matematyczne, aby obejść tę trudność. Ot, zwykła równość (podobieństwa) między stanami chaotycznymi a stabilnymi. Nie przeraża Was to zdanie? Na poziomie cząsteczkowym istnieje równość między stanami nieuporządkowanymi a uporządkowanymi, są zależności wspólne między tym samym układem w chaosie i uporządkowaniu… To taka ekstrapolacja, może się wydawać. Podobnie jak Kosmos, który na początku był ograniczoną zupą kwantową cząstek o pewnym rozkładzie, dziś pokazuje ów rozkład na poziomie… galaktyk, gromad, supergromad!

W ten sposób relacje fluktuacyjne zrewolucjonizowały termodynamikę, galwanizację i dostarczyły szczegółowych przewidywań o świecie w stanie dalekim od równowagi. Ale to nie wszystko.

Podczas lat 2000, w grę wkroczyli termodynamicy kwantowi - obserwujący, jak mechanika kwantowa modyfikuje klasyczne koncepcje takie jak praca, ciepło i wydajność. Jak określić i zmierzyć kwantową pracę jest niejasne, z powodu kwantowej niepewności: na przykład, zmierzenie energii systemów kwantowych zmienia tę energię.

Jako wynik, różni badacze zaproponowali różne definicje kwantowej pracy. Nazwy definicji przypominają gatunki zwierząt. Definicja związana z kolibrem wymaga zmierzenia systemu kwantowego bardzo delikatnie, aby zakłócić energię tylko lekko - tak lekko, jak gdyby skrzydła kolibra wywołały dźwięk obok twojego ucha Definicja 'gnu' trzyma się wartości średniej całej wielkości, skupiając się na średnich wymianach energii. Jest także cała masa innych definicji, składających się na kwantową termodynamikę.



5. Jak na to spojrzeć, to całkiem przypomina termodynamikę...

W rezultacie, różne definicje prowadzą do różnych kwantowych relacji fluktuacyjnych. To samo jest prawdą dla różnych definicji zaadaptowanych dla innych ustawień fizycznych. Niektóre relacje są łatwe do zbadania eksperymentalnie, podczas gdy inne są bardziej abstrakcyjne i teoretyczne. Niektóre opisują cząstki wysokoenergetyczne, jak zderzenia cząstek w CERNie, inne opisują chaos we wnętrzu czarnych dziur, inne opisują rozszerzanie się wszechświata. Eksperymentalnie przebadano niektóre z kwantowych relacji fluktuacyjnych - z uwięzionymi jonami, kwantowymi kropkami i wieloma innymi. Jednym słowem – w najbardziej nieoczekiwanych miejscach i najbardziej egzotycznych przypadkach używa się relacji fluktuacyjnych.

Czy otrzymamy jedną, królującą równość? Wydaje się, że nie. Pewne definicje i równania są odpowiednie dla jednych, a inne dla drugich systemów, w zależności jak je rozumieć i jak je mierzyć.

Wielość kwantowych relacji fluktuacyjnych stoi w sprzeczności do jedności, którą uwielbia i nagradza fizyka, tak jak długo szukana Teoria Wszystkiego, która ma zunifikować wszystkie siły fundamentalne. Może któraś zasada zunifikuje wszystkie kwantowe relacje fluktuacyjne, pokazując, że każda z nich jest stroną tego samego medalu? Albo - termodynamika kwantowa jest po prostu bogatsza niż inne dziedziny fizyki. Bogatsza, bo trudniejsza. Bo trudniej jest być bogatym, niż biednym.