(na zdjęciu wzór opisujący entropię czarnej dziury, która jest proporcjonalna do powierzchni jej horyzontu zdarzeń; jest to liczba kwadratów o boku jednostki Plancka, jaka zmieści się na danej powierzchni. Jednym słowem - maksymalna rozdzielczość!)
0. Wstęp.
Witajcie. Dzisiaj będę naprawdę solidnie przynudzał. Temat jest długi, zły, trudny, a jednocześnie... fascynujący, fundamentalny, i porywający. Chciałem w końcu zamieścić coś solidnego o entropii, tak wiele się o niej mówi. Że jest miarą nieuporządkowania. Te wszystkie obrazki stłuczonych jajek i mieszającej się z mlekiem kawy... Są to relatywnie proste ilustracje, wiele mówią, ale równocześnie mówią o wiele za mało. Coś, co jest podstawą drugiego prawa termodynamiki, które z kolei jest podstawa fizyki, zasługuje na osobny i, mam nadzieję, satysfakcjonujący temat. Tylko nie mówcie, że nie ostrzegałem! Podobno Ludwig Boltzmann, który sformułował prawo entropii, od myślenia i zastanawiania się nad drugim prawem termodynamiki dostał hopla i się zabił. Teraz my, adepci sztuk fizycznych sto lat po nim, także... zagłębimy się w temat ;) Zaczynamy!
1. Czym jest entropia?
Dokładnie 200 lat temu francuski inżynier wprowadził pojęcie, które mierzyłoby nieuchronne postępowania Wszechświata ku rozpadowi. Ale entropia, jak obecnie się mniema, odzwierciedla bardziej fakt naszej niewiedzy niż coś konkretnego o świecie. Kiedy pozna się tę prawdę, trzeba zmienić swoje myślenie, począwszy od podejmowania racjonalnych decyzji do granic wyznaczonych dla maszyn.
Życie to historia rozpadu. Wszystko, cokolwiek się zbuduje, kiedyś się rozpadnie. Każdy, kogo kochacie, kiedyś umrze. Każde pojęcie stabilności nieuchronnie ulegnie rozkładowi. Cały Wszechświat nieustannie i zawsze dąży do stanu zamieszania.
Aby śledzić ten kosmiczny rozpad, fizycy wymyślili koncepcję zwaną entropią. Entropia jest miarą nieuporządkowania, a stwierdzenie, że entropia zawsze rośnie - znane jako drugie prawo termodynamiki - jest jednym z najbardziej fundamentalnych cech natury.
Porządek jest ulotny. Miesiące trwa planowanie i wymaga artyzmu stworzenie pięknego wazonu, ale tylko chwilę zniszczenie go za pomocą piłki. Jak ktoś kopnie za mocno. I nie w tym kierunku, co trzeba. Zajmuje nam całe życie to, aby poznać w trudzie oraz zrozumieć chaotyczny i nieprzewidywalny świat. Zaś każda próba kontroli daje co najwyżej spektakularny efekt uboczny, albo, lepiej powiedzieć, zwielokrotnioną reakcję odwrotną do naszych zamiarów. Drugie prawo termodynamiki mówi, że maszyny nigdy nie będą perfekcyjnie wydajne. Implikuje to fakt, że jakakolwiek struktura powstanie, służy jedynie temu, aby rozproszyć energię w dalszym kierunku. Na przykład gwiazda, która w końcu wybucha jako supernowa, albo żyjący organizm zamieniający pożywienie w ciepło. Wszyscy jesteśmy, pomimo swoich nieraz najszczerszych intencji, podatni na entropię, oraz jesteśmy jej pośrednikami. Seth Lloyd z Instytutu Technologii w Massachusetts (słynne MIT - bo każdy, kto twierdzi, że tam się uczył, opowiada bajki i mity ;)) powiedział, że wszystko w życiu jest niepewne oprócz śmierci, podatków i drugiego prawa termodynamiki. Wzrost entropii jest głęboko wpleciony w nasze najbardziej podstawowe doświadczenia. Włącza się w to 'dlaczego czas płynie do przodu', oraz dlaczego świat wydaje się deterministyczny bardziej niż niepewny w kwantowomechaniczny sposób. Pomimo swojego znaczenia, entropia jest, o dziwo, prawdopodobnie najbardziej dzielącą świat fizyków koncepcją. A to ze względu na fakt, że często jest dosłownie przerzucana z dziedziny na dziedzinę. Ma również podobne znaczenie, ale jednocześnie różne (nie takie same) w różnych odnogach fizyki, a także w technologii informacyjnej jak i ekologii. Dodatkowo, zrozumienie pojęcia entropii wymaga od człowieka (no przecież nie od motyla) podjęcia bardzo niekomfortowych skoków myślenia filozoficznego. Nie to, żebym miał coś do filozofii, jednak zmierzenie się z entropią wymaga naprawdę rezygnacji z pewnych utartych schematów naszego łączenia faktów, często bardzo intuicyjnych na rzecz tych trudnych.
Entropię od jakiegoś czasu przestano traktować jako słynną miarę nieuporządkowania na rzecz wielkości naszej niewiedzy. Wystarczyło poddać obiekty z powrotem pod badania mikroskopów. Entropia okazuje się nie tym, co jest bardzo typowe dla układu, ale raczej względne dla obserwatora, który wchodzi w interakcję z układem. Ten nowoczesny pogląd wskazuje na głębokie powiązanie informacji i energii. Fakt ten powoduje, że niedługo możemy być świadkami mini rewolucji przemysłowej, tym razem na bardzo małych skalach. Co niedawno się okazało, entropię zaczęło się postrzegać nie nihilistycznie a oportunistycznie. Wywraca to do góry nogami stare myślenie, nie tylko o entropii, ale także o celach nauki i naszym miejscu we Wszechświecie.
2. A co ze starym dobrym pojęciem entropii? Że stare, to niefajne?
Pojęcie entropii wykluło się w próbie doprowadzenia do perfekcji działania maszyn podczas rewolucji przemysłowej. Sadi Carnot, 28-letni inżynier wojskowy z Francji, miał za zadanie obliczyć ostateczną wydajność silnika parowego. W 1824 roku opublikował 118 stronicową książkę pod tytułem 'Rozważania o Sile Napędowej Ognia'. Kosztowała 3 franki. Jedni powiedzą 'dużo', inni nie. Tych innych zaliczamy do tych, którzy mają prawo stosować drugie prawo termodynamiki w życiu. Czyli tzw. anarchistów. 'Rozwalmy to, i tak się kiedyś zepsuje'. ;) Pozycja ta została bardzo niechętnie przyjęta przez społeczność naukową, a Carnot zmarł kilka lat później na cholerę. Jego ciało spalono, razem z wieloma jego pracami badawczymi. Ale przetrwało kilka kopii jego książki, a w nich - początki, a właściwie zręby nowej dziedziny - termodynamiki. Carnot zdał sobie sprawę (oczywiście nie po tym, jak go spalono, tylko ciut wcześniej), że silnik parowy jest w istocie maszyną, która wykorzystuje tendencję ciepła do przepływu z ciał cieplejszych do chłodniejszych. Naszkicował najbardziej wydajny silnik, jaki tylko można sobie wyobrazić. Ustalił granicę dla danej ilości ciepła, która może być zamieniona w pracę: to nic innego, jak twierdzenie Carnota. Najbardziej znaczące z jego ustaleń zostało umieszczone na końcu książki: 'Nie możemy oczekiwać, że w praktyce zużyjemy całą siłę napędową materiału palnego'. Jakaś część energii będzie zawsze rozproszona przez tarcie, wibracje, albo inną, niepożądaną formę ruchu. Perfekcja jest nieosiągalna.
W 1865 roku niemiecki fizyk Rudolf Clausius przeczytał dzieło Carnota. Stworzył dzięki temu pojęcie ilości energii, która jest zawsze poddana ulotności. Nazwał to pojęcie 'entropią', wziętą z greckiego słowa oznaczającego transformację. Potem ułożył drugie prawo termodynamiki: 'Entropia Wszechświata ma tendencję do rośnięcia do maksimum'. Fizycy z tamtych czasów błędnie uważali, że ciepło to płyn (nazywany 'kalorycznym'). Poprzez następne dziesięciolecia, zdano sobie sprawę, że ciepło to raczej produkt uboczny zderzających się ze sobą pojedynczych molekuł. Ta zmiana myślenia pozwoliła austriackiemu fizykowi Ludwigowi Boltzmannowi na sprecyzowanie pojęcia entropii używając prawdopodobieństw.
Boltzmann rozróżniał mikroskopowe właściwości molekuł, takie jak poszczególne położenia i prędkości, od całościowych własności gazu, takich jak temperatura i ciśnienie. Rozważmy, zamiast gazu, grupę identycznych bierek na polu szachownicy. Listę współrzędnych wszystkich pionków to coś, co Boltzmann nazwał 'mikrostanem'. Ich ogólną konfigurację natomiast (nieważne czy mówimy o takich, które tworzą gwiazdę, czy też są ściśnięte razem w grupę) - makrostanem. Botlzmann zdefiniował entropię jako dany makrostan w w funkcji liczby możliwych mikrostanów, które dają kształt stanowi makro. Makrostan o wysokiej entropii to taki, który posiada wiele kompatybilnych mikrostanów - wiele możliwości ułożeń pionków, które tworzą taki sam ogólny wzorzec. Jest tylko bardzo mało konfiguracji, kiedy pionki przyjmują formacje uporządkowane. Natomiast ułożeń chaotycznych jest o wiele więcej. Stąd, entropia może być nazwana miarą chaosu. Drugie prawo staje się intuicyjnym stwierdzeniem z dziedziny prawdopodobieństw: jest więcej sposobów na ułożenie czegoś w sposób nieuporządkowany niż uporządkowany. A cały makrostan zdaje się coraz bardziej nieuporządkowany, gdy różne możliwe konfiguracje zmieniają się losowo.
Ciepło w silniku Carnota płynie od gorąca do zimna, ponieważ jest bardziej prawdopodobnym, aby cząstki gazu były zmieszane razem, niż poukładane według prędkości. Gorące, szybko poruszające się cząstki po lewej stronie, a zimne, wolno poruszające się, po prawej. Widział ktoś kiedyś coś takiego, żeby się samoistnie wytworzyło? Jeśli tak, proszę o kontakt, razem zdobędziemy Nobla z fizyki ;)
To samo myślenie stosuje się do faktu, dlaczego szkło się rozbija, lód topnieje, płyny się mieszają a liście gniją. Fakt, że wszystkie układy mają naturalną tendencję do przechodzenia ze stanu o niskiej entropii do wysokiej, to jedyna rzecz, jaka nadaje Wszechświatowi spójność temporalną i określony kierunek czasowości. Entropia wyrzyna strzałkę czasu w procesach, które, jeśliby kierunek przechodzenia z niskiej do wysokiej entropii był inny, mogłyby równie dobrze mieć kierunek odwrotny.
Pomysł entropii rozprzestrzenił się daleko poza ścisłe ramy termodynamiki. 'Nikt nie przewidywał, ile może w przyszłości wyniknąć z książki Carnota' - mówi Carlo Rovelli, z Uniwersytetu Aix-Marseille.
3. A jeśliby rozszerzyć pojęcie entropii? Można? :)
Entropię zaczęto obmyśliwać na nowo podczas Drugiej Wojny Światowej. Amerykański matematyk Claude Shannon pracował nad szyfrowaniem kanałów komunikacji, włączając w to linię Franklin D. Roosvelt - Winston Churchill. Praca ta poprowadziła go do fundamentalnych pojęć z dziedziny komunikacji w następnych latach. Shannon poszukiwał sposobu na zmierzenie ilości informacji zawartej w wiadomości. Dokonał tego w sposób odwrotny, traktując informacje jako redukcję niepewności.
Na pierwszy rzut oka, równania Shannona nie miały nic wspólnego z silnikami parowymi. Mając zestaw możliwych znaków w wiadomości, równanie Shannona definiowało niepewność, z jaką pojawi się następny znak. Znak ten był sumą prawdopodobieństwa każdego znaku, jaki już się pojawił, pomnożone przez logarytm prawdopodobieństwa. Ale jeśli każdy znak miał taką samą możliwość pojawienia się, okazało się, że równanie Shannona upraszcza się i staje się takie samo, jak równanie entropii Boltzmanna. Fizyk John von Neumann miał nakazać Shannonowi nazwać swoją sumę 'entropią' - po części dlatego, że 'nikt nie wie, czym jest entropia i będziesz miał przewagę w debacie'.
Tak samo, jak entropia termodynamiczna opisuje wydajność silnika, entropia informacyjna określa efektywność komunikacji. Odnosi się do pytań 'tak' lub 'nie' potrzebnych do określnie zawartości wiadomości. Wiadomość o wysokiej entropii jest taką, w której nie ma prawidłowości. Bez możliwości odgadnięcia następnego znaku, wiadomość wymaga wielu pytań, aby być w pełni czytelną. Wiadomość z wieloma prawidłowościami zawiera mniej informacji i jest łatwiejsza do odszyfrowania. Lloyd mówi: 'To wspaniały obraz informacji i entropii. Entropia jest informacją, której nie znamy, zaś informacja to treść, którą znamy'.
P.S.
Niedługo pomęczę Was technologią informacyjną, Demonem Maxwella i innymi przysmakami, które orają głowę. Za jakiś czas ciąg dalszy o entropii tej nowej i starej, a tymczasem zjedzmy jajko, które rozbiło się na podłodze, zamieszajmy naszą entropijną kawę z mlekiem. Do usłyszenia!
@diesphys.



Brak komentarzy:
Prześlij komentarz