Witajcie! Dziś kolejna dawka informacji o entropii, informacja o technologii informacyjnej, tak się złożyło... Czy jesteście ciekawi, jak entropia widziana jest z punktu informacji o systemie? Jeśli tak, zapraszam na niezwykłą przygodę w fizycznym świecie, a właściwie jej dalszą część. Mówi się, że im dalej w las tym ciekawiej. Podobnie jest w przypadku entropii. Jej ujęcie informacyjne (i nie tylko) to solidny kawał fizycznego świata, w który niniejszym zamierzam Was wprowadzić. Trzymajcie się czegoś, startujemy! Aha, będzie jeszcze o silnikach informacyjnych. To już prawie science-fiction.
1. Termodynamika a teoria informacji.
W dwóch ważnych pracach wydanych w 1957 roku, amerykański fizyk E.T. (ciekawe, czy to o nim był film Spielberga? ;)) Jaynes (chyba nie ;)) scementował owo połączenie. Popatrzył na termodynamikę poprzez pryzmat teorii informacyjnej. Rozważył termodynamikę jako naukę, która zajmuje się dokonywaniem obliczeń statystycznych z niekompletnych pomiarów cząstek. Szczególnie w wypadku, gdy znana jest częściowa informacja o systemie. Wtedy Jaynes zaproponował, żeby przypisać jednakowe prawdopodobieństwo do każdej konfiguracji, która jest kompatybilna z tymi znanymi ograniczeniami. Jego teoria 'maksymalnej entropii' dostarcza najmniej tendencyjnego sposobu do dokonywania przewidywań o jakimkolwiek ograniczonym zbiorze danych. Obecnie jest wykorzystywana w maszynowym uczeniu się (to nic innego jak poddziedzina AI). Oraz, ni mniej ni więcej, tylko w takich dziedzinach, gdziekolwiek potrzebna jest mechanika statystyczna. Jedną z nich jest... ekologia.
Pojęcia entropii, rozwinięte w różnych kontekstach, pasują do siebie jak ulał. Wzrost entropii wiąże się z utratą danych o stanie mikroskopowym układu. W mechanice statystycznej, na przykład, rośnie tzw. entropia Gibbsa. Wygląda to tak, że w momencie, gdy cząstki w pudełku mieszają się, gubimy informacje o ich pędach i pozycji. W mechanice kwantowej, gdy cząstki stają się splątane z otoczeniem, a przez to gubią swój stan kwantowy, rośnie tzw., 'entropia von Neumanna', A kiedy materia wpada do czarnej dziury i informacja o niej znika z zewnętrznego świata, rośnie entropia Bekensteina-Hawkinga. Co entropia zawsze mierzy, to stan niewiedzy: brak informacji o ruchu cząstek, następnej cyfrze w ciągu kodu, albo dokładnym stanie systemu kwantowego. 'Możemy mówić o entropii jako o pojęciu niepewności, pomimo, że powody wprowadzenia tego pojęcia są różne w różnych dziedzinach' - mówi Renato Renner, fizyk ze szwajcarskiego uniwersytetu. Mi na myśl od razu przychodzi zasada nieoznaczoności Heisenberga, być może są jakieś powiązania? Wszakże Heisenberg w tej zasadzie mówił o wartościach skorelowanych, jednak i tu i tu pojawia się stan niewiedzy. Być może kiedyś ktoś wskaże jakieś związki, bo na razie robię to tylko ja :)
Carlo Rovelli, jako czynny student w północnych Włoszech, zyskał wiedzę o entropii (zyskał wiedzę o braku wiedzy, tak należałoby to ująć ;)). Może nawet bardziej o koncepcji entropii (od swoich profesorów) jako o wzroście nieuporządkowania. Coś mu jednak nie pasowało. Poszedł do domu, napełnił dzbanek olejem i wodą i patrzył, jak płyny rozdzielają się, gdy nim potrząsnął. Wydawało mu się, że odkrył odstępstwo od drugiej zasady termodynamiki. Przypomina sobie, jak pomyślał, że na uczelni karmią go bzdurami 'To było jasne, że istniał problem w sposobie, jaki uczono o entropii'.
Przykład Rovellego w kluczowy sposób uchwycą powód, dlaczego entropia jest tak zagadkowa. Jest mnóstwo przypadków, w których porządek wydaje się wzrastać, od dziecka sprzątającego swój pokój do lodówki, która chłodzi kurczaka. Albo mysz, jeśli wolicie. Po co mysz w lodówce? Żeby miała bliżej sera, odpowiem... ;) Rovelli zrozumiał, że jego rzekome zwycięstwo nad drugim prawem termodynamiki było pozorne. Nadludzki obserwator, z potężną mocą termowizji mógłby dostrzec, jak rozdzielanie oleju i wody wytwarza energie kinetyczną i przekazuje ją molekułom. W ten sposób, pozostawia układ w stanie większego termicznego chaosu. 'Co się okazuje to to, że porządek makroskopowy wyłania się kosztem chaosu na poziomie mikroskopowym' - mówi Rovelli. Drugie prawo termodynamiki zawsze jest zachowywane - czasem tylko znika z pola widzenia. Jaynes również pomógł wyjaśnić te sprawę. Aby dać dowód, zwrócił się w stronę eksperymentu myślowego z 1875 roku niejakiego Josiaha Willarda Gibbsa, który znany jest pod nazwą paradoksu mieszania Gibbsa. (zapewne nie Gibsona; aktor Mel to czyste maksimum entropii, chaos i zniszczenie. Nawet całkiem ładnie by pasował, ale to nie on ;)). Jeśli rośnie wiedza o stanie makroskopowym, maleje wiedza o stanie mikroskopowym. Nie przychodzi Wam na myśl zasada nieoznaczoności Heisenberga? To taka zabawa myślowa, oczywiście. Gdyby było inaczej, już dawno ktoś zwróciłby uwagę. Na pewno.
Powiedzmy, że mamy dwa gazy, A i B, oddzielone przegrodą. Kiedy podnosi się zatyczkę, drugie prawo termodynamiki wymaga, aby gaz się rozprzestrzenił i wymieszał. Powoduje to wzrost entropii. Ale jeśli A i B to identyczny gaz utrzymany w tej samej temperaturze i ciśnieniu, podniesienie zapadki nie zmienia entropii, ponieważ cząstki są już wymieszane. Pytanie brzmi: co w przypadku, gdy A i B to różne gazy, ale nie da się ich odróżnić?
Po niemal stu latach od wystosowania paradoksu przez Gibbsa, Jaynes zaprezentował rozwiązanie (na które Jaynes uważał, że Gibbs wpadł, ale nie umiał go dobrze uargumentować). Wyobraźmy sobie, że gazy w przegródkach to dwa różne typy argonu. Są identyczne, poza faktem, że jeden jest rozpuszczalny w nieznanym jeszcze pierwiastku zwanym whifnium. Przed jego odkryciem nie ma możliwości rozróżnienia gazów i podniesienie zapadki nie zmienia entropii. Po odkryciu whifnium, pewien sprytny naukowiec mógłby go dostarczyć aby rozróżnić dwa typy argonu i obliczyć wzrost entropii wynikły ze zmieszania gazów. Idąc tym tropem dalej, naukowiec mógłby zaprojektować tłok na bazie whifnium, który wydobywa wcześniej niedostępną energię z naturalnego mieszania się gazów.
Jaynes dowiódł, że 'uporządkowanie' systemu - a jednocześnie potencjał do uzyskiwania użytecznej energii z niego - zależy od względnej wiedzy i zasobów eksperymentatora. Jeśli badacz nie może rozróżnić gazów A i B, w efekcie są one tym samym gazem. Jak tylko naukowcy zdobywają środki do rozróżnienia ich, mogą wykorzystać pracę z tendencji gazów do mieszania się. Entropia zależy nie od różnicy między gazami, ale od ich rozróżnialności przez... badającego!. Chaos tak naprawdę znajduje się w oku obserwatora. Carlo Rovelli jest zwolennikiem zależności od obserwatora w wielkościach fizycznych, włączając w to entropię.
Kłania się mechanika kwantowa i zależność wyniku pomiaru od wybrania rodzaju eksperymentu, czyli od typu obserwacji. Być może podobieństw jest więcej, zatem idźmy dalej... Bo im dalej w las, tym...
2. Paradoks Mela, a raczej Gibbsa.
'Ilość użytecznej pracy, jaką możemy uzyskać z każdego systemu zależy od faktu, jak bardzo 'subiektywne' dane posiadamy o jego mikrostanie. - napisał Jaynes. Paradoks Gibbsa kładzie nacisk na konieczność traktowania entropii jako właściwość zależną od perspektywy, a nie przypisana systemowi. Mimo tego, subiektywny obraz entropii był bardzo trudny dla fizyków do przełknięcia. W 1985 roku filozof Kennneth Denbigh napisał w podręczniku: 'Taki pogląd, jeśli jest prawidłowy, przysporzy problemów natury filozoficznej i podważy obiektywność przedsięwzięcia zwanego nauką'.
Poprzez zaakceptowanie definicji warunkowej entropii, wymagane jest przemyślenie od nowa fundamentalnych celów nauki. Wskazuje na fakt, że fizyka dokładniej opisuje osobiste doświadczenie niż obiektywną rzeczywistość. W ten sposób, entropia została zamieciona pod podłogę przez dużą liczbę naukowców, którzy zdali sobie sprawę, że wiele wielkości fizycznych ma sens jedynie w przypadku, gdy mówimy o czymś w relacji do obserwatora.
Brzmi znajomo? Czy obiekt kwantowy nie istnieje (oczywiście w dużym uproszczeniu) tylko wtedy, gdy jest obserwowany? To znaczy stan kwantowy jest tylko prawdopodobieństwem do momentu, kiedy nie dokona się kolaps funkcji falowej poprzez akt obserwacji? Czysty subiektywizm. Nie ma zmiennych ukrytych, jak chciałby Einstein. Na poziomie mikroskopowym nie istnieje 'obiektywna' Rzeczywistość.
Moich dywagacji i brania się za bary z termodynamiką ciąg dalszy :) Oczywiście to taka moja zabawa w fizyka. Spekulant ze mnie.
Przecież nawet czas został uznany za względny w teorii Einsteina. 'Fizycy nie lubią subiektywności - są na nią uczuleni' - mówi Anthony Aguirre, fizyk z Uniwersytetu w Kalifornii w Santa Cruz. 'Nie ma absolutu - to zawsze była iluzja'. Aguirre i współpracownicy opracowali nowy sposób pomiarów, które nazywają entropią obserwacyjną. Pozwala rozróżnić, do których z właściwości dany obserwator ma dostęp. A dzieje się to przez dostrojenie sposobu, w jaki te właściwości rozmywają się, lub stają się ziarniste w jego oglądzie rzeczywistości. Wtedy przypisuje równe prawdopodobieństwo każdemu mikrostanowi kompatybilnemu z tymi obserwowanymi właściwościami, zupełnie tak, jak zaproponował Jaynes. Równanie łączy entropię termodynamiczną, (która opisuje właściwości makroskopowe), i entropię informacyjną. Ta zaś uchwyca mikroskopowy szczegół. 'To spojrzenie, swego rodzaju gruboziarniste i częściowo subiektywne jest sposobem, w jaki rozpatrujemy rzeczywistość' - mówi Aguirre.
Niezależne grupy badaczy używają równania Aguirre'a do sformułowania dokładniejszego dowodu na drugie prawo termodynamiki. Aguirre liczy na to, że jego metoda pomoże wyjaśnić fakt, dlaczego Wszechświat rozpoczął się od warunków niskiej entropii (a, co za tym idzie, czas płynie do przodu). Zastanawia się także nad faktem, jak należy rozumieć entropię w przypadku czarnych dziur. 'Entropia obserwacyjna łączy pomysły Boltzmanna i von Neumanna z tym, co robią dziś naukowcy z pojęciem entropii' - wyjaśnia Philipp Strasberg, fizyk z Barcelony.
3. Subiektywność - po co to komu, a tym bardziej, fizykowi?
Tymczasem teoretycy informacji kwantowej zaproponowali inne podejście do poradzenia sobie z subiektywnością. Traktują informację jako wartość, dzięki której obserwator może wejść w interakcję z systemem. Ten zaś nieustannie miesza się ze swoim otoczeniem. Dla superkomputera z nieograniczoną mocą obliczeniową, który może śledzić dokładny stan każdej cząstki we Wszechświecie, entropia zawsze pozostawałaby stała - jako że żadna informacja nie gubiłaby się. Jednakże, czas wtedy przestałby płynąć. Ale obserwatorzy ze skończoną mocą obliczeniową swoich komputerów (np. ludzie i ich maszyny) maja zawsze do czynienia z gruboziarnistą obrazem struktury rzeczywistości. Nie możemy śledzić ruchu wszystkich molekuł w pokoju, dlatego wyciągamy ich średnie w postaci temperatury i ciśnienia. Coraz bardziej tracimy ślad szczegółów mikroskopowych, wraz z ewolucją systemów w kierunku bardziej prawdopodobnych stanów. Ta nieubłagalna tendencja nazywa się upływem czasu. 'Czas w fizyce jest, w ostatecznym ujęciu, wyrazem naszego stanu niewiedzy o świecie' - napisał Rovelli. Ignorancja kreuje naszą rzeczywistość.
'Istnieje Wszechświat na zewnątrz, oraz wszechświat, który każdy z obserwatorów niesie ze sobą - ich zrozumienie i model świata' - powiedział Aguirre. Entropia daje zawór bezpieczeństwa dla niedociągnięć w naszych wewnętrznych modelach. 'Te modele pozwalają nam dokonywać dobrych przybliżeń i stosować inteligentne zachowania w często nawet wrogim, ale zawsze trudnym fizycznym świecie'.
4. Zainspirowani wiedzą - kto to taki, może Laicy? :)
Latem 2023 roku Aguirre był gospodarzem spotkania naukowców w historycznej posiadłości w Yorkshire w Anglii. Spotkanie odbyło się dzięki założonej również przez niego organizacji, której jest współzałożycielem. Istnieje ona od 2006 roku, a jest to Instytut Pytań Podstawowych (FQxI - Foundational Questions Institute). Zebrało ono fizyków z całego świata na przyjęciu, które trwało przez weekend. Odbywały się sesje jogi, próby pływania w akwenach otwartych (próby, bo jak wiadomo, nie każde pływanie w akwenach otwartych kończy się... sukcesem ;)) oraz medytacji. Takie fizyczne party ku rozluźnieniu mięśnia wewnątrzczaszkowego ;) Spotkanie to skupiało badaczy, którzy otrzymali granty od FQxI w celu zbadania, jak informacja może służyć za paliwo... Oczywiście wiedza inspiruje, to wie każdy :). Ale nasi badacze starali się z tej zasady wydobyć nieco bardziej dosłowną ideę. Dla wielu fizyków, badanie maszyn i komputerów stało się niejako przyćmione. Nauczyli się traktować informację jako realną, policzalny zasób fizyczny - diagnostykę, jak dużo pracy może być wyekstrahowane z sytemu. Wiedza, jak się okazało, jest potęgą. Teraz starają się ujarzmić ową moc.
Kiedyś z pewnego wykładu udało mi się wyciągnąć wiadomość, jakoby informacja mogłaby mieć realną, fizyczną interpretację. Albo, że informacja ma wymiar fizyczny. Robi się ciekawie, nie uważacie?
Jednego ranka wykład przeprowadzała, po opcjonalnej sesji jogi, Susanne Still, fizyk z Uniwersytetu Hawajskiego w Manoa. Opisała nową prace badawczą, która powstała na bazie stuletniego eksperymentu myślowego zaproponowanego przez węgierskiego fizyka Leo Szilarda.
Wyobraźmy sobie pudełko z pionowym rozdzielnikiem, które może poruszać się do przodu i do tyłu, pomiędzy prawą a lewą ścianą rozdzielnika. Gdy cząstka odbija się od ściany, przesuwa rozdzielnik w prawo. Istnieje sprytny demon (uprzedzę niektórych Czytelników - nie jest to słynny Demon Maxwella), który może pociągnąć za sznurek rozdzielnika. Gdy rozdzielnik zostaje uderzony przez molekułę, uruchamia linkę przywiązaną do obciążnika poza pudełkiem i unosi go. Po całym zajściu, demon może podstępnie wprowadzić rozdzielnik z powrotem do pudełka i zrestartować cały proces. Wydaje się, że zyskujemy niewyczerpane źródło energii.
Aby skutecznie wydobywać prace z pudełka, demon musi jednakowoż wiedzieć, po której jego stronie znajduje się cząstka. Silnik Szilarda jest napędzany... informacją.
Z zasady, silniki napędzane informacja są jak żaglowce. Na oceanie wykorzystuje się swoją wiedzę o kierunku wiatru, aby dostosować żagle, a te z kolei napędzają statek. Ale podobnie jak silniki parowe, silniki informacyjne nie są nigdy doskonałe. One także muszą wnieść daninę w postaci wyprodukowanej entropii. Powodem, dla którego nie możemy wykorzystywać silników informacyjnych jako niewyczerpanego źródła energii jest fakt, jak wskazał Szilard i inni, że generuje on średnio tyle samo entropii aby zmierzyć i przechować tę informacje. Wiedza oznacza potęgę, ale zdobycie i zapamiętanie tej wiedzy pożera energię.
...W następnym odcinku dowiecie się, co to są silniki informacyjne, a także poznacie moje przypuszczenie o przenoszeniu informacji przez cień i jak to się ma do silników informacyjnych. Oczywiście to taka zabawa w fizyków, bo ja jestem tylko Laikiem, a Wy... Wiernymi Czytelnikami @diesphys! Dla Tłuków robi się coraz mniej miejsca. Śmiem wątpić, czy po takiej dawce skondensowanej wiedzy o entropii jeszcze jacyś są przy życiu ;)
Zapraszam na następny odcinek - będzie termodynamika kwantowa i owe tajemnicze silniki informacyjne. Do usłyszenia!
@diesphys.



Brak komentarzy:
Prześlij komentarz