Rozn. Geom_ - Jerzy Kijowski

July 20, 2017 | Author: mikolaj_bugzilla | Category: Vector Space, Euclidean Space, Euclidean Vector, Geometry, Isaac Newton
Share Embed Donate


Short Description

Klekle...

Description

Geometria różniczkowa jako narzędzie nauk przyrodniczych Wersja robocza in statu nascendi (30 września 2014)

Jerzy Kijowski Centrum Fizyki Teoretycznej PAN Warszawa 2013

Spis treści 1 Wstęp 1.1 Geometria a nauki przyrodnicze . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Układy współrzędnych . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Koncepcja wykładu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1 1 3 8

2 Rozwój pojęcia wektora stycznego 2.1 Eksperyment czy spekulacja myślowa? . . . . . . . . . . . . . . . . . . . . 2.2 Przestrzeń afiniczna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Wymiar przestrzeni afinicznej . . . . . . . . . . . . . . . . . . . . . . . . . 2.4 Współrzędne prostoliniowe w przestrzeni afinicznej . . . . . . . . . . . . . 2.5 Wektor zaczepiony w punkcie jako operator różniczkowy . . . . . . . . . . 2.6 Współrzędne wektora w krzywoliniowym układzie współrzędnych . . . . . 2.7 Zmiana współrzędnych wektora odpowiadająca zmianie układu współrzędnych 2.8 Rozmaitości różniczkowe zanurzone w przestrzeni afinicznej. Przestrzeń styczna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.9 Forma uwikłana a forma parametryczna rozmaitości zanurzonej . . . . . . 2.10 Abstrakcyjna rozmaitość różniczkowalna i jej przestrzeń styczna . . . . . . 2.11 Wiązka styczna do rozmaitości . . . . . . . . . . . . . . . . . . . . . . . . . 2.12 Odwzorowania między rozmaitościami różniczkowalnymi. Odwzorowanie styczne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.13 Krzywe sparametryzowane. Wektor styczny do krzywej . . . . . . . . . . . 2.14 Superpozycja odwzorowań transportu. Inna definicja odwzorowania stycznego 2.15 Podrozmaitości . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.16 Własności globalne a własności lokalne . . . . . . . . . . . . . . . . . . . .

11 11 13 17 19 20 24 28

3 Algebra pól wektorowych. Układy dynamiczne 3.1 Pole wektorowe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Komutator pól wektorowych . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Sens analityczny a sens geometryczny . . . . . . . . . . . . . . . . . . . . . 3.4 Pole wektorowe jako układ dynamiczny. Jednoparametrowe grupy diffeomorfizmów . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5 Pole wektorowe jako infinitezymalna postać grupy diffeomorfizmów . . . . 3.6 Uniwersalna postać pola wektorowego . . . . . . . . . . . . . . . . . . . . . 3.7 Pochodna Lie’go . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.8 Komutator pól a przemienność grup diffeomorfizmów . . . . . . . . . . . . 3.9 Dystrybucje i ich symetrie . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.10 Twierdzenie Frobeniusa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.11 Ważny przykład pola wektorowego: prawa Keplera . . . . . . . . . . . . . .

54 54 55 57

29 33 37 39 41 43 46 47 49

61 68 69 71 75 81 83 86

4 Kowektory 4.1 Kowektor jako infinitezymalna funkcja kosztów. Różniczka funkcji. Wiązka ko-styczna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Transport odwrotny („pull back”) kowektora . . . . . . . . . . . . . . . . . 4.3 Całkowanie pola kowektorowego po krzywych. Orientacja rozmaitości . . . 4.4 Rozmaitość z brzegiem. Najprostsza wersja twierdzenia Stokes’a . . . . . . 4.5 Potencjalne pole sił. Najprostsza wersja Lematu Poincar´e . . . . . . . . . . 4.6 Uwagi na temat rozkładu jedności i „gładkiego dzielenia tortu” . . . . . . . 4.7 Uwagi o „całkach niezorientowanych” . . . . . . . . . . . . . . . . . . . . . 5 Formy różniczkowe 5.1 Multi-kowektory. Wyznacznik jako forma objętości . . . . . . . . . . . . . 5.2 Formy różniczkowe. Całkowanie form po podrozmaitościach . . . . . . . . . 5.3 Iloczyn zewnętrzny. Współrzędniowy opis multikowektorów i form różniczkowych . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4 Przykład: całkowanie sił wywołanych ciśnieniem. Zewnętrzna a wewnętrzna orientacja powierzchni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.5 Różniczka zewnętrzna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.6 Transport i pochodna Liego pola kowektorowego oraz formy różniczkowej . 5.7 Twierdzenie Stokesa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.8 Przykłady i ćwiczenia dotyczące Twierdzenia Stokesa . . . . . . . . . . . . 5.9 Przykład zastosowania Twierdzenia Stokes’a: prawo Archimedesa . . . . . 5.10 Lemat Poincar´e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.11 Postać dualna formy różniczkowej . . . . . . . . . . . . . . . . . . . . . . . 5.12 Geometryczny opis pola elektromagnetycznego . . . . . . . . . . . . . . . .

95 95 98 100 103 106 108 110 111 111 117 119 124 128 133 137 142 147 148 154 160

6 Geometria Riemanna 163 6.1 Struktura euklidesowa w przestrzeni afinicznej . . . . . . . . . . . . . . . . 163 6.2 Uwagi na temat geometrii pseudo-euklidesowej . . . . . . . . . . . . . . . . 166 6.3 Struktura Riemanna i tensor metryczny na rozmaitości . . . . . . . . . . . 167 6.4 Obraz odwrotny („pull back”) tensora metrycznego . . . . . . . . . . . . . 172 6.5 Izomorfizm miedzy przestrzenią styczną a ko-styczną generowany przez strukturę Riemanna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173 6.6 Długość kowektora oraz multi-kowektora . . . . . . . . . . . . . . . . . . . 174 6.7 Przykład: jak obliczyć Laplasjan funkcji w zmiennych krzywoliniowych . . 177 6.8 Całki „pierwszego rodzaju”: długość krzywej, pole powierzchni itd. . . . . 182 6.9 Forma objętości . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184 6.10 Dualizm („gwiazdka”) Hodge’a . . . . . . . . . . . . . . . . . . . . . . . . 185 6.11 Gradient, dywergencja, Laplasjan . . . . . . . . . . . . . . . . . . . . . . . 192 6.12 Interpretacja fizyczna całek z form różniczkowych . . . . . . . . . . . . . . 194 6.13 Analiza wektorowa w przestrzeni trójwymiarowej. Iloczyn wektorowy i rotacja198 6.14 Pochodna Liego metryki. Pola Killinga . . . . . . . . . . . . . . . . . . . . 203 6.15 Tensory . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206

6.16 Przykład: funkcje sferyczne . . . . . . . . . . . . . . . . . . . . . . . . . . . 212 7 Teoria powiązania („koneksji”) 219 7.1 Pole grawitacyjne jako pole układów inercjalnych . . . . . . . . . . . . . . 219 7.2 Problem ortodromy i geometrie nie-euklidesowe . . . . . . . . . . . . . . . 222 7.3 Matematyczny opis teorii powiązania . . . . . . . . . . . . . . . . . . . . . 225 7.4 Ważny przykład przestrzeni z powiązaniem: opis ruchu w układzie nieinercjalnym . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231 7.5 Krzywizna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234 7.6 Normalny układ współrzędnych . . . . . . . . . . . . . . . . . . . . . . . . 240 7.7 Znikanie tensora krzywizny jako warunek dostateczny płaskości . . . . . . 242 7.8 Pochodna kowariantna i transport równoległy . . . . . . . . . . . . . . . . 245 7.9 Powiązanie według metody Koszula . . . . . . . . . . . . . . . . . . . . . . 249 7.10 Tożsamości Bianchi’ego drugiego rodzaju . . . . . . . . . . . . . . . . . . . 249 7.11 Tensor Riemanna jako niesymetryczna część drugiej pochodnej kowariantnej 251 7.12 Koneksja metryczna i symbole Christoffela . . . . . . . . . . . . . . . . . . 252 7.13 Pochodna Liego metryki i koneksji. Równanie Killinga . . . . . . . . . . . 256 7.14 Krzywizna zewnętrzna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257 7.15 Współrzędne Gaussa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260 8 Geometria symplektyczna 8.1 Symplektyczne układy kontrolne . . . . . . . . . . . . . . . . . . . . . . . . 8.2 Wersja wektorowa geometrii symplektycznej. Mody kontrolne . . . . . . . . 8.3 Transformacje Legendre’a . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.4 Rozmaitość symplektyczna. Pola Hamiltonowskie i nawiasy Poissona . . . . 8.5 Redukcja symplektyczna . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.6 Twierdzenie Darboux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.7 Miara Liouville’a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.8 Symplektyczna teoria kontroli w pełnej wersji nieliniowej. Przykłady z termodynamiki i mechaniki . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.9 Wersja infinitezymalna symplektycznej teorii kontroli: rozważania heurystyczne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.10 „Trójka” Tulczyjewa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.11 Składanie relacji symplektycznych. Zasady wariacyjne . . . . . . . . . . . . 8.12 Równania Eulera-Lagrange’a . . . . . . . . . . . . . . . . . . . . . . . . . . 8.13 Teoria Hamiltona-Jacobi’ego . . . . . . . . . . . . . . . . . . . . . . . . . . 8.14 Linie geodezyjne jako ortodromy koneksji metrycznej . . . . . . . . . . . .

263 263 269 272 277 280 281 283

9 Posłowie 9.1 Grupy Liego . . . . . . . . . . . . 9.2 Abstrakcyjne wiązki włókniste . . 9.3 Koneksja w wiązce abstrakcyjnej 9.4 Cięcia wiązek . . . . . . . . . . .

305 305 306 309 309

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

284 288 292 297 299 301 302

9.5 9.6

Jety . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310 Rachunek wariacyjny całek wielokrotnych i związana z nim kanoniczna struktura symplektyczna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311

1 1.1

Wstęp Geometria a nauki przyrodnicze

Geometria różniczkowa jest stosunkowo młodą gałęzią matematyki. Wyrosła z geometrii Euklidesa, a więc tej dziedziny nauki, której kodyfikacja, dokonana już w starożytności przez jednego z największych myślicieli wszechczasów, stanowi odtąd niedościgły wzór piękna myśli ludzkiej. Wyodrębnienie się geometrii różniczkowej jako samodzielnej gałęzi nauki wiąże się zazwyczaj z nazwiskami Bernharda Riemanna, Luigiego Bianchi’ego, wreszcie Elie Cartana. Jednak idee te są mocno zakorzenione w dużo starszych rozważaniach, wyrosłych na gruncie analizy wszelkiego rodzaju zjawisk „nieliniowych”, jakie życie stawiało przed matematykami na różnych – mniej lub bardziej dramatycznych – etapach historii naszej cywilizacji. Gdy podążać za rozumowaniem Archimedesa, dotyczącym np. pola powierzchni rozmaitych brył, trudno oprzeć się wrażeniu, że wymienieni wyżej genialni twórcy nowożytni bynajmniej nie tworzyli z niczego nowej dziedziny nauki, a jedynie wydobywali na światło dzienne i systematyzowali to, co – w mniej precyzyjnej formie – istniało zawsze jako istotny składnik myślenia matematycznego. Najważniejszym ze źródeł geometrii różniczkowej była geometria sferyczna: podstawowe narzędzie nawigatorów i astronomów służące do opisu ruchu rozmaitych obiektów (okrętów lub planet i komet) po powierzchni sferycznej: czy to powierzchni globu, czy też powierzchni abstrakcyjnej „sfery niebieskiej”. Póki z Aten żeglowano co najwyżej na Cyklady, geometria płaszczyzny euklidesowej w zupełności wystarczała do opisu takiej podróży. Jednak już około 230 roku przed Chrystusem Eratostenes bardzo dokładnie wyznaczył rozmiary kuli ziemskiej. Dokładność ta została poprawiona dopiero w 1736 roku – a więc blisko dwa tysiące lat później! (Dokonał tego francuski matematyk, P. Maupertuis). Relacje marsylskiego żeglarza Pyteasza, który wypłynął daleko na ocean, prawdopodobnie aż do Islandii, rozchodziły się szeroko w hellenistycznym świecie, a świadomość, że poruszał się on „po powierzchni krzywej”, była powszechna. Dało to silny impuls do licznych rozważań, które obecnie zostałyby zakwalifikowane do działu „geometria sferyczna”. Od niej już bardzo bliska droga do uogólnień, jak uwzględnienie poprawek nawigacyjnych wynikających ze spłaszczenia kuli ziemskiej, czy wreszcie precyzyjny opis dowolnej powierzchni krzywej. Taka analiza umożliwiła podobno genialnemu Gaussowi dokładne wyliczenie pola powierzchni księstwa Brunszwiku, co ze względu na znaczne pofałdowanie terenu wymykało się klasycznym metodom geodezji wywodzącym się z płaskiej geometrii euklidesowej. Były to początki geometrii różniczkowej. Łącznikiem z liczącą sobie ponad dwa tysiące lat klasyczną geometrią Euklidesa było przekonanie filozoficzne, że co prawda opisywane obiekty są krzywe, jednak żyją (powiedzielibyśmy dzisiaj: są zanurzone) w „normalnym”, to znaczy płaskim (euklidesowym) świecie. „Zakrzywienie” było postrzegane jako odstępstwo od „płaskości”, której wzorcem był właśnie ten zewnętrzny, idealnie płaski świat, do którego wyidealizowanych własności można było odnosić rozmaite, żmudnie odkrywane własności obiektów krzywych. I w ten sposób geometria różniczkowa wyrastała w gorsecie przekonań o konieczności odnoszenia własności krzywych powierzchni do idealnego, euklidesowego Wszechświata. Tymczasem jednak coraz częściej okazywało się, że niektóre własności tych 1

obiektów mają charakter „wewnętrzny”, niezależny od tego zanurzenia, podczas gdy inne, nazywane „zewnętrznymi”, opisują właśnie sposób zanurzenia. Typowym tego przykładem jest następująca obserwacja: wyginając kartkę papieru zakrzywiamy jedynie jej zanurzenie w otaczającym Świecie, jednak nie ma to żadnego wpływu na jej geometrię wewnętrzną, która pozostaje płaska. Gorset ten został odrzucony właśnie przez Bernharda Riemanna który pokazał, że do badania wewnętrznej geometrii ewentualnych przestrzeni krzywych hipoteza o istnieniu zewnętrznego, płaskiego świata zupełnie nie jest potrzebna. Dostarczyło to odpowiednich narzędzi pojęciowych dla współczesnej, geometrycznej teorii Wszechświata, opartej na „ogólnej teorii względności” Einsteina. Dzięki Riemannowi nie musimy sobie już wyobrażać, że nasz zakrzywiony Wszechświat jest zanurzony w jakimś dużo większym, ale za to płaskim „meta-świecie” pełniącym rolę „wzorca płaskości”, gdzie zakrzywienie czasoprzestrzeni byłoby jedynie „odchyleniem” od tego wzorca. Geometria różniczkowa pozwala opisać łatwo krzywiznę (lub jej brak) jako wewnętrzną własność badanej przestrzeni. Powyższe wątki są z powodzeniem wykorzystywane w większości wykładów z geometrii różniczkowej jako argumenty heurystyczne uzasadniające definicje rozmaitych struktur na abstrakcyjnych rozmaitościach różniczkowalnych. W niniejszym wykładzie proponujemy inny punkt widzenia. Budowę podstawowego aparatu pojęć geometrycznych zamierzamy oprzeć na obserwacji, iż prawdziwa geometria różniczkowa „wkracza do akcji” natychmiast, gdy tylko zaczynamy posługiwać się współrzędnymi krzywoliniowymi dbając jednocześnie o to, by uzyskane wyniki archiwizować (zapisywać) w sposób niezależny od wyboru tych współrzędnych. Tak więc nawet w kontekście zwykłej, euklidesowej przestrzeni (w prostych ujęciach pomyślanych na użytek fizyków czy inżynierów, identyfikowanej zazwyczaj z przestrzenią liczbową R3 ) warto posługiwać się dobrymi narzędziami geometrycznymi, znacznie bowiem upraszcza to rachunki. Złudzenie wielu wykładowców mechaniki, hydrodynamiki, teorii elastyczności, elektrodynamiki, teorii kontroli czy termodynamiki, że stosując osiemnastowieczne formalizmy ułatwiają życie swoim słuchaczom bardzo boleśnie zderza się z rzeczywistością, gdy zdanie egzaminu zależy od wyuczenia się na pamięć formułek na „Laplasjan, rotację czy przyśpieszenie w zmiennych sferycznych”. W gąszczu tych formuł gubi się wspaniały postęp myśli ludzkiej zawarty w tych dziedzinach nauki. Opór takich wykładowców przeciw posługiwaniu się adekwatnymi narzędziami, oferowanymi przez współczesną geometrię różniczkową, przypomina opór wczesnośredniowiecznych myślicieli przeciw wprowadzeniu układu pozycyjnego w arytmetyce, który burzył nawyki oparte na rzymskim sposobie zapisywania liczb. Klasyczne rozumowanie Newtona prowadzące do wniosku, że prawa Keplera opisujące ruch planet są konsekwencją trzech prostych „zasad dynamiki” oraz prawa powszechnego ciążenia, stanowi przecież modelowy przykład stosowania narzędzi geometrii różniczkowej! Chodzi tutaj o obserwację, że dwa pola wektorowe, których wartości są w każdym punkcie wzajemnie proporcjonalne, mają te same krzywe całkowe (różniące się jedynie parametryzacją). I w ten sposób, nawet pozostając wewnątrz przestrzeni płaskiej, jesteśmy zmuszeni do budowania struktur geometrii różniczkowej, gdy tylko zabieramy się za analizę takich problemów fizycznych czy inżynierskich, które nie dają się rozwiązać w układzie współrzędnych prostoliniowych. Najprostsze przykłady tego rodzaju problemów to: opis linii prostej 2

we współrzędnych sferycznych, czy wyrażenie operatora Laplace’a (występującego w bardzo wielu zagadnieniach fizycznych czy inżynierskich) we współrzędnych krzywoliniowych. Wieloletnie doświadczenie dydaktyczne pokazuje niezbicie, że geometria jest najsłabszą stroną matematycznego wykształcenia fizyków i inżynierów. Strumienie (płynu czy pola magnetycznego) wpędzają w kompleksy nawet dobrych studentów, którzy – otrzymawszy jakiś paradoksalny wynik – z trudem przypominają sobie, że „chyba należało to wszystko jeszcze pomnożyć przez jakiś wyznacznik”. Prawo Archimedesa (ubarwione niezbyt mądrymi anegdotami o tym wielkim uczonym) potrafi zapewne wyrecytować każde dziecko: ciało zanurzone w cieczy traci pozornie na swym ciężarze tyle, ile wynosi ciężar cieczy przez nie wypartej. Ta siła wyporu jest po prostu wypadkową sił ciśnienia hydrostatycznego działających na powierzchni zanurzonego ciała, zawsze prostopadłych do tej powierzchni. Próba obliczenia tej wypadkowej, czyli wyprowadzenia prawa Archimedesa z prawa Pascala, podcina skrzydła większości adeptów studiów matematycznych, fizycznych czy inżynierskich. A przecież jest ono prostą, geometryczną konsekwencją twierdzenia Stokesa. No a samo twierdzenie Stokesa, jeśli już jest wykładane, to zazwyczaj bardzo abstrakcyjnie, podczas gdy jest to jedynie twierdzenie podstawowe rachunku różniczkowego i całkowego („całka z pochodnej funkcji jest równa przyrostowi tej funkcji”), obudowane inteligentnym sposobem katalogowania danych, niewrażliwym na zamianę układu współrzędnych. I właśnie o takiej geometrii różniczkowej będzie mowa w niniejszym wykładzie.

1.2

Układy współrzędnych

W czasach, gdy ludzie byli przekonani, że żyją w płaskiej, euklidesowej przestrzeni trójwymiarowej, geometria różniczkowa była nauką o liniach krzywych i krzywych powierzchniach. Stanowiła po prostu dział analizy matematycznej, gdzie własności krzywej opisywano za pomocą rachunku różniczkowego i całkowego. I tak: krzywą na płaszczyźnie dwuwymiarowej P lubimy (jeśli tylko się da!) opisywać we współrzędnych (x, y) jako wykres funkcji x 7→ y = f (x) , Wszystkie jej własności z powodzeniem można wyrazić w języku pochodnych funkcji f . Na przykład: kierunek wektora stycznego do krzywej opisuje pierwsza pochodna f ′ (x) = tg α, równa tangensowi kąta zawartego między tym kierunkiem a osią współrzędnej x. Natomiast na to, czy krzywa jest wypukła czy wklęsła, wskazuje znak drugiej pochodnej. Niestety, opis ten zaczyna się komplikować gdy przechodzimy do współrzędnych krzywoliniowych. Przykład: Tę samą płaszczyznę P możemy opisywać we współrzędnych (ξ, η), związanych z poprzednimi następującą transformacją: ξ = x η = y − x2 ,

3

lub, równoważnie: x = ξ y = η + ξ2 . Parabola będąca wykresem funkcji f (x) = 12 x2 wydaje się, że jest wypukła, bo f ′′ = 1 > 0 . Ale w nowych współrzędnych tej samej krzywej odpowiada równanie 1 1 1 0 = y − x2 = η + ξ 2 − ξ 2 = η + ξ 2 . 2 2 2 Oznacza to, że nasza krzywa jest wykresem funkcji: 1 ξ 7→ η = f˜(ξ) = − ξ 2 , 2 a więc mamy:

(1)

f˜′′ = −1 < 0 .

Czyżby krzywa zmieniła swój charakter z wypukłej na wklęsłą? Oczywiście nie! Przykład ten pokazuje jedynie, że rozmaite analityczne charakterystyki badanych obiektów geometrycznych mogą transformować się w wysoce nietrywialny sposób podczas nieliniowej (a często i liniowej!) transformacji współrzędnych. Ktoś mógłby się żachnąć: „Ale dlaczego mielibyśmy komplikować sobie życie używając współrzędnych krzywoliniowych! Czyż nie łatwiej używać zawsze współrzędnych prostoliniowych?” Otóż jeśli chcemy badać powierzchnie krzywe, to musimy pogodzić się z faktem, że na takiej powierzchni nie ma współrzędnych prostoliniowych i wszystkie układy współrzędnych musimy traktować jako równie dobre. Jako przykład rozważmy powierzchnię sferyczną o promieniu R (zob. Rys. 1). To najważniejszy obiekt geometryczny dla żeglarza przygotowującego się do nawigacji po oceanie. Punkty tej powierzchni możemy łatwo sparametryzować za pomocą współrzędnych geograficznych: długości i szerokości geograficznej. W matematyce stosujemy zazwyczaj konwencję, w której szerokość geograficzna nie jest liczona od równika w górę i w dół, jak w geografii, lecz raczej od bieguna północnego w dół. Taka parametryzacja bierze się z opisu przestrzeni trójwymiarowej R3 we współrzędnych sferycznych (r, θ, ϕ). Związek między tymi współrzędnymi a zwykłymi, kartezjańskimi współrzędnymi (x, y, z) ∈ R3 dany jest następującymi wzorami: x = r sin θ cos ϕ , y = r sin θ sin ϕ , z = r cos θ .

4

(2)

Rysunek 1: Siatka współrzędnych geograficznych na sferze S 2 . Transformacja odwrotna jest opisana następującymi wzorami: r =

q

x2 + y 2 + z 2 ,

z θ = arc cos √ 2 x + y2 + z2   y ϕ = arc tg . x

!

,

(3)

Parametryzacja ta zawodzi na osi ziemskiej, tzn. gdy x2 + y 2 = 0, bo wartość długości geograficznej dana ostatnim wzorem nie ma żadnego sensu i wtedy trzeba stosować jakieś inne mapy. Oczywiście również poza tą osią „arcus tangens” występujący w tym wzorze wymaga jakiegoś ujednoznacznienia. Ale płynąc z dala od obszarów polarnych żeglarz ma do dyspozycji lokalnie poprawną parametryzację punktów sfery zmiennymi (θ, ϕ), jeśli tylko ustali wartość zmiennej radialnej na wartości promienia ziemskiego: r = R. W tym układzie współrzędnych każdy równoleżnik jest wykresem funkcji stałej: ϕ 7→ θ = f (ϕ) = const.

(4)

Jej druga pochodna znika, co można byłoby naiwnie interpretować jako dowód na to, że krzywa ta nie jest ani wypukła, ani wklęsła, a zatem. . . prosta? Czujemy jednak intuicyjnie, że tylko równik (odpowiadający wartości θ = π2 ) jest — no może nie „prosty”, ale „najmniej krzywy”. Natomiast wszystkie inne równoleżniki są w oczywisty sposób wypukłe lub wklęsłe. 5

Ten układ współrzędnych nie jest w żaden sposób wyróżniony. Nawet jeśli przywiązaliśmy się do idei „współrzędnych geograficznych”, i tak położenie bieguna północnego na sferze nie jest wyróżnione żadną własnością geometryczną, zatem każdy inny punkt sfery również może tę rolę pełnić. Poza tym, gdy już ustalimy położenie bieguna, całą siatkę można jeszcze obracać wokół osi ziemskiej, zmieniając w ten sposób położenie „południka zerowego”, od którego mierzymy długość geograficzną ϕ. Obie te dowolności pozwalają zatem na rozważanie całej trójparametrowej rodziny „geograficznych układów współrzędnych” na sferze. Każdy z nich wyznacza siatkę południków i równoleżników na globusie. Wyobraźmy sobie, że globus ten spoczywa w swoim drewnianym łożu, jak słynny Globus Jagielloński w Muzeum Uniwersytetu Jagiellońskiego w Collegium Maius w Krakowie. Transformację od jednego do drugiego z tych układów współrzędnych można sobie wyobrazić jako obrócenie globusa w łożu, w wyniku czego cała ta siatka współrzędnych przesuwa się po sferze w odpowiedni sposób. Wybierzmy teraz równoleżnik odpowiadający wartości θ = 16 π (w konwencji geografów oznacza to 60◦ szerokości geograficznej północnej). Jeśli zawiesić nad globusem odpowiednio skonstruowaną lampę, która wąską smugą oświetli właśnie ten równoleżnik (pogrubiona linia na Rys. 2), ta smuga na globusie może być traktowana jako wykres funkcji stałej, jak we wzorze (4). Obróćmy jednak globus w ten sposób, by smuga świetlna zbliżyła się nieco do równika. I znów (przynajmniej lokalnie, w pobliżu punktu styczności) jest to wykres jakiejś funkcji. Widzimy wyraźnie, że funkcja ta ma w punkcie styczności lokalne, niezdegenerowane maksimum, a zatem jest wklęsła. Jeśli natomiast obócimy globus w drugą stronę, np. tak, by smuga świetlna była styczna 1 π (w konwencji geografów oznacza to 85◦ szerokości geograficznej do równoleżnika θ = 12 północnej), funkcja opisująca tę samą smugę w nowym układzie współrzędnych ma lokalne, niezdegenerowane minimum, a zatem jest wypukła.

Rysunek 2: Równoleżnik jako wykres funkcji θ = f (ϕ). Nauka płynąca z powyższych przykładów jest taka, że sam rachunek różniczkowy nie wystarcza: należy poszukiwać opisu obiektów geometrycznych niezależnego od układu współrzędnych. I właśnie tym zajmuje się geometria różniczkowa. Upraszczając całą sprawę można by powiedzieć: Geometria różniczkowa to sztuka mądrego posługiwania się krzywo6

liniowymi układami współrzędnych. Jest to rzeczywiście wielkie uproszczenie i wielu wybitnych geometrów oburzyłoby się na takie trywializowanie roli tej wspaniałej dziedziny matematyki. Podzielając (częściowo) ich oburzenie, zaproponujmy zatem poprawioną definicję: Geometria różniczkowa to sztuka stosowania rachunku różniczkowego i całkowego w taki sposób, by informacje uzyskane za ich pomocą nie zależały od wyboru układu współrzędnych. Taka definicja też nie znajdzie powszechnego uznania wśród matematyków. Powiedzą, że przecież najpiękniejsze rozdziały geometrii różniczkowej to te, w których potrafimy całkowicie się uwolnić od jakiegokolwiek układu współrzędnych i dowodzić relacji między różnymi obiektami geometrycznymi w sposób zupełnie abstrakcyjny. Tu trzeba częściowo przyznać rację polemistom, bo rzeczywiście łatwo wpaść w zachwyt nad dowodem prowadzonym bez użycia współrzędnych. Jednak chcąc stosować geometrię w naukach przyrodniczych, na przykład chcąc budować modele rzeczywistości fizycznej a następnie konfrontować je z wynikami doświadczeń, nie wystarczą nam abstrakcyjne „dowody istnienia” czy też abstrakcyjne tożsamości. Musimy wszak rozwiązywać konkretne równania różniczkowe i badać konkretne własności otrzymanych rozwiązań. A to potrafimy zrobić tylko w konkretnej parametryzacji. Dla zilustrowania powyższej myśli sięgnijmy do przykładu Izaaka Newtona. Postulowane przezeń prawa dynamiki można rzeczywiście sformułować abstrakcyjnie: przestrzeń w której żyjemy jest Euklidesowa (płaska), istnieje układ inercjalny, równania ruchu są drugiego (a nie – jak u Arystotelesa – pierwszego) rzędu. To ostatnie zdanie oznacza, że skutkiem działania siły („przyczyny”) nie jest prędkość lecz przyśpieszenie. Drugim składnikiem teorii Newtona jest prawo powszechnego ciążenia, według którego siła grawitacji działająca między dowolną parą ciał ciężkich jest proporcjonalna do r −2 , gdzie r jest odległością tych ciał. Na jakiej podstawie Newton sformułował te prawa? W szczególności: jak zmierzył siłę przyciągania Ziemi przez Słońce? Skąd wiedział, że to ma być dokładnie r −2 , a nie na przykład: r −2,00079 ? Otóż dowód prawdziwości przypuszczeń Newtona co do praw rządzących dynamiką i grawitacją polegał na konfrontacji zbudowanego na nich modelu matematycznego z obserwacjami ruchów planet. Najbardziej spektakularnym argumentem było wyprowadzenie przez Newtona trzech praw Keplera zaobserwowanych uprzednio jako pewne „ciekawe regularności” tych ruchów. No i sam fakt, że orbity ruchu były zamknięte, czyli ruch planet – okresowy. Matematyk o bardzo teoretycznym nastawieniu powiedziałby, że wystarczy zapisać odpowiednie równanie różniczkowe: m¨ x = −α

x , kxk3

gdzie x ∈ E 3 oznacza położenie planety kodowane jako wektor w trójwymiarowej przestrzeni Euklidesowej, kropki – pochodne po czasie, zaś kxk to długość wektora x (czyli odległość od Słońca, które dla prostoty umieściliśmy w zerze przestrzeni E 3 ). Prawa strona jest właśnie siłą grawitacyjną, z jaką Słońce przyciąga planetę. Żaden układ współrzędnych nie jest tu potrzebny, a programy numeryczne służące do rozwiązywania takich równań są tak dostępne, że zapewne można je znaleźć na każdym tablecie, jaki rząd funduje dzieciom 7

rozpoczynającym naukę w zerówce. Moja rola – powie ten matematyk – kończy się na dowodzie istnienia i jednoznaczności rozwiązania zagadnienia Cauchy’ego dla tego równania. Reszta to są problemy techniczne! A tymczasem Newton byłby czekał zapewne do dziś na uznanie dla swej teorii, gdyby nie zdołał był wyciągnąć konkretnych wniosków ze swojego równania. Niestety, rozwiązania nie wyrażają się za pomocą funkcji elementarnych. Jednak stosując krzywoliniowy układ współrzędnych, dostosowany do symetrii problemu, można nietrudno wyprowadzić prawa Keplera. Newton zapełnił tym całą książkę, bo musiał w tym celu stworzyć rachunek różniczkowy i całkowy. Nam pójdzie łatwiej, bo analizę matematyczną już znamy. Podkreślamy jednak, że konkretne rachunki potrafimy przeprowadzić jedynie w konkretnym układzie współrzędnych. Natomiast geometria różniczkowa będzie nam podpowiadała, w jaki sposób z nieskończenie wielu pochodnych i całek, które można sobie dowolnie wyliczać, wybrać tylko te, które mają sens, bo odpowiadają niezależnym od parametryzacji strukturom geometrycznym.

1.3

Koncepcja wykładu

Niniejszy wykład został pomyślany tak, by był dostępny dla studentów drugiego roku, którzy przeszli wstępny kurs analizy matematycznej oraz algebry liniowej z elementami geometrii analitycznej. Zasadniczymi narzędziami są: rachunek różniczkowy i całkowy oraz pojęcie przestrzeni wektorowej, macierzy i wyznacznika. Zakładając znajomość tych struktur, wiele uwagi poświęciliśmy pojęciu wektora stycznego do rozmaitości. Wychodzimy od pierwotnego wyobrażenia wektora jako „strzałki”, czyli uporządkowanej pary punktów w przestrzeni afinicznej. Pokazujemy następnie, że opis ten jest bardzo niewygodny, jeśli chcemy używać nieliniowych układów współrzędnych. Cały rozdział zatytułowany „Rozwój pojęcia wektora stycznego” poświęciliśmy konstrukcji nowoczesnego formalizmu, w którym wektor styczny jest reprezentowany jako operator różniczkowy pierwszego rzędu i obudowaniu go niezbędnymi intuicjami geometrycznymi. Wykład zawiera również wszystkie inne, równoważne definicje wektora stycznego. Rozpoczynamy jednak od tej, bo oparty na niej formalizm rachunkowy jest najprostszy. Przekonałem się wielokrotnie, że „blokada mentalna”, którą odczuwa wielu fizyków i inżynierów przeciwko używaniu języka geometrii różniczkowej, wynika właśnie z niezrozumienia pojęcia wektora stycznego. Kiedyś na Uniwersytecie Rzymskim uczestniczyłem w długiej dyskusji, której tematem było: Czy „(dxi )” jest wektorem, czy też ko-wektorem. Mam wrażenie, że zrozumiałem wtedy przyczyny tej blokady. Jej rezultatem jest katastrofalna w skutkach ucieczka w świat matematyki XVIII-wiecznej. Niniejszy tekst jest pomyślany między innymi jako lekarstwo na tę chorobę. Następny rozdział dotyczy własności pól wektorowych, generowanych przez nie lokalnych grup dyfeomerfizmów oraz pochodnej Liego. Następuje po nim wykład form różniczkowych, oparty na intuicyjnym pojęciu „kosztów procesu”. Sporo miejsca zajmuje nam budowanie intuicji dotyczących „form całkowicie antysymetrycznych” jako realizacji pojęcia „objętości równoległościanu”. Pokazujemy, że antysymetria jest najprostszym sposobem realizacji postulatu niezmienniczości objętości względem „pochyleń” równoległościanu, co 8

w tradycyjnych wykładach jest „podane do wierzenia” w formie aksjomatycznej. Dowód twierdzenia Stokes’a prowadzimy w taki sposób, by było jasne, że jest to po prostu zwykłe twierdzenie podstawowe rachunku różniczkowego i całkowego: Z

b

a

df dt = f (b) − f (a) , dt

obudowane inteligentnymi „technikaliami”. Z punktu widzenia zastosowań bardzo ważna jest „postać dualna” formy różniczkowej. Pozwala ona na prosty zapis dualności Hodge’a, dzięki czemu np. równania elektrodynamiki Maxwella uzyskują przejrzystą formę. Najbardziej tradycyjną częścią naszego tekstu jest wykład geometrii Riemanna, z naciskiem na zastosowania. Tę część kończymy krótką informacją na temat pojęcia tensora. W tradycyjnych wykładach stanowi ono często punkt centralny, natomiast u nas pozostaje raczej na marginesie rozważań. Dla zilustrowania algebry tensorowej podajemy klarowną, geometryczną konstrukcję funkcji sferycznych, tak ważną z punktu widzenia zastosowań. Wykład teorii powiązania (koneksji) jest całkowicie oryginalny. Takiego sformułowania nie ma w znanej mi literaturze. Również teoria krzywizny jako „obstrukcji przeciwko wyprostowaniu współrzędnych” jest oryginalna. Wywodzi się ona z prac autora niniejszego wykładu na temat struktury Ogólnej Teorii Względności Einsteina, gdzie użycie takiego właśnie sformułowania teorii koneksji i krzywizny skutkowało znacznym uproszczeniem rachunków. Oczywiście, cała ta „intryga” znajduje szczęśliwe rozwiązanie i okazuje się, że nasze sformułowanie jest równoważne tradycyjnemu, a nasz „tensor krzywizny” jest w jedno-jednoznacznej odpowiedniości z tensorem Riemanna. Takiemu sformulowaniu była m.in. poświęcona praca magisterska Krzysztofa Drachala, napisana na UKSW pod moim kierunkiem. Jestem mu wdzięczny za tę współpracę. Mam wrażenie, że lektura tego rozdziału może być pożyteczna nawet dla bardzo „czystego” matematyka. Wykład geometrii symplektycznej jest również bardzo nietypowy, oparty bowiem na intuicji czerpanej z teorii kontroli. Nie pominięto jednak spojrzenia klasycznego i pokazano równoważność obu podejść. Końcowy rozdział zawiera wskazówki dla Czytelnika, który chciałby poszerzyć swoją wiedzę z zakresu nowoczesnej geometrii różniczkowej. Niniejszy tekst jest wynikiem wieloletnich przemyśleń. Prowadziłem wykłady z Analizy, Algebry, Geometrii Analitycznej i Geometrii Różniczkowej, a także z takich działów fizyki jak Mechanika Teoretyczna, Elektrodynamika, Mechanika Ośrodków Ciągłych, Mechanika Kwantowa, na Uniwersytecie Warszawskim, Politechnice Warszawskiej, Uniwersytecie Kardynała Stefana Wyszyńskiego, Uniwersytecie Mediolańskim i Rzymskim, a także wielokrotnie na wykładach dla asystentów i doktorantów Centrum Fizyki Teoretycznej PAN. Dwukrotnie rezultatem tych wykładów były skrypty spisane przez zainteresowanych słuchaczy: w roku 1978 na ich podstawie Witold Kondracki i Jan Rogulski wydali „Metody Geometryczne w mechanice klasycznej i klasycznej teorii pola”, opublikowane przez Wydawnictwa Uniwersytetu Warszawskiego. Natomiast w roku 1991 Dario Bambusi i Giulio Magli pomogli mi spisać skrypt na podstawie moich wykładów na Uniwersytecie Mediolańskim. Zatytułowany: „Elasticit´a finita e ralativistica: introduzione ai metodi geometrici 9

della teoria dei campi” tekst opublikowało pod moim nazwiskiem Włoskie Towarzystwo Matematyczne (Unione Matematica Italiana). Zawiera on między innymi sformułowanie relatywistycznej teorii elastyczności, która potem znalazła zastosowanie w konstrukcji modeli astrofizycznych. Jednak obecny tekst jest znacznie bardziej dojrzały w stosunku do tamtych, wstępnych wersji. Podkreślam, że prezentowane tu idee wyrosły z badań teoretycznych w fizyce, jako próba zasypania przepaści między językiem czystej matematyki a tym, co niezbędne w bezpośrednim rozwiązywaniu skomplikowanych problemów fizycznych i inżynierskich. Dojrzewaniu tych idei bardzo pomogły dyskusje z moimi byłymi uczniami a obecnie współpracownikami, Jackiem Jezierskim i Szymonem Charzyńskim. Bardzo im za to dziękuję. Warszawa, 21 lipca 2014 r.

10

2 2.1

Rozwój pojęcia wektora stycznego Eksperyment czy spekulacja myślowa?

Idee geometrii euklidesowej pochodzą z doświadczenia. Aby się o tym przekonać wystarczy zwiedzić na przykład resztki osiedli jońskich na wyspie Chios, pochodzące z VIII wieku przed Chrystusem. Nie ma żadnej wątpliwości, że tamtejsi budowniczowie wiedzieli co to jest kąt prosty i umieli go wyznaczyć na placu budowy (w odróżnieniu od swoich bardziej północnych kolegów z Biskupina, gdzie wszystko jest krzywe, czy też budowniczych współczesnych domów, w których również nie uświadczysz kąta prostego). Jak możemy wyczytać z późniejszych opisów, używali w tym celu zamkniętego sznura, tworząc trójkąt pitagorejski o bokach 3, 4 i 5 jednostek (zob. Rys. 3), który jest doskonałym wzorcem kąta prostego. Fakt ten wynika z równości: 32 + 42 = 52 i został później sformalizowany w postaci twierdzenia Pitagorasa.

Rysunek 3: Urządzenie do wyznaczania kątów prostych: linka ze związanymi końcami i podzielona na 12 równych części. Dokonana przez Euklidesa ok. roku 300 p.C. formalizacja geometrii w postaci układu aksjomatów i twierdzeń stanowi jeden z najwspanialszych pomników myśli ludzkiej. Nie ulega dla mnie wątpliwości, że poprzedziły ją wieki eksperymentowania, gdzie własności linii, punktów, figur i brył geometrycznych poznawano doświadczalnie. Wykonajmy i my takie doświadczenie na kartce papieru aby przekonać się, że aksjomatyka Euklidesa nie jest po prostu dziełem artystycznym, wyrażającym preferencje estetyczne jej autora, lecz opisem własności Świata, w którym żyjemy. Do wykonania tego doświadczenia potrzebne nam będą: ołówek, cyrkiel, ekierka i linijka. Zaznaczmy na kartce 3 punkty, które nie są współliniowe, stawiając po prostu trzy kropki: A, O oraz B. Zajmiemy się wyznaczonymi przez te punkty odcinkami OA i OB. A teraz używając ekierki i linijki: 1) narysujmy linię równoległą do odcinka OA, przechodzącą przez punkt B, a następnie: 2) przenieśmy na nią odcinek OA w ten sposób, by jego początek O znalazł się w B. W tym celu musimy na tej linii odmierzyć cyrklem odcinek o tej samej długości co długość OA, startujący z B. e Punkt będący końcem nowego odcinka nazwiemy C. A teraz zamieńmy rolami A i B, to znaczy: 1) narysujmy linię równoległą do odcinka OB, przechodzącą przez punkt A, a następnie: 2) przenieśmy na nią odcinek OB tak, by 11

jego początek O znalazł się w A. W tym celu musimy na tej nowej linii odmierzyć cyrklem odcinek o tej samej długości co długość OB, startujący z A. Punkt będący końcem tego odcinka nazwiemy C. C = C˜ A

B O Rysunek 4: Doświadczalna weryfikacja przemienności dodawania wektorów. Celem całego tego eksperymentu jest zaobserwowanie, iż zachodzi ważne prawo przyroe Ale każdy eksperyment obarczony jest jakimś błędem! Może się zatem zdarzyć, dy: C = C. że kropeczki odpowiadające punktom C i Ce nie pokryją się. Widać to na Rysunku 4. Wtedy zapewne zrzucimy winę na niedostatecznie zaostrzony ołówek lub niedostatecznie sztywny cyrkiel, lub niedostatecznie precyzyjną ekierkę, lub niedostatecznie precyzyjne prowadzenie ołówka wzdłuż ekierki, i powtórzymy eksperyment starając się wyeliminować te wszystkie błędy. Możemy w ten sposób zdobyć dużo mocniejsze przeświadczenie, że jednak naprawdę e Ale czy zdobędziemy w ten sposób przekonanie absolutne? Nawet mazachodzi C = C. leńka kropka, uczyniona znakomicie zaostrzonym ołówkiem, staje się jedynie bezkształtną plamą, gdy obejrzeć ją pod mikroskopem. Nie może być ona zatem utożsamiana z punke Czujemy intuicyjnie, że stanowi ona jedynie mniej lub bardziej użyteczną tem C lub C! wizualizację tego punktu. Ta sama obserwacja dotyczy linii, narysowanej nawet najlepiej zaostrzonym ołówkiem: jej niedoskonałość rzuca się w oczy natychmiast, gdy tylko obejrzymy ją pod mikroskopem. Nawet gdyby udało się zmniejszyć plamkę reprezentującą punkt do rozmiarów jednego atomu substancji, z której sporządzona jest kartka, oraz rysować linie składające się z odpowiednio uszeregowanych pojedynczych atomów, to i tak nasza intuicja podpowiada nam, że to nie o takich obiektach jest mowa w aksjomatach Euklidesa! Punkty powinny być przecież nieskończenie małe a linie nieskończenie cienkie! Takich obiektów nie umiemy stworzyć przy pomocy najbardziej nawet wyrafinowanych narzędzi. Ktoś mógłby powiedzieć, że nie ma ich w przyrodzie. Czy zatem istnieją one jedynie w moim umyśle, jako wyraz tęsknoty za ideałem? W takim razie geometria byłaby częścią psychologii, badającą produkty naszej wyobraźni i opisującą relacje między nimi. Takiej konkluzji stanowczo zaprzecza między-osobowy (interpersonalny) charakter tych doświadczeń: jeśli mam urojenia, to inni ludzie nie mają do nich dostępu. Natomiast co do prawdziwości lub fałszu twierdzenia geometrycznego potrafimy się zgodzić nawet z ludźmi innego języka czy innej kultury. Kilka lat temu prowadziłem roczny wykład uniwersytecki pt. „Matematyka dla Humanisty”. Omawialiśmy różne dowody twierdzenia Pitagorasa. Oczywiście każde dziecko, a tym bardziej student polonistyki czy historii, zna to twierdzenie na pamięć. Ale wszyscy (nawet osoby przedstawiające się słowami: „ jestem noga 12

y v = (x, y) x Rysunek 5: Wektor w przestrzeni afinicznej to uporządkowana para punktów. z matematyki”) byli w stanie, po krótszym czy dłuższym namyśle, zrozumieć wszystkie te dowody. Zmiana miny z „marsowej”, związanej z wysiłkiem umysłu, na „świetlaną”, znamionującą iż umysł stanął nagle wobec niesłychanego piękna, była dla mnie dowodem na to, jak bardzo obiektywne są fakty geometryczne. Wszystko to prowadzi do wniosku, że idealne obiekty geometryczne, o których będzie mowa w tym wykładzie, istnieją naprawdę, a nie tylko w moim umyśle. W świecie materialnym spotykamy jedynie ich przybliżone wizualizacje („cienie w pieczarze” — według terminologii zaproponowanej przez Platona). Jednak badając te „nieudolne przybliżenia” jesteśmy w stanie zdobyć sporą wiedzę na temat „prawdziwych” (czyli „idealnych”) obiektów. Wiedza ta na poziomie doświadczalnym jest zawsze przybliżona: zastępując ołówek promieniem laserowym jesteśmy w stanie zweryfikować twierdzenie Pitagorasa z ogromną dokładnością. Ale tylko w naszym umyśle znajdziemy siłę i zdolności do tego, by uzupełnić tę przybliżoną wiedzę doświadczalną na temat „przybliżonych” obiektów geometrycznych, do wiedzy absolutnie pewnej na temat obiektów idealnych. Tak pewnej wiedzy, jak absolutnie pewne a nie tylko przybliżone, jest twierdzenie Pitagorasa. Nie znajduję lepszego sposobu na wyrażenie powyższych myśli niż idee zawarte w filozofii Platona.

2.2

Przestrzeń afiniczna

Areną klasycznej geometrii euklidesowej była zatem idealna płaszczyzna (dla planimetrii) lub idealna przestrzeń (dla stereometrii ). Ich własności opisywał Euklides przy pomocy systemu aksjomatów, łącznie ze słynnym piątym, który mówił o istnieniu i jednoznaczności linii ℓ′ , równoległej do danej linii ℓ i przechodzącej przez dany punkt p ∈ / ℓ. W nowoczesnym języku własności te wyraża się prosto stosując pojęcie „przestrzeni wektorowej”. Pojęcie to studiuje się zazwyczaj na pierwszym roku studiów w ramach wykładu z Algebry liniowej i w dalszym ciągu będę zakładał, że czytelnik opanował podstawowe umiejętności tej dziedziny matematyki. W języku współczesnej algebry aksjomaty Euklidesa oznaczają tyle, że każda para punktów (x, y) ∈ A rozważanej przestrzeni A wyznacza „wektor” v ∈ V . Wektor ten można sobie wyobrażać jako „strzałkę”, to znaczy zorientowany odcinek (zob. Rysunek 5) którego początkiem jest punkt x zaś końcem (czyli ”ostrzem strzałki”) – punkt y. Gdyby jednak spytać o matematyczną definicję wektora, to prawidłowa odpowiedź na to pytanie brzmi: „Wektor, to element przestrzeni wektorowej.” Widać, że problem nie leży w tym jak sobie wyobrażamy jeden, poszczególny wektor: naiwny obraz „strzałki” 13

v u+v u Rysunek 6: Suma wektorów. jest do wielu celów przydatny i wcale nie zamierzam go zwalczać (choć wkrótce zastąpimy go czymś lepszym!). Istotą rzeczy jest fakt, że zbiór V wszystkich tych obiektów stanowi przestrzeń wektorową. Przypomnę teraz pokrótce znaczenie tego zdania. Otóż oznacza ono, iż w zbiorze V są określone dwa działania: dodawanie wektorów oraz oraz ich skalowanie (zwane też często „mnożeniem przez liczbę” z wybranego ciała liczbowego). W naszym wykładzie ograniczymy się wpierw do przestrzeni wektorowych rzeczywistych, to znaczy że wybieramy ciało liczb rzeczywistych R. Odwołując się ponownie do obrazu „strzałek” przypomnę, że oba te działania omawiano w szkole, co najmniej na lekcjach fizyki. Suma „v + u” wektorów v oraz u to nic innego jak ich „wypadkowa”, czyli przekątna równoległoboku zbudowanego na tych wektorach. Doświadczenie, które wykonywaliśmy w poprzednim paragrafie przy użyciu cyrkla, ekierki i linijki, a którego przybliżony rezultat ilustruje Rysunek 4, przekonuje nas, że jest to działanie przemienne (abelowe), tzn. spełniające tożsamość: v + u = u + v. Natomiast skalowanie α · v wektora v liczbą α polega na zmianie jego długości w stosunku |α| oraz (ewentualna) zmiana kierunku jeśli α jest liczbą ujemną. Jest to przepis konstruktywny: gdy α jest liczbą wymierną: |α| =

m , n

gdzie m, n ∈ N są liczbami naturalnymi, konstrukcja przeskalowanego wektora |α| · v polega na m-krotnym wydłużeniu strzałki reprezentującej v a następnie podzieleniu jej na n równych części i wzięciu jednej z nich. Podział na równe części jest dobrze zdefiniowany konstrukcyjnie (zob. Rysunek (7)) dzięki twierdzeniu Talesa z Miletu. Gdy α nie jest liczbą wymierną, odpowiadające jej skalowanie definiujemy jako granicę powyższych operacji odpowiadających dowolnemu ciągowi liczb wymiernych αk aproksymujących α, tzn. takich, że α = limk→∞ αk . Oba te działania są łączne. Łączność dodawania oznacza tożsamość: v + (u + w) = (v +u)+w. Natomiast przez łączność mnożenia rozumiemy tożsamość: α·(β ·v) = (α·β)·v. Terminologia ta jest oczywistym nadużyciem, bowiem w tym ostatnim wyrażeniu pierwsza kropka oznacza mnożenie w ciele liczbowym, podczas gdy druga, to właśnie omawiane przez nas działanie skalowania wektorów. Używanie tej samej „kropki” na oznaczenie dwu różnych operacji nie prowadzi jednak do żadnych nieporozumień. Zresztą kropkę tę będziemy zazwyczaj opuszczali. Jak pokazuje doświadczenie licznych pokoleń matematyków, ta uproszczona notacja znacznie ułatwia życie, nie prowadząc przy tym do żadnych dwu14

v

1 v 5

Rysunek 7: Podział odcinka na 5 równych części przy użyciu Twierdzenia Talesa. znaczności. Działania te muszą spełniać własności charakterystyczne dla przestrzeni wektorowej. Należy rzypomnieć, że można je zebrać w postaci następujących trzech punktów: 1. Działanie dodawania czyni z V grupę przemienną (abelową). Oznacza to istnienie elementu neutralnego dodawania, który nazywamy wektorem zerowym i oznaczamy1 przez 0 ∈ V . Jego „neutralność” oznacza, że dla dowolnego wektora v ∈ V zachodzi: v + 0 = 0 + v = v. Poza tym, dla każdego elementu v ∈ V istnieje jedyny element odwrotny, który oznaczamy „−v”, a który spełnia równanie: v + (−v) = 0. 2. „Jedynka” w ciele R, to znaczy liczba 1 ∈ R, wyróżniona jako element neutralny mnożenia, jest również elementem neutralnym skalowania wektorów: 1·v =v . 3. Oba działania są ze sobą „zgodne”. Oznacza to, że zachodzi rozdzielność jednego z nich względem drugiego, tzn zachodzi: α · (v + u) = α · v + α · u ,

oraz (α + β) · v = α · v + β · v .

Przypomnimy teraz pokrótce czym jest przestrzeń afiniczna. Jest to mianowicie para (A, V ), gdzie A stanowi zbiór zaś V przestrzeń wektorową, wyposażona w odwzorowanie które uporządkowanej parze (x, y) punktów x, y ∈ A, przypisuje jednoznacznie wektor v ∈ V , oznaczany jako v = y−x , (5)

(możemy go nazywać „strzałką startującą z punktu x i kończącą się w punkcie y) przy czym każde dwa elementy występujące w tym „równaniu” jednoznacznie wyznaczają trzeci. I tak np. dla danego punktu x ∈ A oraz wektora (strzałki) v ∈ V jest tylko jeden punkt y ∈ A spełniający równanie (5). Element ten wygodnie oznaczyć: y =x+v . 1

(6)

Zwracamy znów uwagę na formalną „nieścisłość” notacji: tym samym symbolem oznaczamy „zero skalarne”, tzn liczbę zero, oraz „zero wektorowe”, to znaczy element neutralny dodawania w przestrzeni wektorowej. W praktyce nie zdarzają się sytuacje, w których prowadziłoby to do nieporozumień!

15

W ten sposób każdy wektor v ∈ V generuje transformację gv przestrzeni A, zwaną „translacją o wektor v”: gv (x) := x + v . Zakłada się, że jest to transformacja odwracalna i że zbiór tych transformacji stanowi grupę przemienną, izomorficzną z grupą (V, +), to znaczy z grupą jaką stanowi sama przestrzeń V wyposażona w działanie „+”. Oznacza to między innymi, że elementem odwrotnym do translacji o wektor „v” jest translacja o wektor „−v”, co zapisujemy w postaci równania x = y − v = g−v (y) .

(7)

Postulowane przez Euklidesa własności przestrzeni A, odpowiadają temu, że każde z trzech powyższych równań, mianowicie (5), (6) oraz (7), implikuje pozostałe dwa. Zwracam uwagę, że i tutaj nadużywamy nieco notacji, bowiem „plus” w równaniu (6), oznaczający translację punktu x o wektor v, to nie ten sam plus, który oznacza dodawanie wektorów. Być może stosowanie takiej notacji, niezupełnie ścisłej z formalnego punktu widzenia, powinno być obwarowane klauzulą: „Tylko dla dorosłych”. Ale tak właśnie — jako osobę dojrzałą, umiejącą oddzielić istotę rzeczy od pedantycznego przestrzegania zasad pisowni — zamierzam traktować mojego czytelnika. Podkreślam natomiast, że w notacji tej aksjomaty Euklidesa sprowadzają się do postulatu obowiązywania konwencjonalnych reguł algebraicznych przez te wszystkie, występujące we wzorach plusy, minusy i kropki. To znacznie upraszcza notację. Podsumujmy zatem: Definicja: Przestrzeń afiniczna, to trójka (A, V, +), gdzie A jest „zbiorem punktów przestrzeni”, V jest rzeczywistą przestrzenią wektorową, zaś „+” jest reprezentacją przestrzeni V w grupie przekształceń przestrzeni A: A ∋ x 7→ gv (x) =: x + v ,

(8)

spełniającą omówione wyżej aksjomaty. Przestrzeń wektorową V nazywa się niekiedy „przestrzenią styczną do przestrzeni afinicznej A”. Jej elementy odpowiadają temu, co w nauczaniu szkolnym nazywa się „wektorem wolnym”, w odróżnieniu od „wektora zaczepionego w punkcie”. Rzeczywiście, wektorstrzałkę v ∈ V można „zaczepić” w dowolnym punkcie x ∈ A, w rezultacie czego „koniec strzałki” ustawi się w punkcie y = x + v. To, co w szkole nazywaliśmy „wektorem zaczepionym w punkcie”, to byłaby zatem para: (x, v), gdzie x ∈ A oznacza właśnie punkt zaczepienia, zaś v — sam wektor. W dalszym ciągu niniejszego wykładu okaże się, że istnienie „wektorów wolnych” jest cechą bardzo szczególnych przestrzeni, które nazwiemy „płaskimi”. Ta szczególna cecha, to możliwość kanonicznej identyfikacji wektorów zaczepionych w różnych punktach. W naszej notacji jest to oczywiste: wektory (x, v) oraz (y, v), zaczepione w dwóch różnych punktach x, y ∈ A, można identyfikować, ponieważ są wyznaczone przez ten sam wektor „wolny” v ∈ V . Jednak w ogólnych przestrzeniach, które zamierzamy studiować w tym wykładzie, taka identyfikacja nie będzie możliwa. Zanim wytłumaczę precyzyjnie w następnych rozdziałach o co mi chodzi, chciałbym odwołać się do intuicji czytelnika przy pomocy następującego obrazu. Wyobraźmy sobie powierzchnię sferyczną — na przykład powierzchnię globu ziemskiego. Na tej powierzchni rolę „wektorów 16

zaczepionych w punkcie” będą odgrywały wektory styczne do tej powierzchni. Ale wektory styczne do globu w Warszawie nie mają na ogół nic wspólnego z wektorami stycznymi w Nowym Yorku! Nie istnieje żadna naturalna identyfikacja elementów jednej przestrzeni stycznej z drugą. A zatem pojęcie uniwersalnego, niezależnego od punktu zaczepienia „wektora wolnego” nie daje się tutaj zdefiniować. Natomiast pojęcie wektora stycznego (zaczepionego w punkcie!) jest centralnym pojęciem geometrii różniczkowej i cały obecny rozdział jemu właśnie poświęcimy.

2.3

Wymiar przestrzeni afinicznej

Każda przestrzeń wektorowa ma bazę, to znaczy liniowo niezależny zbiór wektorów, który rozpina całą przestrzeń. To „rozpinanie” oznacza, iż każdy inny wektor tej przestrzeni jest kombinacją liniową wektorów z bazy. Liniowa niezależność implikuje, że ta kombinacja liniowa jest jednoznacznie wyznaczona przez sam wektor. Jeśli zatem oznaczyć elementy bazy jako eι , gdzie indeksy ι ∈ I przebiegają jakiś zbiór I, to każdy wektor v ∈ V przedstawia się jednoznacznie w postaci: v=

X

v ι eι .

(9)

ι∈I

Jednoznacznie dane współczynniki2 tego rozkładu, to znaczy liczby v ι ∈ R, nazywa się współrzędnymi wektora v w bazie e = (eι )ι∈I . Dwie różne bazy tej samej przestrzeni są równoliczne. Liczebność bazy nazywa się wymiarem przestrzeni wektorowej. W niniejszym wykładzie będziemy rozważali przestrzenie wymiaru skończonego, to znaczy takie, że liczebność zbioru indeksów I jest liczbą naturalną. Mówiąc na przykład, że dana przestrzeń wektorowa V ma wymiar równy 2, co oznaczamy: dimV = 2 , mamy na myśli, że można wybrać dwa wektory (e1 , e2 ) takie, że każdy wektor v ∈ V przedstawia się jednoznacznie jako ich kombinacja liniowa: v=

2 X

v i ei = v 1 e1 + v 2 e2 .

i=1

Współrzędne (v i) = (v 1 , v 2 ) stanowią dogodną parametryzację przestrzeni V . W ten sposób, ustalając bazę przestrzeni wektorowej, ustalamy w niej „parametryzację” to znaczy przyporządkowanie 2

R ∋

"

v1 v2

#

→κ

"

v1 v2

#!

=

2 X i=1

v i ei ∈ V ,

(10)

2 Dla każdego wektora v jedynie skończona liczba tych współczynników może być różna od zera. Tak więc powyższa suma jest zawsze sumą skończoną. Suma nieskończona to granica sum skończonych, a pojęcie granicy nie istnieje w ogólnej przestrzeni wektorowej, nie wyposażonej w topologię. Natomiast w wektorowych przestrzeniach topologicznych – np. przestrzeniach Banacha czy Hilberta – rozważa się inne pojęcie bazy przestrzeni, bowiem dopuszcza się sumy nieskończone.

17

które każdemu punktowi w przestrzeni parametrów R2 przypisuje jednoznacznie element badanej przestrzeni wektorowej V . Oczywiście wybierając inną bazę otrzymujemy inną parametryzację. Wśród interesujących pytań, którymi zajmuje się algebra liniowa, następujące pytanie należy do najważniejszych: „Jak wyliczyć nowe parametry danego elementu v, gdy znamy stare?”. Odpowiedź na takie pytania będziemy w przyszłości szczegółowo analizowali w odniesieniu do różnych możliwych parametryzacji wektorów stycznych w ogólnej sytuacji geometrycznej. Wymiarem przestrzeni afinicznej A nazywa się wymiar jej przestrzeni stycznej. A zatem płaszczyzna euklidesowa — środowisko, w którym odgrywa się akcja planimetrii euklidesowej — to dwuwymiarowa przestrzeń afiniczna, którą będziemy oznaczali: (A2 , V 2 , +) lub, gdy nie prowadzi to do nieporozumień, po prostu jako A2 . Natomiast euklidesowa stereometria to teoria dotycząca trójwymiarowej przestrzeni afinicznej, oznaczanej jako (A3 , V 3 , +), lub po prostu jako A3 . Nic nie stoi na przeszkodzie, by wyobrazić sobie przestrzeń afiniczną dowolnego, skończonego wymiaru n ∈ N. Oznaczamy ją jako An . Do parametryzacji jej punktów potrzebujemy aż n współrzędnych! W latach sześćdziesiątych ubiegłego wieku mówiło się, że pani profesor Wanda Szmielew, która prowadziła wykłady z geometrii na Uniwersytecie Warszawskim, potrafi wyobrazić sobie nawet siedem wymiarów, natomiast profesor Karol Borsuk, gdy się mocno skoncentruje, dociąga nawet do dziesięciu! Jednak ten płaski dowcip zupełnie zaciemnia istotę rzeczy. Przecież bardzo łatwo wyobrazić sobie przestrzeń wielowymiarową jako zbiór wszystkich konfiguracji takiego układu fizycznego, do których opisu potrzeba wielu parametrów. I tak, o ile położenie planety w polu sił grawitacyjnych Słońca można było modelować położeniem punktu w trójwymiarowej przestrzeni euklidesowej A3 , to znaczy używać trzech parametrów, jak to uczynił Newton3 , aby jednak opisać dodatkowo ruch Księżyca musimy dodać jeszcze jego trzy współrzędne. W ten sposób przekonujemy się, że konfiguracje układu „Ziemia + Księżyc” tworzą przestrzeń sześcio-wymiarową. Ogólniejszego przykładu dostarcza nam fabryka chemiczna, w której kotłach odbywają się jakieś skomplikowane procesy, sterowane od pulpitu przy pomocy 25 pokręteł. Przy ich pomocy ustala się np. 25 parametrów produkcji, takich jak temperatura, ciśnienie czy stężenia interesujących nas substancji w poszczególnych kotłach, a także regulowane przekroje łączących je rur, czy też wydajności licznych pomp napędzających przepływy między nimi. Konfiguracje tego skomplikowanego układu stanowią więc przestrzeń 25-cio wymiarową, natomiast wydajność odbywającego się tam procesu chemicznego może być traktowana jako funkcja na tej przestrzeni. Ten prosty przykład zachęca nas, by nie obawiać się przestrzeni o większym wymiarze, a także funkcji określonych na tych przestrzeniach. Stanowić one będą podstawowy budulec teorii, której poświęcony jest niniejszy wykład. 3

W analizie problemu Keplera można dość łatwo pokazać, że orbita jest płaska, to znaczy pozostaje przez cały czas w pewnej dwuwymiarowej płaszczyźnie przechodzącej przez centrum działających sił grawitacyjnych (położenie Słońca). Zatem rachunek wykonany przez Newtona dotyczy nawet nie w A3 , ale w A2 .

18

2.4

Współrzędne prostoliniowe w przestrzeni afinicznej

Idea parametryzacji, to znaczy lokalizowania punktu w wielowymiarowej przestrzeni na podstawie znajomości jego współrzędnych, wiązana jest zazwyczaj z nazwiskiem Kartezjusza i z pojęciem „współrzędnych Kartezjańskich”. W najprostszym, afinicznym wydaniu polega ona na rozważaniu odwzorowania: n

R ∋ τ → κ(τ ) = y := x +

n X

k=1

τ k ek ∈ An .

(11)

Każdemu zestawowi n współrzędnych τ = (τ k ), gdzie k = 1, 2, . . . , n; przypisany jest jedno-jednoznacznie punkt y = κ(τ ) parametryzowanej przestrzeni powstały, jak wynika to z powyższej formuły, przez przesunięcię ustalonego punktu x ∈ An o wektor v=

n X

τ k ek .

k=1

Klauzula „ jedno-jednoznaczności” oznacza, że znając wartości współrzędnych znamy odpowiadający im punkt przestrzeni, ale i na odwrót: każdemu punktowi y przestrzeni odpowiada jednoznacznie zestaw jego n współrzędnych, to znaczy punkt modelowej przestrzeni liczbowej Rn . Są to po prostu współrzędne wektora v = y − x w bazie ek . Zwróćmy uwagę na stosowany tutaj zapis: τ = (τ k ) , (12) który oznacza, że punkt przestrzeni liczbowej Rn to nic innego jak zestaw jego współrzędnych. Odwzorowanie κ dane formułą (11) będziemy nazywali parametryzacją, zaś odwrotne doń: An ∋ y → κ−1 (y) = (τ k ) ∈ Rn , (13) przypisujące punktowi zestaw jego współrzędnych, mapą lub układem współrzędnych. Do jego konstrukcji potrzebne są nam następujące dwa składniki: 1. dowolny punkt x ∈ An przestrzeni, który nazywamy „początkiem układu współrzędnych” 2. dowolna baza e = (ek ), gdzie k = 1, 2, . . . , n, przestrzeni wolnych wektorów V n , której elementy nazywamy „osiami współrzędnych”. W odróżnieniu od konstrukcji „prawdziwego” układu Kartezjańskiego, nie zakładamy tutaj żadnej „ortonormalności” używanej bazy, to znaczy tego, że wektory ek mają „ jednostkową długość” lub że są „wzajemnie prostopadłe”. Nie zakładamy, bo nie mamy do tego celu żadnego narzędzia! Nie wiemy bowiem jak w dowolnej przestrzeni wektorowej mierzyć długość wektorów czy też kąty między nimi. Aby opisywać takie własności wektorów potrzebna nam będzie struktura metryczna, które to narzędzie poznamy dopiero w dalszym ciągu niniejszego wykładu. Obecnie jedyną strukturą rozważanej przestrzeni stycznej V jest struktura wektorowa. Aby uniknąć nieporozumień, układy współrzędnych uzyskane w przestrzeni afinicznej przy pomocy konstrukcji (11) będziemy nazywali „prostoliniowymi”, a nie „Kartezjańskimi”. 19

2.5

Wektor zaczepiony w punkcie jako operator różniczkowy

Do przybliżonego opisu wielu zjawisk fizycznych, technicznych, ekonomicznych czy społecznych wystarczają nam modele liniowe oparte na założeniu, że skutek jest proporcjonalny do przyczyny. W takich modelach do parametryzacji przestrzeni opisujących konfiguracje rozważanych układów wystarczą współrzędne liniowe, zaś zależności między parametrami kontroli (np. tymi, których wartość regulowana jest za pomocą 25 pokręteł na konsoli sterowniczej operatora w fabryce chemicznej) a parametrami odpowiedzi (np. wydajnością sterowanej w ten sposób reakcji chemicznej) dane są w postaci odwzorowań liniowych. W takich sytuacjach wystarczają nam współrzędne prostoliniowe. Pozwalają one efektywnie wyznaczyć współrzędne wektora v = y − x, o początku w x i końcu w y, zgodnie z konwencją przyjętą we wzorze (5). Po prostu odejmujemy współrzędne (xk ) punktu początkowego strzałki x od współrzędnych (y i) jej punktu końcowego y: v k = y k − xk .

(14)

Rozmaite pytania (dotyczące np. optymalizacji opisywanych procesów) polegają w takich teoriach na rozwiązywaniu układów równań liniowych. Używane w tym celu narzędzia matematyczne należą do algebry. Jednak prawdziwa geometria rozpoczyna się wtedy, gdy mamy opisać zjawiska nieliniowe, w których skutek nie jest proporcjonalny do przyczyny, lecz wyraża się funkcją nieliniową. Do analizy takich zjawisk — jak to widzieliśmy już na przykładzie problemu Keplera — nie wystarczają już współrzędne prostoliniowe, lecz zmuszeni jesteśmy używać ogólniejszych, „krzywoliniowych” układów współrzędnych, jak współrzędne sferyczne w A3 , dane wzorami (2) czy (3). Odejmowanie od siebie wartości współrzędnych sferycznych początku i końca strzałki, a następnie identyfikowanie na tej podstawie odpowiadającego im wektora, nie ma tu żadnego sensu. Widać, że na użytek teorii nieliniowych potrzebna jest jakaś inna, lepsza definicja wektora stycznego, lepiej przystosowana do pracy w krzywoliniowych układach współrzędnych. Okazuje się, że taka definicja wynika z interpretacji wektora zaczepionego w punkcie x jako różniczkowania, czyli operatora różniczkowego pierwszego rzędu. Pokażemy teraz, że taka interpretacja jest rzeczywiście możliwa. Weźmy wektor v ∈ V n i punkt x ∈ An . Para (x, v), czyli wektor zaczepiony w punkcie x, wyznacza operator różniczkowy vx pierwszego rzędu „zaczepiony w punkcie x”, działający na funkcje różniczkowalne określone na An w otoczeniu punktu x. Wartość tego operatora na danej funkcji f ∈ C 1 (An ) jest równa pochodnej kierunkowej tej funkcji w kierunku wektora v, obliczonej w punkcie x: C 1 (A) ∋ f −→ vx (f ) := f ′ (x) · v = ∇v f (x) ∈ R1 . (15)

Oba symbole: f ′ (x) · v oraz ∇v f (x) są równorzędnie używane w literaturze i oznaczają następującą wielkość: f (x + ǫv) − f (x) vx (f ) = lim . (16) ǫ→0 ǫ Symbol C 1 (A) oznacza przestrzeń funkcji jeden raz różniczkowalnych w sposób ciągły na przestrzeni An , wyposażoną w topologię zbieżności jednostajnej wraz z pierwszymi pochodnymi. 20

Z własności pochodnej, które studiujemy na wykładzie z analizy matematycznej, wynikają następujące własności tego operatora: 1. liniowość: vx (αf + βg) = αvx (f ) + βvx (g), 2. ciągłość: jeśli ciąg funkcji fn ∈ C 1 (A) jest zbieżny do f0 ∈ C 1 (A) (w topologii C 1 , tzn. jednostajnie, wraz z pierwszymi pochodnymi) to vx (fn ) zbiega do vx (f0 ), 3. reguła Leibniza: vx (f g) = f (x)vx (g) + g(x)vx (f ). Ostatnią formułę znamy z kursu Analizy Matematycznej jako wzór na pochodną iloczynu funkcji. Określenie „operator zaczepiony w punkcie x” odnosi się do tego, że we wzorze tym pojawiają się wartości funkcji f i g obliczone właśnie w tym punkcie. Okazuje się, że powyższe własności można przyjąć za aksjomaty definiujące wektor styczny do przestrzeni afinicznej i zaczepiony w punkcie x: Twierdzenie 1: Każdy operator różniczkowy pierwszego rzędu zaczepiony w x, to znaczy odwzorowanie vx : C 1 (An ) 7→ R ,

spełniające powyższe trzy aksjomaty, jest powyższego typu, tzn. jest zadany przez pewien wektor styczny, zaczepiony w punkcie x ∈ An , tzn. parę (x, v), gdzie v ∈ V n .

Zanim przejdziemy do dowodu tego twierdzenia uczynimy znów pewną uwagę na temat notacji stosowanej w tym dowodzie, a potem również w całym wykładzie. Używając współrzędnych prostoliniowych κ(τ ) = x +

n X

τ k ek ,

(17)

k=1

będziemy rozważali funkcję zależną od współrzędnych Rn ∋ (τ k ) = τ → f (κ(τ )) ∈ R .

(18)

Taka funkcja f ◦ κ, będąca superpozycją f oraz parametryzacji κ, której wartość może wyrażać się na przykład za pomocą wielomianów, funkcji wymierych, trygonometrycznych, wykładniczych, logarytmicznych, czy też może jeszcze ogólniejszych, od wartości współrzędnych τ k , podlega badaniu metodami analizy matematycznej. Tymczasem sama funkcja f jest określona na abstrakcyjnej przestrzeni An i trudno badać ją bez konkretnej parametryzacji punktów x ∈ Ak przy pomocy konkretnych współrzędnych o wartościach liczbowych. Będziemy zatem stosowali parametryzację, a cała sztuka polegać ma na tym, żeby wyciągane wnioski nie zależały od jej wyboru. Można powiedzieć, że funkcja zmiennych rzeczywistych f ◦ κ jest „konkretyzacją” abstrakcyjnej funkcji f . Podkreślamy, że podstawowymi obiektami są: abstrakcyjna przestrzeń An i funkcje określone właśnie na niej. Jednak możliwość wykonywania konkretnych obliczeń zawdzięczamy stosowaniu ich „konkretyzacji”. Jednak okazuje się, że bardzo często wygodnie będzie oznaczać liczbową konkretyzację „f ◦ κ” abstrakcyjnej funkcji f tą samą literą. Na przykład 21

pisząc symbol pochodnej cząstkowej funkcji f po zmiennej τ k mamy na myśli to, że została wybrana pewna parametryzacja κ, a następnie obliczona pochodna funkcji f ◦ κ względem współrzędnej (τ k ): ∂ ∂ f (x) := f (κ(τ )) . ∂τ k ∂τ k −1 τ =κ (x)

Utożsamianie funkcji „f ” z funkcją „f ◦ κ” wygląda z punktu widzenia „analityka matematycznego” na poważne nadużycie. Jeśli „funkcja” to jej forma analityczna (na przykład funkcja logarytmiczna) to oba te obiekty są czymś zupełnie różnym i utożsamianie ich jest nonsensem. Warto jednak przyjąć zaproponowany wyżej punkt widzenia, według którego funkcja f to wielkość fizyczna, której wartości są przypisane punktom badanej przestrzeni, zaś f ◦ κ to jej konkretyzacja, bowiem zysk w postaci kolosalnego uproszczenia notacji jest ogromny! Mając to na uwadze przejdziemy do dowodu tego fundamentalnego twierdzenia. Dowód Twierdzenia W otoczeniu punktu x funkcję f można rozłożyć w szereg Taylora: n f (κ(τ )) = f (x) +

X

τ k ak + R(τ ),

(19)

k=1

gdzie R jest „resztą rzędu wyższego niż 1”, to znaczy funkcją, która znika w zerze wraz ze swymi pochodnymi pierwszego rzędu. Współczynniki rozwinięcia ak są dane ze wzoru Taylora, jako wartości odpowiednich pochodnych funkcji f w punkcie x:

d ∂ i f (x + τ e ) =: f (x) . ak = i dτ k ∂τ k τ =0

(20)

Wykażemy teraz, że operator różniczkowy vx daje wynik równy zeru, gdy zastosować go do pierwszego (stałego) wyrazu w powyższym rozwinięciu (19) funkcji f . Wynika to z poniższego lematu: Lemat. vx (1) = 0 , gdzie 1 oznacza tutaj funkcję stałą o wartości równej 1. Dowód. Stosując regułę Leibniza mamy: vx (1) = vx (1 · 1) = vx (1) + vx (1).  Stosując ten lemat do dowolnej funkcji stałej f (τ ) ≡ c ≡ c · 1(τ ) otrzymujemy z liniowości vx (c) = cvx (1) = 0. Czyli vx znika na pierwszym wyrazie rozwinięcia (19). Okazuje się, że vx znika również na trzecim wyrazie rozwinięcia, bowiem – jak za chwilę pokażemy – znika na dowolnej funkcji której wartość w x oraz wartość wszystkich jej pierwszych pochodnych w x jest równa zeru. W trakcie dowodu będzie nam potrzebna dowolna funkcja ψ zmiennej rzeczywistej, o następujących własnościach: 1. ψ(t) ≡ 1 dla t ¬

1 2

2. ψ(t) ≡ 0 dla 1 ¬ t 3. ψ jest funkcją klasy C 1 .

22

Istnienie takich funkcji (nawet klasy C ∞ ) było wykazane na wykładzie z analizy matematycznej. Możemy teraz wykazać następujący Lemat. Operator vx ma własność lokalności: jeśli dwie funkcje f i g są sobie równe w pewnym otoczeniu punktu x to vx ich nie rozróżnia, tzn. vx (f ) = vx (g). Dowód. Rozważamy funkcję h := f − g, która znika w pewnym otoczeniu punktu x, tzn. – w języku współrzędnych (τ i ) – w pewnym otoczeniu zera. Weźmy tak małą liczbę ǫ > 0, by to otoczenie zawierało kulę o promieniu ǫ w tych współrzędnych, to znaczy zbiór: i

K(0, ǫ) = {(τ )|

n X

(τ k )2 < ǫ2 } .

(21)

||τ || ), ǫ

(22)

k=1

Jeśli teraz położyć ψǫ (τ ) := ψ( gdzie ||τ || =

v u n uX t (τ k )2

,

(23)

k=1

to ψǫ zeruje się tożsamościowo poza tym otoczeniem. A zatem funkcja h · ψǫ zeruje się tożsamościowo, bowiem h znika w epsilonowym otoczeniu zera zaś ψǫ – poza nim. Mamy więc: 0 = vx (0) = vx (h · ψǫ ) = vx (h)ψǫ (0) + vx (ψǫ )h(0) = vx (h) = vx (f ) − vx (g) ,

(24)

co kończy dowód lokalności operatora vx .  Aby wykazać, że vx (R) = 0 rozważymy teraz ciąg funkcji Rǫ := R · ψǫ . Ponieważ ψǫ jest równa jedności w pewnym otoczeniu zera, to Rǫ pokrywa się z R w tym otoczeniu. Z lokalności wynika zatem: vx (Rǫ ) = vx (R). Łatwo jednak udowodnić, że gdy R i jej pochodne znikają w zerze, to ciąg funkcji Rǫ zbiega do zera w sensie C 1 , to znaczy zachodzi: lim Rǫ = 0 . ǫ→0

Z ciągłości operatora vx mamy zatem: 0 = lim vx (Rǫ ) = lim vx (R) = vx (R) . ǫ→0

ǫ→0

(25)

Ze znikania vx na pierwszym i ostatnim wyrazie rozwinięcia (19) funkcji f wynika, że pozostaje jedynie jej wartość na środkowym, liniowym wyrazie: vx (f ) = vx (

n X

k

τ ak ) =

k=1

n X

ak vx (τ k ) .

(26)

k=1

Oznaczmy wynik działania operatora vx na funkcji liniowej τ k jako v k := vx (τ k ) . 23

(27)

Wiemy jednak (patrz formuła (20)), że współczynniki ak są równe pochodnym cząstkowym funkcji f . Otrzymujemy więc:

n n X X ∂ d vx (f ) = v k k f (x) = f (x + ǫ( v k ek )) = f ′ (x) · v k ek ∂τ dǫ k=1 k=1 k=1 ǫ=0 n X

!

(28)

a zatem vx jest rzeczywiście operatorem różniczkowania w kierunku wektora v=

n X

v k ek .

k=1

 Widzimy, że składowe v tego wektora w bazie e = (ek ) można otrzymać jako wynik działania operatora vx na funkcje liniowe τ k w tej parametryzacji. Od tej pory będziemy identyfikować operator różniczkowy pierwszego rzędu vx z wektorem v, w którego kierunku ten operator różniczkuje, zaczepionym w punkcie x. W szczególności pochodna cząstowa ∂ będzie identyfikowana z k-tym wektorem bazy: ∂τ k k

∂ . ∂τ k Gdy nie prowadzi to do nieporozumień, będziemy skracać notację pisząc jąc identyfikacji (29) piszemy zatem:

(29)

ek =

vx =

n X

k=1

vk

∂ ∂ =: v k k = v k ∂k . k ∂τ ∂τ

∂ ∂τ k

= ∂k . Używa(30)

W ostatniej równości po raz pierwszy zastosowaliśmy konwencję sumacyjną Einsteina polegającą na tym, że jeśli w danym wzorze ten sam wskaźnik pojawia się dwa razy: raz na dole i raz na górze, to należy rozumieć, że przed całym wyrażeniem stoi znak sumowania po wszystkich możliwych wartościach tego wskaźnika. Możliwość opuszczania znaku sumy znacznie upraszcza wzory i – jak się okazuje – nie prowadzi do żadnych nieporozumień, jeśli tylko poprawnie stosujemy konwencję Einsteina. Będziemy ją konsekwentnie stosowali w niniejszym wykładzie.

2.6

Współrzędne wektora w krzywoliniowym układzie współrzędnych

W trójwymiarowej przestrzeni afinicznej A3 rozważmy układ współrzędnych prostoliniowych (x, y, z) zbudowany poprzez wybór środka układu x oraz bazę przestrzeni stycznej złożoną z trzech osi: (ex , ey , ez ). Wektory te mogą być utożsamiane z odpowiadającymi im operatorami różniczkowymi: ∂ = ex , ∂x ∂ = ey , ∂y ∂ = ez . ∂z 24

Jednak nic nie stoi na przeszkodzie, by posługiwać się współrzędnymi krzywoliniowymi. Dla zilustrowania weźmy współrzędne sferyczne (r, θ, ϕ) związane z poprzednimi w następujący sposób: x = r sin θ cos ϕ , y = r sin θ sin ϕ , z = r cos θ .

(31)

∂ ∂ ∂ Odpowiadające im operatory różniczkowe pierwszego rzędu: ∂r , ∂θ , ∂ϕ też są jakimiś wek3 torami tej samej przestrzeni V , zatem muszą być kombinacjami liniowymi wektorów poprzedniej bazy. Aby znaleźć zależność między dwiema bazami musimy stare współrzędne wyrazić przez nowe, to znaczy rozważyć funkcję złożoną nowych zmiennych:

f (x(r, θ, ϕ), y(r, θ, ϕ), z(r, θ, ϕ)) . Z twierdzenia o różniczkowaniu superpozycji otrzymujemy natychmiast: ∂x ∂ ∂y ∂ ∂z ∂ ∂ = + + , ∂r ∂r ∂x ∂r ∂y ∂r ∂z ∂ ∂x ∂ ∂y ∂ ∂z ∂ = + + , ∂θ ∂θ ∂x ∂θ ∂y ∂θ ∂z ∂ ∂x ∂ ∂y ∂ ∂z ∂ = + + . ∂ϕ ∂ϕ ∂x ∂ϕ ∂y ∂ϕ ∂z

(32) (33) (34)

Wykonując odpowiednie różniczkowania starych zmiennych po nowych otrzymujemy: ∂ ∂ ∂ ∂ = sin θ cos ϕ + sin θ sin ϕ + cos θ ∂r ∂x ∂y ∂z x ∂ y ∂ z ∂ x y z = + + = ex + ey + ez , r ∂x r ∂y r ∂z r r r ∂ ∂ ∂ ∂ = r cos θ cos ϕ + r cos θ sin ϕ − r sin θ ∂θ ∂x ∂y ∂z q zx zy =√ 2 ex + √ 2 ey − x2 + y 2 ez , x + y2 x + y2 ∂ ∂ ∂ = −r sin θ sin ϕ + r sin θ cos ϕ ∂ϕ ∂x ∂y = −y ex + x ey .

(35)

(36)

(37)

∂ ∂ ∂ Wektory ∂r , ∂θ , ∂ϕ stanowią bazę przestrzeni stycznej V 3 a powyższa relacja między ∂ ∂ ∂ nimi a wyjściową bazą ∂x , ∂y , ∂z jest odwracalna. Zresztą twierdzenie o pochodnej super-

25

pozycji, z którego wynikają relacje (32) – (34), natychmiast implikuje relację odwrotną: ∂ ∂r ∂ ∂θ ∂ ∂ϕ ∂ = + + , ∂x ∂x ∂r ∂x ∂θ ∂x ∂ϕ ∂ ∂r ∂ ∂θ ∂ ∂ϕ ∂ = + + , ∂y ∂y ∂r ∂y ∂θ ∂y ∂ϕ ∂ ∂r ∂ ∂θ ∂ ∂ϕ ∂ = + + . ∂z ∂z ∂r ∂z ∂θ ∂z ∂ϕ

(38) (39) (40)

Jak widać, odwracalność tej relacji wynika z odwracalności macierzy:    

∂x ∂r ∂y ∂r ∂z ∂r

∂x ∂θ ∂y ∂θ ∂z ∂θ

∂x ∂ϕ ∂y ∂ϕ ∂z ∂ϕ

   

.

(41)

A to z kolei wynika z faktu, że obie parametryzacje są regularne, a zatem zamiana jednej na drugą: R3 ⊃ U ∋ (r, θ, ϕ) → (x, y, z) ∈ R3 , (42) jest odwzorowaniem odwracalnym. Owzorowanie to nie jest określone globalnie, to znaczy na całej przestrzeni R3 , a jedynie na pewnym jej zbiorze otwartym U ⊂ R3 , odpowiadającym dziedzinie zmienności naszych współrzędnych (r, θ, ϕ). W naszym przypadku: U = {(r, θ, ϕ) ∈ R3 | r > 0 ; 0 < θ < π ; 0 < ϕ < 2π} . Jak widać, musimy pominąć: 1) środek układu współrzędnych, odpowiadający wartości r = 0; 2) oś współrzędnej „z”, odpowiadającą wartościom θ = 0 oraz θ = π; a także 3) „linię zmiany daty”, na której następuje skok długości geograficznej ϕ o wartość 2π. Ustawienie linii daty w półpłaszczyźnie P = {(x, y, z) ∈ R3 | y = 0 ; x > 0} , jest oczywiście sprawą konwencji. W geografii dominuje „europocentryczny” punkt widzenia, w którym odsuwamy tę niewygodną linię daleko na Pacyfik, tzn. na przeciwległą półpłaszczyznę, odpowiadającą wartościom x < 0. Przyjmijmy jednak dla prostoty, że współrzędne sferyczne są określone na zbiorze otwartym W = R3 \ P . Macierz (41) jest pochodną (macierzą Jacobi’ego) odwzorowania (42). Macierz do niej odwrotna jest pochodną odwzorowania odwrotnego: R3 ⊃ W ∋ (x, y, z) → (r, θ, ϕ) ∈ R3 .

(43)

Jej elementy są dane przez następujące pochodne cząstkowe:    

∂r ∂x ∂θ ∂x ∂ϕ ∂x

∂r ∂y ∂θ ∂y ∂ϕ ∂y

26

∂r ∂z ∂θ ∂z ∂ϕ ∂z

   

.

(44)

∂ ∂ ∂ Powyższa argumentacja to właśnie dowód faktu, iż wektory ∂r , ∂θ , ∂ϕ stanowią bazę ∂ ∂ ∂ przestrzeni stycznej. W dowodzie tym odwołujemy się do innej bazy ∂x , ∂y , ∂z , wyznaczonej przez współrzędne prostoliniowe (x, y, z). Jednak odwołanie takie nie jest wcale konieczne! Z punktu widzenia struktury przestrzeni wektorów zaczepionych w jednym punkcie, współrzędne prostoliniowe wcale nie są „lepsze” od jakichkolwiek innych współrzędnych. Aby się o tym przekonać wystarczy od początku rozważać „konkretyzację” funkcji f odpowiadającą zmiennym sferycznym. I wtedy dowód Twierdzenia 1. z poprzedniego paragrafu stosuje się bez żadnych zmian. Jako tezę otrzymujemy fakt, iż każdy operator różniczkowy vx jest ∂ ∂ ∂ kombinacją liniową operatorów er = ∂r , eθ = ∂θ oraz eϕ = ∂ϕ . Wektory te można sobie wyobrażać jako wektory styczne do odpowiedniej linii, na której jedna ze współrzędnych zmienia się, podczas gdy pozostałe współrzędne pozostają stałe. A zatem er jest wektorem radialnym, stycznym do linii współrzednej r danej równaniami:

θ = const. ,

ϕ = const.

na której współrzędna r odgrywa rolę parametru. W terminach geograficznych jest to wektor prostopadły do powierzchni globu. Podobnie wektor eθ jest styczny do „linii współrzędnej θ”, czyli do południka danego równaniami r = const. ,

ϕ = const. ,

natomiast eϕ jest wektorem stycznym do równoleżnika. Korzystając z powyższych intuicji możemy teraz rozważyć sytuację ogólną, gdy punkty przestrzeni afinicznej An są sparametryzowane przy pomocy jakiegokolwiek — niekoniecznie prostoliniowego — układu współrzędnych. Rozważamy zatem sytuację, gdy dysponujemy parametryzacją, to znaczy odwzorowaniem: Rn ⊃ U ∋ (xk ) → κ(xk ) = x ∈ O ⊂ An .

(45)

W tym miejscu (xk ) = (x1 , x2 , . . . , xn−1 , xn ) oznacza zestaw wartości wszystkich współrzędnych punktu κ(xk ) naszej przestrzeni. Podobnie jak w przypadku omawianych wyżej współrzędnych sferycznych, ten układ współrzędnych nie musi być globalny, a wystarczy by był lokalny. Oznacza to, że zakres zmienności współrzędnych może być ograniczony do pewnego zbioru otwartego U w przestrzeni parametrów. Podkreślam, że parametryzacja punktu x współrzędnymi (xk ) jest jednoznaczna, to znaczy że κ jest odwzorowaniem odwracalnym. Odwzorowanie odwrotne oznaczamy symbolem: An ⊃ O ∋ x → κ−1 (x) = (xk ) ∈ U ⊂ Rn , (46) i nazywamy mapą lub układem współrzędnych. Ono również nie musi być globalne, tzn. określone na całej przestrzeni An , a jedynie na jej podzbiorze O = κ(U). Niech vx będzie teraz operatorem różniczkowym pierwszego rzędu zaczepionym w punkcie x ∈ O i działającym na funkcje z przestrzeni C 1 (An ), określone w otoczeniu punktu x. Zastępując współrzędne (τ k ), używane w Twierdzeniu 1, przez współrzędne (xk ) dowodzimy następującego twierdzenia: 27

Twierdzenie 2: Operator vx jest kombinacją liniową operatorów ∂x∂ k , a konkretnie zachodzi wzór: ∂ vx = v k k , (47) ∂x gdzie współczynniki v k są równe wartości operatora vx na poszczególnych współrzędnych xk traktowanych jako funkcje na naszej przestrzeni Ak : v k = vx (xk ) .

(48)

Uwaga: We wzorze (47) znów zastosowaliśmy konwencję sumacyjną Einsteina. Oznacza to, że jego prawa strona jest sumą odpowiednich wyrażeń odpowiadających wszystkim kolejnym wartościom indeksu k = 1, 2, . . . , n. Występujące w tej sumie współczynniki (48) będziemy nazywali „współrzędnymi wektora vx w bazie ∂x∂ k ”.

2.7

Zmiana współrzędnych wektora odpowiadająca zmianie układu współrzędnych

Gdy zmienimy parametryzację (45) na inną: e ⊂ An , e (y l ) = x ∈ O Rn ⊃ Ue ∋ (y l ) → κ

(49)

e to w punktach pokrywanych przez obie parametryzacje,    tzn. należących do zbioru O ∩ O, ∂ ∂ można używać równorzędnie obu baz: ∂xk oraz ∂yl :

∂ ∂ = vel l . (50) k ∂x ∂y Związek między obiema bazami wynika z obliczenia macierzy Jacobi’ego funkcji złożonej vx = v k

a mianowicie

e ∋ (y l ) → f (xk (y l )) ∈ R , e (O ∩ O) Rn ⊃ κ n X ∂ ∂xk ∂ ∂xk ∂ = = l k ∂y l ∂y l ∂xk k=1 ∂y ∂x

!

.

(51)

(Ostatnią wersję wypisaliśmy dla kolejnego przypomnienia o konwencji sumacyjnej.) Odwrotna relacja dana jest wzorem: n X ∂ ∂y l ∂ ∂y l ∂ = = k l ∂xk ∂xk ∂y l l=1 ∂x ∂y

!

.

(52)

Wstawiając to ostatnie wyrażenie do (50) otrzymujemy: vx = v k

l ∂ ∂ k ∂y ∂ = v = vel l . k k l ∂x ∂x ∂y ∂y

(53)

Ponieważ współrzędne wektora w bazie ( ∂y∂ l ) są dane jednoznacznie, zatem ostatnia równość implikuje następujące prawo transformacyjne dla współrzędnych wektora: ∂y l . (54) ∂xk Od tej pory przestaniemy już przypominać o konwencji sumacyjnej, która stale obowiązuje. vel = v k

28

2.8

Rozmaitości różniczkowe zanurzone w przestrzeni afinicznej. Przestrzeń styczna

Powierzchnię krzywą w trójwymiarowej przestrzeni euklidesowej definiuje się często jako zbiór rozwiązań jakiegoś równania. Na przykład sfera o promieniu R > 0 wokół środka układu współrzędnych (0, 0, 0) w przestrzeni sparametryzowanej zmiennymi Kartezjańskimi (x, y, z) to zbiór rozwiązań równania G(x, y, z) = x2 + y 2 + z 2 − R2 = 0 .

(55)

Intuicyjnie czujemy, że z trzech wymiarów jeden został „ustalony równaniem” zatem pozostał nam obiekt dwuwymiarowy. Gdyby natomiast dodać jeszcze jedno równanie: H(x, y, z) = z = 0 .

(56)

to „ustalony” zostałby jeszcze jeden wymiar, zatem zbiór rozwiązań układu dwóch równań  G(x, y, z)

=0 H(x, y, z) = 0

(57)

powinien być obiektem jednowymiarowym. I rzeczywiście: zbiór ten jest równikiem sfery, czyli okręgiem o promieniu R, leżącym na płaszczyźnie „xy”. Miejsce geometryczne punktów spełniających oba te równania jest po prostu przecięciem zbioru rozwiązań pierwszego równania, czyli sfery, ze zbiorem rozwiązań drugiego równania, czyli płaszczyzny równikowej. Takie naiwne rozważania można natychmiast sprowadzić do absurdu następującym kontrprzykładem. Jeśli H(x, y, z) = x2 + y 2 + (z − 2R)2 − R2 = 0 ,

(58)

to zbiorem rozwiązań równania H(x, y, z) = 0 znów jest sfera o promieniu R, ale o środku w punkcie (0, 0, 2R). Punktem wspólnym tych dwóch sfer, czyli jedynym rozwiązaniem układu dwóch równań (57), jest punkt (0, 0, R), to znaczy obiekt „zero-wymiarowy” a nie żadna jednowymiarowa krzywa. Można też podać przykład działający „w drugą stronę”, gdy rozwiązanie układu dwóch równań w trójwymiarowej przestrzeni jest obiektem dwuwymiarowym. Dzieje się tak, gdy oba równania wyróżniają te same punkty. Wystarczy wziąć H = G2 , lub ogólniej H = f ◦G, gdzie f jest funkcją rzeczywistą o jedynym miejscu zerowym równym zeru. W takiej sytuacji powiemy, że równania G = 0 oraz H = 0 nie są niezależne, bo H jest funkcją G, a więc nic dziwnego, że drugie nie niesie żadnej nowej informacji w stosunku do pierwszego. Chcemy uniknąć takich sytuacji i rozważać jedynie takie układy równań, które są od siebie niezależne. W przypadku równań liniowych pojęcie niezależności układu równań oznaczało, że ich lewe strony są liniowo niezależne jako wektory odpowiedniej przestrzeni wektorowej4 . 4

W algebrze ten termin oznacza, że jedyna ich kombinacja liniowa, która jest tożsamościowo równa zeru, to taka, której wszystkie współczynniki są równe zeru.

29

–1

1

Rysunek 8: Lemniskata Bernoulliego. Tymczasem w geometrii mamy na ogół do czynienia z równaniami nieliniowymi, dla których pojęcie liniowej niezależności jest nieprzydatne: przecież G i G2 są liniowo niezależne jako funkcje, tymczasem równania G = 0 oraz G2 = 0 są zdecydowanie zależne w tym sensie, że drugie nie niesie żadnej nowej informacji w stosunku do pierwszej. Okazuje się, że jest proste wyjście z tej sytuacji: równania Gi (x) = 0 będziemy uważać za niezależne wtedy, gdy różniczki funkcji Gi (x) są liniowo niezależne. Taka definicja dyskwalifikuje układ równań  x2

+ y 2 + z 2 − R2 = 0 x2 + y 2 + (z − 2R)2 − R2 = 0

bowiem natomiast

(59)

d(x2 + y 2 + z 2 − R2 ) = 2(xdx + ydy + zdz) , d(x2 + y 2 + (z − 2R)2 − R2 ) = 2(xdx + ydy + (z − 2R)dz) .

Wynika stąd, że w punkcie (0, 0, R), będącym rozwiązaniem układu (59), pierwsza różniczka jest równa 2Rdz, natomiast druga jest równa −2Rdz, czyli są one liniowo zależne: jedna jest równa minus drugiej. Również równanie zero-wymiarowej „sfery o promieniu równym 0”: G(x, y, z, ) = x2 + y 2 + z 2 = 0 , jest wykluczone warunkiem liniowej niezależności różniczek, bowiem dG(0, 0, 0) = 0 w punkcie (0, 0, 0) będącym jego jedynym rozwiązaniem. Warunek ten wyklucza również innego rodzaju patologie, polegające na „samoprzecinaniu się” rozwiązań. Jako przykład może służyć lemniskata Bernoulliego, czyli płaska krzywa na płaszczyźnie A2 opisana równaniem: F (x, y, z) = (x2 + y 2)2 − 2a2 (x2 − y 2) = 0 .

(60)

Jej wykres ma kształt położonej poziomo ósemki (zob. Rysunek 8). Prawie wszędzie jest ona gładka, jednak punkt (0, 0, 0) jest w jakimś sensie osobliwy: kierunek styczny do tej krzywej nie jest tu jednoznaczny. A dzieje się tak dlatego, że 



h

i

d (x2 + y 2 )2 − 2a2 (x2 − y 2 ) = 4 (x2 + y 2)(xdx + ydy) − a2 (xdx − ydy) , 30

a zatem dF = 0 w punkcie (0, 0, 0). Warunek liniowej niezależności różniczek funkcji, których wspólne miejsce zerowe chcemy badać, ma zatem następujące znaczenie geometryczne. Rozważmy zbiór rozwiązań Mi każdego z równań Gi = 0: An ⊃ Mi = {x ∈ An | Gi (x) = 0 } .

(61)

Oczywiście zbiór rozwiązań kilku z tych równań jest przecięciem (częścią wspólną) zbiorów rozwiązań poszczególnych równań: k \

i=1

Mi = {x ∈ An | G1 (x) = 0, . . . , Gk (x) = 0} .

(62)

Otóż warunek niezależności różniczek tych funkcji oznacza, że dokładaniu kolejnych równań odpowiada przecinanie zbioru ich rozwiązań z kolejną powierzchnią Mi w regularny (to znaczy transwersalny) sposób. Tej właśnie transwersalności brakowało w przykładzie (59), gdzie punkt wspólny obu kul był punktem ich styczności, a nie prawdziwego, transwersalnego przecięcia. Uwzględniając powyższe, heurystyczne uwagi przejmiemy w dalszym ciągu następującą definicję: Definicja. Rozmaitością różniczkowalną wymiaru m, klasy C l , dobrze zanurzoną w nwymiarowej przestrzeni afinicznej An , będziemy nazywali zbiór punktów M ⊂ An , zdefiniowany jako zbiór wszystkich rozwiązań układu równań:   G1 (x)   

przy czym:

=0 .. .    Gr (x) = 0

(63)

1. układ jest „regularny”, to znaczy, że w każdym punkcie x ∈ M zbiór różniczek (dGi (x)) funkcji Gi jest liniowo niezależny, 2. wymiar m oznacza, że zachodzi: m + r = n, czyli wymiar rozmaitości jest równy wymiarowi przestrzeni n minus liczba równań r, 3. klasa C l oznacza, że funkcje definiujące Gi są różniczkowalne co najmniej l razy w sposób ciągły. Zdefiniujemy teraz przestrzeń wektorów stycznych do rozmaitości M w punkcie x ∈ M. Dla dowolnego wektora v ∈ V n z przestrzeni stycznej do An rozważmy linię prostą wychodzącą z punktu x w kierunku tego wektora, to znaczy jednoparametrowy zbiór punktów R ∋ τ → x + τ v ∈ An . 31

Prosta ta na ogół „wystaje” z M, bowiem dla τ 6= 0 jej punkty nie spełniają już równań definiujących (63), choć spełnia je punkt wyjściowy odpowiadający wartości τ = 0. Rozwijając w szereg względem τ otrzymujemy jednak: D

E

Gi (x + τ v) = Gi (x) + τ · dGi (x), v + Ri (τ ) ,

(64)

gdzie symbol h·, vi oznacza wartość na wektorze v funkcji liniowej (tutaj akurat równej różniczce funkcji Gi w punkcie x). Pierwszy, człon powyższego rozwinięcia znika, bowiem punkt x należy do M, tzn. spełnia równania definiujące (63). Ostatni człon jest „resztą rzędu wyższego niż 1”, a więc jest bardzo mały dla małych wartości parametru τ . Widać więc, że decydujący jest drugi człon, liniowo zależny od parametru τ i dany przez pochodną funkcji Gi w kierunku wektora v. Wektory styczne do M to takie, które „najmniej wystają” z powierzchni M, a zatem takie, na których ta pochodna jest równa zeru. Wtedy co prawda warunki definiujące Gi = 0 nie są spełnione ściśle, ale błąd jest małą wyższego rzędu względem wartości parametru τ : Gi (x + τ v) = Ri (τ ) .

(65)

Powyższe rozważanie uzasadnia następującą definicję wektora stycznego do M. Definicja. Przestrzenią styczną do M w punkcie x ∈ M nazywamy wspólne jądro różniczek funkcji definiujących, to znaczy przestrzeń wektorową Tx M ⊂ V n , na której zerują się wszystkie te różniczki dGi (x): D

E

Tx M := {v ∈ V n | dGi (x), v = 0} .

(66)

Z regularności warunku definiującego wynika, że Tx M jest m-wymiarową podprzestrzenią wektorową przestrzeni V n . Przykład. Wektor v = v k ∂x∂ k ∈ V 3 jest styczny do sfery o promieniu R > 0: 2

(

k

3

S = (x ) ∈ A

G(xk )

=

3  X

k=1

 k 2

x

2

−R =0

)

(67)

w punkcie x = (xk ) wtedy i tylko wtedy gdy spełnia równanie hdG(x), vi = v k

3   X ∂ k k G(x) = 2 v x =0, ∂xk k=1

a więc jest „prostopadły” do samego „wektora wiodącego”, tzn. wektora o początku w środku układu współrzędnych i końcu w naszym punkcie x. W powyższym przykładzie posłużyliśmy się współrzędnymi prostoliniowymi x1 = x, 2 x = y oraz x3 = z. Opiszmy jednak ten sam fakt w zmiennych sferycznych (r, θ, ϕ). Wtedy równanie definiujące sfery wygląda następująco: n



S 2 = (r, θ, ϕ) ∈ A3 G(r, θ, ϕ) = r 2 − R2 = 0 32

o

.

(68)

Wektor v = vr

∂ ∂ ∂ + vθ + vϕ ∈ V3 ∂r ∂θ ∂ϕ

jest styczny do sfery w punkcie x = (R, θ, ϕ) wtedy i tylko wtedy gdy spełnia równanie hdG(x), vi = 2v r R = 0 , to znaczy gdy jego radialna składowa znika: v r = 0. A zatem jest on kombinacją wektorów: ∂ ∂ oraz równoleżnikowego ∂ϕ , które stanowią bazę tej przestrzeni. Mamy południkowego ∂θ zatem: ( ) ∂ ∂ Tx S 2 = v θ + vϕ . ∂θ ∂ϕ

2.9

Forma uwikłana a forma parametryczna rozmaitości zanurzonej

Wzór (67) definiuje sferę S 2 w formie uwikłanej, jako zbiór rozwiązań równania G(x) = 0. Można ją też zdefiniować parametrycznie, jako zbiór wszystkich punktów postaci: x = R sin θ cos ϕ , y = R sin θ sin ϕ , z = R cos θ ,

(69) (70) (71)

to znaczy takich, dla których jedna ze współrzędnych sferycznych, mianowicie współrzędna radialna r, przyjmuje ustaloną wartość r = R. Taka forma jest bardzo wygodna, bowiem pozostałe współrzędne (θ, ϕ) parametryzują punkty sfery. Funkcje określone na S 2 mogą być konkretyzowane jako funkcje zależne od tych właśnie zmiennych, zaś liczone względem nich pochodne stanowią bazę przestrzeni stycznej. Okazuje się, że dla każdej rozmaitości M zanurzonej w przestrzeni afinicznej An , danej jako zbiór rozwiązań regularnego układu równań (63), istnieje lokalnie, to znaczy w otoczeniu każdego jej punktu x ∈ M, jej forma parametryczna. Co więcej, istnieje taki układ współrzędnych, w którym równania definiujące oznaczają ustalenie wartości pewnych r współrzędnych, podczas gdy pozostałe współrzędne w liczbie m = n − r stanowią układ współrzędnych na samym M. Twierdzenie: Każdy punkt x ∈ M rozmaitości danej regularnym układem równań (63) posiada otoczenie Ox w którym istnieje parametryzacja Rm+r ⊃ W ∋ (xi , ζ j ) → κ(xi , ζ j ) ∈ O ⊂ An , (gdzie i = 1, . . . , m, oraz j = 1, . . . , r) przekształcający układ definiujący (63) w układ ζ j = 0, to znaczy: n



M ∩ O = κ(xi , ζ j ) ∈ A3 ζ j = 0 ; j = 1, . . . , r

zaś zestaw wszystkich wektorów

∂ ∂xi

o

;

stanowi bazę przestrzeni stycznej Tx M. 33

(72)

Dowód: Wybierzmy dowolną bazę (e1 , . . . em ) przestrzeni stycznej Tx M. Uzupełnijmy ją dowolnymi wektorami h1 , . . . , hr do bazy całej przestrzeni V n . Przyjmijmy sumę tych dwu zestawów wektorów jako kompletny zbiór osi prostoliniowego układu współrzędnych w An o środku w x: m r y(τ i , η j ) = x +

X

τ i ei +

i=1

X

η j hj .

(73)

j=1

W tej parametryzacji rozmaitość M jest zadana przy pomocy r równań Gk (xi , ζ j ) = 0

(74)

na r niewiadomych η j . Ponieważ różniczki funkcji Gi są liniowo niezależne, macierz "

∂Gj ∂η k

#

(75)

,

jest odwracalna. Wynika to z faktu, iż jej kolumny reprezentują jedyne niezerowe składowe j znikają tożsamościowo: pochodna różniczek funkcji Gj , jako że pozostałe składowe ∂G ∂τ i k i funkcji G po τ , to pochodna w kierunku wektora stycznego ei , zaś wektory styczne do M były właśnie zdefiniowane w ten sposób, że pochodne funkcji Gk w ich kierunku znikają. Zatem kolumny macierzy (74) muszą być niezależne liniowo, czyli sama macierz jest odwracalna. Wobec tego układ równań (74) spełnia założenia twierdzenia o funkcjach uwikłanych, a więc równania te definiują, przynajmniej w pewnym otoczeniu zera 0 ∈ Rm , funkcję uwikłaną Rm ∋ (τ i ) −→ (F j (τ )) ∈ Rr (76) i taką, że w pewnym otoczeniu punktu x punkty y ∈ An należą do M wtedy i tylko wtedy gdy zachodzi równanie η j = F j (τ ) . (77) Zbiór M jest więc (lokalnie, w pobliżu punktu x) wykresem odwzorowania (76). W ten sposób z opisu uwikłanego rozmaitości M, danej jako zbioru rozwiązań układu równań, możemy przejść do opisu parametrycznego, jako zbioru punktów postaci: y(τ i ) = x +

m X

τ i ei +

i=1

k X

F j (τ )hj .

(78)

j=1

Z twierdzenia o funkcjach uwikłanych otrzymujemy też: 

!−1 j

∂F j ∂G (0) = −  (0) i ∂τ ∂η



k

∂Gk (0) = 0 ∂τ i

(79)

Układ współrzędnych (xi , ζ j ) zdefiniujemy teraz następująco: xi = τ i , ζ j = η j − F j (τ ) . 34

(80) (81)

Równania definiujące (77) przyjmują zatem postać: ζ j = 0, co dowodzi pierwszej części tezy. Druga jej część wynika z wzoru na pochodną superpozycji, odpowiadającej przejściu od współrzędnych (τ i , η j ) do nowych współrzędnych (xi , ζ j ): ei =

∂ ∂xk ∂ ∂ζ j ∂ ∂ ∂F j ∂ ∂ = + = − = i , i i k i j i i j ∂τ ∂τ ∂x ∂τ ∂ζ ∂x ∂τ ∂ζ ∂x

gdzie ostatnia równość wynika ze znikania pochodnych funkcji uwikłanej F , patrz (79).  Zwróćmy uwagę, że operatory mają sens nawet dla funkcji C (M), określonych jedynie na naszej rozmaitości M, a które wcale nie muszą być określone na całej, otaczającej ją przestrzeni afinicznej An . Jeśli bowiem liczyć wartość tej pochodnej w układzie współrzędnych (xi , ζ j ), to wartości funkcji w punktach nie należących do M, to znaczy takich, dla których ζ j 6= 0, wcale nie są potrzebne. Pokażemy jednak, że pochodną tę można liczyć również w innym układzie współrzędnych w An , niekoniecznie „dostosowanym” do rozmaitości M. I rzeczywiście: spróbujmy obliczyć pochodną funkcji f ∈ C 1 (M) w kierunku wektora stycznego ei ∈ Tx M stosując najprostszy sposób, dany formułą (16): ∂ ∂xi

1

f (x + ǫ · ei ) − f (x) . ǫ→0 ǫ

ei (f ) = lim

(82)

Taka naiwna próba nie może się udać, bowiem — jak to wynika z (65) — punkty prostej ǫ → x + ǫ · ei ∈ An

(83)

wystają (nieznacznie, ale jednak!) z M. Ale, na mocy (78), wystarczy niewielka poprawka, by leżały już w M: x + ǫ · ei +

k X

j=1

F j (ǫ · ei )hj ∈ M .

(84)

Zamieńmy więc w formule (82) „wystający z M” punkt (83) „poprawionym” punktem (84). Ponieważ wszystkie pochodne funkcji F j znikają w zerze (inaczej: ponieważ poprawka jest małą wyższego rzędu w stosunku do samej wartości parametru ǫ), wynik wcale nie zależy od tej poprawki, bowiem mamy: ∂ f ∂xi P f (x + ǫ · ei + kj=1 F j (ǫ · ei )hj ) − f (x) = lim ǫ→0 ǫ   k X d  d = f (x + ǫ · ei + F j (ǫ · ei )hj ) = f (x + ǫ · ei ) dǫ dǫ j=1 ǫ=0 ǫ=0

f (x + ǫ · ei ) − f (x) = lim ǫ→0 ǫ = ei (f ) .

35

Równość w drugim wierszu wynika właśnie z faktu, że pochodne funkcji F znikają. Ściśle rzecz biorąc, wzory te zostały zapisane przy założeniu, że funkcja f jest określona w całym otoczeniu punktu x ∈ An , a nie tylko na rozmaitości M. W przeciwnym razie jej wartość f (x + ǫ · ei ) nie byłaby określona. Widać jednak, że sposób, w jaki rozszerzyliśmy definicję f z „cienkiej” rozmaitości M na całe jej „grube” otoczenia nie odgrywa żadnej roli, bowiem ostateczny wynik jest równy wartości pierwszego wyrażenia w powyższej formule, a ono odwołuje się jedynie do wartości funkcji f na M. Można zatem sformułować następujący przepis: Jeśli funkcję f , określoną jedynie na rozmaitości M zanurzonej w przestrzeni afinicznej, chcesz zróżniczkować względem wektora do niej stycznego, to zamiast f różniczkuj jakiekolwiek rozszerzenie tej funkcji na otoczenie rozmaitości, a wynik i tak nie będzie zależał od tego rozszerzenia lecz jedynie od samej funkcji. W ten sposób możemy identyfikować operator różniczkowy ∂x∂ i , czyli abstrakcyjny wektor styczny do M, z „prawdziwym” wektorem ei („strzałką”), która żyje w przestrzeni afinicznej An ale jest styczna do M. O tej identyfikacji można jednak zapomnieć i w rezultacie uprawiać geometrię na samej przestrzeni M niejako „wewnętrznie”, nie interesując się wcale w jaki sposób M jest zanurzone w otaczającej ją przestrzeni afinicznej. To zanurzenie było potrzebne jedynie do konstrukcji map na M, czyli do przedstawienia M w postaci parametrycznej. Takie mapy są, jak widzieliśmy, określone na ogół tylko w pewnym otoczeniu punktu x, a nie globalnie. Aby uprawiać geometrię na całym M nie wystarczy zatem jedna mapa, ale ich zbiór (inaczej atlas) pokrywający całe M. Z konstrukcji map wynika, że gdy dziedziny dwu różnych układów współrzędnych mają niepustą część wspólną, to przejście od jednych współrzędnych do drugich jest tam lokalnym dyfeomorfizmem (odwzorowaniem różniczkowalnym, odwracalnym, klasy C l ), przestrzeni Rm . Abstrakcyjny wektor styczny do takiej abstrakcyjnej rozmaitości M w punkcie x ∈ M definiujemy jako operator różniczkowy pierwszego rzędu, zaczepiony w x, działający na gładkie funkcje określone na M. Funkcje gładkie, to takie, które zależą w sposób gładki od współrzędnych. I znów widzimy, że do określenia gładkości funkcji możemy zapomnieć o całym An i posługiwać się jedynie lokalnymi mapami na M. Możemy więc zastosować twierdzenie udowodnione poprzednio. A zatem każdy operator różniczkowy działający w punkcie należącym do M ma postać: v = vi

∂ . ∂xi

(85)

Gdy jednak znów przypomnimy sobie o zanurzeniu M w An i o wykazanej powyżej równości ∂ = ei , ∂xi to widzimy, że te „abstrakcyjne” wektory styczne można utożsamiać z zupełnie konkretnymi wektorami stycznymi do M, ale żyjącymi w przestrzeni afinicznej An .

36

2.10

Abstrakcyjna rozmaitość różniczkowalna i jej przestrzeń styczna

W tej chwili możemy już zupełnie „odciąć pępowinę” wiążącą nas z geometrią afiniczną i zapomnieć o wszystkim poza M i jej atlasem. Oczywiście, geometria afiniczna pozwala nam skonstruować atlas dla rozmaitości definiowanych przy pomocy regularnego układu równań i wyobrażać sobie intuicyjnie wektory jako „strzałki” — co prawda wystające z M, ale jednak do niej styczne. Podkreślamy jednak, że do uprawiania geometrii na M te intuicje nie są potrzebne. Można zapomnieć skąd się wziął atlas. Interpretacja wektora stycznego v jako wektora w dużej przestrzeni wektorowej V n , stycznej do dużej przestrzeni An , też nie jest konieczna. Wystarczy nam jego interpretacja jako operatora różniczkowego pierwszego rzędu, działającego na funkcje określone na M. Zanurzanie M w An było pożyteczne, bo pozwalało nam konstruować wygodne parametryzacje punktów powierzchni M przy pomocy parametrów (τ i ) ∈ Rm . Jeśli jednak już mamy jakąś parametryzację, to można zapomnieć skąd się wzięła i stosować ją do reprezentowania wektorów stycznych do przestrzeni M (tzn. operatorów różniczkowych na M) jako kombinacji liniowych operatorów (wektorów) postaci ∂τ∂ i , bez konieczności „wychodzenia” poza M i interpretowania tych wektorów jako „strzałek” w większej przestrzeni An . Możemy zatem myśleć abstrakcyjnie o M jako o rozmaitości różniczkowalnej. Pod tą nazwą będziemy rozumieli parę (M, A), gdzie M jest zbiorem punktów zaś A jest atlasem zupełnym, tzn. zbiorem lokalnych parametryzacji. Terminem tym oznaczamy odwracalne odwzorowanie typu Rn ⊃ U ∋ (xk ) → κ(xk ) = x ∈ O ⊂ M , (86) dla którego dziedzina U jest zbiorem otwartym. Zupełność altasu A oznacza, że obrazy tych parametryzacji pokrywają cały zbiór M: każdy punkt x ∈ M leży w obrazie im(κ) jakiejś parametryzacji κ: x ∈ im(κ) = O . Mówimy, że atlas jest klasy C l , jeśli transformacja jednych współrzędnych na drugie: e ) : Rm → Rm (κ−1 ◦ κ

(87)

e ∈ A z tego atlasu, jest lokalnym dyfeomorfizmem (odwzorodla dwóch parametryzacji κ, κ waniem odwracalnym, różniczkowalnym l-razy w sposób ciągły) wszędzie tam, gdzie obie te parametryzacje są określone. Funkcja gładka klasy C k (M) na takiej abstrakcyjnej rozmaitości to taka funkcja f , której każda „konkretyzacja”, to znaczy funkcja „f ◦ κ”, zależna od n zmiennych rzeczywistych, jest gładka klasy C k (Rn ) dla dowolnej mapy z atlasu A. Powyższa definicja ma oczywiście sens jedynie dla k ¬ l, bowiem przy zamianie zmiennych z jednej mapy do drugiej funkcja e = (f ◦ κ) ◦ (κ−1 ◦ κ e) f ◦κ

i tak nie ma szans na lepszą gładkość niż C l (Rn ), skoro transformacja zamiany zmiennych e ) ma jedynie l ciągłych pochodnych. (κ−1 ◦ κ 37

Przestrzeń styczną Tx M do rozmaitości M w punkcie x ∈ M definiujemy jako przestrzeń wszystkich operatorów różniczkowych „zaczepionych” w punkcie x. Jeśli wybierzemy dowolną mapę (τ i ) w otoczeniu x, to operatory ∂τ∂ i stanowią bazę przestrzeni Tx M. Oznacza to, że każdy wektor jest kombinacją powyższych, czyli może być jednoznacznie przedstawiony w postaci v = v i ∂τ∂ i . Liczby v i nazywamy składowymi wektora v względem układu współrzędnych (τ i ). Jeśli wybierzemy jakąkolwiek inną parametryzaję (tk ), to twierdzenie o różniczkowaniu superpozycji daje nam możliwość przedstawienia starej bazy względem nowej: ∂ ∂tk ∂ = . (88) ∂τ i ∂τ i ∂tk Wynika stąd wzór na zamianę składowych wektora przy przejściu do nowej parametryzacji: v = vi

k ∂ ∂ ∂ i ∂t = v = vk k i i k ∂τ ∂τ ∂t ∂t

(89)

(uwaga na konwencję Einsteina), gdzie przez v k oznaczyliśmy składowe tego samego wektora v, ale względem nowej bazy: ∂tk (90) vk = v i i . ∂τ Zwracamy uwagę, że wektory zaczepione w różnych punktach nie mają ze sobą nic wspólnego. Należą do różnych przestrzeni i np. nie można ich dodawać do siebie. Uwaga: Dla rozmaitości M zanurzonej w przestrzeni afinicznej An , wektory styczne do M w różnych punktach można byłoby traktować jako elementy dużej przestrzeni wektorowej V n . Wtedy takie wektory można byłoby na przykład dodawać do siebie. Wynik takiej operacji nie jest na ogół styczny do M. Z punktu widzenia „wewnętrznej” geometrii rozmaitości M, nie odwołującej się do niczego poza nią samą, taka operacja nie ma sensu. Dlatego też wektory zaczepione w różnych punktach będziemy zawsze traktowali jako różne obiekty. Rozmaitość różniczkowa nosi naturalną strukturę topologiczną: ciąg punktów xn ∈ M nazywamy zbieżnym do punktu x0 wtedy i tylko wtedy, gdy zachodzi to w którejś parametryzacji κ: 



lim xn = x0 ⇐⇒

n→∞



−1

−1

lim κ (xn ) = κ (x0 )

n→∞



.

(91)

Można też powiedzieć, że bazą otoczeń topologii w M są otoczenia współrzędnościowe, to znaczy zbiory takie jak zbiór O w definicji mapy (86). Natomiast nie zakładamy na obecnym etapie wykładu żadnej struktury metrycznej: nie umiemy liczyć długości wektorów, kątów między nimi czy odległości między punktami. Możemy sobie wyobrażać taką „gołą” (to znaczy odartą ze wszystkich dodatkowych struktur) rozmaitość jak gumową powierzchnię nadmuchiwanego balonika. Gdy nadmuchać go mocniej, czy też ścisnąć w pewnym miejscu, przez co w innym się rozszerzy, to nic się nie zmieni i będzie to wciąż ta sama powierzchnia: zbiór punktów, plus możliwość odróżniania rzeczy gładkich od kanciastych (nieróżniczkowalnych) czy nawet nieciągłych. Struktury pozwalające opisywać jej rozmiary i kształt będziemy studiowali w dalszej części niniejszego wykładu. 38

Geometria, jakiej uczyliśmy się w szkole, kojarzy się nam z użyciem cyrkla i ekierki. Cyrkiel służy do porównywania długości wektorów, a ekierka do ich przenoszenia równoległego z punktu do punktu. Tymczasem w kilku najbliższych Rozdziałach całkowicie wyeliminujemy z naszych rozważań oba te popularne narzędzia. Takie „ogołocenie” geometrii ze struktury metrycznej (długość) czy afinicznej (przesunięcie równoległe) jest bardzo płodne intelektualnie i pozwala głębiej zrozumieć relacje między fundamentalnymi obiektami geometrycznymi maskowane często właśnie obecnością tamtych struktur. A cyrkiel i ekierka pojawią się w naszym wykładzie w odpowiednim czasie.

2.11

Wiązka styczna do rozmaitości

Będziemy natomiast rozważać kolekcję wszystkich wektorów stycznych do rozmaitości, to znaczy rozłączną sumę wszystkich przestrzeni stycznych: T M :=

[

Tx M .

(92)

x∈M

Taki zbiór nazywa się „wiązką styczną” do M. Ogólne pojęcie „wiązki” wyjaśnimy później. Na razie powiedzmy tylko, że ma to związek z faktem, że jest ona właśnie sumą oddzielnych przestrzeni Tx M, które nazywają się „włóknami” tej wiązki. Wiązka styczna T M jest sama rozmaitością różniczkowalną wymiaru 2n i klasy C l−1 , jeśli M była wymiaru n i klasy C l . Aby nadać sens temu stwierdzeniu musimy podać konkretny atlas AT dla T M. Atlas ten skonstruujemy w naturalny sposób z atlasu A rozmaitości M. Wektor v ∈ Tx M będziemy mianowicie parametryzowali za pomocą zestawu (xk , v l ), gdzie (xk ) są współrzędnymi punktu zaczepienia x ∈ M zaś (v l ) są składowymi wektora w bazie ∂x∂ k . Konstrukcję tę można formalnie zapisać w następujący sposób: dla każdej parametryzacji (86) na M zdefiniujemy parametryzację na T M następującym wzorem R2n ⊃ U × Rn ∋ (xk , v l ) → κT (xk , v l ) = vx := v k

[ ∂ ∈ O = Tx M ⊂ T M . T ∂xk x∈O

(93)

Wymiar 2n jest oczywisty: pierwsze n współrzędnych parametryzuje punkt zaczepienia, zaś pozostałe n wyróżnia konkretny wektor w przestrzeni stycznej Tx M. Ponieważ wzory transformacyjne na składowe wektora przy przejściu do innej mapy zawierają już pierwsze pochodne funkcji przejścia dla samych współrzędnych, prawa transformacyjne w tak skonstruowanym atlasie AT są jeden raz mniej różniczkowalne niż oryginalne prawa transformacyjne w oryginalnym atlasie A. Stąd właśnie wynika klasa C l−1 wiązki stycznej. Wiązka styczna jest wyposażona a priori w odwzorowanie: τ : TM → M ,

(94)

które każdemu wektorowi v ∈ T M przypisuje ten punkt x = τ (v) ∈ M rozmaitości, w którym wektor jest zaczepiony: v ∈ Tx M ⊂ T M. Odwzorowanie to będziemy nazywali „kanonicznym rzutem T M na M”. 39

W układzie współrzędnych (93) rzut kanoniczny polega zatem na „zapominaniu” o wartości współrzędnych (v l ) wektora: T M ∋ (xk , v l ) → (xk ) ∈ M ,

(95)

co dowodzi, że jest on odwzorowaniem gładkim (i to maksymalnej klasy gładkości). Dla każdego punktu x ∈ M jego „przeciwobraz” to znaczy zbiór punktów, które rzutują się na x, jest równy przestrzeni stycznej do rozmaitości w tym właśnie punkcie: τ −1 (x) = Tx M .

(96)

Zauważmy ponadto, że w układzie współrzędnych (93) przestrzenie styczne w różnych punktach wyglądają jak gdyby były identyczne, bowiem zostają utożsamione z przestrzenią liczbową Rn , w której leżą składowe (v l ) ich wektorów. Jak wiemy, utożsamienie to nie ma żadnego znaczenia geometrycznego: dwa wektory zaczepione w różnych punktach ale mające identyczne składowe (v l ) w jednym układzie współrzędnych, w innym układzie współrzędnych będą na ogół miały już inne składowe. Jest to kolejne przypomnienie faktu, że obiekty geometryczne zaczepione w różnych punktach nie mogą być porównywane , wszak należą do innych światów! Jednak możliwość takiego utożsamienia prowadzi do konstrukcji tzw. lokalnych trywializacji wiązki. Wyjaśnimy dokładniej to pojęcie: Jeśli O ⊂ M jest dziedziną układu współrzędnych (xk ), to mamy jedno-jednoznaczne odwzorowanie: O × Rn ⊃ (x, v l ) → vx := v k

∂ (x) ∈ τ −1 (O) ⊂ T M . k ∂x

(97)

Oznacza to, że τ −1 (O) ⊂ T M jest izomorficzny z iloczynem kartezjańskim swojego rzutu O na M oraz „typowego włókna” Rn . Jednak na ogół konstrukcja ta nie daje się przeprowadzić globalnie, to znaczy tak, by zbiór O można było zastąpić całą przestrzenią M i, odpowiednio, zbiór τ −1 (O) — całą przestrzenią T M Można zatem podsumować strukturę wiązki stycznej T M w następujący sposób: jest to czwórka (T M, τ, M, H), gdzie H jest przestrzenią wektorową, pierwszy i trzeci składnik są rozmaitościami różniczkowalnymi, τ jest gładkim odwzorowaniem z T M w M takim, że każdy punkt tej ostatniej ma otoczenie O ⊂ M takie, że τ −1 (O) jest izomorficzne z iloczynem kartezjańskim O×H. Pod nazwą „izomorfizm” rozumiemy tu jedno-jednoznacze, gładkie odwzorowanie µ : O × H 7→ τ −1 (O) ⊂ T M , (98)

i takie, że

H ∋ h → µ(x, h) ∈ Tx M

(99)

jest izomorfizmem przestrzeni wektorowych. W przypadku wiązki stycznej włóknem typowym jest przestrzeń liczbowa Rn . Odwzorowanie o powyższych własnościach nazywa się „lokalną trywializacją”, przestrzeń M nazywa się „bazą wiązki”, zaś przestrzeń H — „włóknem typowym”.

40

2.12

Odwzorowania między rozmaitościami różniczkowalnymi. Odwzorowanie styczne

Definiując w rozdziale 2.10 pojęcie funkcji różniczkowalnej na abstrakcyjnej rozmaitości różniczkowalnej M przyjęliśmy zasadę heurystyczną, że „różniczkowalne na M jest to, co jest różniczkowalne w układzie współrzędnych”. A zatem: funkcja f na M jest różniczkowalna jeśli jej konkretyzacja f ◦ κ jest różniczkowalna na Rn . Zasadę tę stosujemy również do odwzorowań między rozmaitościami. Niech więc będą dane dwie rozmaitości różniczkowalne M i N oraz odwzorowanie M ⊃ O ∋ x → F (x) ∈ N .

(100)

Konkretyzacja tego odwzorowania to odwzorowanie λ−1 ◦ F ◦ κ, gdzie κ jest lokalną parametryzacją na M zaś λ — lokalną parametryzacją na N. We współrzędnych: (xi ) na M oraz (y j ) na N, generowanych przez te mapy otrzymujemy: Rm ⊃ W ∋ (xi ) → λ−1 (F (κ(xi ))) = F j (xi ) ∈ Rn ,

(101)

gdzie m jest wymiarem M, zaś n jest wymiarem N. Tak więc konkretyzacja odwzorowania F wyraża się przez n funkcji F j zależnych od m zmiennych rzeczywistych (xi ). Funkcje te określają wartość współrzędnych (y j ) punktu F (x) ∈ N gdy znamy wartość współrzędnych punktu x ∈ M: y i = F j (xi ) . (102) e otrzymamy inną konkretyzację: (Fe j ), e i λ Zamieniając κ i λ na inne parametryzacje: κ e powstałą przez superpozycję poprzedniej z operacjami transformacji współrzędnych: κ−1 ◦ κ −1 e na M oraz λ ◦ λ na N, zgodnie z wzorem: 











e −1 ◦ F ◦ κ e −1 ◦ λ ◦ λ−1 ◦ F ◦ κ ◦ κ−1 ◦ κ e= λ e (Fe j ) = λ

=













e −1 ◦ λ ◦ Fe j ◦ κ−1 ◦ κ e . λ

Zatem różniczkowalność C k funkcji F j nie zależy od wyboru mapy pod warunkiem, że nie przekraczamy progu C l , (tzn. gdy zachodzi k ¬ l), powyżej którego transformacje współrzędnych już mogą być niedostatecznie gładkie. W szczególności ważnym przypadkiem odwzorowań rozmaitości są odwzorowania odwracalne i takie, że obrazem jest cała rozmaitość. Wtedy z twierdzenia o pochodnej odwzorowania odwrotnego wynika, iż F −1 jest również klasy C l , jeśli F było tej klasy. Takie odwzorowania nazywamy diffeomorfizmami klasy C l . Dwie rozmaitości, które można połączyć diffeomorfizmem nazywamy diffeomorficznymi. Z punktu widzenia struktury różniczkowalnej są one nierozróżnialne. Odwzorowanie F : M → N przenosi w sposób naturalny funkcje z N do M. I rzeczywiście: jeśli f jest funkcją określoną lokalnie na otoczeniu punktu y = F (x) ∈ N, to f ◦ F jest funkcją określoną na otoczeniu punktu x ∈ M. Takie „przeniesienie” lub „transport” określa się również angielskim określeniem „pull back”, co dodatkowo precyzuje kierunek tego 41

transportu, odwrotny do kierunku działania odwzorowania F . Będziemy stosowali również oznaczenie F ∗ f . W dalszym ciągu okaże się, że jest to przykład bardzo szerokiej klasy naturalnych odwzorowań różnych obiektów geometrycznych, które też będziemy określali jako „pull back” i oznaczali gwiazdką u góry. Transport funkcji „do tyłu” generuje natychmiast transport wektorów stycznych „do przodu”. I rzeczywiście: wektor styczny v ∈ Tx M definiuje jednoznacznie wektor F∗ v styczny do N w punkcie F (x) ∈ N następującym wzorem (F∗ v) (f ) := v (F ∗ f ) .

(103)

Mówiąc językiem potocznym: aby zróżniczkować funkcję f względem wektora powstałego z v przez przeniesienie go do przodu, trzeba wpierw przenieść tę funkcję do tyłu i zróżniczkować ją względem wyjściowego wektora. Taki transport określa się często angielskim terminem „push forward”. W dalszym ciągu poznamy wiele innych obiektów geometrycznych. Niektóre z nich transportują się w sposób naturalny do przodu, inne do tyłu. Powstała jeszcze w XIX wieku terminologia nazywa te pierwsze „kontrawariantnymi” a drugie : „kowariantnymi”. Jeśli odnosić tę terminologię do kierunku pierwszej, najważniejszej strzałki w (104), pokazującej w którą stronę działa odwzorowanie F , to terminologia ta wydaje się nienaturalna: przecież „kowariantny” to powinien być „współzmienniczy”, a tymczasem „kontra” to „przeciw”. Ale terminologia ta powstawała w odniesieniu do zupełnie innej heurystyki (chodziło o prawa transformacyjne obiektów przy zmianie układu współrzędnych) i . . . tak już zostało. A zatem zapamiętajmy: obiekty „kontrawariantne” to takie, które transportują się do przodu, zaś „kowariantne” — do tyłu. Wobec tego funkcja na rozmaitości jest obiektem kowariantnym, a wektor — kontrawariantnym. Mamy więc następujący wykres: F

(104)

F∗

(105)

F∗

(106)

M −→ N ,

C k (M) ←− C k (N) , Tx M −→ TF (x) N .

Definicja (103) implikuje następującą konkretyzację odwzorowania transportu we współrzędnych (xi ) na M oraz (y j ) na N: !

∂ ∂ ∂F j ∂ F∗ i (f ) = i f (F ) = f , ∂x ∂x ∂xi ∂y j a zatem

(107)

!

∂ ∂F j ∂ F∗ = . (108) ∂xi ∂xi ∂y j Tę „grzeczną” wersję formuły warto uzupełnić wersją „niegrzeczną”, czy „niepoprawną” polegającą na zastąpieniu funkcji F j przez współrzędną y j , zgodnie z równaniem y j = F j (xi ), patrz (102). Wtedy powyższa formuła wygląda następująco: F∗

∂ ∂xi

!

= 42

∂y j ∂ . ∂xi ∂y j

(109)

Ten — dla wielu purystów językowych całkowicie błędny — zapis ma ogromną zaletę: znakomicie skraca rachunki i każdy, kto używa języka geometrii różniczkowej w naukach stosowanych prędzej czy później doń się przekona. Zamierzam powoli przyzwyczajać czytelnika niniejszej książki do tego języka. Jeśli zatem wektor v ma współrzędne v i : v = vi to jego obraz ma współrzędne

∂F j i v ∂xi

F∗ (v) =

=

∂y j i v ∂xi

∂ , ∂xi

(110)

we współrzędnych (y j ), bowiem zachodzi

!

!

∂F j i ∂ v = ∂xi ∂y j

∂y j i ∂ v . ∂xi ∂y j

(111)

W analizie matematycznej, gdy współrzędne reprezentują punkty przestrzeni liczbowej Rn a nie abstrakcyjnej rozmaitości M, odwzorowanie F∗ reprezentuje po prostu pochodną odwzorowania F . Używa się też niekiedy terminu „odwzorowanie styczne”. Obu tych terminów można też używać w ogólnym kontekście abstrakcyjnych rozmaitości różniczkowalnych. Uwaga: Jeśli jako F wziąć odwzorowanie tożsamościowe (identycznościowe) „id” dane wzorem: M ∋ x → id(x) = x ∈ M ,

to nic nie stoi na przeszkodzie, by rozważać dwa różne układy współrzędnych na M: układ (xi ) na dziedzinie odwzorowania id oraz układ (y j ) na M jako obrazie tegoż odwzorowania. Wtedy wzór (102) opisuje zależność nowych zmiennych od starych. Oczywiście transport id∗ („pull back”) funkcji też jest odwzorowaniem tożsamościowym: id∗ f = f ◦ id = f . Wobec tego „push forward”wektorów jest tu również tożsamością: id∗ (v) = v . W tym przypadku wzór (111) pokrywa się zatem z (89) bowiem jest niczym innym niż formułą na transformację współrzędnych ustalonego wektora v przy zamianie układu współrzędnych na rozmaitości: ∂ v = v = id∗ (v) = ∂xi i

2.13

!

∂F j i ∂ v . ∂xi ∂y j

(112)

Krzywe sparametryzowane. Wektor styczny do krzywej

Ważnym przykładem odwzorowań między rozmaitościami jest krzywa sparametryzowana, to znaczy odwzorowanie osi rzeczywistej, lub jakiegoś jej odcinka w daną rozmaitość różniczkowalną: R ⊃]a, b[∋ t → γ(t) ∈ M . (113) 43

Oś rzeczywista jest również rozmaitością różniczkowalną. Jednak jej struktura jest dużo bogatsza: wśród różnych wektorów stycznych wyróżniony jest jeden szczególny, odpowiadający liczbie „e = +1”, zwany również „wektorem jednostkowym”. Odpowiada on operatorowi różniczkowania po naturalnej współrzędnej t na R: ∂ e := . ∂t I właśnie jego obraz przy odwzorowaniu stycznym do γ nazywamy wektorem stycznym do naszej krzywej sparametryzowanej. Jeśli (xi ) jest układem współrzędnych na M, to krzywa γ reprezentuje się układem n funkcji zależnych od zmiennej t:   γ(t) = xk (t) , (114) a na mocy formuły (111) współrzędne wektora stycznego są równe pochodnym tych funkcji: ∂ γ∗ = ∂t

∂xi ∂t

!

∂ i ∂ = x ˙ . ∂xi ∂xi

Wprowadziliśmy tutaj oznaczenie, które bardzo się przydaje w zastosowaniach. Mianowicie pochodną — niby cząstkową, ale liczoną przecież względem jedynej zmiennej niezależnej t — oznaczamy kropką. Tak więc współrzędne wektora stycznego do krzywej sparametryzowanej są równe pochodnym współrzędnych samego „bieżącego” punktu krzywej. Jeśli myśleć o parametrze t jako o czasie, to wektor styczny do krzywej odgrywa rolę wektora prędkości. I stąd właśnie bierze się pomysł, żeby nawet abstrakcyjnie, nie mając na myśli żadnego konkretnego układu współrzędnych, wektor styczny do krzywej γ oznaczać symbolem γ: ˙ ∂ (115) γ˙ = x˙ i i . ∂x Uwaga: Gdy krzywa będzie wynikiem skomplikowanej superpozycji odwzorowań, nad którą trudno postawić kropkę, wtedy będziemy wymiennie stosować oznaczenie pochodnej zwyczajnej: d γ(t) ˙ = γ(τ ) . (116) dτ τ =t

Wektor prędkości liczony w układzie współrzędnych (xi ) ma zatem składowe równe (x˙ i ). Na przykład w układzie współrzędnych sferycznych (r, θ, ϕ), związanym ze współ˙ ϕ). rzędnymi kartezjańskimi wzorem (2), prędkość jest wektorem o składowych (r, ˙ θ, ˙ Ta banalna konstatacja nie byłaby zapewne godna wzmianki, gdyby nie fakt, że na wielu szacownych Wydziałach Politechnik i Uniwersytetów zmuszają do używania przedpotopowego, niezwykle utrudniającego życie formalizmu, w którym składowe tej prędkości wynoszą ˙ r ϕ˙ sin θ). I jeszcze potem mają pretensję, że studenci nie nauczyli się na pamięć (r, ˙ r θ, odpowiednich formułek . . . Ćwiczenie: Używając kartezjańskich i sferycznych współrzędnych mamy dwa równoważne opisy wektora stycznego do krzywej: v = x˙

∂ ∂ ∂ ∂ ∂ ∂ + y˙ + z˙ = r˙ + θ˙ + ϕ˙ . ∂x ∂y ∂z ∂r ∂θ ∂ϕ 44

(117)

Związek między jednymi a drugimi składowymi można otrzymać różniczkując bezpośrednio wzory (2): x˙ = r˙ sin θ cos ϕ + r θ˙ cos θ cos ϕ − r ϕ˙ sin θ sin ϕ , y˙ = r˙ sin θ sin ϕ + r θ˙ cos θ sin ϕ + r ϕ˙ sin θ cos ϕ , z˙ = r˙ cos θ − r θ˙ sin θ .

(118) (119) (120)

Tę samą relację możemy również otrzymać postępując odwrotnie: korzystając z wzorów ∂ ∂ ∂ ∂ ∂ (32) – (34) możemy wyrazić wektory ∂r , ∂θ oraz ∂ϕ , w języku bazy ortonormalnej ∂x , ∂y ∂ . Podstawiając te wyrażenia do prawej strony wzoru (117) i zbierając współczynniki oraz ∂z przy wektorach tej ostatniej otrzymamy wartość składowych (x, ˙ y, ˙ z) ˙ w funkcji składowych ˙ ϕ). (r, ˙ θ, ˙ Zachęcamy Czytelnika do wykonania tego ćwiczenia w celu przekonania się, iż w ten sposób otrzymamy te same relacje (118) – (120). Przykład: Jako przykład krzywej sparametryzowanej rozważmy „linię k-tej współrzędnej”. W ustalonym układzie współrzędnych (xk ) na M wyraża się ona następującym wzorem: t → γ(t) := κ(x1 , . . . , xk−1 , xk + t, xk+1 , . . . , xn ) ∈ M (121)

(ustalamy wszystkie współrzędne z wyjątkiem k-tej, której wartość zmieniamy o t). Wektor styczny do tej krzywej to po prostu k-ty wektor bazy Tx M związanej z tym układem współrzędnych, bowiem mamy: γ(f ˙ )=

∂ ∂ (f ◦ γ)(x1 , . . . , xk−1 , xk + t, xk+1 , . . . , xn ) = k f , ∂t ∂x

a zatem

∂ . (122) ∂xk Otrzymaliśmy w ten sposób interpretację wektora ∂x∂ k jako wektora stycznego do linii k-tej współrzędnej. Wniosek: Dla każdego wektora v ∈ Tx M istnieje krzywa sparametryzowana, której wektor styczny w punkcie x jest równy v. Dowód: Wybierzmy jakikolwiek układ współrzędnych (xk ) w otoczeniu punktu x. Jeśli współrzędne wektora v są równe (v k ), zaś współrzędne punktu x są równe (xk0 ), to krzywa dana w tym układzie następującym wzorem: γ˙ =

γ(t) := κ(xk0 + tv k ) ma żądany wektor styczny: γ˙ = v k

∂ =v. ∂xk

 Oczywiście takich linii jest wiele: zależność proporcjonalna współrzędnych punktu naszej krzywej od czasu nie jest żadną własnością geometryczną i zależy od wyboru układu 45

współrzędnych. Jednak fakt, że dwie krzywe γ oraz λ startujące w chwili zero z tego samego punktu: γ(0) = x = λ(0), mają ten sam wektor styczny w tym punkcie nie zależy od układu współrzędnych: po postu ich opisy współrzędniowe są wzajemnie styczne w t = 0:



  d  −1 d  −1 κ ◦γ = λ ◦γ , dt t=0 dt t=0

(123)

dla dowolnej parametryzacji κ w otoczeniu punktu x. Jeśli ten warunek jest spełniony w jednej mapie, to jest oczywiście spełniony w dowolnej innej. Spełnienie tego warunku stanowi relację równoważności w zbiorze krzywych sparametryzowanych, startujących z danego punktu. Jedna z definicji wektora stycznego do rozmaitości wychodzi właśnie z powyższej obserwacji i określa wektor jako klasę równoważności krzywych, rozumianą w sensie powyższej relacji. W naszym wykładzie będziemy jednak stosowali dużo prostszą i wygodniejszą obliczeniowo definicję w języku operatorów różniczkowych.

2.14

Superpozycja odwzorowań transportu. Inna definicja odwzorowania stycznego

Jeśli mamy trzy rozmaitości różniczkowalne: M, N i P , oraz dwa odwzorowania między kolejnymi parami: F : M →N , G : N →P , to ich złożenie G ◦ F jest odwzorowaniem z M do P : G◦F :M →P . Mamy zatem następujący diagram: F

G

M −→ N −→ P F∗ G∗ k k k C (M) ←− C (N) ←− C (P ) G∗ F∗ TF (x) N −→ TG◦F (x) P Tx M −→ Okazuje się, że odpowiadające im odwzorowania transportu też są odpowiednimi złożeniami: Twierdzenie: Zachodzą następujące tożsamości: 1. (G ◦ F )∗ = F ∗ ◦ G∗ 2. (G ◦ F )∗ = G∗ ◦ F∗ Dowód: 46

1. (G ◦ F )∗ (f ) = f (G ◦ F ) = (f ◦ G)(F ) = F ∗ (f ◦ G) = F ∗ ◦ G∗ (f ). 2. ((G ◦ F )∗ v) (f ) = v(G ◦ F )∗ (f ) = v(f ◦ G) ◦ F = (F∗ v) (f ◦ G) = (G∗ ◦ F ∗ (v)) (f )  Jeśli γ jest krzywą sparametryzowaną w M, to F ◦ γ jest krzywą sparametryzowaną w N. Z powyższego twierdzenia wynika, że wektor styczny do tej krzywej jest obrazem wektora stycznego do γ przy odwzorowaniu stycznym F∗ : (F ◦ γ) = F∗ γ˙ . A zatem odwzorowanie styczne przyporządkowuje wektorom stycznym do krzywych sparametryzowanych w M wektory styczne do ich obrazów w N. Ponieważ każdy wektor można reprezentować jako klasę (wzajemnie stycznych) krzywych (patrz Wniosek na końcu paragrafu 2.13) zatem powyższa obserwacja może służyć jako równoważna definicja odwzorowania stycznego.

2.15

Podrozmaitości

Przypuśćmy, że podzbiór M ⊂ N rozmaitości różniczkowalnej N sam jest rozmaitością (tzn. ma własny atlas). „Zanurzeniem” M w N nazywamy odwzorowanie identycznościowe „id” przyporządkowujące każdemu punktowi x ∈ M ten sam punkt, ale już traktowany jako punkt w N: M ∋ x → id(x) = x ∈ N . (124) Definicja 1: Jeśli zanurzenie jest gładkie klasy C l oraz takie, że jego pochodna id∗ ma w każdym punkcie trywialne jądro, tzn. gdy id∗ (v) 6= 0 dla (v) 6= 0, to wtedy M nazywamy podrozmaitością rozmaitości N. Twierdzenie: Jeśli M ⊂ N jest podrozmaitością różniczkowalną wymiaru (n − r) rozmaitości N wymiaru n, to każdy punkt x ∈ M posiada otoczenie O ⊂ N, które jest otwarte w N, a w nim układ współrzędnych (xi , ζ j ): Rm+r ⊃ W ∋ (xi , ζ j ) → κ(xi , ζ j ) ∈ O ⊂ An (gdzie i = 1, . . . , m, oraz j = 1, . . . , r) dostosowany do M w sensie Twierdzenia 2, to znaczy: n o M ∩ O = κ(xi , ζ j ) ζ j = 0 ; j = 1, . . . , r . (125)

Dowód tego Twierdzenia jest dobrą ilustracją tezy przedstawionej we Wstępie: geometria różniczkowa to umiejętność mądrego posługiwania się krzywoliniowymi układami współrzędnych. I rzeczywiście: gdy wybierzemy w otoczeniu punktu x jakikolwiek układ współrzędnych (ξ k ), k = 1, . . . , n; parametryzujący punkty „grubej” rozmaitości N: RN ∋ (ξ k ) → ω(ξ k ) ∈ N , to możemy utożsamiać punkty rozmaitości M odpowiadającym im punktom w przestrzeni (wektorowej, a więc również afinicznej) RN . Wtedy można zapomnieć, iż cała „akcja” 47

naszego Twierdzenia toczy się w rozmaitości różniczkowalnej a nie w przestrzeni An , jak to było w Twierdzeniu z rozdziału 2.9. Po takim utożsamieniu możemy po prostu zastosować tamten dowód. Oznacza to, że na przykład dodawanie wektorów we wzorze (73) rozumie się jako dodawanie odpowiednich wartości współrzędnych. W ten sposób cały dowód pozostaje w mocy.  j Uwaga: Zmienne ζ spełniają oczywiście warunek niezależności, który nakładaliśmy w Rozdziale 2.9 na funkcje Gj . Nasze Twierdzenie oznacza zatem, że lokalnie każda podrozmaitość M ⊂ N wygląda jak miejsce geometryczne rozwiązań układu równań (63) (jak przekonamy się w dalszym ciągu, nie jest to zazwyczaj prawdziwe globalnie!). Ta własność zbioru M może być przyjęta jako definicja podrozmaitości. Jest ona tak ważna, że wypiszemy ją jeszcze raz explicite. Definicja 2: Podzbiór M ⊂ N rozmaitości różniczkowalnej N wymiaru n nazywamy podrozmaitością różniczkowalną wymiaru k, klasy C l , jeśli każdy punkt x ∈ M posiada otoczenie O ⊂ N, które jest otwarte w N, a w nim układ funkcji Gi , i = 1, . . . , r = n − k; taki że M ∩ O jest miejscem geometrycznym rozwiązań układu regularnego   G1 (x)   

=0 .. .    Gr (x) = 0

(126)

w sensie definicji z rozdziału 2.8. Aby przekonać się o równoważności obu definicji należy pokazać, że M jest rozmaitością, to znaczy skonstruować atlas na M. W tym celu znów stosujemy rozumowanie z Rozdziału 2.9, pozwalajace przejść od formy uwikłanej do formy parametycznej. Fakt, że tam wszystko odbywało się w przestrzeni afinicznej, a tutaj w abstrakcyjnej rozmaitości różniczkowalnej nie ma istotnego znaczenia, skoro możemy używać lokalnych map na N i w ten sposób utożsamić otoczenie punktu x ∈ M ⊂ N ze zbiorem otwartym przestrzeni afinicznej Rn . To znów argument na poparcie tezy iż geometria różniczkowa to umiejętność mądrego posługiwania się krzywoliniowymi układami współrzędnych. Rzeczywiście: ponieważ lokalnie rozmaitość różniczkowalna N jest nieodróżnialna od zbioru otwartego w przestrzeni afinicznej, wszystkie dowody analityczne dotyczące lokalnej struktury można prowadzić tak, jak gdyby chodziło o własności obiektów żyjących w przestrzeni afinicznej. Przykład: Podrozmaitość M wymiaru 1 nazywa się również krzywą. Aby odróżnić to pojęcie od pojęcia krzywej sparametryzowanej, będziemy niekiedy używali pojęcia „krzywej niesparametryzowanej”. Jeśli na takiej podrozmaitości wybrać „układ współrzędnych”, to znaczy jedną współrzędną (parametr) t, to otrzymamy krzywą sparametryzowaną γ, której obrazem będzie M. Operacja odwrotna, polegająca na „zapomnieniu” o konkretnej parametryzacji nie zawsze da nam rozmaitość. Przykładem może być np. lemniskata Bernoulliego opisana w Rozdziale 2.8 i zilustrowana na rys. 8. Gdy tę „ósemkę” obiegać w czasie t ze stałą szybkością, to otrzymamy doskonały przykład krzywej sparametryzowanej. Wiemy jednak, że lemniskata nie jest rozmaitością, bowiem w punkcie samoprzecięcia jej przestrzeń styczna nie jest dobrze określona. Krzywa sparametryzowana może również 48

2 1

–4

–3

–2

–1

1

2

3

4

x

Rysunek 9: Obraz gładkiej krzywej sparametryzowanej nie musi być gładki. zawierać inne „patologie”, jak „dzióbki”, kolejne przebiegi tego samego odcinka w różnych kierunkach itp., które są wykluczone przez definicję podrozmaitości. Przykład: Rozpatrzmy krzywą sparametryzowaną na płaszczyźnie R2 , daną równaniami: 1 − |t|

x(t) := (sgn t)e

y(t) :=

(

1

   

1

−e− |t| dla t < 0 , 1 =  e− |t| dla t > 0 ,   0 dla t = 0 ,

e− 2|t| dla t 6= 0 , 0 dla t = 0 .

Mimo całej tej „składanki”, mimo zastosowania funkcji „moduł”, która nie jest gładka, to 1 zarówno x(t) jak i y(t) są gładkie i to klasy C ∞ . Wynika to z faktu, że funkcja f (t) = e− |t| dąży do zera w zerze wraz ze wszystkimi pochodnymi. I rzeczywiście: dowolna pochodna tej funkcji ma postać wielomianu od wyrażenia |t|1 pomnożonego przez samą funkcję f . Jeśli nawet ten wielomian rośnie w pobliżu zera do nieskończoności, to funkcja f dąży do zera szybciej jako funkcja wykładnicza. A zatem R ∋ t → γ(t) = (x(t), y(t)) ∈ R2 jest krzywą (sparametryzowaną!) klasy C ∞ . Tymczasem jej obraz spełnia równanie y=

q

|x| ,

przy czym zmienna „x” przebiega cały odcinek ] − 1, 1[⊂ R1 . Nie jest to zatem podrozmaitość różniczkowalna płaszczyzny R2 (zob. Rysunek 9).

2.16

Własności globalne a własności lokalne

Rozmaitość różniczkowalna wygląda lokalnie jak kawałek przestrzeni liczbowej Rn . Używając lokalnego układu współrzędnych wszystkie jej lokalne własności można wyrazić w języku funkcji wielu zmiennych oraz operacji na nich. W tradycyjnych wykładach geometrii 49

różniczkowej zwykło się definiować rozmaite struktury geometryczne przy pomocy układów współrzędnych, a następnie wykazywać, że dana definicja jest poprawna, to znaczy nie zależy od wyboru układu współrzędnych. W niniejszym wykładzie przyjmujemy strategię odwrotną: wszystkie struktury będą wprowadzane bez użycia układu współrzędnych. Jednak nie lekceważymy faktu, że przy opisie lokalnych struktur geometrycznych najczęściej posługujemy się twierdzeniami analizy matematycznej, dotyczącymi odwzorowań z Rn w Rm , a zatem wymagającymi opisu współrzędniowego. Ważnym aspektem geometrii są natomiast globalne własności rozmaitości, których opis wykracza poza zwykłą analizę współrzędniową. Wiąże się to z faktem, że ważne (również w zastosowaniach) rozmaitości różniczkowalne nie dopuszczają na ogół globalnego układu współrzędnych. Przykładem jest poznana już sfera S 2 : układ współrzędnych sferycznych jest bardzo wygodny do wielu obliczeń ale, jak już wiemy, nie można posługiwać się nim w otoczeniu „linii zmiany daty”. Zgodnie z Twierdzeniem 2, lokalne mapy można również uzyskać poprzez rzut na płaszczyznę styczną do sfery. Atlas złożony z takich map musi składać się co najmniej z czterech map. Inną, ważną parametryzację sfery otrzymuje się przy pomocy tzw. rzutu stereograficznego R2 ∋ (ξ, η) → κ(ξ, η) = (x, y, z) ∈ R3

(127)

wyrażonego następującymi wzorami:

x = y =

ξ 1+

ξ 2 +η2 4R2

η 1 1

(128)

,

ξ 2 +η2 4R2 2 +η 2 − ξ 4R 2 ξ 2 +η2 + 4R2

1+

z = R

,

.

Łatwo sprawdzić, że dla dowolnego punktu (ξ, η) ∈ R2 zachodzi: x2 + y 2 + z 2 = R2 ,

(129)

zatem obraz tego punktu leży rzeczywiście na sferze o środku w zerze i o promieniu równym R, przy czym punkty północnej półkuli otrzymuje się jako obrazy wnętrza koła o jednostkowym promieniu na płaszczyźnie (ξ, η), zaś punkty półkuli południowej jako obrazy zewnętrza tego koła (zob. Rysunek 10). Odwzorowanie odwrotne polega na przyporządkowaniu punktom sfery różnym od bieguna południowego: (x, y, z) 6= (0, 0, −R), ich projekcji — wychodzącej właśnie z bieguna południowego — na płaszczyznę styczną do bieguna północnego, tzn. płaszczyznę (ξ, η, R). Jak widać z rysunku, zachodzi proporcja: ξ x = , 2R R+z η y = . 2R R+z 50

(x2 , y2 , z2 ) (ξ2 , η2 )

(x1 , y1 , z1 )

(ξ1 , η1 )

Rysunek 10: Rzut stereograficzny sfery na płaszczyznę równikową. Transformacja (128) wynika właśnie z rozwiązania powyższych równań ze względu na współrzędne (x, y) z uwzględnieniem równania definicyjnego sfery (129). Aby pokryć również otoczenie bieguna południowego, nie uwzględnionego w parametryzacji (128), możemy po prostu zamienić rolami oba bieguny, to znaczy zamienić „z” na „−z” w powyższych proporcjach. Obie mapy stanowią atlas, który porywa już całą sferę. Warto sprawdzić, że przejście od jednego do drugiego układu współrzędnych jest odwzorowaniem klasy C ∞ , danym wzorem: ξ˜ =

ξ2

ξ + η2

,

η˜ =

ξ2

η . + η2

(130)

Zobaczymy w dalszym ciągu niniejszego wykładu, że warto zmienić znak współrzędnej η w drugiej mapie. Dzięki temu można połączyć obie zmienne rzeczywiste w jedną zespoloną: ζ = ξ + iη

,

ζ˜ = ξ˜ + i η˜ ,

i wtedy zamiast wzorów (130) na transformację współrzędnych uzyskujemy postać funkcji analitycznej zmiennej zespolonej: 1 (131) ζ˜ = . ζ Z punktu widzenia omawianych obecnie struktur oba atlasy są równie dobre. Jednak, jak się przekonamy w dalszym ciągu, drugi z nich niesie na sobie orientację sfery, co będzie miało zasadnicze znaczenie dla dalszych konstrukcji. Innym, ważnym przykładem rozmaitości różniczkowalnej o nietrywialnych własnościach globalnych jest tzw. wstęga M¨obiusa . Powstaje ona przez sklejenie z półobrotem dwóch końców wstążki, a konkretnie: Przykład: Weźmy wstążkę o długości nieco większej niż 2π i szerokości równej 2: W := {(ϕ, λ) ∈ R2 | − π − ε < ϕ < π + ε ; −1 < λ < 1} . Sklejamy jej wystające dłuższe końce, obracając przedtem jeden z nich w stosunku do drugiego o pół obrotu pełnego. Oznacza to, że dokonujemy następującego utożsamienia: {(ϕ1 , λ1 ) ∼ (ϕ2 , λ2 )} ⇐⇒ {|ϕ2 − ϕ1 | = 2π ; λ2 = −λ2 } . 51

Utożsamienie to, uzupełnione relacją trywialną, definiuje relację równoważności, którą również oznaczmy symbolem „∼”. Wstęga M¨obiusa, to wynik tego utożsamienia: M := W ∼ . Klasę elementu (ϕ, λ) ∈ W będziemy jak zazwyczaj oznaczali przez [(ϕ, λ)] ∈ M. Zauważmy, że dla ϕ ∈ [−π + ε, π − ε] klasa ta składa się z jednego tylko elementu, który nie został sklejony z niczym innym. Natomiast wszystkie pozostałe elementy wstęgi M¨obiusa składają się z par sklejonych elementów: [(ϕ, λ)] = {(ϕ, λ), (ϕ + 2π, −λ)} , gdzie −π − ε < ϕ < −π + ε oraz −1 < λ < 1. Wyróżnimy teraz w M następujące dwie parametryzacje: R2 ⊃ V1 =] − π − ε, ε[×] − 1, 1[∋ (ϕ, λ) −→ κ1 (ϕ, λ) := [(ϕ, λ)] ∈ M , R2 ⊃ V2 =] − ε, π + ε[×] − 1, 1[∋ (ϕ, λ) −→ κ2 (ϕ, λ) := [(ϕ, λ)] ∈ M . Część wspólna O := imV1 ∩ imV2 dziedzin obu map składa się z dwóch rozłącznych obszarów: O1 = {[(ϕ, λ)]|ϕ ∈] − (π + ε), π + ε[} ,

oraz

O2 = {[(ϕ, λ)]|ϕ ∈] − ε, +ε[} .

Łatwo widać, że w pierwszym z tych obszarów transformacja przejścia dana jest wzorem: (κ2 ◦ κ1 ) (ϕ, λ) = (ϕ + 2π, −λ) ,

(132)

zaś w drugim obszarze jest odwzorowaniem tożsamościowym: (κ2 ◦ κ1 ) (ϕ, λ) = (ϕ, λ) .

(133)

Pokazaliśmy w ten sposób, że wstęga M¨obiusa jest rozmaitością różniczkowalną klasy C ∞ . Sposób konstrukcji — przy pomocy nożyczek i kleju ze zwykłej wstążki — pokazuje, że można ją także zanurzyć jako podrozmaitość w trójwymiarowej przestrzeni afinicznej A3 . Lokalnie zatem, do zestawu współrzędnych (ϕ, λ) na wstędze można dobrać ich rozszerzenie na „gruby” kawałek otaczającej przestrzeni trójwymiarowej, oraz trzecią współrzędną ζ tak, by M było zbiorem rozwiązań rónwania ζ = 0. Niestety, taka współrzędna (czyli funkcja na A3 ) nie istnieje globalnie, w otoczeniu całej wstęgi. Gdyby bowiem taka funkcja istniała, to jej różniczka pozwalałaby wyróżnić jednoznacznie (na przykład przez zamalowanie) jedną stronę wstęgi M¨obiusa, tę mianowicie, po której stronie funkcja ζ rośnie (a musi rosnąć lub maleć, bowiem jej pochodna nie może być równa zeru!). Tymczasem wiemy, że jest to niemożliwe: rozpoczynając malowanie po którejkolwiek stronie wstęgi znajdziemy się za chwilę po jej drugiej stronie. Można powiedzieć, że wstęga M¨obiusa ma tylko jedną stronę! Zjawisko to opiszemy wkrótce, mówiąc o orientacji (wewnętrznej lub 52

zewnętrzej) rozmaitości różniczkowalnej. Choć jednak możliwość wyróżnienia jakiejś „strony” rozmaitości będzie wymagała wprowadzenia odpowiedniego aparatu matematycznego, to już teraz widzimy, że będzie to własność globalna a nie lokalna, bowiem mały (czyli lokalny) kawałek wstęgi M¨obiusa jest nie do odróżnienia od kawałka zwykłej (tzn, nie sklejonej, lub sklejonej bez półobrotu) wstążki.

53

3

Algebra pól wektorowych. Układy dynamiczne

3.1

Pole wektorowe

Pole wektorowe to kolekcja wektorów: po jednym w każdym punkcie rozmaitości. Jeśli zatem zastosować je do funkcji f , to otrzymamy kolekcję wartości, po jednej w każdym punkcie, czyli nową funkcję. Można wobec tego podać następującą definicję pola wektorowego: Definicja. Pole wektorowe jest to operator różniczkowy, ciągły 1 X : Cloc −→ Cloc

(134)

spełniający warunki: 1. X(af + bg) = aX(f ) + bX(g) , 2. X(f g) = f X(g) + gX(f ). Zastosowaliśmy tutaj zastrzeżenie „loc” w oznaczeniu zbioru funkcji, aby podkreślić lokalny charakter tych obiektów: funkcje nie muszą być określone na całej rozmaitości M a jedynie lokalnie, na otoczeniu punktu, który nas interesuje. W takich przestrzeniach rozważamy topologię zbieżności niemal jednostajnej w Cloc i niemal jednostajnej wraz z 1 pochodnymi pierwszego rzędu w Cloc . Jeśli X jest polem wektorowym, to jego wartość X(x) w punkcie x ∈ M, dana wzorem: (X(x))(f ) := (X(f ))(x) ,

(135)

jest oczywiście wektorem zaczepionym w punkcie x: X(x) ∈ Tx M . Wobec tego powyższą definicję pola wektorowego można zapisać bardziej lokalnie, jako odwzorowanie różniczkowalne z rozmaitości M w rozmaitość T M: M ⊃ O ∋ x → X(x) ∈ T M ,

(136)

jednak z zastrzeżeniem, że wartość tego odwzorowania w punkcie x musi być wektorem zaczepionym w tym samym punkcie. Różniczkowalność odwzorowania sprawdza się w układach współrzędnych. Jeśli zatem wybrać w M mapę daną przez (86) oraz odpowiadającą jej mapę w T M daną przez (93), to „konkretyzacja” odwzorowania X w tych mapach wygląda następująco: Rn ⊃ U ∋ (xk ) → (xk , X l (xk )) ∈ R2n .

(137)

Widzimy więc, że lokalnie, w układzie współrzędnych, całą informację o polu wektorowym niesie n funkcji X l których wartość koduje wartość współrzędnych wektora X(x) = X l (x) 54

∂ , ∂xl

w zależności od współrzędnych punktu zaczepienia x. Pole jest gładkie klasy C s jeśli te funkcje są takiej klasy. I znów ma to sens jedynie dla s ¬ l − 1, bowiem nawet gdyby w jednej mapie s było większe, to po transformacji do innej mapy nie ma szans na utrzymanie tak wysokiego stopnia gładkości, skoro prawa transformacyjne są jedynie (l − 1) razy różniczkowalne. Można zatem patrzeć na pole wektorowe, jako na odwzorowanie gładkie: X : M → TM

(138)

τ ◦ X = id .

(139)

z bazy M wiązki stycznej w samą przestrzeń wiązki T M i takie, że wartość X(x) tego odwzorowania w punkcie x należy do włókna Tx M wiązki. Ten ostatni warunek oznacza, że rzut τ czyni z X odwzorowanie tożsamościowe: Gładkie odwzorowanie z bazy wiązki w jej przestrzeń, spełniające ten warunek nazywa się cięciem wiązki. A zatem pole wektorowe, to po prostu cięcie wiązki stycznej.

3.2

Komutator pól wektorowych

Definicja: Komutatorem dwu pól wektorowych X i Y nazywamy operator różniczkowy [X, Y ] działający na funkcje w następujący sposób: [X, Y ](f ) := X(Y (f )) − Y (X(f )) .

(140)

Operator ten zawiera „pochodne pochodnych” więc na pierwszy rzut oka jest operatorem drugiego a nie pierwszego rzędu. Okazuje się jednak, że zachodzi „mały cud”, dzięki któremu „to co drugiego rzędu” w obu składnikach wyrażenia (140) upraszcza się i w końcu pozostaje nam operator pierwszego rzędu, a zatem znów pole wektorowe: Twierdzenie: Komutator pól wektorowych też jest polem wektorowym, tzn. spełnia powyższe aksjomaty. Uwaga: Warto, by właśnie powyższe sformułowanie tezy pozostało w pamięci czytelnika! Jednak a priori jest ono nieścisłe, bowiem zawiera pewien skrót myślowy: otóż funkcja f , pojawiająca się w definicji (140) musi a priori dopuszczać dwukrotne różniczkowania, aby prawa strona była określona. Okaże się jednak, że wynik jest ciągły w topologii C 1 , a zatem rozszerza się w sposób naturalny na funkcje różniczkowalne tylko jeden raz. Dowód: Obliczymy składowe [X, Y ]i względem układu współrzędnych (xi ), gdy znane są składowe X i oraz Y i obu pól i pokażemy, że są one dane wzorem: [X, Y ]j = X i ∂i Y j − Y i ∂i X j = X i

j ∂Y j i ∂X − Y . ∂xi ∂xi

(141)

Niech zatem będą dane dwa pola: ∂ , ∂xi ∂ Y =Yj j ∂x

X = Xi

55

(142) (143)

i obliczmy działanie ich komutatora na dowolną funkcję f , różniczkowalną co najmniej dwa razy: !

!

∂ ∂f ∂ ∂f [X, Y ](f ) = X Y j j −Y j j X i i i ∂x ∂x ∂x ∂x j 2 2 i i ∂Y ∂f i j ∂ f j i ∂ f j ∂X ∂f =X +X Y −Y X −Y i j ∂xi ∂xj ∂xj ∂xi ∂xj ∂xi !∂x ∂x j j ∂X ∂ ∂Y (f ) , = Xi i − Y i i ∂x ∂x ∂xj i

(144) (145) (146)

bowiem drugie pochodne są symetryczne: ∂2f ∂2f = ∂xi ∂xj ∂xj ∂xi zatem upraszczają się. Natomiast ostatni człon powstał z ostatniego członu w (145) poprzez „przechrzczenie” wskaźnika „i” na „j” i odwrotnie. Taką operację stosuje się bardzo często w rachunkach pojawiających się w geometrii różniczkowej. Jest ona oczywiście dopuszczalna, bowiem oba wskaźniki są „martwe”: nie pozostają jako numer jakiejś składowej jakiegoś obiektu geometrycznego a jedynie numerują składniki sumy. To tak, jak gdyby „przechrzcić” nazwę zmiennej całkowania: Z

b

a

f (x)dx =

Z

b

a

f (y)dy ,

która to operacja nie zmienia przecież wyniku całkowania! W naszym wypadku skorzystaliśmy z tożsamości: j ∂X i ∂f i ∂X ∂f = Y , Yj j ∂x ∂xi ∂xi ∂xj bowiem obie strony są równe podwójnej sumie powyższych członów dla i = 1, . . . , n oraz j = 1, . . . , n. Wzór (146) pokazuje, że istotnie, komutator jest ciągłym operatorem pierwszego rzędu, choć był definiowany przy pomocy operatorów drugiego rzędu. Jego liniowość jest oczywista. Sprawdzimy drugi aksjomat, czyli wzór Leibnitza: [X, Y ](f g) = X(Y (f g)) − Y (X(f g)) = = X(f Y (g)) + gY (f )) − Y (f X(g) + gX(f )) = X(f )Y (g) + f X(Y (g)) + X(g)Y (f ) + gX(Y (f ))+ − Y (f )X(g) − f Y (X(g)) − Y (g)X(f ) − gY (X(f )) = = f ([X, Y ](g)) + g([X, Y ](f ))  Zbiór pól wektorowych jest przestrzenią wektorową. Komutator jest działaniem na elementach tej przestrzeni. Twierdzenie: Komutator pól [X, Y ] ma następujące własności: 56

1. jest wyrażeniem bi-liniowym, to znaczy liniowym względem każdego z pól; 2. jest antysymetryczny tzn. zmienia znak gdy zamienić miejscami oba pola: [X, Y ] = −[Y, X]; 3. spełnia tzw. tożsamość Jacobi’ego: [X, [Y, Z]] + [Y, [Z, X]] + [Z, [X, Y ]] = 0 .

(147)

Dowód: prosty, bezpośrednio z definicji oraz ze wzoru współrzędniowego (141).  Definicja: Skończenie wymiarowa przestrzeń wektorowa wyposażona w działanie spełniające powyższe własności nazywa się algebrą Lie’ego . Zbiór wszystkich pól wektorowych na rozmaitości jest przestrzenią nieskończenie wymiarową, a w tym przypadku pojęcie algebry Lie’ego jest dużo trudniejsze. Jednak często rozważa się skończenie wymiarowe podprzestrzenie tej dużej przestrzeni, zamknięte ze względu na działanie komutatora. I wtedy taka przestrzeń jest algebrą Lie’go. Przykład: Pola wektorów stycznych do linii współrzędnych w ustalonym układzie współrzędnych „komutują” wzajemnie, tzn. ich komutator jest równy zeru. Wynika to z faktu, że drugie pochodne są symetryczne, a zatem operatory ∂x∂ k oraz ∂x∂ l są przemienne: ∂ ∂ ∂ ∂ = l k k l ∂x ∂x ∂x ∂x a więc ich komutator, równy różnicy obu tych operatorów drugiego rzędu, znika tożsamościowo. Warto zauważyć, że fakt ten wynika również z wzoru współrzędnościowego. Rzeczywiście, współrzędne pola ∂x∂ k są funkcjami stałymi: współrzędna o numerze k jest równa 1 a pozostałe są równe zeru. Warto w tym miejscu wprowadzić bardzo wygodne oznaczenie tzw. delty Kroneckera: Definicja: Delta Kroneckera oznacza elementy macierzy jednostkowej zapisane w następujący sposób: ( 1 gdy k = l δlk = . (148) 0 gdy k 6= l Używając tego oznaczenia mamy:

∂ ∂ = δkj j , k ∂x ∂x bowiem z sumy po wszystkich wartościach wskaźnika j pozostaje jedynie ten, który odpowiada wartości j = k.

3.3

Sens analityczny a sens geometryczny

Wyrażenie (141) na współrzędne komutatora zawiera różnicę dwóch wyrażeń. Warto zauważyć, że poszczególne człony tej różnicy nie mają żadnego sensu geometrycznego. Rzeczywiście, gdyby — w ustalonym układzie współrzędnych — próbować naiwnie zdefiniować 57

pole wektorowe „∇X Y ” wzorem „∇X Y ” = X i

∂Y j ∂ , ∂xi ∂xj

(149)

a które wygląda jak „pochodna pola Y w kierunku pola X”, to operacja taka nie ma większego sensu, bowiem jej wynik zależy od układu współrzędnych, w którym ją definiujemy. I rzeczywiście: przejdźmy do innego układu współrzędnych {η a } w tej samej przestrzeni. Ponieważ mamy: ∂y a ∂ ∂ = , (150) ∂xi ∂xi ∂y a otrzymujemy zatem: a ∂ ∂ i ∂y ˜a ∂ , = X =X i i a ∂x ∂x ∂y ∂y a a ∂ ∂y ∂ ∂ Y = Y j j = Y j j a = Y˜ a a , ∂x ∂x ∂y ∂y

X = Xi

(151) (152)

˜ a ) oraz (Y˜ a ) są współrzędnymi tych samych pól w nowym układzie współrzędnych. gdzie (X Wyrazimy zatem współrzędne definiowanego pola „∇X Y ” w nowych współrzędnych: „∇X Y ” = =

!

!

2 b ∂ j ∂y b ∂ ∂ i ∂ ˜b i j ∂ y Y = X Y − X Y X i j b i i j ∂x ∂x ∂y ∂x ∂x ∂x ∂y b ! 2 b ∂ ˜ a ∂ Y˜ b ∂ − X i Y j ∂ y . X a b i j ∂y ∂y ∂x ∂x ∂y b i

(153)

Pierwszy człon jest rzeczywiście równy podobnemu wyrażeniu jak to definiujące (149), ale obliczonemu w nowych współrzędnych. Pozostaje jednak różny od zera dodatek zawierający drugie pochodne nowych współrzędnych względem starych. Mamy więc: !

2 b ˜b ∂ ∂ i j ∂ y ˜ a ∂Y „∇X Y ” = X − X Y . a b i j ∂y ∂y ∂x ∂x ∂y b

(154)

Gdybyśmy natomiast liczyli składowe obiektu „∇X Y ” we współrzędnych (η a ) według „definicji” (149), to wystąpiłby tylko pierwszy człon. A zatem „definicja” ta nie ma żadnego sensu geometrycznego, bowiem zależy od wyboru układu współrzędnych. Na podkreślenie zasługuje jednak fakt, że drugi człon w powyższym wzorze jest symetryczny względem zamiany X na Y , wobec tego upraszcza się w wyrażeniu: „∇X Y ” − „∇Y X” = [X, Y ] ,

(155)

w wyniku czego otrzymujemy obiekt geometryczny, już niezależny od opisu współrzędniowego. Było to oczywiste od samego początku, bowiem obiekt ten zdefiniowaliśmy wzorem (140) przy pomocy operacji czysto geometrycznych, bez użycia żadnych układów współrzędnych. 58

Ten prosty przykład ilustruje tezę, iż geometria jest nauką o inteligentnym stosowaniu narzędzi analizy matematycznej. Wszystkie struktury geometryczne można definiować analitycznie wzorami zapisanymi przy pomocy współrzędnych. Tak wyglądają stare podręczniki z geometrii różniczkowej. Każdą taką definicję należy uzupełnić „dowodem poprawności”, to znaczy wykazać, że użyte do definicji wyrażenie analityczne transformuje się poprawnie przy zmianie układu współrzędnych. Jest tak, bowiem wśród ogromnej masy wyrażeń analitycznych, które można sobie zapisać w ustalonym układzie współrzędnych, te które mają sens geometryczny są bardzo wyjątkowe! I właśnie powyższa definicja (149) takiego testu nie przeszła, czyli nie jest poprawna. W naszym wykładzie przyjmujemy zupełnie inną strategię: podajemy definicje struktur geometrycznych bez odwoływania się do układu współrzędnych, a dopiero potem pokazujemy jak — np. w celach rachunkowych — reprezentować daną strukturę geometryczną w języku współrzędniowym. Warto tu jeszcze zauważyć, że gdy pole Y znika w danym punkcie, wtedy kłopotliwy dodatek we wzorze (154), zawierający drugie pochodne, znika w tym punkcie i nasz nieprawidłowo zdefiniowany obiekt „∇X Y ” nabiera — ale jedynie w tym punkcie — sensu: jest dobrze określonym wektorem. Zresztą wektor ten jest po prostu równy wartości komutatora [X, Y ] w tym punkcie, bowiem drugi człon po lewej stronie równości, czyli wyrażenie „∇Y X” zeruje się w tym punkcie. Nad obserwacją powyższą warto się zatrzymać w nieco szerszym kontekście krzywych w wiązce stycznej. Jeśli mamy taką krzywą sparametryzowaną ]a, b[∋ t → β(t) = vx(t) ∈ T M ,

(156)

to w układzie współrzędnych jest ona opisana przy pomocy 2n funkcji: ]a, b[∋ t → (xk (t), v l (t)) ,

(157)

gdzie (xk (t)) są współrzędnymi punktu x(t), zaś vx(t) = v l (t) ∂x∂ l . Wektor styczny do tej krzywej jest równy: ˙ = x˙ k (t) ∂ + v˙ l (t) ∂ ∈ T (T M) , β(t) (158) ∂xk ∂v l to znaczy ma współrzędne (x˙ k (t), v˙ l (t)). Zwróćmy uwagę, że nie jest to wektor styczny do M, lecz do wiązki stycznej T M. Okazuje się, że jego pierwsza połowa reprezentuje również wektor styczny do samego M. Wynika to z faktu, że gdy zapomnieć o „pionowej składowej” tej krzywej, to znaczy zrzutować ją na bazę wiązki stycznej, γ(t) = τ ◦ β(t) , to otrzymamy krzywą w M, której wektor styczny jest oczywiście transportem wektora β˙ przy pomocy rzutu τ : ∂ γ˙ = τ∗ β˙ = x˙ k (t) k . ∂x

59

Tak więc „pierwsza połowa” (x˙ k (t)) wektora (158) jest rzeczywiście wektorem stycznym do M. Natomiast „druga połowa”: (v˙ l ) nie koduje informacji o żadnym obiekcie geometrycznym. Aby się o tym przekonać, obliczmy ją w innym układzie współrzędnych (y a ). Mamy: ∂ ∂y a ∂ ∂ vx = v l l = v l l a = v˜a a , ∂x ∂x ∂y ∂y to znaczy: ! a a 2 a l ∂y l ∂ y ˙v˜a = d v l ∂y = v ˙ + v x˙ k . (159) dt ∂xl ∂xl ∂xk ∂xl A zatem: nie znając pierwszej połówki (x˙ k (t)), nie wiemy jak wygląda „druga połówka” w nowym układzie współrzędnych (ale znając obydwie potrafimy obydwie przetransformować do nowego układu bo przecież są to współrzędne wektora stycznego do T M). Obserwacja ta nie jest bardzo odkrywcza: do znalezienia nawet części składowych wektora w nowym układzie współrzędnych musimy naogół znać wszystkie jego składowe w starym układzie! Jednak wzór (159) implikuje pewien bardzo ciekawy fakt: jeśli zachodzi (x˙ k (t)) = 0, to nie tylko umiemy obliczyć wartość pochodnych v˜˙ a (t), ale transformują się one jak składowe wektora stycznego do M, mamy bowiem: a

∂y v˜˙ a = v˙ l l . ∂x Warunek (x˙ k (t)) = 0 odpowiada niezależnemu od współrzędnych, geometrycznemu warun˙ a mianowicie warunkowi: kowi znikania rzutu wektora stycznego β, τ∗ β˙ = 0 . Takie wektory styczne do wiązki T (T M) nazywa się „pionowymi”. W ten sposób wykazaliśmy następujące, niezwykle użyteczne Twierdzenie 1: Podprzestrzeń wektorów pionowych, stycznych do T M w punkcie v, jest kanonicznie izomorficzna z przestrzenią wektorów stycznych do M w punkcie τ (v). W układzie współrzędnych (97) izomorfizm ten polega na utożsamieniu wektora v˙ l ∂v∂ l ∈ T (T M) z wektorem v˙ l ∂x∂ l ∈ T M. Dowód: Przedstawione powyżej rozumowanie, zapisane przy pomocy współrzędnych, jest już pełnym dowodem. Można jednak przytoczyć nieco bardziej elegancki argument. Otóż gdyby cała krzywa β była pionowa, to znaczy gdyby jej rzut na M był stały: τ ◦β(t) = x = const., lub inaczej: β(t) ∈ Tx M, wtedy można byłoby zapomnieć o całej rozmaitości, bowiem β byłaby krzywą w przestrzeni wektorowej i w tym sensie jej pochodna byłaby elementem tej samej przestrzeni wektorowej. Oczywiście każdy wektor pionowy może być reprezentowany jako wektor styczny do krzywej pionowej, co kończy dowód.  Uwaga: Powyższe rozważania można streścić jeszcze inaczej. Używając układu współrzędnych (93) można krzywej β(τ ) = (xk (τ ), v l (τ )) przypisać krzywą pionową (v l (τ )) w Tx(t) M i obliczyć jej wektor styczny (v˙ l (t)) w Tx(t) M. Jeśli jednak użyjemy innego układu współrzędnych (y k (τ ), v˜l (τ )), to otrzymamy inny wektor (v˜˙ l (t)) ∈ Tx(t) M. Wzór (159) 60

pokazuje jednak, że gdy rzut τ ◦ β naszej krzywej na M ma znikający wektor styczny w punkcie t, to znaczy gdy (x˙ k (t)) = 0, wtedy obie krzywe w M mają ten sam wektor styczny. I to jest właśnie ten wektor styczny do M, który przyporządkowujemy wektorowi pionowemu, stycznemu do T M. Równanie (159) pokazuje, że lewa strona jest wektorem stycznym do M również w przypadku, gdy znika wektor vx , czyli znikają jego współrzędne (v l ). A zatem obie „połówki”: (x˙ k ) oraz (v˙ k ), wektora (x˙ k , v˙ k ) stycznego do T M, są w tym przypadku wektorami stycznymi do M. Otrzymaliśmy w ten sposób Twierdzenie 2: Przestrzeń styczna do T M w zerze 0x ∈ Tx M jest iloczynem kartezjańskim: T0x (T M) = Tx M × Tx M . (160)

3.4

Pole wektorowe jako układ dynamiczny. Jednoparametrowe grupy diffeomorfizmów

Krzywą całkową pola wektorowego X na rozmaitości M nazywamy taką krzywą sparametryzowaną γ, której wektor styczny pokrywa się w każdym jej punkcie z wartością pola X w tym punkcie: γ(t) ˙ = X(γ(t)) . (161) W lokalnym układzie współrzędnych (xk ) na M krzywa zapisuje się jako γ(t) = (xk (t)) . Pole wektorowe jest dane przez wartość swoich n współrzędnych: X = Xk

∂ ∂xk

i wtedy warunek (161) jest układem równań różniczkowych zwyczajnych: x˙ k (t) = X k (x(t)) ,

(162)

co w skrócie będziemy również zapisywali następująco: x˙ k = X k .

(163)

Taki układ nazywa się układem dynamicznym, co oznacza iż jego prawa strona nie zależy explicite od „czasu” t a jedynie od zmiennych xk czyli od położenia punktu krzywej γ w rozmaitości M. Jeśli pole wektorowe X jest odpowiednio gładkie (na przykład klasy C 1 ), to problem początkowy jest lokalnie dobrze postawiony. Oznacza to, że dla każdego punktu x ∈ M istnieje lokalnie jedyna krzywa całkowa ] − ε, ε[∋ t → γx (t) ∈ M 61

(164)

startująca z tego punktu, tzn. spełniająca warunek początkowy γx (0) = x .

(165)

Oznaczmy punkty tej krzywej w następujący sposób γx (t) =: GtX (x) .

(166)

Ponieważ dla dostatecznie gładkiego pola X rozwiązanie układu (163) zależy w sposób gładki od warunku początkowego x, to otrzymaliśmy jednoparametrową „lokalną” rodzinę odwzorowań rozmaitości M w siebie samą: GtX : M → M .

(167)

Z warunku początkowego (165) wynika oczywiście, że G0X jest identycznością: G0X = id .

(168)

Dla ustalonej „chwili czasu” s ∈ ] − ε, ε[, leżącej w dziedzinie istnienia (164) lokalnego rozwiązania γx układu dynamicznego (163), możemy skonstruować inną krzywą całkową: t → λ(t) := γx (s + t) .

(169)

Dowód, że jest to również krzywa całkowa tego układu sprowadza się do trywialnego rachunku: ˙ λ(t) = γ˙ x (s + t) = X(γ(s + t)) = X(λ(t)) , gdzie oczywiście wykorzystaliśmy fakt, iż pole X nie zależy od czasu, tzn. mamy do czynienia z układem dynamicznym . Oznaczmy punkt początkowy krzywej λ przez y := λ(0) = γx (s). Z jednoznaczności krzywej całkowej otrzymujemy zatem tożsamość γx (s + t) = λ(t) = γy (t) .

(170)

Ta sama równość, wyrażona w języku odwzorowania (166) wygląda następująco: 



X Gs+t (x) = GtX (y) = GtX GsX (x) ,

co można zapisać w postaci superpozycji odwzorowań GtX oraz GsX , a mianowicie: Twierdzenie 1: Zachodzi prawo składania: X Gt+s = GtX ◦ GsX .

(171)

Powyższą własność można byłoby nazwać własnością grupową i stwierdzić, że rodzina odwzorowań GtX stanowi reprezentację grupy addytywnej liczb rzeczywistych (R, +) w grupie diffeomorfizmów rozmaitości M, gdyby nie fakt, że — być może — nie ma tu żadnego

62

diffeomorfizmu! I rzeczywiście: oznaczenie (167) jest nieco mylące5 , bowiem musimy pamiętać, że ε we wzorze (164) zależy od punktu x. Gdy posuwamy się na rozmaitości M coraz dalej, to odcinek czasu, dla którego istnieje lokalna krzywa całkowa może stawać się coraz mniejszy tak, że dla każdej ustalonej wartości t 6= 0 odwzorowanie GtX nie jest określone na całym M, więc nie jest globalnym diffeomorfizmem. Gdyby istniało jakieś ograniczenie z dołu dla tych epsilonów, czyli jakieś ε0 takie, że krzywe całkowe istnieją przynajmniej dla wartości |t| < ε0 , wtedy korzystając z własności (170) można byłoby je przedłużać dowolnie w przód i w tył w czasie. W takim przypadku odwzorowania GtX byłyby dane globalnie, to znaczy dla wszystkich wartości czasu t i dla wszystkich punktów rozmaitości x ∈ M. Wtedy wzór (171) implikuje, że są to globalne diffeomorfizmy oraz że odwzorowanie odwrotne otrzymuje się zamieniając „t” na „−t”: 

GtX

−1

X = G−t .

(172)

Poza tym odwzorowania GtX odpowiadające różnym wartościom parametru t są przemienne (mówimy także: „komutują”) bowiem, na mocy (171), ich złożenie w dowolnej kolejności daje ten sam wynik, odpowiadający sumie obu wartości tego parametru: GtX ◦ GsX = GsX ◦ GtX .

(173)

Definicja: Pole wektorowe na rozmaitości M, które generuje globalną, to znaczy określoną dla wszystkich x ∈ M i wszystkich t ∈ R, grupę diffeomorfizmów GtX , nazywamy polem zupełnym. W ogólnym przypadku pole nie jest zupełne. Wtedy takie uniwersalne ε0 nie istnieje i (poza wartością t = 0) odwzorowania GtX są dane jedynie lokalnie. Powyższe trzy prawa: składania (171), wzór na transformację odwrotną (172) oraz prawo przemienności (173), obowiązują jedynie dla tych wartości parametrów, dla których obie strony „mają sens”, tzn. są określone. Przykład: Na osi rzeczywistej M = R rozważmy pole wektorowe X(x) = x2

∂ . ∂x

Rozwiązując równanie różniczkowe x˙ = x2 , metodą rozdzielenia zmiennych otrzymujemy dx = x2 dt

;



dx 1 dt = 2 = d − x x



;

t−C =−

Wobec tego każda krzywa całkowa pola X ma postać: 1 1 C γ(t) = = C −t 1− 5

Ale i tak będziemy go używać.

63

t C

.

1 . x

Aby spełnić warunek początkowy γ(0) = x musimy położyć

1 C

= x. Mamy zatem

x , 1 − tx

γx (t) = lub, inaczej:

x . (174) 1 − tx Jak widać, dla ustalonego punktu na półosi dodatniej: 0 < x ∈ R, odwzorowanie to jest określone jedynie dla t < x1 . Natomiast na półosi ujemnej x < 0 jest ono określone jedynie dla t > x1 . Jedynie w punkcie x = 0 rozwiązanie można przedłużać w nieskończoność: GtX (0) = 0 dla dowolnej wartości parametru t. Można tę własność pola X podsumować następującym stwierdzeniem: w skończonym czasie t pole X wynosi punkty rozmaitości M do nieskończoności. A zatem pole to nie jest zupełne. Można natomiast sprawdzić, że prawo składania (171) obowiązuje wszędzie tam, gdzie obie strony równości mają sens. I rzeczywiście: jeśli oznaczyć y = GtX (x), to zachodzi: GtX (x) =



GsX



GtX



x

(x) =

GsX (y)

y x 1−tx = = = x 1 − sy 1 − s 1−tx 1 − sx − tx

X = Gs+t (x) .

Uwaga: Warto zwrócić uwagę na to, że działanie pola wektorowego X na funkcję f polega na różniczkowaniu jej wzdłuż trajektorii grupy GtX , bowiem trajektorie te są krzywymi całkowymi pola. Mamy bowiem



  d d f (γx (ǫ)) = f GǫX (x) , X(x)(f ) = dǫ ǫ=0 dǫ ǫ=0

(175)

co można zapisać w skrócie następująco:



d X(f ) = f ◦ GǫX . dǫ ǫ=0

(176)

Twierdzenie 2: Krzywe całkowe dwu pól proporcjonalnych do siebie różnią się od siebie jedynie parametryzacją: jeśli γ(t) jest krzywą całkową pola X, to krzywą całkową pola Y = f · X jest γe (s) := γ(φ(s)) gdzie funkcja zamiany parametryzacji R ∋ s → φ(s) = t ∈ R

˙ musi spełniać równanie różniczkowe zwyczajne: φ(s) = f (γ(φ(s))). Dowód: Wychodząc z tego samego twierdzenia o różniczkowaniu superpozycji otrzymujemy: d ˙ ˙ γe˙ (s) = (γ ◦ φ)(s) = γ(φ(s)) ˙ · φ(s) = φ(s)X(γ(φ(s))) = f (γe (s))X(γe (s)) = Y (γe (s)) . ds 64



Ważnym przykładem jest liniowa zmiana parametryzacji: φ(t) = at, a ∈ R. Wtedy φ˙ ≡ a jest funkcją stałą i otrzymujemy: γe˙ = aX .

(177)

X GtaX = Gat .

(178)

Wynika stąd, że to grupa GtY generowana przez pole Y = aX powstaje z grupy GtX , generowanej przez pole X przez reparametryzację:

Można obrazowo powiedzieć, że pole aX unosi punkty rozmaitości M po tych samych krzywych całkowych (trajektoriach), ale z inną prędkością. W szczególności dla a < 0 ruch odbywa się w przeciwną stronę, zaś dla a = 0 nic się nie rusza i mamy Gt0 = id. Zachodzi również następująca, uniwersalna tożsamość: Twierdzenie 3: Grupa diffeomorfizmów generowana przez pole wektorowe X nie zmienia tego pola podczas transportu: 

GtX





X =X .

(179)

Dowód: Oznaczmy y = GtX (x). Transport stanowi odwzorowanie przestrzeni stycznych:   GtX : Tx M → Ty M . ∗

Na mocy definicji transportu (103) dla wektorów oraz wzoru (175) na pochodną funkcji wzdłuż pola wektorowego, możemy dla dowolnej funkcji f napisać następujący ciąg równości: h



GtX ∗

i

X(x) (f ) = X(x) = = =



h

∗ GtX

i

h

f = X(x) f ◦

GtX

i



i  d h = f ◦ GtX GǫX (x) dǫ ǫ=0

i i d h d h f ◦ GtX ◦ GǫX (x) = f ◦ GǫX ◦ GtX (x) dǫ ǫ=0 dǫ ǫ=0



i  i d h d h X X X f ◦ G G (x) = f ◦ G (y) ǫ t ǫ dǫ ǫ=0 dǫ ǫ=0

  d f GǫX (y) = X(y)(f ) . dǫ ǫ=0

Widzimy, że dwa operatory różniczkowe: ten na początku oraz ten na końcu powyższego ciągu nierówności, dają ten sam wynik w działaniu na dowolną funkcję. Zatem są one sobie równe:   GtX X(x) = X(y) , (180) ∗

co jest właśnie bardziej konkretnym zapisem tezy (179).  Zawarte w ostatnim zdaniu rozumowanie polega na „uproszczeniu” obu stron równości przez funkcję f . Będziemy często stosować ten skrót myślowy w dalszym ciągu wykładu. 65

Przykład: Niech Z będzie polem wektorowym na trójwymiarowej przestrzeni euklidesowej, które w układzie współrzędnych sferycznych (2) jest zdefiniowane jako pole wektorów stycznych do linii współrzędnej ϕ, to znaczy: Z=

∂ . ∂ϕ

Na mocy wzoru (37), to samo pole wyraża się we współrzędnych kartezjańskich (x, y, z) jako ∂ ∂ Z=x −y . (181) ∂y ∂x We współrzędnych sferycznych zachodzi równość GtZ (r, θ, ϕ) = (r, θ, ϕ + t) ,

(182)

a zatem GtZ jest obrotem wokół osi „z” o kąt t. Odwzorowanie to jest dane globalnie, dla wszystkich punktów przestrzeni i dla wszystkich wartości parametru t. Oznacza to, że Z jest polem zupełnym. Widzimy, że zbiór wszystkich takich odwzorowań, odpowiadających wszystkim możliwym wartościom parametru „t” stanowi grupę obrotów wokół osi „z”, bowiem zachodzi: 



Z GsZ ◦ GtZ (r, θ, ϕ) = GsZ (r, θ, ϕ + t) = (r, θ, ϕ + t + s) = Gt+s (r, θ, ϕ) ,

Z a więc GsZ ◦ GtZ = Gt+s . Jest to grupa przemienna lub – inaczej – abelowa, bowiem ostatni wzór implikuje również tożsamość GsZ ◦ GtZ = GtZ ◦ GsZ . Jako pożyteczne ćwiczenie opiszemy to samo odwzorowanie w zmiennych kartezjańskich. Zgodnie z wzrorem (162), krzywe całkowe pola (181) są dane układem równań różniczkowych:    x˙ = −y , y˙ = x ,    z˙ = 0 .

Dowolne rozwiązanie tego układu równań przybiera postać:

(x(t), y(t), z(t)) = (a cos t − b sin t, a sin t + b cos t, c) , gdzie a, b, c ∈ R są dowolnymi stałymi. Punkt GtZ (x, y, z) może być wyznaczony z warunku początkowego G0Z (x, y, z) = (x, y, z), co daje: (a, b, c, ) = (x, y, z). Tak więc otrzymujemy: GtZ (x, y, z) = (x cos t − y sin t, x sin t + y cos t, z) = (˜ x, y˜, z˜) , gdzie współrzędne „obrazu”, czyli punktu GtZ (x, y, z), oznaczyliśmy jako (˜ x, y˜, z˜). Powyższa równość to kartezjańska wersja wzoru (182). Można ją zapisać również jako:   ˜  x

= x cos t − y sin t , y˜ = x sin t + y cos t ,    z˜ = z . 66

(183)

A to jest opis współrzędniowy odwzorowania GtZ działającego z przestrzeni parametryzowanej współrzędnymi (x, y, z) w przestrzeń parametryzowaną współrzędnymi (˜ x, y˜, z˜) (nawet jeśli jest to ta sama przestrzeń i te same współrzędne!). Zgodnie zatem z formułą (107), lub jej skrótową wersją (108), odwzorowanie styczne do GtZ działa w następujący sposób: 



GtZ ∗



GtZ



GtZ









!

∂ ∂ x˜ ∂ ∂ y˜ ∂ ∂ z˜ ∂ ∂ ∂ = + + = cos t + sin t , ∂x ∂x ∂ x˜ ∂x ∂ y˜ ∂x ∂ z˜ ∂ x˜ ∂ y˜ ! ∂ x˜ ∂ ∂ y˜ ∂ ∂ z˜ ∂ ∂ ∂ ∂ = + + = − sin t + cos t , ∂y ∂y ∂ x˜ ∂y ∂ y˜ ∂y ∂ z˜ ∂ x˜ ∂ y˜ ! ∂ ∂ x˜ ∂ ∂ y˜ ∂ ∂ z˜ ∂ ∂ = + + = . ∂z ∂z ∂ x˜ ∂z ∂ y˜ ∂z ∂ z˜ ∂ z˜

(184) (185) (186)

Warto zauważyć, że pole aZ generuje obroty wokół tej samej osi, ale z inną prędkością kątową (gdy a < 0, to w przeciwną stronę). Wynika to bezpośrednio z wzoru (178). Dokonując cyklicznej zamiany zmiennych „x → y → z → x” we wzorze (181), otrzymamy wyrażenie na pole wektorowe X, generujące grupę obrotów wokół osi „x” i pole wektorowe Y , generujące obroty wokół osi „y”: 

∂ ∂ − z ∂y X = y ∂z   

Y

∂ ∂ = z ∂x − x ∂z

∂ ∂ Z = x ∂y − y ∂x

          

(187)

.

Ćwiczenie: Proszę pokazać, że zachodzą równości:

[X, Y ] = −Z , [Y, Z] = −X , [Z, X] = −Y ,

(188)

powstałe z pierwszej przez cykliczną zamianę zmiennych. Wniosek: Zbiór pól wektorowych generujących obroty względem dowolnej osi jest trójwymiarową przestrzenią kombinacji liniowych powyższych pól X, Y i Z. Jest ona zamknięta ze względu na komutator, a zatem stanowi algebrę Lie’ego. Ćwiczenie: Korzystając ze wzorów (184) — (186) możemy obliczyć transport pola X względem pola Z: 



GtZ ∗

∂ ∂ y −z ∂z ∂y

!





∂ ∂z

!





!

∂ = y −z ∂y ! ∂ ∂ ∂ = y − z − sin t + cos t . ∂ z˜ ∂ x˜ ∂ y˜ GtZ ∗

GtZ ∗

Teraz trzeba jeszcze wyrazić wartość funkcji y i z w języku współrzędnych (˜ x, y˜, z˜) na mocy równań (183), tzn.: z = z˜ oraz y = −˜ x sin t + y˜ cos t. Ostatecznie więc otrzymujemy: 



GtZ ∗

∂ ∂ ∂ (X) = (−˜ x sin t + y˜ cos t) − z˜ − sin t + cos t ∂ z˜ ∂ x˜ ∂ y˜ 67

!

= X cos t + Y sin t (189)

3.5

Pole wektorowe jako infinitezymalna postać grupy diffeomorfizmów

Odpowiedniość między polami wektorowymi a lokalnymi grupami diffeomorfizmów jest jedno-jednoznaczna. Pole wyznacza grupę, a grupa jednoznacznie definiuje pole, bowiem zachodzi następujący fakt. Twierdzenie: Jeśli Gt jest lokalną grupą diffeomorfizmów rozmaitości M to istnieje pole wektorowe X na M takie, że zachodzi Gt = GtX .

(190)

Dowód: Zdefiniujemy wartość pola X w punkcie x ∈ M jako wektor styczny w zerze do krzywej γx (t) := Gt (x) , to znaczy kładziemy:



d Gǫ (x) . X(x) := γ˙ x (0) = dǫ ǫ=0

(191)

Aby wykazać wzór (190) musimy dowieść, że wektor styczny do krzywych γx jest równy wartości pola X nie tylko w zerze, co zostało już wymuszone powyższą definicją, ale też dla każdej innej wartości parametru t. Mamy zatem do wykazania następującą tożsamość: γ˙ x (t) = X(γx (t)) , i tutaj dopiero wykorzystamy własności grupowe odwzorowań Gt . Oznaczmy Gt (x) = y. Dla dowolnej funkcji f zachodzi wzór: (γ˙ x (t)) (f ) = =







d d d f (γx (τ )) = f (Gτ (x)) = f (Gǫ (Gt (x))) dτ τ =t dτ τ =t dǫ ǫ=0

d f (γy (ǫ)) = γ˙ y (0)(f ) = X(y)(f ) . dǫ ǫ=0

„Upraszczając” obie strony tej tożsamości przez f otrzymujemy tezę: γ˙ x (t) = X(y) = X(γx (t))  Na definicję (191) pola X generującego (lokalną) grupę transformacji Gt = można spojrzeć jeszcze inaczej: jako na pierwszy wyraz rozwinięcia Taylora względem parametru t. Skoro bowiem GX 0 (x) = x, a pierwsza pochodna po t w zerze jest równa X(x) to szereg Taylora z dokładnością do wyrazów pierwszego rzędu wyglądałby następująco: GtX

GX t (x) = x + tX(x) + o(t) .

(192)

Wzór ten nie ma sensu geometrycznego, bowiem suma x+tX(x), składająca się z punktu x oraz wektora tX(x) ∈ Tx M, ma sens jedynie w przestrzeni afinicznej, natomiast w ogólnej 68

rozmaitości różniczkowalnej M nie jest w ogóle określona. Wzór ten można rozumieć w sensie współrzędniowym: jako dodawanie odpowiednich współrzędnych wektora do współrzędnych punktu. Ale w takim razie suma ta nie jest określona jednoznacznie, bowiem zależy od tego, w jakim układzie współrzędnych zdecydowaliśmy się ją przeprowadzić! Jednak wzór (192) mówi nam, że różnica wyników otrzymanych przy użyciu dwóch różnych układów współrzędnych jest małą wyższego rzędu niż t. Powyższą obserwację można też sformułować w sposób niezależny od układu współrzędnych. Ma ona ważny sens heurystyczny, do którego będziemy się wielokrotnie odwoływać w tym wykładzie. Można mianowicie powiedzieć, że „translacja punktu x o wektor styczny ǫv ∈ Tx M jest dobrze określona „z dokładnością do małych rzędu wyższego niż ǫ” i wynosi właśnie GX ǫ (x), gdzie X jest dowolnym polem wektorowym przyjmującym w punkcie x wartość v: X(x) = v . Wynik nie jest określony jednoznacznie, bowiem dla danego wektora v ∈ Tx M jest wiele pól wektorowych przyjmujących akurat tę wartość w punkcie x. Jednak wzór (192) mówi nam, że różnica wyników otrzymanych przy pomocy dwóch różnych pól spełniających ten warunek jest „małą wyższego rzędu”. W starych podręcznikach geometrii różniczkowej taką transformację GX ǫ (x) punktu x nazywano „infinitezymalnym przesunięciem” o wektor ǫv. Takie określenie niesie ważny potencjał heurystyczny i jeszcze nieraz będziemy się nim posługiwać.

3.6

Uniwersalna postać pola wektorowego

Znajdowanie lokalnej grupy diffeomorfizmów GtX dla danego pola X jest nazywane „całkowaniem” pola wektorowego. Ta — na ogół niewykonalna analitycznie — operacja jest szczególnie łatwa dla pól stałych w danym układzie współrzędnych. Nie różni się ona analitycznie od grupy przesunięć o stały wektor w przestrzeni afinicznej. Rzeczywiście, jeśli współrzędne X k pola X = X k ∂x∂ k są stałe, to GtX (xk ) = (xk + tX k ) .

(193)

W szczególności gdy X k = δjk , to znaczy gdy X = ∂x∂ j jest polem stycznym do linii współrzędnej j, to G X jest grupą przesunięć tej współrzędnej, zachowującą wartość pozostałych ∂ współrzędnych punktu. Tak było dla pola Z = ∂ϕ , generującej przesunięcia wartości długości geograficznej ϕ, czyli obroty. Pole X = ∂x∂ j jest wszędzie różne od zera. Okazuje się, że każde nieznikające pole można lokalnie sprowadzić do tej postaci poprzez odpowiedni wybór układu współrzędnych. Twierdzenie: Jeśli X(x) 6= 0 to istnieje w otoczeniu punktu x ∈ M taki układ współrzędnych (xk ), k = 1, . . . , dimM; w którym X = ∂x∂ 1 . Dowód: Niech (τ i ) będzie jakimkolwiek układem współrzędnych w otoczeniu punktu x. Ponieważ X 6= 0 to istnieje taka współrzędna X i pola X = X i ∂τ∂ i , która jest różna od zera. Bez straty ogólności można przyjąć, że jest to pierwsza współrzędna X 1 (gdyby tak nie było, to wystarczyłoby zmienić numerację współrzędnych). Również bez straty ogólności 69

można przyjąć, że współrzędne punktu x w tym układzie są równe zeru: x = (0, . . . , 0). Gdyby tak nie było, to wystarczyłoby przeskalować addytywnie współrzędne o wartość odpowiadającą współrzędnym naszego punktu. Rozważmy teraz podrozmaitość K ⊂ M o wymiarze (n − 1), daną równaniem τ 1 = 0 oraz współrzędne (τ 2 , . . . , τ n ) na tej powierzchni. Nowe współrzędne (xk ) wybierzemy w ten sposób, by na powierzchni K pokrywały się ze współrzędnymi (τ k ), (a więc w szczególności położymy x1 = 0 na K), natomiast z powierzchni tej „rozpropagujemy” ich wartość na całe „grube” otoczenie przy pomocy grupy G X generowanej przez nasze pole X. Oznacza to, że definiujemy następujące odwzorowanie κ: Rn ⊃ W ∋ (xk ) → κ(xk ) := GxX1 (x2 , . . . , xn ) ∈ M .

(194)

Obrazem zera jest znów punkt x. Jeśli parametryzację odpowiadającą pierwotnym współrzędnym oznaczymy przez λ, to złożenie λ−1 ◦ κ przyporządkowuje punktowi (xk ) ∈ Rn wartość (τ i ) ∈ Rn współrzędnych punktu κ(xk ), czyli jest dane jako n funkcji τ i = τ i (xk ), spełniających τ i (0, . . . , 0) = 0. Ale dla x1 = 0, czyli na K, zachodzi: τ 1 = 0 oraz (τ 2 , . . . , τ n ) = (x2 , . . . , xn ). Zatem dla k > 1 i dowolnego i mamy równość: ∂τ i = δki . k ∂x Wszędzie natomiast zachodzi ∂x∂ 1 = X, bowiem dla dowolnego punktu y ∈ M krzywe x1 → GxX1 (y) są krzywymi całkowymi pola X. Stosując tę tożsamość do funkcji τ i otrzymujemy: ∂ ∂τ i = X(τ i ) = X j j τ i = X i . 1 ∂x ∂τ

(195)

A zatem w punkcie x = (0, . . . , 0) zachodzą oba te wzory, to znaczy macierz Jacobiego odwzorowania λ−1 ◦ κ ma w tym punkcie następującą postać: ∂τ i ∂xk

!

=

     

X1 0 . . . X2 1 . . . .. .. . . . . . n X 0 ...

0 0 .. . 1

     

.

(196)

Wyznacznik tej macierzy jest równy X 1 6= 0, zatem jest ona odwracalna. Wynika stąd, że κ jest lokalnie, w otoczeniu naszego punktu, odwzorowaniem odwracalnym, a zatem (xk ) jest dobrym układem współrzędnych. Wzór (195) oznacza właśnie, że zrealizowaliśmy nasz cel zawarty w tezie twierdzenia, bowiem ∂ ∂τ i ∂ ∂ = = Xi i = X . 1 1 i ∂x ∂x ∂τ ∂τ  Twierdzenie powyższe nie ma wielkiego znaczenia praktycznego. Do definicji (194) nowego układu współrzędnych użyliśmy przecież grupy G X generowanej przez pole X, czyli 70

musieliśmy to pole scałkować. Strategia polegająca na znalezieniu wpierw układu współrzędnych „prostującego” dane pole wektorowe X, co sprowadziłoby problem całkowania tego pola do trywialnego wzoru (193), niesie dokładnie te same trudności analityczne, co sam problem całkowania pola. Twierdzenie to jest więc jedynie konstatacją o wartości czysto teoretycznej. Jak zobaczymy wkrótce, ma ona jednak istotne znaczenie poznawcze i pozwala znacznie upraszczać wiele dowodów w geometrii różniczkowej. Jest też często bardzo ważną wskazówką co do wyboru praktycznego sposobu rozwiązywania danego problemu technicznego czy fizycznego. Jak bowiem przekonujemy się ciągle, od czasów Newtona, kluczem do uzyskania rozwiązania analitycznego jest często umiejętny wybór współrzędnych dostosowany do charakterystycznych cech opisywanego zjawiska. W erze superkomputerów mogłoby się wydawać, że tego rodzaju zabiegi teoretyczne tracą na znaczeniu, bowiem procedury numerycznego rozwiązywania równań różniczkowych są bardzo efektywne i na pozór wszystko im jedno jaką postać analityczną postawimy po prawej stronie równania x˙ k = X k . Takie przekonanie opiera się jednak na złudzeniu, bowiem stabilność rachunków bardzo zależy od tego, czy dana procedura numeryczna respektuje podstawowe własności układu jak symetrie czy prawa zachowania. Poza tym, wyniki czysto teoretyczne co do istnienia i podstawowych własności geometrycznych rozwiązań porządkują wyniki numeryczne w bardzo istotny sposób. Bez teoretycznego rozeznania co do jakościowych własności badanego układu, wyniki numeryczne stanowią często bezużyteczny plik zadrukowanego papieru, którego przeglądanie przyprawia jedynie o ból głowy. Twierdzenie, które wykazaliśmy można nazwać twierdzeniem o uniwersalnej postaci pola wektorowego i sformułować je w postaci następującego sloganu: wszystkie pola wektorowe wyglądają tak samo, jeśli tylko dobrać odpowiedni układ współrzędnych. Podkreślamy, że obowiązuje ono jedynie lokalnie w otoczeniu punktów, w których pole jest różne od zera. Klasyfikacja własności pola wektorowego w otoczeniu punktów, w których pole się zeruje, jest zupełnie innym, dużo trudniejszym problemem. A globalne własności pola to jeszcze inna dziedzina wiedzy!

3.7

Pochodna Lie’go

Wzór (16) na pochodną funkcji f w kierunku wektora v ∈ Tx M: f (x + ǫv) − f (x) , ǫ→0 ǫ

v(f ) = lim

(197)

nie ma oczywiście sensu na ogólnej rozmaitości różniczkowalnej M, ponieważ translacja punktu x o wektor ǫv jest operacją zupełnie pozbawioną sensu. Nawet gdy M jest rozmaitością zanurzoną w przestrzeni afinicznej, gdzie taka operacja jest określona, to — jak zauważyliśmy w Rozdziale 2.9 — punkt „x + ǫv” wystaje naogół poza M, więc nie wiemy ile wynosi wartość funkcji f ∈ C l (M) w tym punkcie. Jednak dyskusja zawarta w rozdziale 3.5, wykazuje, że taka „translacja” jest określona „z dokładnością do poprawek rzędu wyższego niż ǫ” i jest równa GǫX (x), gdzie X jest dowolnym polem wektorowym przyjmującym wartość v w punkcie x. Ale poprawki wyższego 71

rzędu nie będą miały wpływu na pochodną w zerze. Przypuszczamy więc, że gdy we wzorze (197) dokonamy zamiany: „x + ǫv” na GǫX (x) , (198)

otrzymamy prawidłowy wynik. I rzeczywiście:



f (GǫX (x)) − f (x) d h X ∗ i lim = Gǫ f (x) = X(f )(x) . ǫ→0 ǫ dǫ ǫ=0

Możemy też abstrahować od konkretnego punktu x ∈ M rozmaitości i napisać ogólnie:

d h X ∗ i X(f ) = Gǫ f = lim ǫ→0 dǫ ǫ=0

h

GǫX

∗ i

ǫ

f −f

f (GǫX ) − f . ǫ→0 ǫ

= lim

(199)

Zastanówmy się, czy można byłoby zastąpić funkcję f (czyli „pole skalarne”) polem A jakiejś innej wielkości geometrycznej. Dotychczas poznaliśmy jedynie pojęcie pola wektorowego i to właśnie pole wektorowe będziemy różniczkować w tym rozdziale. Jednak część heurystyki, która prowadzi do pojęcia pochodnej Lie’go jest uniwersalna i zachowuje znaczenie również wtedy, gdy będziemy się zajmowali dużo ogólniejszymi polami: kowektorowymi, tensorowymi, polami „układów inercjalnych” i innymi, które poznamy w dalszym ciągu tego kursu. Dlatego też pozwólmy sobie przez chwilę na taką — dość nieokreśloną — ogólność co do istoty pola A. W niniejszym rozdziale napiszemy konkretną definicję jedynie dla pola wektorowego. Dla innych pól odpowiednie definicje pojawią się w dalszym ciągu wykładu. Otóż zastąpienie funkcji f polem A powoduje, że iloraz różnicowy w punkcie x, zawarty w formule (199), a mianowicie wyrażenie A(GǫX (x)) − A(x) , ǫ nie ma na ogół sensu, ponieważ obiekty geometryczne „żyjące” w jednym punkcie (na przykład w punkcie x) nie mogą być porównywane z obiektami geometrycznymi żyjącymi w innym punkcie (na przykład w punkcie GǫX (x)), nawet jeśli są to obiekty tego samego typu. Pole skalarne, czyli funkcja o wartościach liczbowych f była tutaj zupełnym wyjątkiem. Tę przykrą prawdę omówiliśmy obszernie dla przypadku wektorów i zachowuje ona aktualność dla wielu innych obiektów geometrycznych. Chcąc porównać te obiekty, należałoby wpierw „przetransportować” pierwszy wyraz z punktu GǫX (x) do punktu x. Otóż można to zrobić przy pomocy odwzorowania transportu generowanego przez odwzorowania GtX . I teraz musimy już wyspecyfikować nasze rozważania do konkretnego przykładu, bowiem musimy wiedzieć czy pole A jest kontrawariantne (to znaczy transportuje się „do przodu”) czy też jest „kowariantne” (to znaczy transportuje się „do tyłu”). Powiemy dość nieprecyzyjnie, że dla tych ostatnich należy zastąpić obiekt A(GǫX (x)) jego przetransportowaną  ∗ wartością GǫX A(x). Granicę takiego — teraz już poprawnie określonego — ilorazu różniczkowego nazywamy pochodną Lie’go pola A względem pola wektorowego X i oznaczamy 72

następująco:



£X A := lim

ǫ→0

GǫX

∗

A−A

ǫ



d h X ∗ i = Gt A . dt t=0

(200)

Dla pola skalarnego (funkcji), które jest kowariantne pochodna ta pokrywa się ze zwykłą pochodną, daną wzorem (199). Jeśli natomiast pole A jest kontrawariantne, to znaczy transportuje się do przodu, wtedy aby przenieść obiekt geometryczny A(GǫX (x)) z punktu GǫX (x) z powrotem do punktu x, musimy się posłużyć odwzorowaniem odwrotnym 



GǫX

−1



X = G−ǫ

X i generowanym przezeń transportem G−ǫ . Zatem dla pola kontrawariantnego pochodna ∗ Lie’ego będzie określona wzorem:

£X A := lim

ǫ→0



X G−ǫ





A−A

ǫ



d h X  i =− Gt A . ∗ dt t=0

(201)

Te heurystyczne rozważania przydadzą się, gdy będziemy poznawali nowe obiekty geometryczne. Tymczasem prowadzą one do następującej, ścisłej definicji: Definicja: Pochodną Lie’go pola wektorowego Y względem pola wektorowego X nazywamy następujące pole wektorowe: £X Y := lim

ǫ→0



X G−ǫ





Y −Y

ǫ



d h X  i =− Gt Y . ∗ dt t=0

(202)

Przykład: Jeśli w pewnym układzie współrzędnych składowe pola X są stałe, np. gdy X = ∂x∂ 1 , to składowe pochodnej Lie’go wyrażają się w nim zwykłymi pochodnymi cząstkowymi: ∂Y k (£X Y )k = . (203) ∂x1 Wynika to z faktu, że GtX działa w tym układzie współrzędnych jako przesunięcie w pierwszej zmiennej: GtX (x1 , x2 , . . . , xn ) = (x1 + t, x2 , . . . , xn ) , (204) lub, inaczej

F 1 (x1 , x2 , . . . , xn ) = x1 + t , F 2 (x1 , x2 , . . . , xn ) = x2 , .................. ... n 1 2 n F (x , x , . . . , x ) = xn . Mamy zatem:

∂F k = δjk , ∂xj 73



a więc, zgodnie ze wzorem (111), transport GtX nego wektora: składowe wektora 





X G−ǫ ∗





nie zmienia składowych transportowa-

Y (x) we wzorze (202) są równe:



Y k GǫX (x) = Y k (x1 + ǫ, x2 , . . . , xn ) .

(205)

Wstawiając te wartości do definicji (202) otrzymujemy Y k (x1 + ǫ, x2 , . . . , xn ) − Y k (x1 , x2 , . . . , xn ) ∂Y k = . ǫ→0 ǫ ∂x1

(£X Y )k := lim

(206)

Uprzedzając fakty powiedzmy, że powyższa obserwacja jest uniwersalna i obowiązuje nie tylko w przypadku pochodnej Lie’go pól wektorowych, ale również dowolnych innych pól obiektów geometrycznych. Można ją sformułować w postaci następującego, godnego zapamiętania, sloganu: „pochodna Lie’go względem pola ∂x∂ 1 to zwykła pochodna cząstkowa”. Oczywiście pojęcie „pola o stałych składowych” nie ma żadnego sensu geometrycznego bowiem zależy od wyboru układu współrzędnych względem którego wyrażamy te składowe. Obserwacja ta pozwala jednak na znaczne uproszczenie niektórych dowodów a także skomplikowanych rachunków. Wynika z niej natychmiast następujące twierdzenie o fundamentalnym znaczeniu geometrycznym: Twierdzenie: Pochodna Lie’go pola wektorowego Y względem pola wektorowego X jest równa ich komutatorowi: £X Y = [X, Y ] = −£Y X .

(207)

Dowód: Druga równość wynika z pierwszej oraz z antysymetrii komutatora. Aby dowieść pierwszą równość zauważmy, że oba wyrażenia są polami wektorowymi. Jeśli pokażemy ich równość w jednym układzie współrzędnych, to będziemy wiedzieli, że są one równe jako pola wektorowe, a zatem również w dowolnym innym układzie współrzędnych. Przypuśćmy zatem, że pole X nie znika w punkcie x i wybierzmy układ współrzędnych (xk ) w którym ma ono uniwersalną postać X=

∂ . ∂x1

Na podstawie powyższego przykładu wiemy, że w tym układzie współrzędnych zachodzi ∂Y k . ∂x1 Natomiast wzór (141) na współrzędne komutatora implikuje, że zachodzi również (£X Y )k =

([X, Y ])k =

∂Y k . ∂x1

A zatem równość (207) została w tym wypadku wykazana we wszystkich punktach, w których pole X nie znika. Jeśli natomiast X(x) = 0 to są możliwe dwa przypadki: 74

1. Jeśli X znika tożsamościowo w otoczeniu punktu x, to zarówno pochodna Lie’go zeruje się w tym punkcie (bowiem GtX = id w otoczeniu tego punktu) jak i komutator znika na mocy definicji. A zatem teza Twierdzenia jest prawdziwa. 2. Jeśli X znika w x ale nie znika w żadnym jego otoczeniu, to istnieje ciąg punktów xl zbieżny do naszego punktu x i taki, że X(xl ) 6= 0, a zatem takich, w których obowiązuje równość (207). Ponieważ oba pola są ciągłe (gdy pola X i Y były klasy co najmniej C 1 ) to równość ta przenosi się przez ciągłość do naszego punktu x.  Uwaga: W odróżnieniu od pochodnej funkcji skalarnej X(f ), której wartość (197) w punkcie x zależy jedynie od wartości pola v = X(x) w tym punkcie, pochodna Lie’go pola wektorowego £X Y zależy w sposób „nieco mniej lokalny” od pola X, wzdłuż którego różniczkujemy. Rzeczywiście, wzór (141) zawiera nie tylko wartość współrzędnych pola X i w punkcie, ale również wartość ich pochodnych ∂j X i. Wynika to z faktu, że do transportu wektora Y (y) nie wystarczy znajomość wartości pola X w punkcie y, ale trzeba wiedzieć nieco więcej o jego zachowaniu w otoczeniu tego punktu. Przypadek funkcji skalarnej był wyjątkowy, bowiem jej wartość (będąca liczbą) transportuje się w sposób absolutny. Z tego punktu widzenia pochodna pola skalarnego jest „lokalna stopnia zerowego” względem pola X, podczas gdy pochodna Lie’go pola wektorowego jest „lokalna stopnia pierwszego”. W dalszym ciągu poznamy inne obiekty geometryczne, których pochodna Lie’go zawiera nie tylko pole X z pierwszymi pochodnymi, lecz także będą potrzebne wyższe pochodne. Ćwiczenie: W euklidesowej przestrzeni trójwymiarowej rozważamy pola wektorowe X, Y , Z, będące generatorami obrotów wokół kolejnych osi. Obliczmy pochodną Liego pola X względem pola Y . Korzystając bezpośrednio z definicji (202) oraz z wykazanej poprzednio równości (189) otrzymujemy:



d h Z  i d £Z X := − Gt X = − [X cos t + Y sin t] = −Y , ∗ dt dt t=0 t=0

(208)

co zgadza się z uprzednio obliczoną we wzorze (188) wartością komutatora obu pól.

3.8

Komutator pól a przemienność grup diffeomorfizmów

Jeśli są dane dwa pola wektorowe X i Y to rozważmy pole powstałe z Y przez transport grupą generowaną polem X, a mianowicie: 

Yt := GtX Lemat: Zachodzi następująca zależność:





Y .

  d Ys = GtX [Y, X] . ∗ ds s=t

(209)

W szczególności dla Y = X zachodzi [X, X] = 0, a zatem otrzymujemy jako szczególny przypadek tezę Twierdzenia 3 z rozdziału 3.4. 75

Dowód: Wyrażenie (202) na pochodną Lie’go pola wektorowego przepisujemy w języku komutatorów: d h X  i [Y, X] = −[X, Y ] = −£X Y = Gs Y , (210) ∗ ds s=0 



a następnie poddajemy działaniu odwzorowania stycznego GtX : 

GtX





[Y, X] = =



!   h  i   h  i d d GtX GsX Y = GtX GsX Y ∗ ∗ ∗ ∗ ds ds s=0 s=0 ! d  X   d  X d Gs+t Y = G Y = Ys . ∗ ds ds s ∗ ds s=0

s=t

s=t

Możliwość wyprowadzenia operacji różniczkowania spod odwzorowania stycznego wynika z jego liniowości.  Całkując prawą stronę powyższej równości po parametrze s przebiegającym odcinek [0, t] otrzymujemy natychmiastowy Wniosek Jeśli pola komutują: [X, Y ] = 0, to grupa generowana przez jedno z nich zachowuje drugie pole:   GtX Y = Y (211) ∗

Wynika stąd fakt podstawowej wagi: Twierdzenie 1: Dwa pola wektorowe komutują wtedy i tylko wtedy, gdy komutują również generowane przez nie (lokalne) grupy diffeomorfizmów: GtX ◦ GsY = GsY ◦ GtX .

(212)

Uwaga: Dla pól nie będących zupełnymi równość ma miejsce tam, gdzie „ma sens”, tzn. tam, gdzie obie strony są określone. Dowód: Załóżmy zatem, że [X, Y ] = 0. Dla ustalonej wartości parametru t oraz punktu x ∈ M rozważmy następującą krzywą sparametryzowaną: s → γ(s) := GtX ◦ GsY (x) . Pokażemy, że jest to krzywa całkowa pola Y . I rzeczywiście, różniczkując po parametrze s otrzymujemy na mocy wzoru (211) tożsamość: 

γ(s) ˙ = GtX





Y (GsY (x)) = Y (γ(s)) ,

(213)

która oznacza, że krzywa γ jest krzywą całkową pola Y , a więc trajektorią działania grupy GY : GtX ◦ GsY (x) = γ(s) = GsY (γ(0)) .

Ale z definicji krzywej γ wynika, że γ(0) = GtX (x), co już daje nam wzór (212), a zatem komutują grupy generowane przez oba pola. Na odwrót: jeśli komutują grupy, to różniczkując po parametrze „s” wzór (212) otrzymujemy tożsamość (211). Na mocy wzoru (210) fakt ten implikuje znikanie komutatora pól.  76

Przemienność obu grup, zapisana wzorem (212), jest równoważna następującej tożsamości: Y X G−s ◦ G−t ◦ GsY ◦ GtX = id , (214) X powstałej przez działanie na obie trony równania (212) wpierw odwzorowaniem G−t a Y następnie odwzorowaniem G−s . Oznacza ono, że gdy z dowolnego punktu x posunąć się o t w kierunku pola X, następnie kontynuować przesuwanie w kierunku pola Y o s, następnie zawrócić o t po polu X i w końcu zawrócić o s po polu Y , to taki „czworokąt” zamknie się i wrócimy do punktu wyjścia. Gdy pola X i Y nie komutują, wtedy grupy nie są przemienne i zazwyczaj powyższy „czworobok” nie domknie się. Okazuje się, że wartość komutatora [X, Y ] stanowi właśnie miarę tego niedomknięcia. Wyjaśnimy to dokładniej. Dla każdego punktu x ∈ M lewa strona wzoru (214) definiuje odwzorowanie, być może tylko lokalne, określone jedynie w otoczeniu zera: Y X R2 ∋ (t, s) → Fx (t, s) := G−s ◦ G−t ◦ GsY ◦ GtX (x) ∈ M ,

(215)

spełniające warunek Fx (t, 0) ≡ x ≡ Fx (0, s) ,

(216)

R2 ∋ (t, s) → F (t, s) ∈ M ,

(218)

dla dowolnych wartości parametru t i s. Oznacza to, że również wektor styczny do krzywych s → Fx (0, s) oraz t → Fx (t, 0) jest tożsamościowo równy wektorowi zerowemu w przestrzeni stycznej Tx M: ∂ ∂ Fx (t, 0) = 0 = Fx (0, s) . (217) ∂t ∂s (Wbrew konwencji (116), wektor styczny do krzywej oznaczyliśmy tu wyjątkowo znakiem pochodnej cząstkowej a nie zwyczajnej, bowiem mamy dwa różne parametry: „t” oraz „s”, i będziemy w dalszym ciągu rozważali bardzo różne krzywe, będące obrazem krzywych w dwuwymiarowej prestrzeni tych parametrów.) Zatem pierwsze pochodne odwzorowania F mają sens jako krzywe w wiązce stycznej T M. Wzór (217) oznacza, że w punkcie (t, s) = (0, 0) przechodzą one przez zero w Tx M. Widać, że jeśli tożsamość (214) jest złamana, to dopiero „w drugim rzędzie rozwinięcia” w parametrach (t, s). Ale co to znaczy? Jaki sens miałyby drugie pochodne odwzorowania F czyli wektory styczne do tych krzywych? Pokazaliśmy w Rozdziale 3.3, że wektory styczne do T M nie definiują na ogół żadnego wektora stycznego do M chyba, że są pionowe! I właśnie ten przypadek ma tutaj miejsce, dzięki czemu drugie pochodne odwzorowania F w zerze są dobrze określone jako wektory styczne do M. Tak więc Twierdzenie z Rozdziału 3.3 implikuje następujący fakt: Twierdzenie 2: Jeśli odwzorowanie

ma tę własność, że jego pierwsze pochodne znikają w (0, 0), to drugie pochodne w tym punkcie są dobrze określone jako wektory z przestrzeni stycznej TF (0,0) M. Dowód: Pierwsze pochodne odwzorowania F definiują krzywe w T M. Na mocy wzoru (217) ich wektor styczny (a więc pochodna pochodnej) jest pionowy w punkcie x = F (0, 0). 77

Na mocy Twierdzenia 2. z Rozdziału 3.3 taki wektor w T (T M) definiuje jednoznacznie wektor styczny do M. Można też podać inny dowód. Dowolną drugą pochodną można mianowicie zdefiniować jako operator różniczkowy działający na funkcje: (∂ 2 F )(f ) := ∂ 2 (f ◦ F ) .

(219)

Na pierwszy rzut oka wydaje się, że jest to operator drugiego rzędu. Ale, podobnie jak to miało miejsce w przypadku komutatora pól wektorowych, okazuje się, że dzięki znikaniu pierwszych pochodnych odwzorowania F , jest to naprawdę operator pierwszego rzędu, czyli wektor. Obie metody dowodu są równie ważne: pierwsza ze względów praktycznych, druga — teoretycznych.  Obliczmy zatem drugie pochodne odwzorowania Fx . Zauważmy, że wzór (216) implikuje więcej, a mianowicie: ∂ ∂ Fx (t, 0) ≡ 0 ≡ Fx (0, s) , ∂t ∂s więc, formalnie rzecz biorąc, mamy nie tylko ∂2 ∂2 F (0, 0) = 0 = Fx (0, 0) x ∂t2 ∂s2 ale nawet znikanie wyższych pochodnych! Pozostaje zatem do wyliczenia jedynie pochodna 2 mieszana ∂t∂ ∂s Fx (0, 0), czyli:  ∂2  Y X G−s ◦ G−t ◦ GsY ◦ GtX (x) . ∂t ∂s

(220)

W tym celu obliczymy pierwszą pochodną względem zmiennej s, ale w punktach t 6= 0. Wynik jest sumą dwóch członów, wynikających z różniczkowania po dwóch miejscach występowania tej zmiennej w definicji odwzorowania Fx :    ∂  Y X Y X G−s ◦ G−t ◦ GsY ◦ GtX (x) = G−s ◦ G−t Y (GsY ◦ GtX (x)) ∗ ∂s     Y Y X − G−s Y G−s ◦ G−t ◦ GsY ◦ GtX (x) . ∗

Kładąc s = 0 otrzymujemy dla dowolnej wartości parametru t:

    ∂ X Fx (t, 0) = G−t Y GtX (x) − Y (x) ∗ ∂s     −X −X = Gt Y G−t (x) − Y (x) . ∗

Drugi człon jest stały, więc znika pod następnym różniczkowaniem. Natomiast pochodna pierwszego członu po zmiennej t wynosi, jak wiemy z Lematu (209):         ∂2 −X X Fx (t, 0) = Gt−X [Y, −X] G−t (x) = G−t [X, Y ] GtX (x) , ∗ ∗ ∂t ∂s

78

(221)

zatem otrzymujemy ostatecznie: ∂2 Fx (0, 0) = [X, Y ] (x) . ∂t ∂s

(222)

Wynik ten pozwala nam znaleźć rozwinięcie Taylora odwzorowania Fx (t, s) z dokładnością do członów kwadratowych w parametrach t i s. Zapiszemy je w następującej postaci: Twierdzenie 3: Dla dowolnych pól wektorowych zachodzi uniwersalny wzór Y X G−s ◦ G−t ◦ GsY ◦ GtX (x) = x + t · s · [X, Y ](x) + o(t2 + s2 ) .

(223)

Wzór ten zawiera nieokreśloną a priori operację polegającą na dodawaniu wektora do punktu rozmaitości. Wiemy, że operacja taka ma sens jedynie w przestrzeni afinicznej, a na ogólnej rozmaitości — nie. Jednak wzór ten można rozumieć tak, że dodawanie to odbywa się w ustalonej mapie. Jego wynik zależy od wyboru układu współrzędnych, ale różnice między różnymi mapami są wyższego rzędu w parametrach (t, s). Tak więc część główna tej„sumy” jest dobrze określona. Dzięki temu otrzymujemy nową interpretację komutatora Y X pól jako miary niedomykania się czworoboku G−s ◦ G−t ◦ GsY ◦ GtX , a więc również miary nieprzemienności grup generowanych przez oba pola. Podobnie jak w Rozdziale 3.5, możemy jednak przyjąć bardziej geometryczną, niezależną od układu współrzędnych, interpretację powyższego wzoru. Na mocy formuły (192) translacja punktu x o wektor „ts[X, Y ](x)” jest dobrze określona z dokładnością do wy[X,Y ] razów wyższego rzędu i jest równa punktowi Gts (x). Otrzymujemy zatem następującą formułę: [X,Y ] Y X G−s ◦ G−t ◦ GsY ◦ GtX = Gts + o(t2 + s2 ) . (224)

Warto ją zapamiętać w postaci następującego sloganu, zilustrowanego na Rysunku 11: Y X Niedomknięcie czworoboku G−s ◦ G−t ◦ GsY ◦ GtX jest równe (z dokładnością do wyrazów [X,Y ] wyższego rzędu!) infinitezymalnej translacji przy pomocy odwzorowania Gts . Przykład 1: W przestrzeni dwuwymiarowej parametryzowanej przy pomocy dwóch współrzędnych (x, y) rozważamy dwa pola wektorowe: X=

∂ ∂x

; Y =x

∂ . ∂y

Obliczymy ich komutator. ∂ ∂f [X, Y ](f ) = x ∂x ∂y

!

zatem [X, Y ] =

−x

∂ ∂f ∂f = , ∂y ∂x ∂y

∂ . ∂y

Pola te łatwo scałkować: GtX (x, y) = (x + t, y) ;

GsY (x, y) = (x, y + xs) ; 79

Gτ[X,Y ] (x, y) = (x, y + τ ) .

GtX (x) Y

GsY ◦ GtX (x)

X

x

−X

t · s · [X, Y ] Y X G−s ◦ G−t ◦ GsY ◦ GtX (x)

X G−t ◦ GsY ◦ GtX (x)

−Y

Rysunek 11: Komutator pól wektorowych mierzy „niedomknięcie czworoboku” wyznaczonego przez działanie odpowiadających im grup dyfeomerfizmów. Wynikają stąd następujące wnioski: GsY ◦ GtX (x, y) = (x + t, y + (x + t)s) = (x + t, y + xs + ts) , X G−t ◦ GsY ◦ GtX (x, y) = (x, y + xs + ts) , [X,Y ]

Y X G−s ◦ G−t ◦ GsY ◦ GtX (x, y) = (x, y + ts) = Gts

(x, y) .

A zatem poprawka o(t2 + s2 ) we wzorze (224) znika tożsamościowo i przybliżona równość [X,Y ] Y X staje się ścisła. Czworobok G−s ◦G−t ◦GsY ◦GtX nie domyka się dokładnie o wielkość Gts (x). Przykład 2: W przestrzeni trójwymiarowej parametryzowanej przy pomocy współrzędnych (x, y, z) rozważamy dwa pola wektorowe: X=

∂ ∂x

; Y =

∂ ∂ +x . ∂y ∂z

(225)

Obliczymy ich komutator. ∂ [X, Y ](f ) = ∂x

∂f ∂f +x ∂y ∂z

!

∂ ∂ − +x ∂y ∂z

zatem [X, Y ] =

!

∂f ∂f = , ∂x ∂z

∂ . ∂z

Pola te łatwo scałkować: GtX (x, y, z) = (x + t, y, z) ;

GsY (x, y, z) = (x, y + s, z + xs) .

Zatem GrX ◦ GsY ◦ GtX (x, y, z) = GrX ◦ GsY (x + t, y, z) = GrX (x + t, y + s, z + (x + t)s) = (x + t + r, y + s, z + (x + t)s) . 80

Widać, że możemy uzyskać przesunięcie naszego punktu do dowolnego punktu (x + a, y + b, z + c), byle tylko było b 6= 0: wystarczy położyć s = b, t = bc − x zaś r = a + x − bc . Łatwo wskazać odpowiednią kombinację przesunięć wzdłuż tych pól również w przypadku, gdy b = 0. Wynika stąd, że mając do dyspozycji jedynie dwuwymiarową rodzinę przesunięć wzdłuż pól X i Y , jesteśmy w stanie dotrzeć do dowolnego punktu przestrzeni trójwymiarowej.

3.9

Dystrybucje i ich symetrie

Definicja: Rodzinę podprzestrzeni stycznych Dx ⊂ Tx M nazywamy (odpowiednio6 ) gładką dystrybucją wymiaru k w M, jeśli zależność od punktu x ∈ M jest (odpowiednio) gładka, tzn. jeśli w otoczeniu każdego punktu x◦ można znaleźć k pól wektorowych (odpowiednio) gładkich, których wartości rozpinają Dx dla każdego x z pewnego otoczenia punktu x◦ : ( ) (1)

(k)

span X , . . . , X

= Dx .

(226)

Dystrybucje występują najczęściej w zastosowaniach jako więzy nieholonomiczne, nałożone na ruch układu mechanicznego. I tak przykładowo przestrzeń konfiguracyjna M łyżwiarza na lodowisku jest trójwymiarowa i może być parametryzowana dwiema współrzędnymi położenia na tafli oraz „azymutem” określającym kierunek ustawienia łyżew na tafli. O ile łyżwiarz może zmieniać to ustawienie dowolnie w czasie ruchu, to jego położenie na tafli może zmieniać się tylko w kierunku stycznym do łyżew. A zatem z całej trójwymiarowej przestrzeni stycznej Tx M łyżwiarz ma do dyspozycji w każdym punkcie jedynie jej dwuwymiarową podprzestrzeń Dx ⊂ Tx M. A jednak, używając jedynie trajektorii stycznych do Dx , łyżwiarz ma możliwość dotarcia do każdego punktu przestrzeni konfiguracyjnej M, to znaczy może znaleźć się w dowolnym punkcie tafli z łyżwami skierowanymi w dowolną stronę. Ta ostatnia własność dystrybucji jest bardzo szczególna i będzie badana w następnym Paragrafie. W badaniu własności dystrybucji ważną rolę odgrywa pojęcie symetrii, to znaczy dyfeomorfizmu zachowującego D, tzn. takiego, że F∗ D = D, a także „infinitezymalnej symetrii” to znaczy pola wektorowego generującego lokalną grupę przekształceń, które są symetriami D. Jeśli Y jest takim polem symetrii zaś X ∈ D – dowolnym polem wektorowym na M, którego wartości leżą w podprzestrzeni D, to zachodzi: £Y X := lim ǫ→0



Y G−ǫ





X −X

ǫ

∈D,

(227)

bowiem w każdym punkcie x ∈ M granica ciągu wektorów leżących w podprzestrzeni Dx też leży w tej podprzestrzeni. Mamy zatem warunek konieczny na to, by pole Y było polem symetrii dystrybucji D: X∈D 6

=⇒

na przykład klasy C i .

81

[Y, X] ∈ D .

(228)

Okazuje się, że jest to również warunek dostateczny: Twierdzenie: Pole Y jest polem symetrii dystrybucji D, to znaczy zachodzi 

GtY





(229)

D⊂D,

wtedy i tylko wtedy, gdy spełnia warunek (228), czyli gdy jego nawias Lie’go z dowolnym polem z D też jest polem z D. Uwaga: Ponieważ GtY jest dyfeomorfizmem (lokalnym, ale jednak!) to warunek zawie  Y rania (229) jest równoważny warunkowi równości: Gt D = D. ∗ Dowód Twierdzenia: Pozostała do wykazania dostateczność tego warunku. Niech ! zatem

(1)

(k)

X, . . . , X

będzie zestawem pól wektorowych, które lokalnie stanowią bazę dys-

trybucji D. Z warunku (229) wynika istnienie pola macierzy Aab realizujących rozkład komutatorów z polem Y w samej bazie: "

#

(a)

Y, X =

k X

(b)

Aab X .

(230)

b=1

Posłużymy się w dowodzie znanym nam już chwytem, polegającym na użyciu współrzędnych „prostujących” pole Y . Niech zatem (xk ) będzie układem współrzędnych w otoczeniu x ∈ M, w którym zachodzi: ∂ ∂x1

Y =

;

(a)

(a)

X =X

i

∂ . ∂xi

Jak wiemy, w takich współrzędnych komutator z polem Y sprowadza się do różniczkowania po x1 . Zatem (230) można przepisać jako: !

k (b) X ∂ (a) i ∂ a i ∂ = A , X X b ∂x1 ∂xi b=1 ∂xi

lub równoważnie:





k (b) ∂ (a) i X a i = A . X X b ∂x1 b=1

(231)

Jak wiemy, grupa GtY działa (w tym układzie współrzędnych!) jak grupa przesunięć: x1 → x1 + t, a pozostałe współrzędne nie zmieniają się. Dla uproszczenia oznaczymy: 



GtY (x) = (x + t) .

Natomiast odwzorowanie styczne do takiego przesunięcia po prostu przenosi wektory z punktu do punktu bez zmiany współrzędnych (zob. wzory (204) i (205) w rozdziale 3.7). Zatem transport dowolnego wektora z punktu x wzdłuż Y ma współrzędne stałe, niezależne od t: !   (a) (a) ∂ Y Gt ∗ X (x) =X i (x) i . (232) ∂x 82

Rozważmy teraz następujące równanie różniczkowe zwyczajne względem zmiennej t: d a R (t) = Aac (t)Rcb (t) , dt b z warunkiem początkowym R(0) = I, tzn. Rab (0) = δba . Dla uproszczenia notacji oznaczyliśmy Aab (t) := Aab (x1 + t, x2 , . . . , xn ). Macierz R jest oczywiście rezolwentą równania (231). Oznacza to, że jego rozwiązanie wygląda następująco: (a)

i

X (t) =

k X

(b)

Rab (t) X i (0) .

b=1

(Dowód polega na podstawieniu tego wzoru do (231) i sprawdzeniu, że spełnione jest zarówno równanie różniczkowe jak i warunek początkowy). Ale macierz rezolwenty jest odwracalna, zatem (a)

i

X (0) =

k  X

R−1

b=1

a

b

(b)

(t) X i (t) ,

co wobec tożsamości (232) oznacza, iż zachodzi: 

GtY



(a)



!

X (x) =

k  X

R−1

b=1

a

b

(b)

(t) X (x + t) .

(233) 

3.10

Twierdzenie Frobeniusa

Przypuśćmy, że dystrybucja D jest rozpinana przez rodzinę pól wzajemnie komutujących: # " (a) (b)

X , X = 0. Okazuje się, że wtedy sytuacja jest zasadniczo różna od sytuacji łyżwiarza

dyskutowanej w poprzednim rozdziale, bowiem przesuwając się wzdłuż tych pól od wybranego punktu x◦ pozostaniemy w pewnej k-wymiarowej „powierzchni” (podrozmaitości) Nx◦ ⊂ M, zanurzonej w M, a więc wcale nie dotrzemy do dowolnego punktu przestrzeni. Aby się o tym przekonać rozważymy odwzorowanie: (k)

(2)

(1)

Rk ⊃ O ∋ (t1 , . . . , tk ) → GtXk ◦ · · · ◦ GtX2 ◦ GtX1 (x◦ ) ∈ M .

(234) (a)

Pola te komutują, więc na mocy twierdzenia (212) kolejność składania transformacji GtXa w powyższym wzorze nie ma znaczenia. Parametry (ta ) są dobrymi współrzędnymi na tej powierzchni. Lemat 1: Zachodzi tożsamość: (a) ∂ =X . a ∂t Dowód: Oznaczmy (a−1)

(2)

(1)

X Gta−1 ◦ · · · ◦ GtX2 ◦ GtX1 (x◦ ) = y ;

(k)

(2)

(1)

(k)

(a)

GtXk ◦ · · · ◦ GtX2 ◦ GtX1 (x◦ ) = GtXk ◦ · · · ◦ GtXa (y) = z . 83

Mamy zatem: (2) (1) (a) ∂ (k) ∂ (k) X X X X X G ◦ · · · ◦ G ◦ G (x ) = G ◦ · · · ◦ G k k ◦ ta (y) t2 t1 ∂ta t ∂ta t! ! (k) (a+1) (a) X = GtXk ∗ ◦ · · · ◦ Gta+1 ∗ X (y)

(a)

= X (z) ,

(235) (236)

(a)

bowiem na mocy Wniosku (211) transport pola X wzdłuż pozostałych, komutujących z nim pól, nie zmienia tego pola.  Wniosek: W każdym punkcie rozmaitości Nx◦ jej przestrzeń styczna jest równa przestrzeni D: Tz Nx◦ = Dz ⊂ Tz M .

Definicja: Podrozmaitość N ⊂ M nazywamy rozmaitością całkową dystrybucji D jeśli w każdym jej punkcie zachodzi Dz = Tz N. Pokazaliśmy, że dystrybucja rozpinana przez komutujące pola wektorowe ma powierzchnie całkowe. Jest ich wiele, bowiem punkt wyjściowy x◦ w konstrukcji (234) można wybrać dowolnie. Jeśli jednak zastąpić go innym punktem leżącym na tej samej powierzchni N, to otrzymamy inną parametryzację tej samej podrozmaitości całkowej. Aby ponumerować różne powierzchnie całkowe wystarczy wziąć dowolną (n − k)-wymiarową powierzchnię K ⊂ M, transwersalną względem dystrybucji D i rozpoczynać naszą konstrukcję zawsze z punktu leżącego na tej powierzchni: x◦ ∈ K. Transwersalność powierzchni oznacza, że jej przestrzeń styczna jest rozłączna z dystrybucją D, tzn.: Dx ∩ Tx K = 0. Jeśli teraz (τ r ), r = 1, . . . , n − k; to (τ r , ta ) stanowią układ współrzędnych w całym M, według wzoru: (k)

(1)

Rn ⊃ U ∋ (τ 1 , . . . , τ n−k , t1 , . . . , tk ) → GtXk ◦ · · · ◦ GtX1 (x◦ (τ r )) ∈ M .

(237)

Wniosek: Jeśli dystrybucja D jest rozpięta przez komutujące pola wektorowe, to w otoczeniu każdego punktu x ∈ M można wprowadzić współrzędne (τ r , ta ) takie, że ich pierwsza grupa numeruje różne powierzchnie całkowe dystrybucji, zaś ona sama jest rozpięta na różniczkowaniach względem współrzędnych z drugiej grupy: (

∂ ∂ Dx = span , . . . , ∂t1 ∂tk

)

⊂ Tx M .

(238)

Pokazaliśmy zatem jak „całkować” dystrybucję D, jeśli jest ona rozpięta przez komutujące pola wektorowe. Jednak w zastowaniach często występuje sytuacja, gdy badana struktura fizyczna wyróżnia pewną dystrybucję (226) rozpiętą przez układ pól wektorowych, jednak wcale nie komutujących. Zachodzi pytanie: czy dystrybucja jest czy nie jest całkowalna? Dystrybucję niecałkowalną spotkaliśmy już w przykładzie (225)). Rzeczywiście, dwuwymiarowa dystrybucja rozpięta na polach X i Y na pewno nie jest całkowalna, bo posuwając się wzdłuż tych pól jesteśmy w stanie dotrzeć do każdego punktu trójwymiarowej przestrzeni, a zatem nie pozostaniemy wewnątrz żadnej hipotetycznej, dwuwymiarowej 84

powierzchni całkowej. Podobna sytuacja miała miejsce w przykładzie więzów nieholonomicznych opisujących ruch łyżwiarza dyskutowany w poprzednim paragrafie. Zauważmy, że dla dystrybucji całkowalnej jej bazę tworzą pola ∂t∂a . A zatem dowolne dwa pola wektorowe X i Y leżące w takiej dystrybucji są kombinacjami X = Xa

∂ ∂ta

;

Y =Ya

∂ , ∂ta

zatem ich komutator też leży w tej dystrybucji. [X, Y ] = (X b ∂b Y a − Y b ∂b X a ) ∂t∂a ∈ D. Oznacza to, że dowolne pole wektorowe leżące w dystrybucji D jest jej polem symetrii. Wynika stąd warunek konieczny na całkowalność: X, Y ∈ D =⇒ [X, Y ] ∈ D .

(239)

Dystrybucja spełniająca ten warunek, czyli „domknięta ze względu na branie komutatorów” nazywa się inwolutywną. Okazuje się, że jest to również warunek konieczny na całkowalność. Twierdzenie Frobeniusa: Dystrybucja D jest całkowalna (tzn. zachodzi sytuacja jak we Wniosku powyżej) wtedy i tylko wtedy, gdy jest inwolutywna. Dowód Twierdzenia Frobeniusa: Pokażemy, że otoczeniu każdego punktu x ∈ M da się skonstruować układ współrzędnych (τ r , ti ) taki, że (τ r ) numerują różne powierzchnie całkowe dystrybucji, zaś ona sama jest rozpięta na różniczkowaniach względem współrzędnych z drugiej grupy. W tym celu postąpimy identycznie jak w przypadku komutującym: wybierzemy dowolną (n − k)-wymiarową powierzchnię K transwersalną wzgledem dystrybucji D a na niej jakiś układ współrzędnych (τ r(). Następnie ) zdefiniujemy żądany układ (k)

(1)

współrzędnych (τ r , ti ) wzorem (237), gdzie jako

X, . . . , X

wybierzemy dowolny układ

pól wektorowych rozpinających dystrybucję D. Pola te zapewne nie komutują. Zatem, w (i)

odróżnieniu od sytuacji komutującej, wynik zależy od kolejności aplikowania grup GtXi do punktu x◦ (τ r ) ∈ K. Decydujemy się na pewną kolejność, jak we wzorze (237). Ponieważ pola są liniowo niezależne, wzór ten definiuje lokalny układ współrzędnych w otoczeniu punktu x ∈ M. Do zakończenia dowodu wystarczy pokazać, że powierzchnie N(τ r ) odpowiadające ustalonej wartości parametrów (τ r ) są powierzchniami całkowymi dystrybucji D. Ale przestrzeń styczna do takiej powierzchni jest rozpięta przez wektory ∂t∂a . Stosując oznaczenia z dowodu Lematu 1 widzimy, że zachodzi wzór (235), choć następny wzór (236) nie jest już prawdziwy, bowiem pola nie komutują. Tym niemniej zachodzi równość: (k) ∂ X = G tk ∂ta

!

(a+1)



X

◦ · · · ◦ Gta+1

!

(a)



X (y) ∈ Dz

na mocy Twierdzenia (229) z poprzedniego paragrafu. A zatem Tz N(τ r ) = span

(

∂ ∂ ,..., k 1 ∂t ∂t

co kończy dowód.

)

∂ ∂ta

∈ D, czyli

= Dz , 

85

3.11

Ważny przykład pola wektorowego: prawa Keplera

Jednym z najważniejszych osiągnięć nowożytnej nauki było wykazanie przez Isaaca Newtona, że własności ruchu planet sformułowane przez Johannesa Keplera jako podsumowanie wiedzy uzyskanej dzięki precyzyjnym obserwacjom astronomicznym, wynikają prosto z dwóch hipotez czysto teoretycznych, znanych nam obecnie jako: 1) prawa dynamiki Newtona oraz 2) prawo powszechnego ciążenia. Obie te hipotezy nie mogły być zweryfikowane bezpośrednio, bo jak zmierzyć np. siłę, z jaką Słońce przyciąga Ziemię! Sprowadzały one jednak zagadnienie ruchu planet do równań różniczkowych, których rozwiązania wykazywały właśnie te własności, o których mówiły prawa Keplera. I ten właśnie fakt został uznany za dowód prawdziwości hipotez Newtona. Do sformułowania praw dynamiki oraz prawa powszechnego ciążenia nie wystarczy uboga struktura rozmaitości różniczkowalnej, jaką dysponujemy na obecnym etapie naszego wykładu. Czytelnik, który rozpoczął lekturę niniejszego tekstu zapewne wie sporo na ten temat ze szkoły. W niniejszym rozdziale zamierzamy pokazać, że kluczowe narzędzie, dzięki któremu Newton zdołał rozwiązać, a nie tylko sformułować równania ruchu planet, polega na inteligentnym opisie pewnego pola wektorowego. Tu dygresja, w której przypominamy pokrótce prawa dynamiki Newtona. Polegają one na przypuszczeniu, że w pewnych sytuacjach można uważać przestrzeń fizyczną za trójwymiarową przestrzeń afiniczną a ruch ciała o masie m jest rządzony równaniem różniczkowym drugiego stopnia: m~r¨ = F~ , gdzie ~r oznacza położenie cząstki zaś F~ jest „wektorem siły”. Widać jednak, że znacznie wychodzimy tutaj poza zakres naszej znajomości geometrii różniczkowej, bo druga pochodna, oznaczona dwiema kropkami, wcale nie zachowuje się jak wektor przy nieliniowej zmianie współrzędnych! Chyba, że mamy tu jeszcze jakąś dodatkową strukturę, o której będzie mowa dużo dalej. Tymczasem ograniczmy się, tak jak w szkole, wyłącznie do Kartezjańskich układów współrzędnych. Wtedy druga (a także dowolna inna) pochodna położenia po czasie jest wektorem. Natomiast prawo powszechnego ciążenia to przypuszczenie, że ciało o m masie M przyciąga każde inne ciało o masie m z siłą równą GM , gdzie r jest odległością r2 tych ciał zaś G uniwersalną stałą przyrody. Umieścimy zatem Słońce, którego masa wynosi M, w środku Kartezjańskiego układu współrzędnych, to siła, z jaką przyciąga ono ciało o masie m znajdujące się w punkcie ~r wynosi: GMm ~r ~r m~r¨ = − 2 · = −GMm 3 , r r r ~ r gdzie r = k~rk jest długością wektora ~r, zatem ~n = r jest wektorem jednostkowym skierowanym ze Słońca w kierunku badanego ciała. Następnym przybliżeniem jest założenie, że masa Słońca M jest znacznie większa od masy m ≪ M badanego ciała, dzięki czemu Słońce, w dużym przybliżeniu, pozostaje w spoczynku. Widać, że można w tym modelu wyeliminować z rozważań masę m. Oznacza to, że (przynajmniej w tym przybliżeniu) trajektoria ciała poruszającego się w polu grawitacyjnym Słońca nie zależy od masy tego ciała, bowiem trajektoria ta jest rozwiązaniem uniwersalnego układu trzech równań 86

różniczkowych zwyczajnych drugiego rzędu ~r ~r¨ = −α 3 . (240) r gdzie α = GM. Rozwiązania tego układu nie wyrażają się funkcjami elementarnymi. Jednak potrafimy, za Newtonem, znaleźć ważne własności tych nieznanych rozwiązań. W tym celu posłużymy się wpierw tzw. prawami zachowania energii i momentu pędu: E :=

v2 α − 2 r

;

J~ = ~r × ~v ,

(241)

gdzie ~v = ~r˙ jest wektorem prędkości, v = k~r˙ k — jego długością zaś „×” oznacza iloczyn wektorowy7 . Różniczkując po czasie obie te kombinacje położeń i prędkości widzimy, że na mocy równania ruchu (240) pochodne te znikają, zatem wielkości te muszą pozostawać stałe. I rzeczywiście:  

 

 

d α ~r d α d α E˙ = ~v · ~v˙ − = ~r¨ · ~r˙ − = −α 3 · ~r˙ − ds r ds r r ds r     d α d α = − =0, ds r ds r α J˙ = ~r˙ × ~v + ~r × ~v˙ = ~v × ~v − 3 ~r × ~r = 0 . r

Stałość wektora J~ oznacza, że zarówno położenie ~r jak i prędkość ~v leżą ciągle w tej samej, dwuwymiarowej płaszczyźnie prostopadłej do tego wektora. Zatem nasz problem jest w istocie rzeczy dwuwymiarowy. Można wybrać osie naszego układu współrzędnych w ten sposób, by ruch odbywał się w płaszczyźnie z = 0, a położenie było parametryzowane dwiema współrzędnymi: ~r = (x, y). Wtedy jedyną nietrywialną składową wektora momentu pędu J~ jest Jz , zaś pozostałe składowe zerują się: Jx = Jy = 0. Można ustalić zwrot osi „z” w kierunku wektora momentu pędu tak, by było J z > 0. Trajektoria ruchu jest zatem krzywą dwuwymiarową R ∋ t → (x(t), y(t)) ∈ R2 , a prędkość jest jej wektorem stycznym:

~v = x˙

∂ ∂ + y˙ . ∂x ∂y

~ = Jz przez położenie i prędkość wygląWzory (241) wiążące stałe ruchu: E oraz J = kJk dają w tym układzie współrzędnych następująco: o 1n 2 α (x) ˙ + (y) ˙ 2 −√ 2 2 x + y2 J = xy˙ − y x˙ .

E =

7

(242) (243)

Całkowita energia, tzn. suma energii kinetycznej i potencjalnej, jest równa mE, zaś moment pędu jest ~ Zatem nasze obiekty E i J~ są równe energii i momentowi pędu przypadającymi na jednostkę równy mJ. masy poruszającego się ciała.

87

I w tym momencie kończymy naszą dygresję na temat praw fizycznych odkrytych przez Newtona. Pozostało nam zadanie z czystej geometrii różniczkowej, polegające na badaniu trajektorii pewnego pola wektorowego X, to znaczy analizie układu dynamicznego: "

x˙ y˙

#

=

"

Xx Yy

#

(244)

,

definiowanego dla ustalonych wartości parametrów E i J przez równania (242) – (243). W ramach tej dygresji musieliśmy skorzystać ze struktury metrycznej (Riemannowskiej), pozwalajacej liczyć długość wektora czy też iloczyn wektorowy dwóch wektorów. W naszym wykładzie będziemy te struktury analizować w Rozdziale 6. Tutaj skorzystaliśmy z ich „dziecinnej” wersji polegającej na założeniu, że istnieją wyróżnione układy współrzędnych zwanych kartezjańskimi w których ta struktura opisana jest znanymi ze szkoły wzorami8 . Okazuje się, że dużo łatwiej będzie rozwiązywać ten układ posługując się nieliniowymi współrzędnymi biegunowymi, czyli redukcją współrzędnych sferycznych (2) do płaszczyzny {z = 0}. Wtedy cos θ = 0, sin θ = 1 i mamy: x = r cos ϕ , y = r sin ϕ .

(245) (246)

Wzory (118) i (119) pozwalające przeliczyć składowe prędkości z jednego układu współrzędnych do drugiego też znacznie się upraszczają: x˙ = r˙ cos ϕ − r ϕ˙ sin ϕ , y˙ = r˙ sin ϕ + r ϕ˙ cos ϕ , .

(247) (248)

Wstawiając ten wynik do równań (242) oraz (243) otrzymujemy:  1 2 α r˙ + r 2 ϕ˙ 2 − , 2 r 2 J = r ϕ˙ ,

E =

(249) (250)

lub, inaczej: ϕ˙ =

J , r2

(r) ˙ 2 = 2E +

(251) 

2α J 2 α2 J α − 2 = 2E + 2 − − r r J r J

2

.

(252)

To ostatnie wyrażenie musi być nieujemne jako kwadrat składowej X r pola. Wynika stąd, że warunkiem koniecznym na istnienie rozwiązań jest nierówność, jaką muszą spełniać stałe ruchu E i J: α2 2EJ 2 2E + 2 > 0 ⇐⇒ 1 + >0. (253) J α2 8

Oczywiście jest to sytuacja wyjątkowa, bowiem układ kartezjański istnieje jedynie dla bardzo szczególnej, płaskiej przestrzeni. W typowej, krzywej przestrzeni układ kartezjański nie istnieje i trzeba tę strukturę definiować w inny sposób.

88

Dwa pierwiastki z prawej strony równania (252): ujemny i dodatni, definiują dwa różne pola wektorowe. Jednak całkowanie tych pól to dwa równorzędne problemy. Odpowiadają one dwu połówkom trajektorii: 1) tej, gdy ciało zbliża się do Słońca i r maleje (czyli r˙ ¬ 0), a potem: 2) tej kiedy się oddala po symetrycznym torze i r rośnie (czyli r˙ ­ 0). A zatem wystarczy rozwiązać jeden z tych problemów, a rozwiązanie drugiego otrzymamy przez symetrię. Mamy zatem następujący układ dynamiczny: s

2α J 2 − 2 =: X∓r , r r

r˙ = ∓ 2E + ϕ˙ =

(254)

J =: X ϕ . r2

(255)

to znaczy pole wektorowe X∓ = X∓r

∂ ∂ + Xϕ , ∂r ∂ϕ

J , r 2s

Xϕ =

(256) (257)

X∓r = ∓ 2E +

2α J 2 − 2 . r r

(258)

Ciągle jeszcze nie potrafimy znaleźć rozwiązania metodami analitycznymi. Jednak sam kształt trajektorii (bez znajomości przebiegu czasowego) znajdziemy analitycznie stosując Twierdzenie 2 z rozdziału 3.4. Rozważmy zatem pole Y∓ = f X∓ , gdzie jako funkcję f przyjmiemy odwrotność ostatniego pierwiastka: 1 Y∓ = q 2E + 2α − r

X∓ ,

J2 r2

i wtedy Y r = ∓1, co bardzo łatwo scałkować: r(t) = r0 ∓ t. Natomiast w obu przypadkach mamy: ϕ˙ = Y

ϕ

= q 2E

J r2 + 2α r

q



J2 r2

J r2 2

2E+ α2

= v u



J

u J u −α t1 −  q r J

gdzie oznaczyliśmy: ρ(r) :=

J qr

=r 2E +



α J

2E +

α2 J2

2

2E+ α2

=

J

2

α2 J2





J r



α J

2

d arc cos ρ(r) , dr



J2 q αr

−1

1+

89

=

J r2

2EJ 2 α2



1 p = −1 ǫ r



(259)

oraz

s

J2 2EJ 2 p := ; ǫ := 1 + . (260) α α2 Stałe p i ǫ są nieujemne (patrz nierówność (253)) i nazywają się odpowiednio „parametrem” oraz „mimośrodem” orbity. Ponieważ wartość cosinusa nie może przekraczać jedności, musi być spełniona nierówność −1 ¬ ρ(r) ¬ 1, to znaczy p 1−ǫ¬ ¬1+ǫ . r Dla ǫ > 1, to znaczy dla dodatnich energii: E > 0, lewa nierówność jest zawsze spełniona, zatem odległość r badanego ciała od Słońca może być dowolnie duża. Natomiast dla ǫ < 1, to znaczy dla ujemnych energii: E < 0, otrzymujemy ograniczenie p p =: rmax > r > rmin := . 1−ǫ 1+ǫ

Oba pola Y+ i Y− są zatem zdefiniowane jedynie w pierścieniu rmin ¬ r ¬ rmax , przy czym dla ǫ ­ 1 górne ograniczenie odchodzi do nieskończoności: rmax = ∞. Pozostaje jeszcze α2 graniczny przypadek ǫ = 0, to znaczy gdy stałe ruchu spełniają tożsamość: E = − 2J 2, kiedy to pierścień degeneruje się do okręgu rmax = r = rmin , będącego wtedy jedyną możliwą trajektorią. Ustalając znak „+” w definicji pola Y , musimy w pierścieniu tym rozwiązać równanie: 



1 p ϕ(r) = arc cos −1 ǫ r



dϕ dϕ d 1 p ϕ˙ = = = arc cos −1 dt dr dr ǫ r



.

Wynik otrzymujemy natychmiast: 

lub, inaczej:



+ ϕ0 ,

p − 1 = ǫ cos(ϕ − ϕ0 ) , r

czyli r=

p . 1 + ǫ cos(ϕ − ϕ0 )

(261)

Polu Y+ odpowiada ta część trajektorii, dla której (ϕ − ϕ0 ) ∈ [0, π], bowiem wtedy znaki obu składowych pola: Y r oraz Y ϕ są dodatnie, tzn. r rośnie gdy ϕ rośnie (a to dlatego, że znajdujący się w mianowniku cosinus maleje!). Natomiast druga połówka trajektorii odpowiada polu Y− : r maleje gdy ϕ rośnie. Wyrażenie (261) opisuje zatem całą trajektorię. Zauważmy, że dla ϕ = ϕ0 odległość r od Słońca przyjmuje najmniejszą wartość r = rmin . Ten punkt trajektorii nazywa się perihelium. Dla ǫ < 0 punkt po przeciwnej stronie orbity, tzn. ϕ = ϕ0 + π odpowiada r = rmax i nazywa się aphelium. Dla ǫ > 1 orbita jest otwarta i aphelium nie jest osiągane. 90

Zmieniając wartość stałej obracamy trajektorię, bowiem zmieniamy jedynie południk od którego liczy się długość geograficzna. Do badania własności trajektorii można zatem przyjąć ϕ0 = 0, co odpowiada liczeniu długości geograficznej od perihelium. Zauważmy, że równanie (261) jest wtedy równoważne warunkowi p = r + ǫr cos ϕ = r + ǫx , lub

x2 + y 2 = r 2 = (p − ǫx)2 = p2 − 2ǫpx + ǫ2 x2 .

(262)

Dla ǫ = 1 (to znaczy dla wartości E = 0) krzywa ta jest parabolą: p 1 − y2 . 2 2p

x=

(263)

W każdym innym przypadku możemy równanie (262) zapisać jeszcze inaczej: 

2

1−ǫ



ǫp x+ 1 − ǫ2

2

+ y 2 = p2 +

Wygodnie jest wprowadzić nową zmienną x˜ = x + i wtedy równanie uzyskuje prostą postać: 

2

1−ǫ



ǫ2 p2 p2 = . 1 − ǫ2 1 − ǫ2

ǫ , 1 − ǫ2

p2 x˜ + y = . 1 − ǫ2 2

2

(264)

Widzimy, że trajektoria jest elipsą lub hiperbolą, zależnie od znaku współczynnika (1 − ǫ2 ). Planety krążą po orbitach zamkniętych. Odpowiada to przypadkowi (1 − ǫ2 ) ­ 0, to znaczy ujemnej energii: E < 0. Przypadek ten zachodzi gdy ujemna energia potencjalna „− αr ” dominuje nad dodatnią energią kinetyczną „ 12 v 2 ”. Aby ciało mogło mieć orbitę otwartą, tzn. by mogło opuścić układ słoneczny, musimy mu nadać tak dużą prędkość, by energia kinetyczna dominowała nad członem potencjalnym. Minimalna taka prędkość: q 2α v = r , odpowiadająca odległości r od Słońca nazywa się trzecią prędkością kosmiczną w tym miejscu. Środkiem geometrycznym elipsy jest punkt, w którym zeruje się zmienna x˜, tzn. w któǫ rym x = − 1−ǫ 2 . Natomiast Słońce znajduje się w punkcie x = 0, odległym od środka elipsy ǫ o wartość tzw. ogniskowej f = 1−ǫ 2 . Punkt ten nazywa się ogniskiem elipsy (zob. Rysunek 12). Rozmiary elipsy można odczytać, gdy przepiszemy równanie trajektorii (264) w jeszcze inny sposób:   x˜

p 1−ǫ2

!2

+

y

√ p 1−ǫ2

91

2



=1.

(265)

Widzimy, że dłuższa oś elipsy, odpowiadająca kierunkowi osi „x”, wynosi a=

p , 1 − ǫ2

natomiast krótsza oś, odpowiadająca kierunkowi osi „y” wynosi b= √

p . 1 − ǫ2

0.5 0.25

–1

–0.5

0.5

1

–0.25 –0.5

Rysunek 12: Ogniska elipsy w x = −1 i x = 1.

Uwaga 1: Z powyższej analizy wynikają właśnie prawa ruchu planet, które zostały wcześniej odkryte na drodze obserwacyjnej. Są to tzw. prawa Keplera. Pierwsze z nich mówi, że planety poruszają się po elipsach, i że Słonce leży w jednym z dwóch ognisk takiej orbity. Drugie prawo to prawo zachowania momentu pędu (250), które można zapisać w postaci: J = r 2 ϕ˙ . (266) Zauważmy, że r 2 ∆ϕ = r 2 ϕ∆t ˙ jest powierzchnią pola „zamiecioną” na płaszczyźnie ruchu w czasie ∆t przez poruszającą się planetę. A zatem r 2 ϕ˙ jest prędkością tego „zamiatania”. Nazywamy ją „prędkością polową”. A zatem drugie prawo Keplera mówi, że prędkość polowa pozostaje stała w czasie ruchu planety. Oznacza to, że blisko Słońca, gdy r jest małe, planeta musi mieć większą prędkość kątową niż daleko od Słońca, gdzie r jest duże, bowiem iloczyn r 2 ϕ˙ nie zmienia się (zob. Rysunek 13). Zjawisko takiego przyśpieszenia w pobliżu perihelium zostało wyraźnie zaobserwowane przez Keplera. Natomiast trzecie prawo Keplera wynika z praw skalowania równania (240). Jeśli ~r = F~ (t) jest rozwiązaniem tego równania, to dla dowolnej liczby c > 0 również ~ ~r = G(t) = c2 F~



t c3



,

bowiem czynnik skalowania długości uprości się z czynnikiem skalowania czasu powstałym podczas dwukrotnego różniczkowania po czasie. Jeśli pierwsza orbita miała rozmiar

92

Rysunek 13: Drugie prawo Keplera: prędkość „polowa” jest stała.

dłuższej osi równy a1 , to druga, powstała z niej przez skalowanie, będzie miała rozmiar a2 = c2 a1 . Jeśli natomiast okres obiegu pierwszej wynosił T1 , to znaczy jeśli zachodziło F~ (t + T ) = F~ (t) , to teraz mamy ~ + c T) = c F G(t 3

2~

t + c3 T c3

!

2~

=c F



t +T c3



2~

=c F



t c3



~ = G(t) ,

zatem okres obiegu na drugiej orbicie wynosi T2 = c3 T . Wobec tego zachodzi proporcja: T12 T22 = , a31 a32

(267)

czyli kwadraty czasów obiegu poszczególnych planet wokół Słońca są proporcjonalne do sześcianów rozmiarów ich orbit. Uwaga 2: Możemy teraz pokazać, że zależność położenia planety od czasu nie jest funkcją elementarną, zatem próba analitycznego całkowania równania Newtona (240) lub (244) była z góry skazana na niepowodzenie. Rzeczywiście, równanie zachowania momentu pędu (266) oznacza, że mamy: J J dϕ = 2 = 2 (1 + ǫ cos ϕ)2 , dt r p lub dt =

p2 dϕ . J (1 + ǫ cos ϕ)2

Całka ta da się wyrazić poprzez funkcje elementarne, jednak otrzymane w ten sposób równanie na zmienną t = t(ϕ) jest przestępne i nie da się analitycznie rozwiązać ze względu na niewiadomą ϕ. Zależność ϕ = ϕ(t) (a zatem również r = r(t)) nie jest zatem dana funkcją elementarną. 93

Uwaga 3: Oddziaływanie elektrostatyczne wygląda bardzo podobnie do grawitacyjnego z tym, że w zależności od ładunków obu ciał, siła może być przyciągająca (jak dla grawitacji) lub odpychająca. Ta ostatnia sytuacja odpowiada zmianie znaku współczynnika α we wzorze (240) i następnych. Łatwo sprawdzić, że nasza metoda daje w tym przypadku trajektorię hiperboliczną (zob. Rysunek 14) w postaci r=

p , −1 + ǫ cos(ϕ − ϕ0 )

(268)

gdzie, podobnie jak w (260) dla sił przyciągających, mamy: J2 p := |α|

;

ǫ :=

s

1+

2EJ 2 >1. α2

(269)

1 0.5

–2

–1

0

1

2

–0.5 –1

Rysunek 14: Ogniska hiperboli w x = −1 i x = 1.

94

4 4.1

Kowektory Kowektor jako infinitezymalna funkcja kosztów. Różniczka funkcji. Wiązka ko-styczna

Kowektory na rozmaitości M to obiekty dualne do wektorów, czyli funkcjonały liniowe na wektorach. Możemy wyobrażać sobie kowektor zaczepiony w punkcie x ∈ M jako „czarną skrzynkę”, która ma jedno wejście i jedno wyjście. Na wejściu możemy „wkładać” wektory zaczepione w x, a na wyjściu otrzymujemy wynik całej operacji w postaci liczby. Jeśli wynik zależy w sposób liniowy od wektora „włożonego” na wejściu, to taka czarna skrzynka jest właśnie kowektorem. Wartość działania kowektora α ∈ Tx∗ M na wektorze v ∈ Tx M oznaczamy jako α(v). Fizycznym modelem kowektora jest „infinitezymalna funkcja kosztów” potrzebna do „infinitezymalnego przesunięcia” układu fizycznego znajdującego się w stanie x o wektor v ∈ Tx M. Gdy odwołać się do obrazu „fabryki chemicznej”, wspomnianego w rozdziale 2.3, to mamy następującą sytuację: Używając pokręteł na desce rozdzielczej w sterowni fabryki, dyżurny operator może spowodować zmianę stanu przetwarzanej substancji chemicznej z x ∈ M do sąsiedniego stanu GεX (x) ≃ x + εv, gdzie przez v oznaczyliśmy wartość pola X w punkcie x, tzn. v = X(x). Każdemu takiemu procesowi odpowiada koszt F (X, ε): dodatni, gdy proces wymaga od nas poniesienia nakładów (np. wydatków na koszt energii elektrycznej potrzebnych do napędu urządzeń sterujących) lub ujemny, gdy w trakcie procesu odnotujemy zysk (np. uzyskamy energię). Infinitezymalnie, to znaczy dla małych wartości parametru ε, możemy przybliżyć ten koszt jego pochodną, czyli wyrażeniem zależnym liniowo od infinitezymalnego przesunięcia εv: F (X, ε) = εα(v) + o(ε) . I właśnie to liniowe wyrażenie α(v) nazywa się często „infinitezymalną funkcję kosztów”. W odniesieniu do zjawisk czysto mechanicznych termin „koszt” zastępuje się często terminem „praca”, a „praca infinitezymalna” to po prostu „siła”. A zatem siła nie jest wektorem lecz kowektorem! Zdezorientowany czytelnik ma prawo żądać wyjaśnień. Przecież w szkole, a nawet w poprzednim rozdziale niniejszej książki, opisaliśmy siłę F~ jako wektor! Należy natychmiast wyjaśnić, że opis kowektora przy pomocy wektora jest możliwy dopiero przy zastosowaniu dodatkowej struktury, którą poznamy w Rozdziale 6. Struktura ta pozwala rzeczywiście skonstruować izomorfizm między wektorami i kowektorami. W pewnych sytuacjach takie izomorficzne obiekty: kowektory i wektory, można utożsamiać, co niekiedy pozwala nawet uprościć pewne rachunki. Jednak dużo częściej takie utożsamienie prowadzi do przykrych nieporozumień. Podkreślamy, że z punktu widzenia podstawowych struktur geometrycznych siła jest „infinitezymalną funkcją kosztów” a więc kowektorem, a nie wektorem. Na obecnym etapie naszego wykładu nie mamy żadnej możliwości aby te zupełnie odmienne obiekty geometryczne utożsamiać. Będziemy również używać następującej notacji: α(v) =: hα, vi . 95

(270)

Liniowość kowektora oznacza liniowość wyrażenia h· , · i w drugim argumencie: hα, av + bwi = a hα, vi + b hα, wi .

(271)

Zbiór wszystkich kowektorów zaczepionych w punkcie x ∈ M nazywamy przestrzenią kostyczną do M w tym punkcie i oznaczamy: Tx∗ M := (Tx M)∗ .

(272)

Nosi ona naturalną strukturę przestrzeni wektorowej dualnej (dwoistej) względem Tx M, gdzie dodawanie i skalowanie kowektorów definiuje się przy pomocy dodawania i skalowania wyników ich działania na wektorach: haα + bβ, vi := a hα, vi + b hβ, vi ,

(273)

co formalnie odpowiada liniowości operacji h· , · i również w pierwszym argumencie. Definicja. Różniczką funkcji f ∈ C 1 (M) w punkcie x nazywamy kowektor df (x), ktorego wartość na dowolnym wektorze vx jest równa pochodnej f względem tego wektora: hdf (x), vx i := vx (f ) .

(274)

Pole kowektorowe, będące kolekcją kowektorów df (x) wziętych w punktach, w których f jest określona, nazywamy różniczką funkcji f i oznaczamy df . Twierdzenie: Zbiór (dxk ) różniczek wszystkich współrzędnych xk stanowi bazę przestrzeni ko–stycznej Tx∗ M w każdym punkcie x leżącym w dziedzinie tego układu współrzędnych. W szczególności różniczka dowolnej funkcji f rozkłada się w tej bazie według wzoru: ∂f df = k dxk . (275) ∂x Dowód: Niech będzie dany kowektor α ∈ Tx∗ M. Na mocy liniowości jego wartość na dowolnym wektorze Tx M ∋ v = v i ∂x∂ i wynosi: hα, vi = v

i

*

∂ α, i ∂x

+

(276)

.

Ale, jak to wiemy z podstawowej formuły (48), składowa v i wektora w danej mapie jest równa wartości tego wektora w działaniu na odpowiednią współrzędną xi : D

v i = v(xi ) = dxi , v Oznaczając

*

∂ αi := α, i ∂x mamy:

D

E

E

+

D

hα, vi = dxi , v αi = αi dxi , v 96

(277)

.

(278) E

.

(279)

Równość ta oznacza, że dwa funcjonały liniowe: „α” oraz „αi dxi ” dają ten sam wynik na dowolnym wektorze v. Są to zatem identyczne kowektory: α = αi dxi .

(280)

Pokazaliśmy, że każdy kowektor może zostać przedstawiony jako kombinacja liniowa różniczek współrzędnych xi . Aby wykazać, że różniczki te stanowią bazę w przestrzeni Tx∗ M musimy udowodnić, że różniczki te stanowią układ liniowo niezależny. Fakt ten wynika z następującej obserwacji: * + ∂ ∂ i dx , j = j xi = δji , (281) ∂x ∂x a zatem układ (dxi ) stanowi w przestrzeni ko–stycznej Tx∗ M bazę dualną względem bazy ( ∂x∂ j ) w przestrzeni stycznej Tx M. W szczególności wzór (275) wynika z (278), będącego kowektorowym odpowiednikiem wektorowej formuły (277).  Zbiór wszystkich kowektorów, zaczepionych we wszystkich punktach rozmaitości M nazywa się wiązką ko-styczną do M i oznacza T ∗ M: T ∗ M :=

[

Tx∗ M .

(282)

x∈M

Rozkład (280) kowektora w bazie różniczek współrzędnych pozwala przypisać elementowi przestrzeni ko-stycznej αx := αi dxi ∈ Tx∗ M

wartość parametrów (xk , αi ), gdzie (xk ) są współrzędnymi jego punktu zaczepienia x ∈ M, zaś (αi ) — składowymi kowektora w bazie różniczek dxi . W ten sposób skonstruowaliśmy lokalny układ współrzędnych (xk , αi ) w T ∗ M, dzięki czemu zbiór ten staje się rozmaitością różniczkowalną. Podobnie jak w przypadku wiązki stycznej, mamy tu zdefiniowaną kanoniczną operację rzutowania na bazę M: π : T ∗ M 7→ M ,

(283)

która dowolnemu kowektorowi przypisuje jego punkt zaczepienia w M. Czwórka (T ∗ M, π, M, Rn ) jest wiązką wektorową o włóknie typowym równym Rn . Zauważmy jeszcze, że formuła (275) implikuje następujące prawo transformacyjne dla składowych kowektora przy przejściu do innego układu współrzędnych: α = αi dxi = αi

∂xi j dy = α ˜ j dy j , ∂y j

a zatem: α ˜ j = αi 97

∂xi . ∂y j

(284)

(285)

W odróżnieniu od prawa transformacyjnego (54) dla składowych wektora, w których występowała macierz pochodnych nowych współrzędnych względem starych, tutaj występuje macierz do niej odwrotna, odpowiadająca różniczkowaniu starych współrzędnych po nowych. Oczywiście nie warto uczyć się takich wzorów na pamięć, skoro wynikają one natychmiast z twierdzenia o pochodnej superpozycji, zapisanego bądź w wersji „wektorowej” (53): ∂ ∂xi ∂ = , ∂y j ∂y j ∂xi bądź w wersji „kowektorowej” (284): dxi =

4.2

∂xi j dy . ∂y j

Transport odwrotny („pull back”) kowektora

Ponieważ wektory transportują się do przodu przy odwzorowaniu stycznym, to kowektory, będące obiektami do nich dualnymi, transportują się „do tyłu”. Każde zatem odwzorowanie różniczkowalne F : M → N oraz jego odwzorowanie styczne F∗ : Tx M → TF (x) N definiuje w naturalny sposób odwzorowanie: F ∗ : TF∗ (x) N → Tx∗ M

(286)

hF ∗ α, vi := hα, F∗ vi .

(287)

(xk ) → (F j (x)) = (y j ) ,

(288)

α = αi dy i , ∂ v = vk k , ∂x

(289)

dane oczywistym wzorem Odwzorowanie to nazywa się obrazem odwrotnym (inaczej: „pull back”) kowektora. Jeśli (xk ) są lokalnymi współrzędnymi na M w otoczeniu punktu x zaś (y j ) lokalnymi współrzędnymi na N w otoczeniu punktu F (x), gdy ponadto odwzorowanie F jest opisane w tych współrzędnych funkcjami F j :

zaś

(290)

to otrzymujemy: *

+

*

+

∂ ∂F j ∂ hF α, vi = hα, F∗ vi = α, v F∗ k = α, v k k j ∂x ∂x ∂y * + * + j j j ∂ ∂ k ∂F i k ∂F i k ∂F = v α dy , = v α dy , = v αi δji i i ∂xk ∂y j ∂xk ∂y j ∂xk * + j D E ∂F j ∂F j k ∂F k k = v αj = dx , v αj = αj dx , v . ∂xk ∂xk ∂xk ∗

k

98

„Upraszczając” ten wzór przez wektor v otrzymujemy wyrażenie współrzędniowe na przeniesiony kowektor: ∂F j ∗ F α= αj dxk = αj dF j . k ∂x Prawdę mówiąc, uprawiając matematykę stosowaną zawsze warto pisać tę formułę w następującej postaci: ∂y j F ∗ α = αj dy j = αj k dxk , (291) ∂x rozumiejąc, że w odróżnieniu od samej definicji (289) kowektora α, gdzie y j były niezależnymi współrzędnymi na N, tutaj należy je traktować jako funkcje zmiennych (xk ) dane odwzorowaniem (288). Taki „nieścisły” zapis znacznie upraszcza notację. Daje to możliwość wykonania trudnych rachunków w sytuacjach, gdy „ścisły” zapis czyniłby je niemożliwymi do ogarnięcia. Wzór (291) należy rozumieć następująco: transport odwrotny („pull back”) kowektora jest „transformacją podstawienia”, gdzie na miejsce zmiennych y j należy podstawić odpowiednie funkcje zmiennych xk realizujące odwzorowanie F . Podobnie jak to miało miejsce w rozdziale 2.12 dla wektorów (patrz wzór (112)), wzór ten odtwarza formułę (285) na trasformację składowych kowektora przy zmianie układu współrzędnych9 gdy jako F wziąć identyczność: F = id. Twierdzenie 1: Zachodzi następujące prawo składania operacji obrazu odwrotnego kowektorów, formalnie identyczne z pierwszym punktem Twierdzenia z rozdziału 2.14, dotyczącym obrazu odwrotnego funkcji: (G ◦ F )∗ = F ∗ ◦ G∗ .

(292)

Dowód: jest oczywisty, podobnie jak to było w rozdziale 2.14.  Twierdzenie 2: Operacja „pull back” jest przemienna z operacją różniczkowania funkcji: F ∗ df = dF ∗ f .

(293)

Dowód: Przy zastosowaniu opisu współrzędnościowego dowód wynika natychmiast z (291) oraz ze wzoru na pochodną superpozycji. Dowód abstrakcyjny, wykorzystujący jedynie definicje obu operacji, jest jeszcze prostszy: hF ∗ df, vi = hdf, F∗ vi = (F∗ v)(f ) = v(F ∗f ) = hdF ∗ f, vi .  Ćwiczenie: Niech M będzie trójwymiarową przestrzenią euklidesową, którą opisujemy przy pomocy zmiennych kartezjańskich. Rozważmy odwzorowanie polegające na obrocie M o kąt „t” wokół osi „z”, to znaczy: F = GtZ , gdzie Z jest generatorem obrotów, czyli 9 We wzorze (285) współrzędne xk były „stare” a y j były „nowe”. Natomiast we wzorze (291) jest odwrotnie. Stąd zamiana roli „iksów” z „igrekami” w obu tych wzorach.

99

∂ ∂ polem wektorowym danym wzorem Z = x ∂y − y ∂x (patrz wzór (181)). Jak wyliczyliśmy poprzednio (patrz wzór (183)), mamy

F (x, y, z) = (x cos t − y sin t, x sin t + y cos t, z) = (˜ x, y˜, z˜) .

Zatem obraz odwrotny funkcji x˜ jest dany wzorem

F ∗ (˜ x) = x cos t − y sin t .

Korzystając z Twierdzenia 2 możemy znaleźć obraz odwrotny ko-wektora dx przy obrocie wokól osi „z”: 

GtZ

4.3

∗



(dx) = d GtZ

∗

(x) = d(x cos t − y sin t) = dx · cos t − dy · sin t .

(294)

Całkowanie pola kowektorowego po krzywych. Orientacja rozmaitości

Pole kowektorowe, to cięcie wiązki ko-stycznej. Taka definicja, podobnie jak definicja pola wektorowego w rozdziale 3.1, oznacza, iż pole kowektorowe α jest gładkim odwzorowaniem α : M → T ∗M ,

z bazy M wiązki ko-stycznej w jej przestrzeń, spełniającym warunek, że rzut π czyni zeń tożsamość: π ◦ α = id. W potocznym języku „pole” oznacza rozległy obszar, na którym rosną gęsto jakieś rośliny: wektory w przypadku pola wektorowego czy kowektory w przypadku pola kowektorowego. W ustalonym układzie współrzędnych (xk ) pole kowektorowe jest całkowicie określone przez podanie n = dimM funkcji αk = αk (x) równych składowym pola w bazie dxk : α(x) = αk (x) dxk . Gładkość pola to gładkość tych funkcji. Każdy skończony proces, czyli krzywą sparametryzowaną R ⊃ [a, b] ∋ t → γ(t) ∈ M, możemy w myśli traktować jako sekwencję „procesów infinitezymalnych” w sensie Rozdziału 3.5 (zob. także wzór (192)): M ∋ x → x + ǫv + o(ǫ) ∈ M ,

∂ gdzie v = γ(t) ˙ ∈ Tx M jest wektorem stycznym do krzywej: γ(t) ˙ = γ∗ ∂t . Pole kowektorowe α na M pozwala obliczyć „infinitezymalny koszt”: α(v) = hα, vi takiego procesu infinitezymalnego. Te infinitezymalne koszty można scałkować i w ten sposób obliczyć całkowity koszt procesu α. Ten koszt całkowity jest zatem równy następującej wielkości: Definicja: Całką z pola kowektorowego α po krzywej sparametryzowanej γ nazywamy liczbę:

Z

γ

α := =

Z

b

a

Z

b

a

hα(γ(t)), γ(t)i ˙ dt = *

γ ∗ α,

+

∂ dt . ∂t 100

Z

b

a

*

+

∂ α(γ(t)), γ∗ dt ∂t (295)

W układzie współrzędnych (xk ) na M transport odwrotny pola α = αi dxi z M na oś liczbową R jest równy, zgodnie z formułą (291) γ ∗ α = x˙ i αi dt = ϕ(t)dt .

(296)

Można byłoby pomyśleć, że całka (295) jest po prostu całką z „funkcji” ϕ po osi liczbowej. Ale ϕ nie jest funkcją! Zależy bowiem od wyboru parametryzacji. Gdy zamiast t wybrać inny parametr s na osi liczbowej, wtedy pochodne x˙ i zmienią się. Zmieni się zatem wartość ϕ. Ale zmieni się również dt na ds w taki sposób, że całe wyrażenie ϕ(t)dt nie ulegnie zmianie. Jest to stwierdzenie banalne, bowiem zgodnie z (296) wyrażenie to jest polem kowektorowym na osi rzeczywistej, równym γ ∗ α. Mamy bowiem na mocy wzoru (296): ϕ(t)dt =

dxi dxi dt dxi αi dt = αi ds = αi ds = ϕ(s)ds ˜ , dt dt ds ds

(297)

a zatem wyrażenie podcałkowe w formule (295) nie ulega zmianie przy zmianie parametryzacji. Widać więc, że to co naprawdę umiemy całkować to nie są żadne funkcje, ale pola kowektorowe! Jakiż sens miałoby np. całkowanie temperatury, która jest funkcją skalarną? Tymczasem całkowanie siły — nieważne, czy wyrażamy ją w jednostkach energii na metr czy na cal przesunięcia — daje jednoznacznie wartość wykonanej pracy, niezależnie od tego jakiej parametryzacji użyjemy. Z powyższych rozważań wynika Twierdzenie: Całka (295) (czyli koszt całkowity procesu) nie ulegnie zmianie, jeśli do jej obliczenia użyjemy innej parametryzacji krzywej γ, ale takiej, by kierunek procesu nie uległ zmianie. Dokładniej: jeśli [˜ a, ˜b] ∋ s → φ(s) = t ∈ [a, b] , spełnia warunek φ′ = zowanej krzywej:

∂t ∂s

> 0, to całka z dowolnego pola kowektorowego po reparametryγ˜ (s) := γ(φ(s)) = (γ ◦ φ)(s) ,

jest równa jego całce po γ:

Z

γ

α=

Z

α.

*

∂ ·, ∂t

γ ˜

Dowód: Równość tych całek wynika z tożsamości (297). Można też podać prosty dowód nie posługujący się układem współrzędnych: *

+

∂ ds = ·, ∂s

*

+

∂t ∂ ·, ds = ∂s ∂t

+

∂t ds = ∂s

*

+

∂ ·, dt , ∂t

(298)

który natychmiast daje tezę jeśli w całce (295) zastosować podstawienie t = φ(s) i skorzystać z faktu, że φ(˜ a) = a oraz φ(˜b) = b. 

101

Uwaga: Jeśli nowa parametryzacja zmienia kierunek procesu, tzn. jeśli mamy φ′ = < 0, to zachodzą tożsamości: φ(˜ a) = b oraz φ(˜b) = a. Stosując powyższe argumenty otrzymamy zatem: ∂t ∂s

Z

γ

α =

Z

φ(˜ a) φ(˜b)

= −

Z

γ ˜

*

+

∂ γ α, dt = ∂t ∗

Z

a b

*

+

∂ γ α, ds = − ∂s ∗

Z

b

a

*

+

∂ γ α, ds ∂s ∗

(299)

α.

Zmiana kierunku procesu powoduje więc zmianę jego kosztu na przeciwny! Zgadza się to z naszą podstawową intuicją dotyczącą funkcji kosztów: jeśli proces zakupu wiąże się z poniesieniem kosztu K, to w procesie przeciwnym, polegającym na odsprzedaniu zakupionego wcześniej przedmiotu, powinniśmy odzyskać tę kwotę, czyli ponieść koszt równy −K. Jeśli przepompowanie wody do górnego zbiornika w elektrowni szczytowo-pompowej wymaga wykonania pracy K, to następnie spuszczenie tej wody na turbiny elektrowni powinno skutkować wyprodukowaniem tej samej energii, czyli wydatkiem równym −K. Wszystko to są oczywiście modele wyidealizowane, ale w wielu sytuacjach dobrze opisujące sytuację fizyczną. Powyższe rozważania prowadzą do wniosku, że do całkowania pola wektorowego po krzywej wcale nie potrzebujemy żadnej parametryzacji: może to zatem być krzywa niesparametryzowana, czyli jedno-wymiarowa podrozmaitość D ⊂ M rozmaitości M. Konieczny jest jednak wybór orientacji, to znaczy „kierunku” procesu ponieważ, jak pokazaliśmy powyżej, całka zmienia znak gdy zmienimy orientację na przeciwną. Jak pamiętamy z Rozdziału 2.15, struktura takiej podrozmaitości jest dana przez atlas A, to znaczy rodzinę parametryzacji. Gdy κ, λ ∈ A są dwiema takimi parametryzacjami, to mówimy, że są one zgodne, lub wyznaczają tę samą orientację jeśli λ−1 ◦ κ jest funkcją rosnącą — tam gdzie jest określona. Oznacza to, że zachodzi nierówność: 

′

λ−1 ◦ κ

>0.

(300)

Gdy D jest rozmaitością wymiaru k ­ 1, wtedy λ−1 ◦ κ jest odwzorowaniem z przestrzeni parametrów Rk w Rk , a jego pochodna jest reprezentowana przez macierz Jacobi’ego rozmiaru k × k. I wtedy zgodność map rozumiemy w ten sposób, że jej wyznacznik (Jacobian) ma być dodatni:  ′ det λ−1 ◦ κ > 0 . (301) Definicja: Orientacją rozmaitości D nazywamy wybór atlasu A zgodnego, to znaczy takiego, że dowolne dwie mapy z tego atlasu są zgodne w tym sensie, że spełniają nierówność (301). Gdy na D została wybrana orientacja, to parę (D, A) nazywamy rozmaitością zorientowaną. Przypadek wymiaru większego niż 1 będziemy szczegółowo omawiali w Rozdziale 5. Natomiast w przypadku jednowymiarowym wybór orientacji na krzywej można sobie wyobrażać jako dorysowanie do niej strzałki pokazującej kierunek przebiegu procesu. W praktyce chodzi o to, że na rozmaitości zorientowanej można wyróżnić dwie klasy map: takie, dla których Jacobian transformacji do dowolnej mapy należącej do atlasu 102

definiującego orientację jest dodatni i takie, dla których jest on ujemny. Mapy należące do pierwszej klasy nazywamy zgodnymi z orientacją, a drugiego rodzaju – niezgodnymi z orientacją. Jeśli jednak mamy mapę tego drugiego rodzaju, to bardzo łatwo otrzymać mapę pierwszego rodzaju zamieniając kolejność jakichkolwiek dwu współrzędnych. Np. mapy (x, y, z) oraz (r, θ, ϕ) definiują w przestrzeni euklidesowej E 3 tę samą orientację. Natomiast mapy (y, x, z) oraz (r, ϕ, θ) czy też (ϕ, θ, r) definiują orientację przeciwną. Istnieją rozmaitości nieorientowalne, to znaczy takie, na których nie udaje się wybrać żadnej orientacji. Przykładem jest tu „wstęga M¨obiusa” omówiona w Rozdziale 2.16. Gdyby chcieć zacząć budować orientację, to można ją wybrać lokalnie, w małym kawałku. Dodając mapy tak, by jakobian przejścia do poprzednio wybranych map był dodatni, można uzyskiwać coraz większe ich kolekcje. Nie uda się jednak uzyskać atlasu, bowiem — jak pokazują wzory (132) i (133) — próba pokrycia całej wstęgi M¨obiusa zakończy się tym, że w jakimś kawałku jakobian przejścia będzie musiał być ujemny.

4.4

Rozmaitość z brzegiem. Najprostsza wersja twierdzenia Stokes’a

Gdy mamy jednowymiarową podrozmaitość zorientowaną D, to w zasadzie możemy zabrać się do całkowania po niej pól kowektorowych. Chcemy jednak uniknąć całek niewłaściwych, które mogą być rozbieżne. Ograniczymy się więc na razie do przypadku gdy D jest zwarta. Chcemy też dopuścić krzywe z brzegiem, takie jak np. odcinek z końcami [a, b] ⊂ R, używany w poprzednim rozdziale. Obie definicje podrozmaitości z Rozdziału 2.15 wykluczają takie zbiory. Warto je zatem rozszerzyć, by objąć przypadki ważne w dalszych zastosowaniach. Jako punkt wyjścia przyjmiemy Definicję 2 z tamtego rozdziału. Definicja: Podzbiór D ⊂ M rozmaitości różniczkowalnej M wymiaru n nazywamy jednowymiarową podrozmaitością różniczkowalną z brzegiem, jeśli każdy punkt x ∈ D posiada otoczenie O ⊂ M, które jest otwarte w M, a w nim układ funkcji (H, Gi ), i = 1, . . . , r = n−1 taki, że D ∩O jest miejscem geometrycznym rozwiązań układu regularnego   G1 (x)      ..

=0,

.

  Gr (x)     

=0, H(x) ¬ 0 ,

(302)

przy czym „regularność” oznacza, że w każdym punkcie x ∈ D różniczki dGi wszystkich funkcji Gi są liniowo niezależne, natomiast w punktach, w których dodatkowo zeruje się również funkcja H, to również układ różniczek (dGi , dH) jest liniowo niezależny. I teraz możemy juz obliczyć całkę z pola kowektorowego po zwartej, zorientowanej podrozmaitości z brzegiem D ⊂ M. Definicja: Gdy istnieje globalna parametryzacja naszej podrozmaitości: R ⊃ [a, b] ∋ t → γ(t) ∈ D ⊂ M , 103

i to zgodna z orientacją D, to kładziemy Z

D

Z

α :=

γ

α.

(303)

Gdy ta parametryzacja jest niezgodna z orientacją, to prawą stronę opatrujemy znakiem „minus”. Możemy też wziąć inną parametryzację: „s = −t” i ta już będzie zgodna z orientacją. W każdym razie wiemy, że tak zdefiniowana całka nie zależy od wyboru parametryzacji. Gdy nie istnieje globalna parametryzacja, wtedy dzielimy D na kawałki, dla których istnieje globalna parametryzacja i definiujemy całkę jako sumę całek po tych kawałkach. Addytywne własności całki gwarantują niezależność wyniku od takiego podziału. W wielu wykładach Analizy Matematycznej symbol „dt” występujący w całce Z

D

α :=

Z

b

ϕ(t)dt ,

a

traktuje się po macoszemu, jako „światło latarni na końcu pociągu”. Tak może myśleć jedynie matematyk abstrakcyjny, dla którego zmienna t jest jedyną, absolutną parametryzacją osi liczbowej, czyli sceny, na której odbywa się cała operacja całkowania. Tymczasem matematyk stosowany, który chce modelować realną rozmaitość różniczkową, opisującą np. zbiór możliwych stanów układu fizycznego, musi traktować t jako jedną z wielu możliwych parametryzacji konkretnego procesu fizycznego. Teatrem wszystkich tych działań nie jest zatem oś liczbowa R, czy jej podzbiór, ale rozmaitość różniczkowalna D ⊂ M. Do różnych celów można stosować jej różne parametryzacje. Jedne są wygodniejsze rachunkowo, inne mniej, ale żadna z nich nie jest wyróżniona. Przyjmując tę filozofię widzimy, że nie wolno pominąć symbolu „dt” w powyższym wzorze, bowiem funkcja podcałkowa ϕ dana wzorem (296) też zależy od wyboru parametryzacji. Pomijając „dt” otrzymalibyśmy coś, co jest jedynie „napisem” bez żadnego sensu matematycznego. Przykład: Gdy pole kowektorowe jest różniczką funkcji: α = df , i gdy istnieje globalna parametryzacja, wtedy na mocy definicji (295) otrzymujemy: Z

D

df :=

Z

b

a

*

+

∂ df (γ(t)), γ∗ dt = ∂t

Z

b

a

∂ (f (γ(t))) dt = f (γ(b)) − f (γ(a)) . ∂t

Ostatnia równość to nic innego jak podstawowe twierdzenie rachunku różniczkowego i całkowego: całka z różniczki jest równa różnicy wartości funkcji na brzegach! W naszym przypadku brzeg rozmaitości D to dwa punkty: γ(a) i γ(b). Odgrywają one jednak odmienną rolę: punkt odpowiadający wartości a parametru jest początkiem zaś punkt odpowiadający wartości b jest końcem naszej rozmaitości. Warto spojrzeć na różnicę „f (γ(b)) − f (γ(a))” jako na „całkę” z „pola skalarnego” reprezentowanego funkcją f po „zero-wymiarowej rozmaitości” składającej się z tych dwóch punktów: początku γ(a) oraz końca γ(b). Punkty te niosą jednak różną orientację: koniec jest zorientowany „dodatnio”, to znaczy „całka z pola skalarnego” po tym punkcie jest po prostu wartością funkcji opatrzoną znakiem „plus”, natomiast początek jest zorientowany „ujemnie”, to znaczy „całka” jest równa 104

wartości funkcji opatrzonej znakiem „minus”. Taki skończony zestaw punktów opatrzonych znakami „plus” lub „minus” możemy nazwać „zorientowaną rozmaitością wymiaru zero”. W wypadku rozważanym powyżej zestaw „plus koniec oraz minus początek” nazywa się brzegiem rozmaitości zorientowanej D i oznacza się jako ∂D: ∂D := {+γ(b), −γ(a)} .

(304)

W ten sposób twierdzenie podstawowe rachunku różniczkowego i całkowego możemy zapisać w następujący sposób: Z Z df = f . (305) D

∂D

Pisząc w rozdziale 4.3, że nigdy nie całkujemy funkcji , to myśleliśmy o całkowaniu po krzywej, powierzchni dwuwymiarowej, czy też jeszcze więcej wymiarowym obszarze. Tutaj natomiast całkujemy po „rozmaitości zero-wymiarowej”, czyli operujemy wartością funkcji w punkcie. I to jest to, do czego zostały stworzone funkcje! Jak się okaże w dalszym ciągu niniejszego wykładu, jest to szczególny przykład niezwykle ogólnego prawa, które nosi nazwę Twierdzenia Stokes’a, a które unifikuje bardzo różne zjawiska odkrywane w naukach przyrodniczych począwszy od XVIII-go wieku. Zauważmy jeszcze, że w ogólnym przypadku mogą zachodzić następujące zjawiska. 1. Globalna parametryzacja może nie istnieć i w celu całkowania jesteśmy zmuszeni dzielić D „na kawałki”. Wtedy brzeg jest sumą brzegów poszczególnych kawałków. Zauważmy, że punkty podziału pojawiają się w brzegu dwukrotnie: raz jako koniec kolejnego kawałka, opatrzony znakiem plus, a następnie jako początek następnego kawałka, opatrzony znakiem minus. Widać zatem, że te punkty podziału odejmują się i znów pozostaje tylko koniec opatrzony znakiem plus i początek opatrzony znakiem minus, a wybór konkretnego podziału nie wpływa na wartość całki z f po ∂D. 2. Rozmaitość D może się składać z kilku rozłącznych kawałków, zatem ∂D będzie składało się z wielu punktów, a nie tylko dwóch.

3. Rozmaitość D może być zamknięta, tak jak okrąg, który parametryzujemy kątem przebiegającym odcinek [0, 2π], ale utożsamiamy oba końce. Dla ogólnej krzywej zamkniętej punkt początkowy również pokrywa się z końcowym: γ(a) = γ(b), bowiem oba są jedynie sztucznie wprowadzonym punktem podziału. Ale opatrzone są R one przeciwnymi znakami, zatem wynik całkowania po ∂D da zawsze zero: ∂D f = f (γ(a)) − f (γ(b)) = 0. Piszemy w tym przypadku: ∂D = 0. Wszystkie powyższe obserwacje można zebrać do następującej definicji brzegu. Definicja: Brzegiem ∂D zorientowanej, zwartej, jedno-wymiarowej rozmaitości różniczkowalnej z brzegiem D jest zbiór punktów, w których nierówność w definicji (302) przechodzi w równość, to znaczy zachodzi H(x) = 0. Punkty te są opatrzone znakami: plusem, jeśli parametryzacja punktów D w otoczeniu x wartością funkcji H jest zgodna z orientacją D i minusem jeśli jest przeciwna. Całka z funkcji po brzegu to suma wartości funkcji w tych punktach, opatrzonych tymi znakami. 105

Innymi słowy: punkt x ∈ D należy do brzegu jeśli w opisie uwikłanym (302) zachodzi H(x) = 0. Opatrujemy go znakiem plus jeśli funkcja H rośnie w kierunku strzałki wyznaczającej orientację D, czyli gdy strzałka wskazuje na zewnątrz D, oraz znakiem minus jeśli maleje, czyli gdy strzałka wskazuje do wewnątrz D. Zauważmy, że gdy zmienić orientację samego D na przeciwną, czyli wybrać przeciwną strzałkę, to również brzeg ∂D zmienia znak na przeciwny: koniec staje się początkiem i vice versa. Wtedy obie strony we wzorze (305) zmieniają znak na przeciwny, ale równość pozostaje prawdziwa.

4.5

Potencjalne pole sił. Najprostsza wersja Lematu Poincar´ e

Gdy x0 , x ∈ M są dwoma punktami rozmaitości M, zaś D jednowymiarową, zwartą podrozmaitością z brzegiem i taką, że ∂D = {+x, −x0 } , wtedy mówimy, że D jest krzywą o początku w punkcie x0 i końcu w punkcie x, lub po prostu „krzywą łączącą x0 z x”. Twierdzenie Stokes’a z poprzedniego Rozdziału mówi, że całka z różniczki dowolnej funkcji f jest równa Z

D

df = f (x) − f (x0 ) ,

˜ jest inną krzywą łączącą te sazatem nie zależy od drogi łączącej oba punkty: gdy D R R me punkty, to wynik całkowania jest ten sam: D˜ df = D df . Okazuje się, że własność powyższa wyróżnia różniczki spośród wszystkich pól kowektorowych. Twierdzenie: Jeśli gładkie pole kowektorowe α ma tę własność, że dla dowolnej pary punktów x, y ∈ M całka z α nie zależy od drogi łączącej te punkty, to istnieje funkcja f , której różniczką jest α. Dowód: Wybierzmy dowolny punkt x0 ∈ M i zdefiniujmy funkcję f (x) =

Z

˜ D

α,

gdzie D jest dowolną krzywą łączącą x0 z x. Ponieważ prawa strona przyjmuje tę samą wartość dla wszystkich krzywych łączących x0 z x, można napisać: f (x) =

Z

x

α,

(306)

x0

rozumiejąc, że wybieramy do całkowania którąkolwiek z nich. (Gdy M jest spójna, to f jest określona na całej rozmaitości. W przeciwnym razie naszą procedurę musimy przeprowadzić oddzielnie na każdej jej składowej spójnej.) Jeśli v ∈ Tx M jest wektorem zaczepionym w punkcie x to weźmy dowolne pole wektorowe X które przybiera tę wartość: X(x) = v. Oznaczmy y = GtX (x). Będziemy całkowali nasze pole kowektorowe α po krzywej [0, t] ∋ τ → γ(τ ) := GτX (x) . 106

˜ Jest to krzywa łącząca punkt x z punktem y. Ale można też wybrać inną krzywą D łączącą oba te punkty: taką mianowicie, która przechodzi przez punkt x0 . Obie całki są równe. Mamy zatem Z

γ

α =

Z

˜ D

α=

Z

x0

α+

x

Z

y

x0

= f (y) − f (x) .

α=−

Z

x

x0

α+

Z

y

α

x0

˜ podzieliliśmy na dwa kawałki: Druga równość w pierwszym wierszu oznacza, że krzywą D pierwszy kawałek od x do x0 , a drugi kawałek od x0 do y. W ten sposób, stosując również definicję (295), otrzymaliśmy wzór: f (GtX (x))

− f (x) =

Z

γ

α=

Z

0

t

hα(γ(τ )), X(γ(τ ))i dτ ,

bowiem to właśnie pole X jest styczne do krzywej γ. Wynika stąd, że funkcja podcałkowa jest pochodną prawej strony równania. W szczególności dla t = 0 otrzymujemy:

czyli:

d hdf (x), vi = f (GtX (x)) = hα(γ(0)), X(γ(0))i = hα(x), vi , dt t=0

df = α .

 W fizyce i naukach inżynierskich pole kowektorowe, które jest różniczką funkcji, nazywamy potencjalnym, a tę funkcję nazywamy potencjałem pola10 . Oczywiście potencjał jest zawsze określony z dokładnością do stałej addytywnej, której różniczka zeruje się tożsamościowo. Ta dowolność figuruje w definicji (306) w postaci dowolnego punktu x0 , który wybraliśmy jako punkt odniesienia, to znaczy ustaliliśmy, że potencjał f ma być równy zeru w tym właśnie punkcie. Ale dowolny inny punkt byłby równie dobry! Tak to jest z definicją potencjału pola kowektorowego: definiujemy jego wartość w punkcie x jako pracę, potrzebną do przeprowadzenia procesu polegającego na przeprowadzeniu opisywanego układu z ustalonego punktu odniesienia x0 do naszego punktu. Definicja ta ma sens wtedy i tylko wtedy gdy całka nie zależy od drogi. Ta metoda poszukiwania potencjału jest szczególnym przypadkiem dużo ogólniejszego zjawiska, które poznamy w dalszym ciągu i które znane jest w literaturze pod nazwą „lematu Poincar´e”. 10

W zależności od tego, czy α opisuje koszt procesu poniesiony przez nas, czy też uzyskany, funkcję f nazywa się „potencjałem” lub „minus potencjałem”. W mechanice stosuje się zazwyczaj konwencję w myśl której siła jest infinitezymalnym kosztem uzyskanym w procesie, równym minus różniczce potencjału (energii potencjalnej). W tej konwencji praca, czyli koszt całkowity, jest równa minus przyrostowi energii potencjalnej. Jest ona dodatnia, gdy podczas procesu wznieśliśmy stan fizyczny układu na wyższy poziom energii a ujemna, gdy układ spadł na niższy poziom energetyczny.

107

Przykład: W trójwymiarowej przestrzeni A3 parametryzowanej współrzędnymi (x, y, z) usuńmy początek układu współrzędnych. Na pozostałej rozmaitości różniczkowalnej M połóżmy 1 1 f (x, y, z) := √ 2 = . 2 2 r x +y +z Różniczka tej funkcji wynosi:   1 1 xdx + ydy + zdz 2 2 2 =− 3 d x + y + z 3 2 (x2 + y 2 + z 2 ) 2 (x2 + y 2 + z 2 ) 2 x y z = − 3 dx − 3 dy − 3 dz . r r r

df = −

Właśnie to pole kowektorowe (modulo współczynnik liczbowy) jest obiektem geometrycznym reprezentującym adekwatnie siłę przyciągania grawitacyjnego (240), opisywaną w Rozdziale 3.11. Energia potencjalna, czyli potencjał tego pola, jest równa właśnie „−f ”.

4.6

Uwagi na temat rozkładu jedności i „gładkiego dzielenia tortu”

Gdy krzywa D jest zawarta w dziedzinie jednej mapy to „twierdzenie Stokes’a” (305) sprowadza się do podstawowego twierdzenia rachunku różniczkowego i całkowego, w myśl którego całka z różniczki jest równa przyrostowi funkcji na odcinku całkowania. Gdy nie istnieje jedna mapa, która pokrywałaby cały interesujący nas obszar rozmaitości M, to z biurokratycznego punktu widzenia sprawa nieco się komplikuje, bowiem musimy dzielić D na kawałki zawarte w poszczególnych mapach a następnie dowodzić, że sztucznie wprowadzone punkty podziału nie dają wkładu do całki brzegowej. Komplikacji tej można uniknąć jeśli posłużyć się tak zwanym „rozkładem jedności”. Wybieg taki jest zawsze możliwy w rozmaitości parazwartej, a takie są na ogół rozmaitości różniczkowalne ważne w zastosowaniach11 . Gdy rozmaitość M klasy C l jest parazwarta, wtedy w każde jej pokrycie (Oi )i∈I zbiorami otwartymi można wpisać różniczkowalny rozkład jedności, to znaczy rodzinę (fj )j∈J funkcji gładkich fj ∈ C l (M) spełniającą następujące warunki: 1. Dla każdego j ∈ J zachodzi 0 ¬ fj (x) ¬ 1. 2. Rodzina jest lokalnie skończona, to znaczy każdy punkt x ∈ M ma otoczenie, na którym tylko skończona liczba funkcji fj jest różna od zera. 3. Suma wszystkich funkcji fj (dobrze określona na mocy poprzedniego punktu) jest równa jedności: X fj (x) ≡ 1 . j∈J

11 Przestrzeń parazwarta to taka, że w każde jej pokrycie można wpisać pokrycie lokalnie skończone. Parazwarte są wszystkie rozmaitości zwarte oraz niezwarte rozmaitości skończonego wymiaru, które można pokryć skończoną liczbą zbiorów zwartych, czyli – ujmując rzecz praktycznie – wszystkie przestrzenie spotykane w zastosowaniach inżynierskich i fizycznych.

108

4. Nośnik każdej funkcji fj jest zawarty w którymś ze zbiorów pokrycia (Oi )i∈I . Nośnikiem funkcji fj nazywamy zbiór supp fj ⊂ M będący domknięciem zbioru na którym jest ona różna od zera: supp fj = {x ∈ M|fj (x) > 0} . A zatem dla każdego j ∈ J istnieje i ∈ I takie, że supp fj ⊂ Oi . Ten prosty fakt z topologii (wspartej analizą matematyczną) niezwykle ułatwia życie geometry, który musi rozważać rozmaite struktury — na przykład pola kowektorowe α — nie mieszczące się w jednej mapie. Jeśli bowiem wziąć pokrycie rozmaitości M dziedzinami map i wpisany weń rozkład jedności, to odpowiada mu rozkład pola α: α=

X

αj ,

gdzie

j∈J

αj := α · fj .

(307)

Zatem wszelkie manipulacje polem α (na przykład całkowanie) można sprowadzić do manipulacji polami αj , z których każda ma tę zaletę, że „ nie wystaje” poza dziedzinę jednej mapy Oi i wszystkie rachunki na tym polu można prowadzić w jednej, ustalonej mapie. Jeśli więc całkowanie pola pierwszym sposobem: przez wprowadzanie punktów podziału, można porównać do krojenia tortu pionowym cięciem noża (zob. Rysunek 15), to całkowanie przy użyciu rozkładu jedności można porównać do krojenia skośnego i to w taki sposób, by grubość otrzymanych kawałków zmieniała się od punktu do punktu w sposób gładki (zob. Rysunek 16). Sposób ten nie ma wielkiego znaczenia praktycznego. Czytelnik zainteresowany zastosowaniami może o nim zapomnieć. Żaden inżynier nie będzie wprowadzał do swoich rachunków rozkładu jedności, którego funkcje są bardzo skomplikowane analitycznie. Jednak posługiwanie się rozkładem jedności w dowodach wielu twierdzeń znacznie upraszcza ich strukturę logiczną. Będziemy go zatem stosować w przyszłości z nadzieją, że nasz wywód zyska na przejrzystości.

Rysunek 15: Podział tortu pionowymi cięciami noża.

Rysunek 16: Podział tortu z użyciem „rozkładu jedności”.

109

4.7

Uwagi o „całkach niezorientowanych”

Zdefiniowana w Rozdziale 4.4 całka z pola kowektorowego zależy od orientacji krzywej D, po której całkujemy. Koronnym przykładem takiej całki jest właśnie „koszt procesu” i całą naszą heurystykę zbudowaliśmy na tym przykładzie. W zastosowaniach pojawiają jednak ważne całki, które w sposób oczywisty nie zależą od żadnej orientacji: na przykład długość krzywej, pole powierzchni, objętość czy też średnia wartość funkcji po ustalonym zbiorze. Również takimi całkami będziemy się zajmowali w dalszym ciągu wykładu. Tymczasem zauważmy jedynie, że „katastrofy” ze zmianą znaku we wzorze (299) dałoby się uniknąć, gdyby kowektor, zamiast reagować „ jednorodnie” na skalowanie wektora liczbą rzeczywistą a ∈ R: α(av) = a · α(v) ,

zareagował „dodatnio jednorodnie”, to znaczy gdyby prawdziwy był wzór: α(av) = |a| · α(v) .

(308)

∂t Wtedy przy zmianie orientacji we wzorze (299) zachodziłoby: φ′ = ∂s ¬ 0 i pojawiłby się dodatkowy minus, dzięki czemu całka nie zależałaby od orientacji. Kowektor, jako funkcjonał liniowy na wektorach, nie spełnia równania (308). Można jednak rozważać takie obiekty, czyli funkcje dodatnio jednorodne na wektorach. Ich całki po zwartych rozmaitościach (z brzegiem) nie zależą od wyboru parametryzacji. Na przykład gdy α jest kowektorem, to |α| zdefiniowany następująco:

|α|(v) := |α(v)| jest takim obiektem. Są też i zupełnie inne, które poznamy dalej. Jednak najprostsze pojęciowo są funkcje liniowe. To dla nich zachodzi Twierdzenie Stokes’a. Dla nich też można rozważać parametryzacje niemonotoniczne: podczas całkowania możemy się na chwilę cofnąć, a potem wrócić do poprzedniego kierunku. Mimo tego zawracania całka nie zmieni się, bowiem w obszarze, który przebiegamy trzykrotnie wkład od „cofania się” będzie anihilowany przez wkład od jednego z przebiegów w dobrym kierunku. Dlatego też, a również z powodu zastosowań takich jak „funkcja kosztów”, praca i inne, podstawową rolę przy opisie całek jednokrotnych odgrywają pola kowektorowe. Właśnie od nich rozpoczęliśmy analizę pojęcia całki po rozmaitości.

110

5 5.1

Formy różniczkowe Multi-kowektory. Wyznacznik jako forma objętości

W tym Rozdziale będziemy zajmować się całkami wielokrotnymi. Na przykład powierzchniowymi, to znaczy dwuwymiarowymi. Albo i więcej wymiarowymi. Ale rozpocznijmy nasze roważania od całek dwuwymiarowych. Jest wiele całek tego rodzaju: na przykład pole powierzchni, które nie zależy od orientacji, lub strumień pola magnetycznego przez powierzchnię, który zależy od orientacji powierzchni. Ta ostatnia wielkość jest bardzo ważna, bowiem zgodnie z prawem indukcji magnetycznej sformułowanym przez M. Faraday’a, siła elektromotoryczna wytworzona w uzwojeniu prądnicy jest proporcjonalna właśnie do prędkości zmian tego strumienia. Jakie wielkości geometryczne nadają się do całkowania? Całkowanie polega na sumowaniu infinitezymalnych wersji takiej wielkości po „infinitezymalnych kawałkach” powierzchni D. Gdy wybrać jakąś parametryzację powierzchni dwuwymiarowej: R2 ∋ (t1 , t2 ) → F (t1 , t2 ) ∈ D ⊂ M , to „infinitezymalny kawałek” tej powierzchni można sobie wyobrażać jako równoległobok rozpięty przez wektory styczne do powierzchni: ∂ ∂ , e2 = 2 . 1 ∂t ∂t Aby wielkość α = α(e1 , e2 ) mogła opisywać „infinitezymalny strumień” jakiejś wielkości fizycznej przez ten „infinitezymalny kawałek” powierzchni, musi się odpowiednio skalować wraz ze zmianą tego kawałka. Inaczej nie będzie nadawała się do całkowania, albowiem wynik będzie zależał od wyboru parametryzacji. W szczególności zależność tego „infinitezymalnego strumienia” od obu wektorów musi być taka, by była niezmiennicza względem przekształceń zachowujących pole równoległoboku. Od czasów starożytnych wiemy, że „pochylanie” równoległoboku, polegające na dodaniu do jednego z wektorów wielokrotności drugiego wektora (zob. Rysunek 17), nie zmienia jego pola. A zatem wielkość α musi być e1 =

e2

e2 + ae1

e1 Rysunek 17: Pochylanie równoległoboku nie zmienia jego pola. niezmienniczą względem operacji „pochylania” funkcją par wektorów, czyli musi spełniać 111

następujące warunki: α(e1 , e2 ) = α(e1 + a · e2 , e2 ) , α(e1 , e2 ) = α(e1 , a · e1 + e2 ) .

(309) (310)

Pochylając równoległobok kolejno to w jedną, to w drugą stronę, otrzymujemy z tych dwóch własności następującą tożsamość: α(e1 , e2 ) = α(e1 +e2 , e2 ) = α(e1 +e2 , e2 −(e1 +e2 )) = α(e1 +e2 , −e1 ) = α(e2 , −e1 ) . (311) Poza tym wiemy, że gdy jeden z wektorów przeskalujemy o liczbę 0 ¬ a ∈ R, to pole równoległoboku przeskaluje się o tę samą liczbę (zob. Rysunek 17). Zatem wielkość α musi 2e2

e2

e1 Rysunek 18: Skalowanie jednego z boków równoległoboku skutkuje skalowaniem jego pola. spełniać następującą tożsamość, przynajmniej dla liczb dodatnich: α(a · e1 , e2 ) = a · α(e1 , e2 ) = α(e1 , a · e2 ) .

(312)

Teraz wreszcie musimy się zdecydować co do prawa skalowania dla liczb ujemnych. Jeśli α ma dawać całkę zależną od orientacji, to przy zamianie jednego z wektorów na przeciwny wartość α(e1 , e2 ) musi zmieniać znak. Decydujemy zatem, że prawo skalowania (312) będzie obowiązywało dla dowolnej liczby a: dodatniej i ujemnej. Wtedy formuła (311) daje nam: α(e1 , e2 ) = −α(e2 , e1 ) ,

(313)

czyli α musi być antysymetryczną funkcją swoich dwóch argumentów, tzn. taką, która zmienia znak przy ich zamianie. Oznacza to, że jej wartość musi znikać gdy oba wektory są proporcjonalne, czyli równoległobok jest zdegenerowany. Rzeczywiście, gdy mamy np. e2 = ae1 , to zachodzi: α(e1 , e2 ) = aα(e1 , e1 ) = −aα(e1 , e1 ) = 0 , bowiem jedyna liczba równa swojej przeciwnej to zero. Twierdzenie 1: Funkcja α zależna od dwóch argumentów należących do dwuwymiarowej przestrzeni wektorowej Tx D, posiadająca powyższe własności, jest funkcją zależną liniowo od każdego ze swoich argumentów. 112

Dowód: Ponieważ wiemy, że α jest multiplikatywna ze względu na skalowanie, zatem wystarczy wykazać jej addytywność. Jeśli wektory w oraz u są proporcjonalne, np. w = au, to mamy: α(v + w, u) = α(v + w − au, u) = α(v, u) = α(v, u) + α(w, u) , i to samo gdy v = au. Pozostaje do wykazania przypadek gdy wektory te są niezależne od u. Wtedy jeden z nich jest kombinacją liniową pozostałych, bowiem wszystko to odbywa się w przestrzeni dwuwymiarowej. Niech więc będzie w = au + bv. Mamy wtedy: α(v + w, u) = α(v + au + bv, u) = α(v + bv, u) = (1 + b)α(v, u) = α(v, u) + α(bv, u) = α(v, u) + α(au + bv, u) = α(v, u) + α(w, u) . . Doświadczenie powyższe przenosi się na całki więcej niż dwu-wymiarowe. „Infinitezymalny kawałek” takiego obszaru całkowania można sobie wyobrażać jako równoległościan rozpięty przez wektory styczne: ∂ ei = i , ∂t i gdzie (t ), i = 1, . . . , k; są parametrami w k-wymiarowej objętości D, po której mamy całkować. Aby całka z „infinitezymalnego strumienia” α (e1 , . . . , ek ) ,

(314)

nie zależała od parametryzacji, muszą znów być spełnione oba prawa: prawo „pochylania” dowolnego wektora w kierunku dowolnego innego, analogiczne do (309) i (310), a mianowicie: α (e1 , . . . , ei , . . . , ej , . . . , ek ) = α (e1 , . . . , ei + a · ej , . . . , ej , . . . , ek ) ,

(315)

(pochylony został wektor i-ty w kierunku wektora j-tego), oraz prawo skalowania dowolnego wektora, analogiczne do (312): α (e1 , . . . , a · ei , . . . , ek ) = a · α (e1 , . . . , ei , . . . , ek ) .

(316)

Decydując się by prawo skalowania obowiązywało również dla liczb ujemnych otrzymujemy całkę zależną od orientacji obszaru całkowania D, bowiem zmiana współrzędnej ti na −ti , związana ze zmianą orientacji na przeciwną (wyznacznik Jacobianu takiej transformacji jest równy „−1”, patrz wzór (301)) spowoduje zmianę znaku funkcji podcałkowej (316). Zachowując na swoich miejscach wszystkie wektory z wyjątkiem ei oraz ej , a na tych dwóch stosując przekształcenia identyczne jak we wzorze (311) otrzymujemy natychmiast tożsamość: α (e1 , . . . , ei , . . . , ej , . . . , ek ) = −α (e1 , . . . , ej , . . . , ei , . . . , ek ) , 113

(317)

oznaczającą znów antysymetrię: funkcja α zmienia znak na przeciwny gdy zamienimy miejscami jej dowolne dwa argumenty. Wreszcie otrzymujemy Twierdzenie 2: Funkcja zależna od k argumentów wektorowych należących do kwymiarowej przestrzeni wektorowej: e1 , . . . , ek ∈ Tx D, mająca powyższe własności jest funkcją liniową w każdym argumencie. Dowód tego twierdzenia jest zupełnie analogiczny do dowodu poprzedniej, dwuwymiarowej wersji tego twierdzenia. Uwaga: Jak widać z Dowodu, liniowość jest konsekwencją jednorodności względem skalowania (316). Podkreślamy, że jednorodność ta musi obowiązywać dla liczb dodatnich a ­ 0 aby całkowanie miało sens. Natomiast jednorodność dla liczb ujemnych jest naszym wyborem: decydujemy się na całki zależne od orientacji. I tylko w tym przypadku funkcja α jest (wielo-)liniowa. Zauważmy, że jest to wieloliniowość w ramach jednej podrozmaitości D ⊂ M (czy też raczej: w ramach jej przestrzeni stycznej Tx D). Natomiast zależność ta mogłaby się zmieniać w bardzo skomplikowany sposób przy zmianie samej powierzchni całkowania D. Okazuje się, że warto rozważać całki, w których wieloliniowość całkowanego obiektu obowiązuje na całej rozmaitości M (to znaczy na wszystkich przestrzeniach stycznych Tx M). W dawnej literaturze takie całki nazywano „całkami drugiego rodzaju”. Okazuje się, że są to pojęciowo najprostsze całki, a niesiona przez nie struktura jest bardzo bogata. Okazuje się też, że inne całki (na przykład niezależne od orientacji) wiążą się z dużo bardziej skomplikowanymi (nieliniowymi) obiektami geometrycznymi. Niektóre z nich poznamy w dalszym ciągu niniejszego wykładu. Dotychczasowe rozważania uzasadniają zatem następującą definicje. Definicja: Funkcję k-liniową, antysymetryczną na przestrzeni Tx M nazywamy multikowektorem, lub dokładniej: k-kowektorem, zaczepionym w punkcie x ∈ M. Lemat: 1. Jeśli dwa wektory w układzie {ei } są sobie równe, to α (e1 , . . . , ek ) = 0. 2. To samo jeśli układ {ei } jest liniowo zależny. Dowód: ad 1.: Jeśli ei = ej , to na mocy (317) mamy α (e1 , . . . , ei , . . . , ei , . . . , ek ) = −α (e1 , . . . , ei , . . . , ei , . . . , ek ) = 0 , bowiem jedyna liczba równa swej przeciwnej to zero. ad 2.: Jeśli układ jest liniowo zależny, to jeden z wektorów jest kombinacją liniową pozostałych, na przykład: e1 =

k X

v i ei .

i=2

Wtedy α (e1 , . . . , ek ) = α

k X

!

v ei , e2 , . . . , ek = i

i=2

114

k X i=2

v i α (ei , e2 , . . . , ek ) = 0 ,

bowiem w każdej sekwencji (ei , e2 , . . . , ek ), i ­ 2; jakieś dwa wektory są sobie równe.  Okazuje się, że wartość multi-kowektora jest bardzo ściśle związana z pojęciem wyznacznika macierzy (k × k), o czym mówi następujące twierdzenie: Twierdzenie 3: Jeśli vj = v i j ei (uwaga: konwencja sumacyjna, zatem sumujemy po i = 1, . . . , k) wtedy zachodzi: 



α (v1 , . . . , vk ) = det v i j · α (e1 , . . . , ek ) .

(318)

To proste twierdzenie z algebry liniowej można też przyjąć jako definicję wyznacznika macierzy. W każdym razie mówi ono, że gdy wybierzemy jakąś jednostkę k-objętości: na przykład równoległościan rozpięty na bazie wektorów (ek ), otrzymamy objętość dowolnego innego wielościanu w postaci wyznacznika macierzy współczynników rozkładu rozpinających go wektorów w tej bazie. Widzimy więc, że (zorientowana!) objętość jest po prostu wyznacznikiem. Ćwiczenie: Jako ćwiczenie wykażemy powyższe twierdzenie, bowiem biegłość w podobnych przekształceniach jest istotna z punktu widzenia naszego wykładu. A zatem: 

α (v1 , . . . , vk ) = α v i1 1 ei1 , . . . , v ik k eik = v

i1

1

...v

ik

k



(319)

· α (ei1 , . . . , eik ) .

(320)

Pamiętamy o konwencji sumacyjnej: jest to zatem k-krotna suma po wszystkich możliwych wartościach wskaźników (i1 , i2 , . . . , ik ). Ale wyrażenie α (ei1 , . . . , eik ) znika gdy jakieś dwa wektory są sobie równe. A zatem większość składników powyższej sumy znika i pozostają jedynie te, dla których wszystkie wskaźniki (i1 , i2 , . . . , ik ) są różne, to znaczy są permutacją liczb (1, 2, . . . , k): il = σ(l) , l = 1, 2, . . . , k . Zatem zamiast sumować po wszystkich k k układach wskaźników, wystarczy sumować po k! permutacjach: α (v1 , . . . , vk ) =

X

v

σ(1) 1

...v

σ(k) k

σ∈Sk

=

X

(−1)|σ| v

σ(1) 1



· α eσ(1) , . . . , eσ(k)

...v

σ(k) k

σ∈Sk



· α (e1 , . . . , ek ) .

Oznaczyliśmy tutaj przez |σ| ilość transpozycji z których można złożyć permutację σ. Zatem (−1)|σ| = 1 dla permutacji parzystych oraz (−1)|σ| = −1 dla nieparzystych. Wielkość ta nazywa się permutacji. Ostatnia równość wynika z faktu, że aby przejść od  parzystością  wielkości α eσ(1) , . . . , eσ(k) do α (e1 , . . . , ek ) należało wykonać |σ| transpozycji, a każda z nich powoduje zmianę znaku tego wyrażenia. Ale X

(−1)|σ| v

σ(1) 1

...v

σ(k) k

σ∈Sk

co kończy dowód.



= det v i j



, 

115

Podobnie jak w przypadku jedno-kowektora (czyli po prostu kowektora), wygodnie będzie stosować następujące oznaczenie na wartość k-kowektora na sekwencji wektorów: α (v1 , . . . , vk ) = hα ; v1 , . . . , vk i .

(321)

Wyrażenie to jest liniowe w każdym z argumentów vi :

hα ; v1 , . . . , a · vi + b · wi , . . . , vk i = a · hα ; v1 , . . . , ·vi , . . . , vk i + b · hα ; v1 , . . . , wi , . . . , vk i

(322)

oraz całkowicie antysymetryczne. Multi-kowektory — jako funkcje — stanowią przestrzeń wektorową. Oznacza to, że powyższe wyrażenie jest również liniowe w pierwszym argumencie: ha · α + b · β ; v1 , . . . , vk i = a · hα ; v1 , . . . , vk i + b · hβ ; v1 , . . . , vk i .

(323)

Przestrzeń wektorową złożoną ze wszystkich k-kowektorów zaczepionych w punkcie x ∈ M oznaczamy następującym symbolem: k ^

Tx∗ M .

W szczególności jedno-kowektor to po prostu kowektor, zatem dla ujednolicenia oznaczeń piszemy: 1 ^

Tx∗ M = Tx∗ M ,

natomiast zero-kowektor, to liczba (zależna od zero wektorów, czyli po prostu od niczego niezależny skalar): 0 ^

Tx∗ M = R .

Kolekcję wszystkich tych przestrzeni oznaczamy jako k ^

T ∗ M :=

k [ ^

Tx∗ M .

x∈M

W rozdziale 5.3 poznamy wygodną parametryzację tych przestrzeni i wtedy okaże się, że ta suma jest wiązką włóknistą nad bazą M. Podobnie jak to miało miejsce dla (jedno-)kowektorów w Rozdziale 4.1, k-kowektor możemy sobie znów wyobrażać jako „czarną skrzynkę”. Teraz jednak ma ona k „slotów”, które wypełnić musimy wektorami, aby skrzynka wyprodukowała z nich wynik liczbowy. Wynik ten zależy liniowo od wkładu w każdym poszczególnym slocie. Poza tym zmienia znak gdy zamienimy ze sobą wkłady w dowolnych dwóch slotach. Takie — pozornie bardzo abstrakcyjne — obiekty pojawiają się na każdym kroku w fizyce, naukach inżynierskich, ekonomii i innych zastosowaniach matematyki. Często występują one „w przebraniu”, bowiem znajomość geometrii różniczkowej nie jest najmocniejszą stroną autorów książek i 116

wykładowców nadających ton w tych dziedzinach. Preferują oni stare, osiemnastowieczne formalizmy, gdzie każdy przypadek traktowany jest osobno, przy pomocy narzędzi stworzonych niegdyś na potrzeby tego właśnie przypadku, a istota rzeczy gubi się w technikaliach. Tymczasem zamiast studiować oddzielnie twierdzenia Gaussa a oddzielnie Ostrogradskiego, uczyć się na pamięć wzorów oddzielnie dla współrzędnych sferycznych a oddzielnie np. dla parabolicznych, oddzielnie na sferze a oddzielnie na hiperboloidzie, warto rozpoznać istotę rzeczy. A ta sprowadza się do wskazówki: ilekroć pojawiają się całki wielokrotne, tylekroć mamy do czynienia z multi-kowektorami, a raczej ich polami, to znaczy formami różniczkowymi, choćby były przebrane za coś innego. Zdjęcie z nich tego przebrania na pewno uprości strukturę teorii i ułatwi rachunki!

5.2

Formy różniczkowe. Całkowanie form po podrozmaitościach

Forma różniczkowa to pole multi-kowektorów. Ściślej: k-forma różniczkowa to pole kkowektorów. W szczególności jedno-forma to po prostu znane nam już pole kowektorowe. A zero-forma to pole skalarne, czyli funkcja. Jak wynika z dyskusji przeprowadzonej w Rozdziale 5.1, k-forma nadaje się do całkowania po k-wymiarowych podrozmaitościach (k)

D ⊂ M. Jeśli bowiem α jest k-formą zaś Rk ⊃ V ∋ (ti ) → κ(ti ) ∈ D ⊂ M , jest parametryzacją podrozmaitości D, to „strumień infinitezymalny” *

∂ ∂ α ; 1,..., k ∂t ∂t

(k)

+

(324)

dobrze się skaluje przy przejściu do innych współrzędnych. Rzeczywiście, gdy (τ j ) jest innym układem współrzędnych, pochodzącym z innej mapy, wtedy mamy: *

∂ ∂ α ; 1,..., k ∂t ∂t

(k)

+

*

+

∂τ i1 ∂ ∂τ ik ∂ α ; 1 = , . . . , ∂t ∂τ i1 ∂tk ∂τ ik !* + (k) ∂τ j ∂ ∂ α ; 1,..., k . = det ∂ti ∂τ ∂τ (k)

(325)

Widać więc, że na mocy twierdzenia o zamianie zmiennych w całce wielokrotnej, całka da ten sam wynik gdy wykonamy ją w dwóch różnych parametryzacjach, pod warunkiem, że  j obie mapy są zgodne pod względem orientacji, to znaczy gdy zachodzi: det ∂τ > 0: ∂ti Z *

∂ ∂ α ; 1,..., k ∂t ∂t

(k)

+

!*

Z

(k) ∂τ j ∂ ∂ α ; 1,..., k dk t = det i ∂t ∂τ ∂τ + Z * (k) ∂ ∂ α ; 1 , . . . , k dk τ . = ∂τ ∂τ

+

dk t (326)

Jako dziedziny całkowania będziemy rozważali zwarte rozmaitości z brzegiem. Rozważania z Rozdziału 4.4 dotyczące przypadku jednowymiarowego przenoszą się tutaj niemal 117

całkowicie z tym, że zamiast wzoru (302) musimy dopuścić więcej nierówności. Przyjmujemy więc następujące określenie. Definicja: Podzbiór D ⊂ M rozmaitości różniczkowalnej M wymiaru n nazywamy podrozmaitością różniczkowalną z brzegiem, wymiaru k, klasy C l , jeśli każdy punkt x ∈ D posiada otoczenie O ⊂ M otwarte w M, a w nim układ funkcji (Gi , H j ), i = 1, . . . , r taki, że D ∩ O jest miejscem geometrycznym rozwiązań układu regularnego  1   G (x)    ...      Gr (x)

=0,

=0,   H1 (x) ¬ 0 ,     .   ..    H

przy czym:

s (x)

(327)

¬0,

1. wymiar k oznacza, że k + r = n = dimM , 2. „regularność” oznacza, że w każdym punkcie x ∈ D różniczki wszystkich funkcji Gi oraz tych spośród Hj , które zerują się w x, są liniowo niezależne. Ścianą Sj takiej powierzchni regularnej nazywamy powierzchnię regularną wymiaru (k − 1) określoną takim układem warunków, który powstał z układu definiującego D poprzez zamianę jednej z nierówności ograniczających Hj ¬ 0 na równość definiującą Hj = 0. Możemy też powiedzieć, że ściana Sj to zbiór wysycający nierówność Hj ¬ 0. Brzegiem ∂D powierzchni regularnej D nazywamy sumę jej wszystkich ścian. Podobnie jak w przypadku k = 1 do definicji całki po takiej rozmaitości musimy mieć wyróżnioną orientację, to znaczy atlas na D, którego mapy są zgodne w sensie nierówności (301) z Rozdziału 4.3. Definicja: Jeśli D ⊂ M jest zwartą, zorientowaną podrozmaitością z brzegiem, wy(k)

miaru k, zaś α jest formą różniczkową to całką z tej formy po D nazywamy wielkość otrzymaną w następujący sposób:

1. Jeśli istnieją globalne układy współrzędnych na D, to wybieramy taki, który jest zgodny z orientacją D i kładziemy: Z

D

(k)

α :=

Z * ˜ D

∂ ∂ α ; 1,..., k ∂t ∂t

(k)

+

dk t ,

(328)

˜ ⊂ Rk jest obszarem który w tej parametryzacji odpowiada naszej przy czym D rozmaitości D.

118

2. Jeśli globalne układy współrzędnych nie istnieją na D, to albo dzielimy D „na kawałki”, z których każdy mieści się już w dziedzinie jakiejś mapy a następnie dodajemy sumę wyników całkowania po poszczególnych kawałkach, albo stosujemy rozkład P jedności 1 = j∈J fj wpisany w pokrycie rozmaitości D dziedzinami map i wtedy kładziemy Z Z (k)

D

α :=

X

j∈J

(k)

D

(329)

α ·fj ,

(k)

podczas gdy każda z form różniczkowych α ·fj „mieści się” już w dziedzinie jakiejś mapy (por. dyskusja w Rozdziale 4.6), zatem całka z niej może być obliczona zgodnie z formułą (328). Z całej tej dyskusji wynika Twierdzenie: Powyższa definicja jest poprawna, to znaczy nie zależy od występujących w niej elementów dowolnych: 1) rozkładu jedności oraz 2) wyboru parametryzacji na D.

5.3

Iloczyn zewnętrzny. Współrzędniowy opis multikowektorów i form różniczkowych (l)

(k)

Gdy mamy dwa multi-kowektory: k-kowektor α oraz l-kowektor β to łatwo możemy z nich utworzyć (k + l)-kowektor następującym wzorem: *

(k)

+

(l)

α ∧ β ; v1 , . . . , vk , vk+1 , . . . , vk+l := 

(k) 1 X = (−1)|σ| α ; vσ1 , . . . , vσk k!l! σ∈Sk+l

 *(l)

β ; vσk+1 , . . . , vσk+l

+

. (330)

We wzorze tym σ ∈ Sk+l oznacza dowolną permutację (k + l) elementów, zaś |σ| jest liczbą transpozycji realizujących daną permutację. Idea tej definicji jest prosta: spośród (k + l) wektorów (v1 , . . . , vk , vk+1 , . . . , vk+l ) wy(k)

bieramy pierwsze k wektory i „rzucamy na pożarcie” formie α zaś pozostałe „rzucamy (l)

na pożarcie” formie β , po czym oba wyniki mnożymy przez siebie. Otrzymany rezultat jest oczywiście wieloliniowy. Niestety, nie jest on całkowicie antysymetryczny. Dlatego też musimy go „antysymetryzować”, to znaczy dodać do siebie rezultaty odpowiadające wszystkim możliwym permutacjom pierwotnej sekwencji wektorów, opatrzone znakiem „+1” dla permutacji parzystych i „−1” dla nieparzystych. Znak ten jest realizowany przez czynnik (−1)|σ| , występujący w powyższej formule. Ale pośród (n + m)! składników tej sumy, odpowiadających wszystkim permutacjom (k + l)-elementów, jest bardzo wiele powtarzających się. Weźmy bowiem jakikolwiek składnik, a następnie składnik powstały zeń (k)

poprzez oddzielną permutację wektorów (vσ1 , . . . , vσk ) włożonych do „slotów” formy α , 119

oraz oddzielną permutację pozostałych wektorów (vσk+1 , . . . , vσk+l ), włożonych do „slo(l)

tów” formy β . Łatwo widać, że składniki te są identyczne. Wynika to z faktu, że pierwszy i drugi czynnik w iloczynie mogą co najwyżej zmienić znak wskutek permutacji wektorów włożonych w „sloty” wejściowe tej samej formy. Jednak ewentualna zmiana znaku jest kompensowana zmianą znaku współczynnika liczbowego (−1)|σ| . Łatwo również widać, że liczba identycznych składników otrzymanych w ten sposób jest równa liczbie permutacji k elementów, pomnożonej przez liczbę (niezależnych) permutacji l elementów. A zatem wszystkie składniki powyższej sumy „chodzą stadami” identycznych składników, a liczebność każdego takiego „stada” wynosi właśnie „k!l!”. Aby element każdego stada uwzględnić tylko jeden raz, podzieliliśmy wynik przez tę liczebność. Dla porządku zauważmy, że gdy któraś z liczb k lub l jest równa zeru, to odpowiadający jej „multikowektor” jest liczbą i mnożenie zewnętrzne sprowadza się do zwykłego przez tę liczbę mnożenia. Oznacza to, że dla a ∈ R zachodzi tożsamość: (k)

(k)

a ∧ α= a · α .

(331) (l)

(k)

Otrzymany w wyniku operacji (330) kowektor: α ∧ β , nazywamy iloczynem zewnętrznym obu multi-kowektorów. Definicja (330) implikuje natychmiast jego następujące własności, których prosty, kombinatoryczny dowód pozostawiamy Czytelnikowi jako ćwiczenie. Lemat. Mnożenie zewnętrzne jest dwuliniowe i łączne. Poza tym przestawienie kolejności mnożenia powoduje ewentualną zmianę znaku według formuły: (k)

(l)

(l)

(k)

α ∧ β = (−1)k·l β ∧ α .

(332)

Przykład: Jeśli (xk ) jest układem współrzędnych w M to dxi ∧ dxj jest dwu-formą, a jej wartość w każdym punkcie rozmaitości M jest 2-kowektorem. Jej wartość na parze wektorów v = v p ∂x∂ p oraz u = uq ∂x∂ q wynosi, zgodnie z definicją (330): D

E

D

dxi ∧ dxj ; v, u = dxi ; v

ED

E

D

ED

dxj ; u − dxi ; u

E

dxj ; v = v iuj − v j ui .

(333)

Widać, że zachodzi dxi ∧dxj = −dxj ∧dxi . Natomiast w przypadku trójformy dxi ∧dxj ∧dxk definicja ta daje: D

dxi ∧ dxj ∧ dxk ; v, u, w

E

= + + − − −

D

ED

D

ED

dxk ; u

dxi ; w

D

ED

dxj ; u

dxi ; w

dxi ; u

dxk ; w

dxi ; v

D

dxk ; v

dxj ; v

D

dxk ; v dxj ; v

D

dxi ; v

120

ED

dxk ; w

ED

dxi ; u

ED

ED

ED

dxj ; u

dxj ; w

ED ED

ED

ED

dxk ; u

dxj ; w

E

E

E E

E

E

.

Sześć permutacji trzech elementów zgrupowaliśmy tutaj w dwie trójki: trzy przestawienia cykliczne, które w S3 są parzyste, oraz trzy pozostałe, nieparzyste. Warto zapamiętać tę strukturę grupy permutacji S3 , bo ilekroć pracujemy w rozmaitości trójwymiarowej, mamy z nią do czynienia. Warto również zauważyć, że permutacje cykliczne są parzyste jedynie w przypadku nieparzystej liczby elementów (jak np. właśnie trzy), natomiast w przypadku ich parzystej liczby są nieparzyste. Łatwo widać, że stosując indukcję matematyczną ze względu na rząd k, otrzymamy uniwersalny wzór na iloczyn zewnętrzny k kowektorów dxi . Lemat: Zachodzi następująca tożsamość: D

dxi1 ∧ · · · ∧ dxik ; v1 , . . . , vk

E

= =

X

D

E

D

σ∈Sk

(−1)|σ| dxiσ1 ; v1 · · · dxiσk ; vk

σ∈Sk

(−1)|σ| v1 1 · · · vk k .

X





E

(334)

Wniosek: Iloczyn zewnętrzny dxi1 ∧ · · · ∧ dxik zmienia znak przy zamianie dowolnych dwóch swoich czynników, czyli jest całkowicie antysymetryczny. Okazuje się, że powyższe k-krotne iloczyny zewnętrzne różniczek współrzędnych stano(k)

wią bazę w przestrzeni multi-kowektorów. Niech bowiem α będzie dowolnym k-kowektorem zaczepionym w punkcie x ∈ M. Pokażemy, że jest on kombinacją liniową takich iloczynów. W tym celu wybierzemy pewien układ współrzędnych (xk ) w otoczeniu tego punktu i oznaczmy: + * (k) ∂ ∂ α ; , . . . , i =: αi1 ,...,ik . (335) ∂xi1 ∂x k Na mocy antysymetrii (317) multikowektora, tablica tych liczb jest całkowicie antysymetryczna. W szczególności każdy element odpowiadający takiej samej wartości dwóch różnych wskaźników jest równy zeru. Poza tym wielkość ta zmienia znak na przeciwny przy przestawieniu dowolnych dwóch wskaźników is oraz iq , 1 ¬ i, s ¬ k. Zatem dla permutacji σ ∈ Sk mamy: αi1 ,...,ik = (−1)|σ| αiσ1 ,...,iσk . (336) Wykorzystamy te własności do obliczenia wartości tego k-kowektora na dowolnej sekwencji wektorów (v1 , . . . , vk ), których współrzędne oznaczamy przez vsis : vs = vsis

D E ∂ ∂ is = dx , v , s ∂xis ∂xis

(sumowanie po wszystkich wartościach wskaźnika is = 1, . . . , n = dimM). Na mocy liniowości otrzymamy: 

(k)

α ; v1 , . . . , vk



=

*

∂ ∂ α ; v1i1 i , . . . , vkik i 1 ∂x ∂x k

(k)

121

+

= v1i1 · · · vkik · αi1 ,...,ik .

(337)

Korzystając z wzoru (336) możemy zastąpić współczynnik αi1 ,...,ik liczbą (−1)|σ| αiσ1 ,...,iσk dla dowolnej permutacji σ ∈ Sk . Sumując te (identyczne!) wyrazy po wszystkich k! permutacjach otrzymamy zatem: k!



(k)

α ; v1 , . . . , vk



X

=

X

i1 ,...,ik σ∈Sk

(−1)|σ| v1i1 · · · vkik · αiσ1 ,...,iσk .

(338)

Jeśli teraz oznaczyć σp = q, to p = πq , gdzie π jest permutacją odwrotną do σ. Obie mają tę samą parzystość. Poza tym sumowanie po wszystkich σ to to samo co sumowanie po wszystkich π. Stosując tę uwagę, a następnie wzór (334), otrzymujemy: k!



(k)

α ; v1 , . . . , vk



=

X

X

i1 ,...,ik π∈Sk

= =

D

i



(−1)|π| v1π1 · · · vk k · αi1 ,...,ik E

dxi1 ∧ · · · ∧ dxik ; v1 , . . . , vk · αi1 ,...,ik

D

αi1 ,...,ik · dxi1 ∧ · · · ∧ dxik ; v1 , . . . , vk

E

,

(teraz już znak sumowania po i1 , . . . , ik jest niepotrzebny, bowiem działa zwykła konwencja sumacyjna!). Ponieważ tożsamość ta zachodzi dla wszystkich układów wektorów (v1 , . . . , vk ), możemy przez nie „uprościć”, otrzymując: (k)

α=

1 αi1 ,...,ik · dxi1 ∧ · · · ∧ dxik . k!

(339)

Wybierając inny układ współrzędnych (y a ) w tej samej przestrzeni otrzymujemy (k)

α=

1 e a ,...,a · dy a1 ∧ · · · ∧ dy ak . α k! 1 k

(340)

e a1 ,...,ak przez stare współczynniki αi1 ,...,ik , wystarczy we wzorze Aby wyrazić współczynniki α (339) wstawić ∂xi1 dxi1 = a1 dy a1 , ∂y i podobnie dla następnych wskaźników i oraz a. Mamy więc

1 α = αi1 ,...,ik k! 1 = αi1 ,...,ik k!

(k)

!

!

∂xi1 a1 ∂xik ak · dy ∧ · · · ∧ dy ∂y a1 ∂y ak ∂xi1 ∂xik · a1 · · · a dy a1 ∧ · · · ∧ dy ak . ∂y ∂y k

(341)

Porównując ten ostatni wzór z (340) otrzymujemy składowe naszej formy w nowym układzie współrzędnych: ∂xi1 ∂xik e a1 ,...,ak = αi1 ,...,ik · α · · · , (342) ∂y a1 ∂y ak co stanowi prawo transformacyjne dla składowych formy różniczkowej przy transformacji współrzędnych. 122

Dowolna forma różniczkowa przedstawia się zatem jako kombinacje liniowa iloczynów zewnętrznych różniczek współrzędnych. Nie znaczy to jednak, że wszystkie k-kowektory k V

dxi1 ∧ · · · ∧ dxik stanowią bazę przestrzeni Tx∗ M. Zauważmy bowiem, że nie są one niezależne: przestawienie wskaźników powoduje jedynie zmianę znaku. Zatem w powyższej sumie wszystkie wyrazy, które biorą się z jednego wyrazu przez permutację wskaźników (i1 , . . . , ik ) są sobie równe, bowiem zarówno pierwszy jak i drugi czynnik są antysymetryczne, więc co najwyżej zmieniają znak, ale oba jednocześnie, dzięki czemu ich iloczyn się nie zmienia. Aby uniknąć wielokrotnego sumowania tego samego członu, wybierzemy w każdej takiej grupie jednego reprezentanta, na przykład odpowiadającego uporządkowanej sekwencji wskaźników: i1 < i2 < · · · < ik . Ponieważ identycznych składników jest w każdej grupie tyle ile permutacji, to znaczy k!, otrzymamy następującą formułę, równoważną formule (339): (k)

α=

X

i1
View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF