Artikel

6.3: Lineare Differentialoperatoren - Mathematik


Ihre Kalkülklasse wurde viel einfacher, als Sie aufhörten, die Grenzwertdefinition der Ableitung zu verwenden, die Potenzregel lernten und anfingen, Linearität des Ableitungsoperators zu verwenden.

Beispiel 64

Sei (V) der Vektorraum von Polynomen vom Grad 2 oder weniger mit Standardaddition und Skalarmultiplikation.

[V = {a_{0}cdot1 + a_{1}x + a_{2} x^{2} | a_{0},a_{1},a_{2} in Re } onumber]

Sei (frac{d}{dx}colon V ightarrow V) der Ableitungsoperator. Die folgenden drei Gleichungen ermöglichen zusammen mit der Linearität des Ableitungsoperators die Ableitung jedes Polynoms 2. Grades:

[
frac{d}{dx} 1=0,~frac{d}{dx}x=1,~frac{d}{dx}x^{2}=2x,. keine Nummer
]

Speziell

[
frac{d}{dx} (a_{0}cdot1 + a_{1}x + a_{2} x^{2}) =
a_{0}frac{d}{dx}cdot1 + a_{1} frac{d}{dx} x + a_{2} frac{d}{dx} x^{2}
= 0+a_{1}+2a_{2}. onumber
]

Somit wird die Ableitung, die auf eines der unendlich vielen Polynome zweiter Ordnung wirkt, durch ihre Wirkung für nur drei Eingaben bestimmt.


Linearer Differentialoperator

Hier $ a _ Punkte ich _ > $ sind Funktionen mit Werten im selben Feld, die als Koeffizienten von $ A $ bezeichnet werden. Wenn die Koeffizienten Werte in der Menge von $ ( t imes s ) $-dimensionalen Matrizen über $ k $ annehmen, dann ist der lineare Differentialoperator $ A $ auf vektorwertigen Funktionen $ u = ( u _ <1> Punkte du _ ) $ und transformiert sie in vektorwertige Funktionen $ v = ( v _ <1>dots v _ ) $. Im Fall $ n = 1 $ wird er als linearer gewöhnlicher Differentialoperator bezeichnet, im Fall $ n > 1 $ als linearer partieller Differentialoperator.

Sei $ X $ eine differenzierbare Mannigfaltigkeit und seien $ E $ und $ F $ endlichdimensionale Vektorbündel auf $ X $( alle der Klasse $ C ^ infty $, vgl. Vektorbündel). Sei $ widetilde ightarrow widetilde $ die Garben (vgl. Garbe) von Keimen von Abschnitten dieser Bündel der entsprechenden Glätteklasse sein. Ein linearer Differentialoperator im weiteren Sinne $ A: E ightarrow F $ ist eine Garbenabbildung $ widetilde ightarrow widetilde $ mit folgender Bedingung: Jeder Punkt $ x in X $ hat eine Koordinatenumgebung $ U $ innerhalb derer die Bündel trivial sind, während die Abbildung

$ A : Gamma ( U , E ) ightarrow Gamma ( U , F ) , $

wobei $ Gamma ( U , E ) $ der Raum der Abschnitte von $ E $ über $ U $ ist, wirkt nach (1), wobei lokale Koordinaten $ x _ <1>dots x _ $ und die Trivialisierungen

$ E mittel _ cong U imes k ^ , F mittel_ cong U imes k ^ $

werden verwendet. Die kleinste Zahl $ m $ so dass (1) an allen Punkten $ x in X $ geeignet ist, heißt Ordnung des linearen Differentialoperators $ A $. Zum Beispiel ist jede von Null verschiedene Verbindung auf $ E $ ein linearer Differentialoperator $ d : E ightarrow E otimes Omega ^ <1>( X) $ erster Ordnung. Eine andere äquivalente Definition eines linearen Differentialoperators $ A : E ightarrow F $ ist die folgende: Es ist ein linearer Operator $ A : Gamma ( X , E ) ightarrow Gamma ( X , F ) $ , der die Bedingung $ supp Au subset supp u $, wobei $ supp u $ die Unterstützung von $ u $ ist.

Ein linearer Differentialoperator kann auf breiteren Funktionsräumen definiert werden. Wenn beispielsweise auf $ X $ eine positive Metrik und auf den Bündeln $ E $ und $ F $ ein Skalarprodukt definiert ist, dann werden die Räume der quadratintegrierbaren Abschnitte dieser Bündel definiert. Ein durch die lokalen Ausdrücke (1) definierter linearer Differentialoperator bestimmt einen linearen unbeschränkten Operator $ A : L _ <2>( E) ightarrow L _ <2>( F ) $. Letztere kann unter bestimmten schwachen Voraussetzungen als Operator auf Hilberträumen abgeschlossen werden. Dieser Abschluss wird auch als linearer Differentialoperator bezeichnet. Auf ähnliche Weise kann man einen Operator konstruieren, der auf Sobolev-Räume oder auf Räume allgemeinerer Skalen wirkt.

Ein linearer Differentialoperator der Klasse $ C ^ infty $ kann zu einem Operator auf Räumen verallgemeinerter Abschnitte erweitert werden. Eine solche Erweiterung kann mit einem formal adjungierten Operator konstruiert werden. Sei $ E ^ prime $ das Bündel dual zu $ ​​E $( d.h. $ E ^ prime = mathop < m Hom>( E , I ) $, wobei $ I $ das triviale eindimensionale Bündel ist ) und sei $ Omega $ das Bündel von Differentialformen auf $ X $ maximalen Grades. Es ist eine bilineare Abbildung definiert

$ ( cdot , cdot ) _ : Gamma ( X, E) imes Gamma _ <0>( X , E ^ prime otimes Omega ) ightarrow k , $

was eine Integration über $ X $ beinhaltet. Dabei ist $ Gamma _ <0>( cdot ) $ der Raum von Abschnitten mit kompakter Unterstützung. Die Formel

definiert eindeutig einen linearen Operator

$ <> ^ A : Gamma _ <0>( X , F ^ prime otimes Omega ) ightarrow Gamma_<0>( X , E ^ prime otimes Omega ) . $

Sie wird durch den linearen Differentialoperator $ <> ^ A : F ^ < prime >otimes Omega ightarrow E ^ prime otimes Omega $ welches innerhalb der Koordinatenumgebung $ U $ den Ausdruck hat

$ <> ^ A u = sum (- 1) ^ + Punkte + ich _ > frac + Punkte + ich _ > ( <> ^ ein _ Punkte ich _ > u ) > ^ > dots partial x _ ^ > > , $

wenn das Bündel $ Omega $ trivialisiert wird durch die Wahl des Abschnitts $ d x _ <1>wedge dots wedge d x _ $. Der lineare Differentialoperator $ <> ^ A $ heißt formal adjungiert in Bezug auf $ A $.

Im Raum $ Gamma _ <0>( X , E ^ prime otimes Omega ) ist $ Konvergenz nach folgender Regel definiert: $ f _ ightarrow f $ wenn die Vereinigung der Stützen der Abschnitte $ f _ $ gehört zu einer kompakten Menge und falls in einer Koordinatenumgebung $ U subset X $ über der eine Trivialisierung von $ E $ liegt, die vektorwertigen Funktionen $ f _ $ konvergiert gleichförmig gegen $ f $ zusammen mit allen partiellen Ableitungen nach lokalen Koordinaten. Der Raum aller linearen Funktionale heißt Raum der verallgemeinerten Abschnitte von $ E $ und wird mit $ D ^ prime ( E) $ bezeichnet. Der Operator $ <> ^ A $ nimmt konvergente Folgen zu konvergenten Folgen und erzeugt daher einen adjungierten Operator $ D ^ prime ( E) ightarrow D ^ prime ( F ) $. Letztere fällt mit $ A $ auf dem Unterraum $ Gamma ( X , E ) $ zusammen und heißt die Erweiterung des gegebenen linearen Differentialoperators auf den Raum der verallgemeinerten Abschnitte. Man betrachtet auch andere Erweiterungen linearer Differentialoperatoren, auf Räume verallgemeinerter Abschnitte unendlicher Ordnung, auf den Raum von Hyperfunktionen usw.

Unter einem linearen Differentialoperator unendlicher Ordnung wird ein Operator verstanden, der in einem bestimmten Raum analytischer Funktionen (Abschnitte) wirkt und durch (1) definiert ist, wobei die Summation über eine unendliche Menge von Indizes erfolgt $ i _ <1> Punkte ich _ , dots $.

Die folgende Eigenschaft charakterisiert lineare Differentialoperatoren. Eine Folge $ < f _ > subset Gamma ( X , E ) $ konvergiert gegen einen Abschnitt $ f $, wenn $ f _ $ strebt gleichförmig gegen $ f $ zusammen mit allen partiellen Ableitungen in jeder Koordinatenumgebung mit kompaktem Abschluss. Ein linearer Operator $ A: Gamma _ <0>( X, E) ightarrow Gamma ( X, F ) $, der konvergente Folgen in konvergente Folgen überführt, ist genau dann ein linearer Differentialoperator der Ordnung $ m $, wenn für jedes $ f , g in C ^ infty ( X) $ die Funktion

$ ag <2 >mathop < m exp>( - i lambda g ) A ( f mathop < m exp>( i lambda g ) ) $

ist ein Polynom im Parameter $ lambda $ von höchstens Grad $ m $. Wird diese Bedingung durch die Annahme ersetzt, dass (2) durch eine asymptotische Potenzreihe repräsentiert wird, erhält man eine Definition eines linearen Pseudodifferentialoperators.

Angenommen, die Mannigfaltigkeit $ X $ und auch die Bündel $ E $ und $ F $ haben eine $ G $-Struktur, wobei $ G $ eine Gruppe ist. Dann ist die Wirkung dieser Gruppe auf einen beliebigen linearen Differentialoperator $ A : E ightarrow F $ durch die Formel

Ein linearer Differentialoperator $ A $ heißt invariant gegenüber $ G $, wenn $ g ^ <*>( A) = A $ für alle $ g in G $.

Ein Strahlbündel ist ein Objekt, das dem Raum eines linearen Differentialoperators dual ist. Nehmen wir wieder an, dass $ E $ ein Vektorbündel auf einer Mannigfaltigkeit $ X $ der Klasse $ C ^ infty $ ist. Ein Bündel von $ m $- Jets von Abschnitten von $ E $ ist ein Vektorbündel $ J _ ( E) $ auf $ X $ dessen Faser über einen Punkt $ x $ gleich $ widetilde . ist _ / widetilde _ ( m) $, wobei $ widetilde _ $ ist eine Faser des Bündels $ widetilde $ von Keimen von Abschnitten von $ E $ und $ widetilde _ ( m) $ ist der Unterraum dieser Faser, der aus Schnittkeimen besteht, für die alle Ableitungen bis zur Ordnung $ m $ einschließlich bei $ x $ verschwinden. Der lineare Differentialoperator $ d _ : E ightarrow J _ ( E) $ der nach der Regel handelt: der Wert des Abschnitts $ d _ ( u) $ bei $ x $ ist gleich dem Bild des Abschnitts $ u $ im Quotientenraum $ widetilde _ / widetilde _ ( m) $, heißt universell. Angenommen, $ F $ ist ein Bündel auf $ X $ und $ A : J _ ( E) ightarrow F $ ist ein Bündelhomomorphismus, also ein linearer Differentialoperator nullter Ordnung. Der Verbund

$ ag <3 >E ightarrow ^ < > J_ ( E) ightarrow ^ < a >F $

ist ein linearer Differentialoperator der Ordnung höchstens $ m $. Umgekehrt lässt sich jeder lineare Differentialoperator der Ordnung höchstens $ m $ eindeutig als Komposition darstellen (3).

Das Symbol (Hauptsystem) eines linearen Differentialoperators $ A : E ightarrow F $ ist die Familie der linearen Abbildungen

abhängig von einem Punkt $ ( x , xi ) $ des Kotangensbündels $ T ^ <*>( X) $. Sie wirken nach der Formel $ e ightarrow a ( xi ^ e)/m! $, wobei $ a $ der in (3) beteiligte Homomorphismus ist, $ e in widetilde _ $ und $ xi ^ e $ ist das Element von $ J _ (E) _ $ gleich dem Bild von $ f ^ < m >e $, wobei $ f $ der Keim einer Funktion der Klasse $ C ^ infty $ ist, so dass $ f ( x) = 0 $, $ df ( x) = xi$. Wenn $ A $ die Form (1) hat, dann

wobei $ xi _ <1> Punkte xi _ $ sind die Koordinaten in einer Faser des Bündels $ T ^ <*>( U) cong U imes k ^ $ also ist das Symbol eine Form des Grades $ m $, homogen in $ xi $. Entsprechend dieser Konstruktion des Symbols führt man den Begriff eines Merkmals ein. Ein Merkmal eines linearen Differentialoperators $ A $ ist ein Punkt $ ( x , xi ) in T ^ <*>( X) $, an dem das Symbol $ sigma _ $ einen von Null verschiedenen Kern hat.

Die Klassifikation in der Theorie der linearen Differentialoperatoren bezieht sich hauptsächlich auf lineare Differentialoperatoren, die in Bündeln derselben Dimension wirken, nämlich auf Operatoren der Form (1), bei denen die Koeffizienten quadratische Matrizen sind. Ein linearer Differentialoperator heißt elliptisch, wenn er keine reellen Eigenschaften $ ( x , xi ) $ mit $ xi eq 0 $ besitzt ( vgl. auch Elliptische partielle Differentialgleichung). Diese Klasse zeichnet sich durch die besten lokalen Eigenschaften von Lösungen der Gleichung $ Au = w $ aus, und auch dadurch, dass Randwertprobleme in beschränkten Gebieten wohlgestellt sind. Die Klasse der hyperbolischen linearen Differentialoperatoren zeichnet sich auch durch eine nur an die Kennlinien gestellte Bedingung aus (vgl. Hyperbolische partielle Differentialgleichung). Die Eigenschaft, hyperbolisch zu sein, hängt eng mit der Wohlgestelltheit des Cauchy-Problems mit nichtanalytischen Daten zusammen. Die Klasse der linearen Differentialoperatoren vom Haupttyp wird durch eine nur an das Symbol gestellte Bedingung spezifiziert (vgl. Haupttyp, partieller Differentialoperator von). Für solche Operatoren wurde eine Theorie der lokalen Lösbarkeit und Glätte von Lösungen entwickelt. Die Klasse der parabolischen linearen Differentialoperatoren zeichnet sich durch eine Bedingung aus, die sich nicht nur auf das Symbol, sondern auch auf einige Terme niedrigerer Ordnung bezieht (vgl. Parabolische partielle Differentialgleichung). Typisch für parabolische lineare Differentialoperatoren sind das gemischte Problem und das Cauchy-Problem mit Bedingungen im Unendlichen. Die Klasse der hypoelliptischen linearen Differentialoperatoren wird durch die folgende informelle Bedingung spezifiziert: Jede a priori verallgemeinerte Lösung der Gleichung $ Au = w $ mit rechter Seite von $ C ^ infty $ selbst gehört zu $ ​​C ^ infty $. Eine Reihe von formalen Bedingungen für den Ausdruck (1), die garantieren, dass der Operator hypoelliptisch ist, sind bekannt.

Abgesehen von diesen grundlegenden Typen linearer Differentialoperatoren spricht man manchmal von linearen Differentialoperatoren gemischten oder variablen Typs (vgl. auch Differentialgleichungen gemischten Typs), von linearen Differentialoperatoren zusammengesetzten Typs usw. Man betrachtet auch Probleme in unbeschränkten Gebieten mit Bedingungen im Unendlichen, Randwertprobleme mit freiem Rand, Probleme der Spektraltheorie, Probleme der optimalen Steuerung usw.

Ein Komplex linearer Differentialoperatoren ist eine Folge linearer Differentialoperatoren

$ E ^ <*>: dots ightarrow E _ ightarrow ^ < > E _ 1 ightarrow ^ < 1 > E _ 2 ightarrow dots $

in denen $ A _ 1 A _ = 0 $ für alle $ k $. Die Kohomologie eines Komplexes linearer Differentialoperatoren $ E ^ <*>$ ist die Kohomologie des Komplexes der Vektorräume $ Gamma ( X , E ^ <*>) $. Lass $ H ^ $ sei die Kohomologie dieses Komplexes beim $ k $-ten Term. Die Summe $ sum ( - 1 ) ^ mathop < m dim>H ^ $ heißt der Index des Komplexes der linearen Differentialoperatoren. Damit ist der Index eines elliptischen Komplexes linearer Differentialoperatoren (also so, dass nur endlich viele $ E _ $ sind ungleich Null, und der aus den Symbolen der linearen Differentialoperatoren gebildete Komplex $ A _ $ ist an allen Punkten exakt $ ( x , xi ) in T ^ <*>( X), $ $ xi eq 0 $) ist endlich im Fall von kompaktem $ X $, und die Suche nach Formeln, die den Index eines solchen Komplexes durch sein Symbol auszudrücken ist Inhalt einer Reihe von Untersuchungen, die die Theorie der linearen Differentialoperatoren mit algebraischer Geometrie und algebraischer Topologie kombinieren (siehe Indexformeln).

$ ag <4 >D ( F) ightarrow ^ < > D ( E) ightarrow ^ < P >M ( A) ightarrow 0 , $

und die $ O ( X) $- Untermodule $ M _ equiv p ( D _ ( E)) $, $ k = 0 , 1 dots $ bilden eine zunehmende Filterung in $ M ( A) $. Das benotete $ O ( X) $- Modul

$ mathop < m gr>M ( A) = oplus _ < 0 >^ infty M _ / M _ 1 , M _ <->1 = 0 , $

heißt Symbolmodul des linearen Differentialoperators $ A $. Da für jedes $ k $ und $ l $ die Aktion von $ D _ $ auf $ M ( A) $ nimmt $ M _ $ in $ M _ k $, in $ mathop < m gr>M ( A) $ gibt es eine Struktur eines benoteten Moduls über der benoteten Algebra $ mathop < m gr>D equiv oplus _ <0>^ infty D _ / D _ 1 $. Der Annihilator dieses Moduls ist ein homogenes Ideal in $ mathop < m gr>D $. Die charakteristische Mannigfaltigkeit des Operators $ A $ ist die Menge der Nullstellen dieses Ideals. Da die Algebra $ mathop < m gr>D $ isomorph zur symmetrischen Algebra des Tangentenbündels $ T ( X) $ ist, ist die charakteristische Mannigfaltigkeit in $ T ^ <*>( X) $ kanonisch eingebettet, und ihre Schnittpunkt mit jeder Faser ist ein algebraischer Kegel.

Wenn die Mannigfaltigkeit $ X $ und die gegebenen Bündel reelle oder komplexe analytische Struktur haben, dann fällt die charakteristische Mannigfaltigkeit mit der Wurzelmenge des idealen $ mathop < m gr>( mathop < m ann>M ( A) ) $. In diesem Fall ist sie eine abgeschlossene analytische Teilmenge von $ T ^ <*>( X) $, und wenn sie nicht leer ist, ist ihre Dimension mindestens $ mathop < m dim>X $. Für den Fall, dass diese Dimension gleich $ mathop < m dim>X $ ist, heißt der lineare Differentialoperator $ A $ maximal überbestimmt oder holonomisch.

Die formale Theorie der allgemeinen linearen Differentialoperatoren beschäftigt sich mit den Konzepten der formalen Integrierbarkeit und der Resolvenz. Die Eigenschaft der formalen Integrierbarkeit, formalisiert in der dualen Terminologie von Jets, entspricht der Bedingung, dass das $ O ( X) $-Modul $ mathop < m gr>M ( A) $ lokal frei ist. Unter der Resolvenz eines linearen Differentialoperators $ A $ versteht man die Folge, die (4) verlängert,

$ dots ightarrow D ( F _ <1>) ightarrow ^ < ^ prime > D ( F ) mathop ightarrow limits ^ < > D ( E) ightarrow M ( A) , $

in denen alle $ A _ $, $ k = 1 , 2 dots $ sind lineare Differentialoperatoren. Insbesondere wird $ A _ <1> $ als Kompatibilitätsoperator für $ A $ bezeichnet. Formale Integrierbarkeit sichert die lokale Existenz des Resolvens.

In der Literatur werden die Begriffe "überbestimmt" und "unterbestimmt" für Differentialgleichungssysteme verwendet, jedoch gibt es keine befriedigende allgemeine Definition. Als Näherung für eine solche Definition könnte folgendes dienen: Es gibt einen von Null verschiedenen linearen Differentialoperator $ B $ mit $ BA = 0 $( Überbestimmung), $ AB = 0 $( Unterbestimmung). Zum Beispiel ist der lineare Differentialoperator $ d $ gleich der Beschränkung des Operators der äußeren Differentiation auf Formen vom Grad $ k $ auf einer Mannigfaltigkeit $ X $ der Dimension $ n $ unterbestimmt für $ k > 0 $, überbestimmt für $ k < n $ und holonom für $ k = 0 $.

Die Hauptprobleme, die für allgemeine lineare Differentialoperatoren untersucht werden, sind die folgenden: Die Lösbarkeit einer Gleichung mit der rechten Seite $ Au = w $ wenn eine Kompatibilitätsbedingung $ A _ <1>u = 0 $ erfüllt ist die Möglichkeit, Lösungen von zu erweitern die Gleichung $ Au = 0 $ auf ein größeres Gebiet (ein mit Überbestimmung verbundener Effekt) und die Darstellung der allgemeinen Lösung in Form einer Lösung besonderer Form. Das letzte Problem lässt sich für invariante Operatoren genauer formulieren, zum Beispiel für lineare Differentialoperatoren in $ mathbf R ^ $ mit konstanten oder periodischen Koeffizienten: Um eine Darstellung einer Gruppe $ G $ im Lösungsraum als Integral (in gewissem Sinne) über alle unzerlegbaren Teildarstellungen zu beschreiben. Bei der Bestimmung von Operatoren mit konstanten Koeffizienten wird eine solche Darstellung durch ein Integral bezüglich Exponenten (exponentielle Darstellung) und für Operatoren mit periodischen Koeffizienten durch ein Integral bezüglich Floquet-generalisierter Lösungen angegeben.

Lineare Differentialoperatoren werden auch für beliebige algebraische Strukturen definiert. Sei $ R $ ein kommutativer Ring und seien $ E $ und $ F $ $ R $-Module. Eine Abbildung von Mengen $ A : E ightarrow F $ heißt linearer Differentialoperator maximaler Ordnung $ m $, wenn sie additiv ist und für jedes Element $ a in R $ die Abbildung $ aA- Aa $ ein lineares Differential ist Operator der Ordnung höchstens $ m- 1 $. Ein linearer Differentialoperator der Ordnung höchstens $ - 1 $ bedeutet die Nullabbildung. Insbesondere ist ein linearer Differentialoperator nullter Ordnung ein Homomorphismus von $ R $- Modulen und umgekehrt. Jede Ableitung (vgl. Ableitung im Ring) $ v : R ightarrow F $ ist ein linearer Differentialoperator erster Ordnung (oder gleich Null). Wenn $ R $ eine Algebra über einem Körper $ k $ ist, dann ist ein linearer Differentialoperator über $ R $ ein linearer Differentialoperator über dem Ring $ R $, der eine $ k $- lineare Abbildung ist. Ein solcher linearer Differentialoperator hat eine Reihe der formalen Eigenschaften gewöhnlicher linearer Differentialoperatoren. Ist $ R $ die Algebra aller formalen Potenzreihen über $ k $ oder die Algebra der konvergenten Potenzreihen über $ k $, und sind $ E $ und $ F $ freie $ R $- Module endlichen Typs, dann ist jedes linearer Differentialoperator $ A : E ightarrow F $ der Ordnung höchstens $ m $ kann eindeutig in der Form (1) geschrieben werden.

Seien $ ( X , ) $ ein Ringraum und $ E $ und $ F $ $ $-Module. Ein linearer Differentialoperator $ A : E ightarrow F $ ist jeder Garbenmorphismus, der in den Fasern über jeden Punkt $ x in X $ wie ein linearer Differentialoperator über dem Ring (Algebra) $ _ wirkt $. Lineare Differentialoperatoren, die in Modulen oder Modulscheiben wirken, wurden in einer Reihe von Fragen der algebraischen Geometrie verwendet.


2. Lineare Differentialgleichungen mit einem unbeschränkten Operator.

Angenommen, $ A _ <0>( t) $ ist für jedes $ t $ invertierbar, so dass (1) nach der Ableitung aufgelöst werden kann und die Form . annimmt

und angenommen, dass hier $ A ( t) $ ein unbeschränkter Operator in einem Raum $ E $ ist, mit dichtem Definitionsbereich $ D ( A ( t) ) $ in $ E $ und mit nicht-leerer resolventer Menge, und angenommen, dass $ f ( t) $ ist eine gegebene Funktion und $ u ( t) $ eine unbekannte Funktion, beide mit Werten in $ E $.

Auch für die einfachste Gleichung $ dot = Au $ mit einem unbeschränkten Operator, Lösungen des Cauchy-Problems $ u ( 0) = u _ <0>$ müssen nicht existieren, sie können nicht eindeutig sein und können nicht auf die gesamte Halbachse erweiterbar sein, daher widmen sich die Hauptuntersuchungen den Fragen der Existenz und Eindeutigkeit der Lösungen. Eine Lösung der Gleichung $ dot = Au $ auf dem Intervall $ [ 0, T ] $ wird als eine Funktion verstanden, die Werte in $ D ( A) $ annimmt, auf $ [ 0, T ] $ differenzierbar ist und die Gleichung erfüllt. Manchmal ist diese Definition zu starr und man führt das Konzept einer schwachen Lösung als Funktion ein, die auf $ ( 0 , T ] $ die gleichen Eigenschaften hat und nur bei $ 0 $ stetig ist.

Angenommen, der Operator $ A $ hat eine Resolvenz

$ R ( lambda , A ) = ( A - lambda I ) ^ <->1 $

für alle hinreichend großen positiven $ lambda $ und das

Dann die schwache Lösung des Problems

ist eindeutig auf $[0, T - h] $ und kann für $ t = T - h $ verzweigt werden. Ist $ h = 0 $, dann ist die Lösung auf der ganzen Halbachse eindeutig. Diese Behauptung ist bezüglich des Verhaltens von $ R ( lambda , A ) $ als $ lambda ightarrow infty $ präzise.

Wenn es für jedes $ u _ <0>in D ( A) $ eine eindeutige Lösung des Problems (10) gibt, die auf $ [ 0 , T ] $ stetig differenzierbar ist, dann kann diese Lösung auf die ganze Semi -Achse und kann in der Form $ u ( t) = U ( t) u _ <0>$ dargestellt werden, wobei $ U ( t) $ eine stark stetige Halbgruppe von beschränkten Operatoren auf $ [ 0 , infty ) $, $ U ( 0) = I $, für die die Schätzung $ | U ( t) | leq M e ^ $ gilt. Damit die Gleichung diese Eigenschaft hat, ist es notwendig und ausreichend, dass

$ ag <11 >| ( lambda - omega ) ^ R ^ ( lambda , A ) | leq M $

für alle $ lambda > omega $ und $ m = 1 , 2 dots $ wobei $ M $ nicht von $ lambda $ und $ m $ abhängt. Diese Bedingungen sind schwer zu überprüfen. Sie sind erfüllt, wenn $ | ( lambda - omega ) R ( lambda , A ) | leq 1 $ und dann $ | U ( t) | leq e ^ $. Wenn $ omega = 0 $ ist, dann ist $ U ( t) $ eine Kontraktionshalbgruppe. Dies ist genau dann der Fall, wenn $ A $ ein maximal dissipativer Operator ist. Ist $ u _ <0> otin D ( A) $, dann ist die Funktion $ U ( t) u _ <0>$ nicht differenzierbar (auf jeden Fall für $ t = 0 $) wird sie oft als verallgemeinerte Lösung bezeichnet von (10). Lösungen der Gleichung $ dot = Au $ kann als Grenzwert, als $ n ightarrow infty $, von Lösungen der Gleichung $ dot = A _ u $ mit beschränkten Operatoren unter den gleichen Anfangsbedingungen. Dazu genügt es, dass die Operatoren $ A _ $ pendeln, konvergieren stark gegen $ A $ auf $ D ( A) $ und das

Sind die Bedingungen (11) erfüllt, dann sind die Operatoren $ A _ = - nI - n ^ <2>R ( lambda , A ) $( Yosida-Operatoren) haben diese Eigenschaften.

Eine andere Methode zum Konstruieren von Lösungen der Gleichung $ dot = A u $ basiert auf der Laplace-Transformation. Wenn die Auflösung von $ A $ auf einer Kontur $ Gamma $ definiert ist, dann ist die Funktion

$ ag <12 >u ( t) = - frac<1> <2 pi i >intlimits _ Gamma e ^ R ( lambda , A ) u _ <0>d lambda $

erfüllt formal die Gleichung

$ dot = A u + frac<1> <2 pi i >intlimits _ Gamma e ^ d lambda u _ <0>. $

Wenn die Konvergenz der Integrale, die Gültigkeit der Differentiation unter dem Integralzeichen und das Verschwinden des letzten Integrals sichergestellt sind, dann erfüllt $ u ( t) $ die Gleichung. Die Schwierigkeit liegt darin, dass die Resolventennorm nicht schneller als $ | . sinken kann lambda | ^ <->1 $ bei unendlich. Bei einigen Elementen nimmt sie jedoch schneller ab. Wenn beispielsweise $ R ( lambda , A ) $ definiert ist für $ mathop < m Re>lambda geq alpha $ und wenn

$ | R ( lambda , A ) | leq M | lambda | ^ ,kgeq - 1 , $

für genügend große $ | lambda | $, dann gibt für $ Gamma = ( - i infty , i infty ) $ Formel (12) eine Lösung für jedes $ u _ <0>in D ( A ^ <[ k ] + 3 >) $. In einem "weniger guten" Fall, wenn die vorherige Ungleichung nur im Bereich erfüllt ist

(schwach hyperbolische Gleichungen) und $ Gamma $ der Rand dieses Gebietes ist, erhält man eine Lösung nur für ein $ u _ <0>$, das zum Schnittpunkt der Definitionsgebiete aller Potenzen von $ A $ gehört, mit bestimmtes Verhalten von $ | Ein ^ u _ <0>| $ als $ n ightarrow infty $.

Deutlich schwächere Lösungen erhält man für den Fall, dass $ Gamma $ in die linke Halbebene geht und man die Abnahme der Funktion $ | . verwenden kann e ^ | $ drauf. In der Regel haben die Lösungen für $ t > 0 $ eine erhöhte Glätte. Wenn das Resolvent auf der Kontur $ Gamma $ beschränkt ist: $ mathop < m Re>lambda = - psi ( | mathop < m Im>lambda | ) $, wobei $ psi ( au ) $ ist eine glatte, nicht abnehmende konkave Funktion, die wie $ mathop < m ln> au $ bei $ infty $ zunimmt, dann ist für jedes $ u _ <0>in E $ die Funktion (12) differenzierbar und die Gleichung erfüllt, beginnend mit etwas $ t _ <0> $ mit steigendem $ t $ nimmt seine Glätte zu. Wenn $ psi ( au ) $ wie eine Potenz von $ au $ mit einem Exponenten kleiner als eins zunimmt, dann ist die Funktion (12) für $ t > 0 $ unendlich differenzierbar, wenn $ psi ( au ) $ wie increases wächst $ au / mathop < m ln> au $, dann gehört $ u ( t) $ zu einer quasianalytischen Klasse von Funktionen, wenn sie linear anwächst, dann ist $ u ( t) $ analytisch. In all diesen Fällen erfüllt es die Gleichung $ dot = A u $.

Die Existenz des Resolvens auf Konturen, die in die linke Halbebene hineingehen, kann durch Reihenentwicklung aus den entsprechenden Abschätzungen auf vertikalen Linien gewonnen werden. Wenn für $ mathop < m Re>lambda geq gamma $ gilt,

$ ag <13 >| R ( lambda , A ) | leq M ( 1 + | mathop < m Im>lambda | ) ^ <- eta >, 0 < eta < 1 , $

dann gibt es für jedes $ u _ <0>in D ( A) $ eine Lösung des Problems (10). Alle diese Lösungen sind für $ t > 0 $ unendlich differenzierbar. Sie lassen sich in der Form $ u ( t) = U ( t) u _ <0> $ darstellen, wobei $ U ( t) $ eine unendlich differenzierbare Halbgruppe für $ t > 0 $ ist, die allgemein gesprochen eine Singularität bei $ t = 0 $. Für seine Ableitungen hat man die Abschätzungen

Ist die Abschätzung (13) für $ eta = 1 $ erfüllt, dann sind alle verallgemeinerten Lösungen der Gleichung $ dot = Au $ sind in einigen Sektoren analytisch, die die positive Halbachse enthalten.

Die Gleichung $ dot = Au $ heißt abstrakte parabolische Gleichung, wenn es eine eindeutige schwache Lösung auf $ [ 0 , infty ] $ gibt, die die Anfangsbedingung $ u ( 0) = u _ <0>$ für beliebige $ u _ <0> erfüllt. in E$. Wenn

$ ag <14 >| R ( lambda , A ) | leq M | lambda - omega | ^ <->1 extrm < für >mathop < m Re>lambda > omega , $

dann ist die Gleichung eine abstrakte parabolische Gleichung. Alle seine verallgemeinerten Lösungen sind in einem Sektor analytisch, der die positive Halbachse enthält, und

wobei $ C $ nicht von $ u _ <0>$ abhängt. Hat die Gleichung umgekehrt die aufgeführten Eigenschaften, dann ist (14) für den Operator $ A $ erfüllt.

Wenn Problem (10) eine eindeutige schwache Lösung für jedes $ u _ <0>in D ( A) $ hat, für das die Ableitung auf jedem endlichen Intervall integrierbar ist, dann können diese Lösungen in der Form $ u ( t) dargestellt werden = U ( t) u _ <0>$, wobei $ U ( t) $ eine stark stetige Halbgruppe auf $ ( 0 , infty ) $ ist, und jede schwache Lösung der inhomogenen Gleichung $ dot = Av + ​​f ( t) $ mit Anfangsbedingung $ v ( 0) = 0 $ kann in der Form

$ ag <15 >v ( t) = intlimits _ < 0 >^ < t >U ( t- s ) f ( s) ds . $

Die Funktion $ v ( t) $ ist für jedes stetige $ f ( t) $ definiert, daher heißt sie verallgemeinerte Lösung der inhomogenen Gleichung. Damit sie differenzierbar ist, stellt man $ f ( t) $ Glättebedingungen auf, und je "schlechter" die Halbgruppe $ U ( t) $ ist, desto "höher" sollten diese sein. Somit ist unter den vorherigen Bedingungen (15) eine schwache Lösung der inhomogenen Gleichung, wenn $ f ( t) $ zweimal stetig differenzierbar ist, wenn (11) erfüllt ist, dann ist (15) eine Lösung, wenn $ f ( t) $ ist stetig differenzierbar, falls (13) mit $ eta > 2/3 $ erfüllt ist, dann ist $ v ( t) $ eine schwache Lösung, wenn $ f ( t) $ eine Hölder-Bedingung mit Exponent $ gamma > 2 ( 1 - 1/ eta ) $. Anstelle der Glätte von $ f ( t) $ bezüglich $ t $ kann man verlangen, dass die Werte von $ f ( t) $ zum Definitionsbereich der entsprechenden Potenz von $ A $ gehören.

Für eine Gleichung mit variablem Operator

$ ag <16 >dot = A ( t) u , 0 leq t leq T , $

es gibt einige grundlegende Existenz- und Eindeutigkeitssätze über Lösungen (schwache Lösungen) des Cauchy-Problems $ u ( s) = u _ <0> $ auf dem Intervall $ s leq t leq T $. Wenn der Definitionsbereich von $ A ( t) $ nicht von $ t $ abhängt,

wenn der Operator $ A ( t) $ bezüglich $ t $ auf $ D ( A) $ stark stetig ist und wenn

$ | lambda R ( lambda , A ( t ) ) | leq 1 $

für $ lambda > 0 $ ist die Lösung des Cauchy-Problems eindeutig. Wenn $ A ( t) $ auf $ D ( A) $ stark stetig differenzierbar ist, dann existiert für jedes $ u _ <0>in D ( A) $ eine Lösung und kann in der Form

wobei $ U ( t , s ) $ ein Evolutionsoperator mit den folgenden Eigenschaften ist:

1) $ U ( t , s ) $ ist im Dreieck $ T _ Delta $ stark stetig: $ 0 leq s leq t leq T $

2) $ U ( t , s ) = U ( t , au ) U ( au , s ) $, $ 0 leq s leq au leq t leq T $, $ U ( s , s ) = ich $

3) $ U ( t , s ) $ bildet $ D ( A) $ in sich selbst und den Operator ab

ist beschränkt und stark stetig in $ T _ Updelta $

4) auf $ D ( A) $ ist der Operator $ U ( t , s ) $ stark differenzierbar nach $ t $ und $ s $ und

Die Konstruktion des Operators $ U ( t , s ) $ erfolgt durch Approximation von $ A ( t) $ durch beschränkte Operatoren $ A _ ( t) $ und Ersetzen des letzteren durch stückweise konstante Operatoren.

In vielen wichtigen Problemen sind die bisherigen Bedingungen an den Operator $ A ( t) $ nicht erfüllt. Angenommen für den Operator $ A ( t) $ gibt es Konstanten $ M $ und $ omega $ mit

$ | R(lambda, A(t_ ) ) dots R ( lambda , A ( t _ <1> ) ) | leq M ( lambda - omega ) ^ <->k $

für alle $ lambda > omega $, $ 0 leq t _ <1> leq dots leq t _ leq T$, $k = 1, 2, . . . $. Angenommen in $ E $ ist ein Banachraum $ F $ dicht eingebettet, der in allen $ D ( A ( t) ) $ enthalten ist und die folgenden Eigenschaften hat: a) Der Operator $ A ( t) $ wirkt beschränkt von $ F $ nach $ E $ und ist bezüglich $ t $ in der Norm als beschränkter Operator von $ F $ nach $ E $ stetig und b) es gibt einen Isomorphismus $ S $ von $ F $ auf $ E $ mit

wobei $ B ( t) $ eine Operatorfunktion ist, die in $ E $ beschränkt und stark messbar ist und für die $ | B ( t) | $ ist integrierbar auf $ [ 0 , T ] $. Dann gibt es einen Evolutionsoperator $ U ( t , s ) $ mit den Eigenschaften: 1) 2) 3') $ U ( t , s ) F subset F $ und $ U ( t , s ) $ ist stark stetig in $ F $ auf $ T _ Delta $ und 4') auf $ F $ ist der Operator $ U ( t , s ) $ stark differenzierbar im Sinne der Norm von $ E $ und $ partial U / partial t = A ( t) U $, $ partial U / partial s = - UA ( s) $. Diese Behauptung ermöglicht es, Existenzsätze für die fundamentalen quasilinearen Gleichungen der mathematischen Physik hyperbolischen Typs zu erhalten.

Die Methode der eingefrorenen Koeffizienten wird in der Theorie der parabolischen Gleichungen verwendet. Angenommen, für jedes $ t _ <0>in [ 0 , T ] $ gilt die Gleichung $ dot = A ( t _ <0>) u $ corresponds an operator semi-group $ U _ ) > ( t) $. The unknown evolution operator formally satisfies the integral equations

$ + intlimits _ < s >^ < t >U _ ( t - s ) [ A ( au ) - A ( t) ] U ( au , s ) d au , $

$ + intlimits _ < s >^ < t >U ( t , au ) [ A ( au ) - A ( s) ] U _ ( au - s ) d au . $

When the kernels of these equations have weak singularities, one can prove that the equation has solutions and also that $ U ( t , s ) $ is an evolution operator. The following statement has the most applications: If

$ D ( A ( t) ) equiv D ( A) , | R ( lambda , A ( t) ) | < M ( 1 + | lambda | ) ^ <->1 $

for $ mathop < m Re>lambda geq 0 $ and

$ | [ A ( t) - A ( s) ] A ^ <->1 ( 0) | leq C | t - s | ^ ho $

(a Hölder condition), then there is an evolution operator $ U ( t , s ) $ that gives a weak solution $ U ( t , s ) u _ <0>$ of the Cauchy problem for every $ u _ <0>in E $. Uniqueness of the solution holds under the single condition that the operator $ A ( t) A ^ <->1 ( 0) $ is continuous (in a Hilbert space). An existence theorem similar to the one given above holds for the operator $ A ( t) $ with a condition of type (13) and for a certain relation between $ eta $ and $ ho $.

The assumption that $ D ( A ( t) ) $ is constant does not make it possible in applications to consider boundary value problems with boundary conditions depending on $ t $. Suppose that

$ | R ( lambda , A ( t) ) | leq M ( 1 + | lambda | ) ^ <->1 , mathop < m Re>lambda > 0 $

$ left | frac 1 ( t) >

- frac 1 ( s) > ight | leq K | t - s | ^ alpha , 0 < alpha < 1 $

$ left | frac partial R ( lambda , A ( t) ) ight | leq N | lambda | ^ < ho - 1 >, 0 leq ho leq 1 , $

in the sector $ | mathop < m arg>lambda | leq pi - phi $, $ phi < pi / 2 $ then there is an evolution operator $ U ( t , s ) $. Here it is not assumed that $ D ( A ( t) ) $ is constant. There is a version of the last statement adapted to the consideration of parabolic problems in non-cylindrical domains, in which $ D ( A ( t) ) $ for every $ t $ lies in some subspace $ E ( t) $ of $ E $.

The operator $ U ( t , s ) $ for equation (16) formally satisfies the integral equation

$ ag <17 >U ( t , s ) = I + intlimits _ < s >^ < t >A ( au ) U ( au , s ) d au . $

Since $ A ( t) $ is unbounded, this equation cannot be solved by the method of successive approximation (cf. Sequential approximation, method of). Suppose that there is a family of Banach spaces $ E _ alpha $, $ 0 leq alpha leq 1 $, having the property that $ E _ eta subset E _ alpha $ and $ | x | _ alpha leq | x | _ eta $ for $ alpha < eta $. Suppose that $ A ( t) $ is bounded as an operator from $ E _ eta $ to $ E _ alpha $:

and that $ A ( t) $ is continuous with respect to $ t $ in the norm of the space of bounded operators from $ E _ eta $ to $ E _ alpha $. Then in this space the method of successive approximation for equation (17) will converge for $ | t - s | leq ( eta - alpha ) ( Ce ) ^ <->1 $. In this way one can locally construct an operator $ U ( t , s ) $ as a bounded operator from $ E _ eta $ to $ E _ alpha $. In applications this approach gives theorems of Cauchy–Kovalevskaya type (cf. Cauchy–Kovalevskaya theorem).

For the inhomogeneous equation (9) with known evolution operator, for the equation $ dot = A ( t) u $ the solution of the Cauchy problem is formally written in the form

$ u ( t) = U ( t , s ) u _ <0>+ intlimits _ < s >^ < t >U ( t , au ) f ( au ) d au . $

This formula can be justified in various cases under certain smoothness conditions on $ f ( t) $.


Differential operator


A generalization of the concept of a differentiation operator. A differential operator (which is generally discontinuous, unbounded and non-linear on its domain) is an operator defined by some differential expression, and acting on a space of (usually vector-valued) functions (or sections of a differentiable vector bundle) on differentiable manifolds or else on a space dual to a space of this type. A differential expression is a mapping $ lambda $ of a set $ Omega $ in the space of sections of a vector bundle $ xi $ with base $ M $ into the space of sections of a vector bundle $ eta $ with the same base such that for any point $ p in M $ and arbitrary sections $ f , g in Omega $ the coincidence of their $ k $- jets (cf. Jet) at $ p $ entails the coincidence of $ lambda f $ and $ lambda g $ at that point. The smallest number $ k $ which meets this condition for all $ p in M $ is said to be the order of the differential expression and the order of the differential operator defined by this expression.

A differential operator on a manifold $ M $ without boundary often proves to be an extension of an operator which is defined in a natural manner by a fixed differential expression on some set, open in an appropriate topology, of infinitely (or sufficiently often) differentiable sections of a given vector bundle $ xi $ with base $ M $, and thus permits a natural extension to the case of sheaves of germs of sections of differentiable vector bundles. A differential operator $ L $ on a manifold $ M $ with boundary $ partial M $ is often defined as an extension of an analogous operator which is naturally defined by a differential expression on the set of differentiable functions (or sections of a vector bundle), the restrictions of which to $ partial M $ lie in the kernel of some differential operator $ l $ on $ partial M $( or satisfies some other conditions definable by some requirements to be satisfied in the domain of values of an operator $ l $ on the restrictions of the functions from the domain of definition of $ L $, such as inequalities) the differential operator $ l $ is said to define the boundary conditions for the differential operator $ L $. Linear differential operators on spaces dual to spaces of functions (or sections) are defined as operators dual to the differential operators of the above type on these spaces.

Beispiele.

1) Let $ F $ be a real-valued function of $ k+ 2 $ variables $ x , y _ <0>dots y _ $, defined in some rectangle $ Delta = I imes J _ <0> imes dots imes J _ $ the differential expression

$ D u = F left ( x , u , frac dots frac u > > ight ) $

(where $ F $ usually satisfies some regularity conditions such as measurability, continuity, differentiability, etc.) defines a differential operator $ D $ on the manifold $ I $, the domain of definition $ Omega $ of which consists of all functions $ u in C ^ ( I ) $ satisfying the condition $ u ^ <(>i) ( x) in J _ $ for $ i = 1 , 2 ,dots $. If $ F $ is continuous, $ D $ may be considered as an operator on $ C ( I) $ with domain of definition $ Omega $ the differential operator $ D $ is said to be a general ordinary differential operator. If $ F $ depends on $ y _ $, the order of $ D $ is $ k $. $ D $ is said to be quasi-linear if it depends linearly on $ y _ $ it is linear if $ F $ depends linearly on $ y _ <0>dots y _ $ it is said to be linear with constant coefficients if $ F $ is independent of $ x $ and if $ D $ is a linear differential operator. The remaining differential operators are said to be non-linear. If certain conditions as to the regularity of $ F $ are satisfied, a quasi-linear operator may be extended to a differential operator from one Sobolev space into another.

2) Let $ x = ( x ^ <1>dots x ^ ) $ run through a domain $ $ in $ mathbf R ^ $, let $ F = ( x , u , D ^ <(>n) ( u) ) $ be a differential expression defined by a real-valued function $ F $ on the product of $ $ and some open rectangle $ omega $, where $ D ^ <(>n) ( u) $ is a set of partial derivatives of the type $ D ^ alpha u = partial ^ + dots + alpha _ > u / ( partial x ^ <1>) ^ > dots ( partial x ^ ) ^ > $, where $ alpha _ <1>+ dots + alpha _ leq n $, and, as in example 1), let the function $ F $ satisfy certain regularity conditions. The differential operator defined by this expression on the space of sufficiently often differentiable functions on $ $ is known as a general partial differential operator. As in example 1), one defines non-linear, quasi-linear and linear partial differential operators and the order of a partial differential operator a differential operator is said to be elliptic, hyperbolic or parabolic if it is defined by a differential expression of the respective type. One sometimes considers functions $ F $ depending on derivatives of all orders (e.g. as their formal linear combination) such differential expressions, although not defining a differential operator in the ordinary sense, can nevertheless be brought into correspondence with certain operators (e.g. on spaces of germs of analytic functions), and are known as differential operators of infinite order.

3) The previous examples may be extended to include the complex-valued case or the case of functions with values in a locally compact, totally disconnected field and (at least in the case of linear differential operators) even to a more general situation (cf. Differential algebra).

4) Systems of differential expressions define differential operators on spaces of vector functions. For example, the Cauchy–Riemann differential operator, defined by the expression $ < partial u / partial x - partial v / partial y, partial u / partial y + partial v / partial x >$, converts the space of pairs of harmonic functions on the plane into itself.

In the definition of a differential operator and of its generalizations one often employs (besides ordinary derivatives) generalized derivatives, which appear in a natural manner when considering extensions of differential operators defined on differentiable functions, and weak derivatives, related to the transition to the adjoint operator. Moreover, derivatives of fractional and negative orders appear when the differentiation is defined by means of a Fourier transform (or some other integral transform), applicable to the domain of definition and range of such a generalized differential operator (cf. Pseudo-differential operator). This is done in order to obtain the simplest possible representation of the corresponding differential operator of a function $ F $ and to attain a reasonable generality in the formulation of problems and satisfactory properties of the objects considered. In this way, a functional or operational calculus is obtained, extending the correspondence between the differentiation operator and the operator of multiplication by the independent variable as realized in the Fourier transform.

Problems in the theory of differential equations — such as problems of existence, uniqueness, regularity, continuous dependence of the solutions on the initial data or on the right-hand side, the explicit form of a solution of a differential equation defined by a given differential expression — are readily interpreted in the theory of operators as problems on the corresponding differential operator defined on suitable function spaces — viz. as problems on kernels, images, the structure of the domain of definition of a given differential operator $ L $ or of its extension, continuity of the inverse of the given differential operator and explicit construction of this inverse operator. Problems of the approximation of solutions and of the construction of approximate solutions of differential equations are also readily generalized and improved as problems on the corresponding differential operators, viz. — selection of natural topologies in the domain of definition and in the range such that the operator $ L $( if the solutions are unique) realizes a homeomorphism of the domains of definition and ranges in these topologies (this theory is connected with the theory of interpolation and scales (grading) of function spaces, in particular for linear and quasi-linear differential operators). Another example is the selection of differential operators close to a given operator in some definite sense (which makes it possible by using appropriate topologies in the space of differential operators, to justify methods of approximation of equations, such as the regularization and the penalty method, and iterated regularization methods). The theory of differential operators makes it possible to apply classical methods in the theory of operators, e.g. the theory of compact operators, and the method of contraction mappings in various existence and uniqueness theorems for differential equations, in the theory of bifurcation of solutions and in non-linear eigen value problems. Other applications utilize a natural order structure present in function spaces on which a differential operator is defined (in particular, the theory of monotone operators), or use methods of linear analysis (the theory of duality, convex sets, dual or dissipative operators). Again, variational methods and the theory of extremal problems or the presence of certain supplementary structures (e.g. complex, symplectic, etc.) can be used in order to clarify the structure of the kernel and range of the differential operator, i.e. to obtain information on the solution space of the respective equations. Many problems connected with differential expressions necessitate a study of differential inequalities, which are closely connected with multi-valued differential operators.

Thus, the theory of differential operators makes it possible to eliminate a number of difficulties involved in the classical theory of differential equations. The utilization of various extensions of classical differential operators leads to the concept of generalized solutions of the corresponding differential equations (which necessarily proved to be classical in several cases connected with, say, elliptic problems), while the utilization of the linear structure makes it possible to introduce the concept of weak solutions of differential equations. In choosing a suitable extension of a differential operator as defined by a differential expression, a priori estimates of solutions connected with such an expression are of importance, since they permit one to identify function spaces on which the extended operator is continuous or bounded.

Moreover, the theory of differential operators also makes it possible to formulate and solve many new problems, which are qualitatively different from the classical problems in the theory of differential equations. Thus, in the study of non-linear operators it is of interest to study the structure of the set of its stationary points and the action of the operator in a neighbourhood of them, as well as the classification of these singular points, and the stability of the type of the singular point when the respective differential operator is perturbed. Other subjects of interest in the theory of linear differential operators are the description and the study of the spectrum of a differential operator, the calculation of its index, the structure of invariant subspaces of the differential operator, the harmonic analysis of a given differential operator (in particular, the decomposition, which requires a preliminary study of the completeness of the system of eigen functions and associated functions). There is also the study of linear and non-linear perturbations of a given differential operator. These results are of special interest for elliptic differential operators generated by symmetric differential expressions in the context of the theory of self-adjoint operators on a Hilbert space (in particular, in the spectral theory of these operators and the theory of extensions of symmetric operators). The theory of various hyperbolic and parabolic (not necessarily linear) differential operators is connected with the theory of groups and semi-groups of operators on locally convex spaces.

Next to the linear class of differential operators, perhaps the most intensively studied class are differential operators which are either invariant or which vary according to a specific law when certain transformations constituting a group (or a semi-group) $ G $ are acting in their domain of definition, and hence also on the differential expression. These include, for instance, invariant differential operators connected with the representations of a group $ G $ the covariant derivative or, more generally, differential operators on spaces of differentiable tensor fields, where $ G $ is the group of all diffeomorphisms (the so-called atomization) many examples of operators in theoretical physics, etc. Such functional-geometric methods are also useful in the study of differential operators with so-called hidden symmetry (see, for example, Korteweg–de Vries equation).


Inhalt

The most common differential operator is the action of taking the derivative. Common notations for taking the first derivative with respect to a variable x include:

When taking higher, neinth order derivatives, the operator may be written:

The derivative of a function F of an argument x is sometimes given as either of the following:

Das D notation's use and creation is credited to Oliver Heaviside, who considered differential operators of the form

One of the most frequently seen differential operators is the Laplacian operator, defined by

Another differential operator is the Θ operator, or theta operator, defined by [1]

This is sometimes also called the homogeneity operator, because its eigenfunctions are the monomials in z:

In nein variables the homogeneity operator is given by

As in one variable, the eigenspaces of Θ are the spaces of homogeneous polynomials.

In writing, following common mathematical convention, the argument of a differential operator is usually placed on the right side of the operator itself. Sometimes an alternative notation is used: The result of applying the operator to the function on the left side of the operator and on the right side of the operator, and the difference obtained when applying the differential operator to the functions on both sides, are denoted by arrows as follows:

Such a bidirectional-arrow notation is frequently used for describing the probability current of quantum mechanics.

The differential operator del, also called nabla, is an important vector differential operator. It appears frequently in physics in places like the differential form of Maxwell's equations. In three-dimensional Cartesian coordinates, del is defined as

Del defines the gradient, and is used to calculate the curl, divergence, and Laplacian of various objects.

Given a linear differential operator T

the adjoint of this operator is defined as the operator T ∗ > such that

where the notation ⟨ ⋅ , ⋅ ⟩ is used for the scalar product or inner product. This definition therefore depends on the definition of the scalar product.

Formal adjoint in one variable Edit

In the functional space of square-integrable functions on a real interval (ein, b) , the scalar product is defined by

where the line over F(x) denotes the complex conjugate of F(x). If one moreover adds the condition that F oder G vanishes as x → a and x → b , one can also define the adjoint of T von

This formula does not explicitly depend on the definition of the scalar product. It is therefore sometimes chosen as a definition of the adjoint operator. When T ∗ > is defined according to this formula, it is called the formal adjoint von T.

A (formally) self-adjoint operator is an operator equal to its own (formal) adjoint.

Several variables Edit

If Ω is a domain in R nein , und P a differential operator on Ω, then the adjoint of P is defined in L 2 (Ω) by duality in the analogous manner:

for all smooth L 2 functions F, G. Since smooth functions are dense in L 2 , this defines the adjoint on a dense subset of L 2 : P * is a densely defined operator.

Example Edit

The Sturm–Liouville operator is a well-known example of a formal self-adjoint operator. This second-order linear differential operator L can be written in the form

L u = − ( p u ′ ) ′ + q u = − ( p u ″ + p ′ u ′ ) + q u = − p u ″ − p ′ u ′ + q u = ( − p ) D 2 u + ( − p ′ ) D u + ( q ) u . u+(-p')Du+(q)u.!>

This property can be proven using the formal adjoint definition above.

This operator is central to Sturm–Liouville theory where the eigenfunctions (analogues to eigenvectors) of this operator are considered.

wo F und G are functions, and ein is a constant.

Any polynomial in D with function coefficients is also a differential operator. We may also compose differential operators by the rule

Some care is then required: firstly any function coefficients in the operator D2 must be differentiable as many times as the application of D1 requires. To get a ring of such operators we must assume derivatives of all orders of the coefficients used. Secondly, this ring will not be commutative: an operator gD isn't the same in general as Dg. For example we have the relation basic in quantum mechanics:

The subring of operators that are polynomials in D with constant coefficients is, by contrast, commutative. It can be characterised another way: it consists of the translation-invariant operators.

The differential operators also obey the shift theorem.

The same constructions can be carried out with partial derivatives, differentiation with respect to different variables giving rise to operators that commute (see symmetry of second derivatives).

Ring of univariate polynomial differential operators Edit

Wenn R is a ring, let R ⟨ D , X ⟩ be the non-commutative polynomial ring over R in the variables D und X, und ich the two-sided ideal generated by DXXD − 1. Then the ring of univariate polynomial differential operators over R is the quotient ring R ⟨ D , X ⟩ / I . This is a non-commutative simple ring. Every element can be written in a unique way as a R-linear combination of monomials of the form X a D b mod I < ext< mod >>I> . It supports an analogue of Euclidean division of polynomials.

Ring of multivariate polynomial differential operators Edit

for all 1 ≤ i , j ≤ n , where δ is Kronecker delta. Then the ring of multivariate polynomial differential operators over R is the quotient ring R ⟨ D 1 , … , D n , X 1 , … , X n ⟩ / I ,ldots ,D_,X_<1>,ldots ,X_ angle /I> .

This is a non-commutative simple ring. Every element can be written in a unique way as a R-linear combination of monomials of the form X 1 a 1 … X n a n D 1 b 1 … D n b n ^>ldots X_^<>>D_<1>^>ldots D_^<>>> .

In differential geometry and algebraic geometry it is often convenient to have a coordinate-independent description of differential operators between two vector bundles. Lassen E und F be two vector bundles over a differentiable manifold m. Ein R-linear mapping of sections P : Γ(E) → Γ(F) is said to be a kth-order linear differential operator if it factors through the jet bundle J k (E). In other words, there exists a linear mapping of vector bundles

wo J k : Γ(E) → Γ(J k (E)) is the prolongation that associates to any section of E its k-jet.

This just means that for a given section S von E, the value of P(S) at a point xm is fully determined by the kth-order infinitesimal behavior of S In x. In particular this implies that P(S)(x) is determined by the germ of S In x, which is expressed by saying that differential operators are local. A foundational result is the Peetre theorem showing that the converse is also true: any (linear) local operator is differential.

Relation to commutative algebra Edit

An equivalent, but purely algebraic description of linear differential operators is as follows: an R-linear map P ist ein kth-order linear differential operator, if for any k + 1 smooth functions f 0 , … , f k ∈ C ∞ ( M ) ,ldots ,f_in C^(M)> we have

[ f , P ] ( s ) = P ( f ⋅ s ) − f ⋅ P ( s ) .

This characterization of linear differential operators shows that they are particular mappings between modules over a commutative algebra, allowing the concept to be seen as a part of commutative algebra.

  • In applications to the physical sciences, operators such as the Laplace operator play a major role in setting up and solving partial differential equations.
  • In differential topology, the exterior derivative and Lie derivative operators have intrinsic meaning.
  • In abstract algebra, the concept of a derivation allows for generalizations of differential operators, which do not require the use of calculus. Frequently such generalizations are employed in algebraic geometry and commutative algebra. See also Jet (mathematics).
  • In the development of holomorphic functions of a complex variablez = x + i ja, sometimes a complex function is considered to be a function of two real variables x und ja. Use is made of the Wirtinger derivatives, which are partial differential operators:

The conceptual step of writing a differential operator as something free-standing is attributed to Louis François Antoine Arbogast in 1800. [2]


Classics in Applied Mathematics

Don't let the title fool you! If you are interested in numerical analysis, applied mathematics, or the solution procedures for differential equations, you will find this book useful. Because of Lanczos' unique style of describing mathematical facts in nonmathematical language, Linear Differential Operators also will be helpful to nonmathematicians interested in applying the methods and techniques described.

Originally published in 1961, this Classics edition continues to be appealing because it describes a large number of techniques still useful today. Although the primary focus is on the analytical theory, concrete cases are cited to forge the link between theory and practice. Considerable manipulative skill in the practice of differential equations is to be developed by solving the 350 problems in the text. The problems are intended as stimulating corollaries linking theory with application and providing the reader with the foundation for tackling more difficult problems.

Lanczos begins with three introductory chapters that explore some of the technical tools needed later in the book, and then goes on to discuss interpolation, harmonic analysis, matrix calculus, the concept of the function space, boundary value problems, and the numerical solution of trajectory problems, among other things. The emphasis is constantly on one question: “What are the basic and characteristic properties of linear differential operators?”

In the author's words, this book is written for those “to whom a problem in ordinary or partial differential equations is not a problem of logical acrobatism, but a problem in the exploration of the physical universe. To get an explicit solution of a given boundary value problem is in this age of large electronic computers no longer a basic question. But of what value is the numerical answer if the scientist does not understand the peculiar analytical properties and idiosyncrasies of the given operator? The author hopes that this book will help in this task by telling something about the manifold aspects of a fascinating field.”

In one of the (unfortunately lost) comedies of Aristophanes the Voice of the Mathematician appeared, as it descended from a snow-capped mountain peak, pronouncing in a ponderous sing-song—and words which to the audience sounded like complete gibberish—his eternal Theorems, Lemmas, and Corollaries. The laughter of the listeners was enhanced by the implication that in fifty years' time another Candidate of Eternity would pronounce from the same snow-capped mountain peak exactly the same theorems, although in a modified but scarcely less ponderous and incomprehensible language.

Since the days of antiquity it has been the privilege of the mathematician to engrave his conclusions, expressed in a rarefied and esoteric language, upon the rocks of eternity. While this method is excellent for the codification of mathematical results, it is not so acceptable to the many addicts of mathematics, for whom the science of mathematics is not a logical game, but the language in which the physical universe speaks to us, and whose mastery is inevitable for the comprehension of natural phenomena.

In his previous books the author endeavoured to establish a more discursive manner of presentation in which the esoteric shorthand formulation of mathematical deductions and results was replaced by a more philosophic exposition, putting the emphasis on ideas and concepts and their mutual interrelations, rather than on the mere manipulation of formulae. Our symbolic mechanism is eminently useful and powerful, but the danger is ever-present that we become drowned in a language which has its well-defined grammatical rules but eventually loses all content and becomes a nebulous sham. Hence the author's constant desire to penetrate below the manipulative surface and comprehend the hidden springs of mathematical equations.

To the author's surprise this method (which, of course, is not his monopoly) was well received and made many friends and few enemies. It is thus his hope that the present book, which is devoted to the fundamental aspects of the theory of Linear Differential Operators, will likewise find its adherents. The book is written at advanced level but does not require any specific knowledge which goes beyond the boundaries of the customary introductory courses, since the necessary tools of the subject are developed as the narration proceeds.


Differential and Integral Calculus on Manifolds

5.2.2 Differential operators and point distributions

(I) D ifferential operators Lassen B be a pure q-dimensional manifold that is locally compact and countable at infinity and mB, nB two complex vector bundles of finite ranks m und nein, respectively ( section 3.4.1 , Definition 3.22 ). The space Γ(Β, m) of sections of class C ∞ of m is a Fréchet nuclear space, like ℰ U itself whenever U is an open subset of ℝ q ([P2], sections 4.3.1 (I) and 4.3.2 (III)). Hence, this space is separable ([P2], section 3.11.3(I)).

Definition 5.5

A linear differential operator of class Cfrom M into N is a continuous linear mapping P : FP. f from Γ(Β, m) into Γ(Β, n) that satisfies the following condition:

(L) For every open subset U of Β and every morphic section f ∈ Γ(Β, m) such that f |U = 0, we have (P.F)|U = 0.

The condition (L) expresses the lokal nature of the operator P. Write Diff (B m, n) for the set of these differential operators this is an ℰ B -module.

The local trivialization condition (V) of the vector bundles m und n ( Definition 3.22 (i)) implies that, for every bΒ, there exists an open neighborhood U von b that is the domain of a chart C = (U, ξ, q) von Β over which these two fibers can be identified with the trivial bundles U × ℂ m and U × ℂ n , respectively. Hence, for every section F ∈ Γ(Β, m), there exist a mapping g V ∈ ℰ V , with V = ξ (U), and a linear differential operator Q : ℰ V m → ℰ V n such that both squares of the following diagram commute (the rows of this diagram are not compositions):

Wir sagen das Q is the local expression of P corresponding to the chart C (and the local trivializations specified above). Given the topology of ℰ V ([P2], section 4.3.1 (I)), with the notation of section 1.2.4 (IV) , the operator Q is of the form

wo xEINα (x)(x = ξ (b)) is a mapping of class C ∞ from V = ξ (U) into Hom ℂ m ℂ n ≅ ℂ m × n (Übung*: see [DIE 93] , Volume 3, (17.13.3)). Das Auftrag of the differential operator P at the point b is defined as the greatest integer | α | so dass EINα ≠ 0.

Wenn m und n are both equal to the trivial bundle B × ℂ , then Γ(Β, m) and Γ(Β, n) can both be identified with ℰ B , in which case Diff (B m, n) is simply written as Diff(B).

(II) S heaf of differential operators For every bΒ and every open neighborhood U von b, let m |U und n |U be the vector bundles induced by m und n, respectively, on U ( section 3.3.1 , Lemma-Definition 3.4 (4)). Let h ∈ ℰ B be a mapping such that supp(h) ⊂ U und h is equal to 1 in a neighborhood WU von b (the existence of such a function follows from Theorem 2.13 and Corollary 2.17 ). Lassen F ∈ Γ(U, m) und P ∈ Diff (B m, n) h.F, extended by 0 outside of supp (h), is an element of Γ(Β m). Hence, we can form P. (h.F). This quantity is independent of h, und FP. (h.F) is called the restriction P |U ∈ Diff (U m |U, n |U) von P zu U.

Let ℰ be the sheaf of rings U ↦ ℰ U . The mapping U ↦ Diff(U m |U, n |U) is clearly a sheaf of ℰ -Modules ([P2], section 5.3.1 ).

(III) P oint distributions Lassen P ∈ Diff (B). For every bΒ, F ↦ (P.F) (b) is a distribution with support in <b>, written as P (b). We say that it is a point distribution at b, and so Diff (B) is said to be a field of point distributions. The local expression (see (I)) of a point distribution at b of order p ist

The set of point distributions at b is an ℰ B -module, written as T b ∞ B , and T ∞ B = ⊕ b ∈ B T b ∞ B is the ℰ B -module of distributions with finite support in B. The above shows that T ∞ B = Γ B Diff B . We have the following result ( [SCH 66] , Chapter 3 , section 10, Theorem 35):

Any distribution on ℝ n whose support is contained in <0>is a finite linear combination of the Dirac distribution and its derivatives.

We can extend the notion of a finitely supported distribution to the case where Β is a Banach K -manifold of class C R ( [BOU 82a] , section 13). It might seem tempting to define a compactly supported distribution more generally as a continuous linear form on ℰ B but this would require us to define a “good” locally convex topology on the latter space, which is surprisingly difficult (see [KRE 76] ).


Book Description

Aims to construct the inverse problem theory for ordinary non-self-adjoint differential operators of arbitary order on the half-line and on a finite interval. The book consists of two parts: in the first part the author presents a general inverse problem of recovering differential equations with integrable coefficients when the behaviour of the spectrum is arbitrary. The Weyl matrix is introduced and studied as a spectral characteristic. The second part of the book is devoted to solving incomplete inverse problems when a priori information about the operator or its spectrum is available and these problems are significant in applications.


1 Antwort 1

The two notions are equivalent in the characteristic zero (smooth! as pointed out by Mariano in the comments) case. The reason they're equivalent basically boils down to the Leibniz rule: $xpartial_x-partial_xx=1$ in the ring of differential operators. Here's a sketch of the proof for the case of the $n$-dimensional Weyl algebra, defined by $W_2=klangle x_1,dots,x_n,y_1,dots,y_n angle/([x_i,y_i]-1,[x_i,x_j],[y_i,y_j]),$ which is the ring of differential operators on $A=k[x_1,dots,x_n]$:

Let $Tin mathrm_k(A)$ such that the $m+1$-fold commutator with any $m+1$ elements of $A$ is zero, but the $m$-fold commutator is not. Pick the following basis of $W$ as a left $A$-algebra: $y_1^y_2^cdots y_n^$. Use the list of basis vectors such that $sum i_j=n$ to determine the $A$-coefficients of each of these terms in $T$ by setting the first $i_1$ of $a_j$ to be $x_1$, and so forth. Subtract the resulting linear combination of differential operators from $T$ to obtain a differential operator of order $leq n-1$, and repeat. Eventually you have $T$ written as an element of the subalgebra of $mathrm_k(A)$ generated by $A$ and $mathrm(A)$.


Schau das Video: Lineær funktion (November 2021).