Einführung in die Tensorrechnung: Tensoren vom Rang 2

Aus Wikibooks


Tensoren vom Rang 2 (Tensoren 2. Stufe)[Bearbeiten]

Das Nachprodukt einer Dyade mit einem Vektor u hat eine Anzahl besonderer Eigenschaften, von denen hier zunächst vier genannt werden sollen. Vorab führen wir für die Dyade folgende Abkürzung ein:

(2.1)


1. Das Produkt Tu ist das k-fache des Vektors v:

(2.2)


2. Das Produkt Tu ist nach Gleichung (1.32) ein Vektor t mit den Komponenten

(2.3)


Ersetzt man den Vektor u durch die Summe r + s zweier Vektoren r und s, so wird

 

 

Analoges gilt für t2 und t3. Daraus folgt

(2.4)


3. Genauso lässt sich zeigen, dass

(2.5)

 

4. In Gleichung (1.35) sind u und v Vektoren, die als solche von der benutzten Basis (Koordinatensystem) unabhängig sind. (Sie sind invariant gegenüber Basiswechsel.) Das bedeutet, dass unabhängig von der benutzten Basis aus dem Vektor u durch Multiplikation mit der Dyade T immer derselbe Vektor k v entsteht. Daher bezeichnet man auch T als invariant gegenüber Basiswechsel oder als unabhängig von der benutzten Basis.

Ein mathematischer Operator mit diesen Eigenschaften heißt »Tensor vom Rang 2«. Also sind Dyaden Tensoren vom Rang 2. Da wir es künftig nur mit Tensoren vom Rang 2 zu tun haben werden, lassen wir den Zusatz fort.

Andererseits muss ein Tensor nicht notwendig eine Dyade sein. Da in der Matrizendarstellung einer Dyade ausschließlich Produkte von je zwei Vektorkomponenten auftreten, genügt es, wenn bei Basiswechsel die Komponenten des Tensors genau so transformiert werden wie diese Produkte. Unter dieser Bedingung bleiben nämlich alle oben abgeleiteten Eigenschaften erhalten. (Lediglich ist in Gleichung (2.2) der Vektor v im Ergebnis nicht zu identifizieren.) Durch diese Verallgemeinerung des Tensorbegriffs ist es möglich, später weitere wichtige Tensoreigenschaften nachzuweisen.

Es ist hier nützlich, sich daran zu erinnern, dass auch in der Vektoranalysis solche Produkte auftreten: grad U, div v, rot v, wobei grad, div und rot als Faktoren aufgefasst werden, die aus bestimmten Differentialoperatoren stehen, mit denen ein Skalar U oder ein Vektor v nach den Regeln der Algebra multipliziert werden. Auch diese Operatoren und ihre Produkte sind von der benutzten Basis unabhängig.


Beispiele:

1. Der Vektor grad U ist als solcher von der Basis unabhängig. Er gibt für jeden Punkt eines Skalarfeldes Richtung und Größenwert des steilsten Anstiegs der Feldfunktion U an. In einem bestimmten Punkt P hat der Vektor grad U eine bestimmte Länge und eine bestimmte Richtung; beide werden durch einen Wechsel der Basis nicht beeinflusst, wenn auch die Komponenten des Vektors sich dabei verändern.

2. Der Skalar div v gibt für jeden Punktes eines Vektorfeldes die so genannte Quelldichte des Feldvektors an. Auch diese Größe bleibt beim Wechsel des Koordinatensystems unverändert.

Genau so ist der Tensor T ein Faktor, der mit einem beliebigen Vektor v multipliziert werden kann (und multipliziert werden muss, damit man ein definiertes Ergebnis – einen Vektor – erhält). Was der Tensor T für sich allein genommen bedeutet, wissen wir (zunächst) noch nicht, jedoch kann diese Bedeutung erschlossen werden.



Übung 2.1:

Welche der Differentialoperatoren grad, div, rot, Laplace-Operator Δ und Hamiltonscher Differentialoperator (Nablaoperator) sind nach diesen Kriterien ein Tensor oder können ein Tensor sein? Begründen Sie Ihre Entscheidung. Zeigen Sie, dass die Ergebnisse der jeweiligen Operation invariant gegen Basiswechsel (Koordinatentransformation) sind.



Wir definieren noch den Nulltensor 0 durch die Eigenschaft Ov = o (Nullvektor) und den Identitätstensor I durch die Eigenschaft Iv = v.

Schließlich definieren wir: Zwei Tensoren T und U sind genau dann gleich, wenn gilt Tv = w und zugleich Uv = w (kurz: Tv = Uv).

 

Darstellung eines Tensors vom Rang 2 in einem Koordinatensystem[Bearbeiten]

Gegeben sei eine kartesische Basis mit den Basisvektoren e1, e2, e3.

Es soll nun untersucht werden, wie sich ein Tensor T in dieser Basis darstellen lässt. (Die Analogie dazu ist die bekannte Darstellung eines Vektors durch seine skalaren Komponenten bezüglich einer Basis.)

Wir gehen dabei von der Gleichung (2.1) aus:



Dann stellen wir die Vektoren v und w in der Basis dar:



Damit wird aus Tv der Vektor w:



Nach Gleichung (2.2) ist



und nach Gleichung (2.3)


(2.4)


Nun sind die T ei auf der linken Seite nach Gleichung (2.1) Vektoren ti, die sich ebenfalls in der benutzten Basis darstellen lassen.

Bezeichnen wir ihre skalaren Komponenten in der Basis mit tik (i, k = 1, 2, 3), dann ist

(2.5)


Die neun skalaren Komponenten dieser drei Gleichungen lassen sich in einer Matrix MT anordnen, die eine besondere Bedeutung hat (siehe unten):

(2.6)


Mit den Gleichungen (2.5) lässt sich Gleichung (2.4) wie folgt schreiben:



Durch Ausmultiplizieren, Umordnen und Ausklammern von ei auf der linken Seite erhält man



Durch Vergleich der Koeffizienten gleicher Basisvektoren links und rechts ergibt sich



Diese drei Gleichungen lassen sich mit zwei Matrizen als eine einzige Gleichung schreiben:



Die linke Seite kann man als (Nach-)Produkt der Matrix



mit der Matrix



schreiben (siehe dazu die Gleichungen (1.13) und (1.14)):



Der T im benutzten Basissystem (!) durch die obige Matrix dargestellt werden kann:



Diese »Äquivalenz« soll bedeuten, dass in der Gleichung Tv = w der Operator T durch die Matrix (tik) ersetzt werden kann. Der Tensor ist jedoch nicht gleich der Matrix. Vielmehr ist die Matrix eine (von vielen) basisabhängigen Darstellungsformen des Tensors.

Bezeichnen wir wie bei den Vektoren mit (T) die Matrix des Tensors im jeweils benutzten Basissystem, dann ist



Die Elemente der Matrix heißen dann »Komponenten der Tensormatrix« oder kurz »Komponenten des Tensors«.

Die Matrix (T) des Tensors ist gleich der transponierten Matrix aus Gleichung (2.6):



Also: Ein Tensor vom Rang 2 kann stets durch eine 3x3-Matrix dargestellt werden.

Analog zu einem Vektor hängen die Komponenten des Tensors in dieser Darstellung von der benutzten Basis ab, obwohl der Tensor selbst invariant ist gegenüber Basiswechsel. Anders als bei der Komponentendarstellung eines Vektors treten aber die Basisvektoren selbst nicht auf. Sie haben jedoch implizit Einfluss auf die Matrix MT und damit auch auf die Komponenten-Matrix (T) des Tensors T. Wechselt man die Basis, auf die die Tensormatrix bezogen ist, so ändern sich – siehe Gleichung (2.5) – auch ihre Komponenten. Die Forderung, dass ein Tensor invariant gegen Basiswechel sein soll, bedeutet zunächst Folgendes: Beim Wechsel der Basis müssen seine Komponenten nach einem allgemein gültigen Gesetz so transformiert werden können, dass der Tensor mit den transformierten Komponenten im neuen Koordinatensystem einen Vektor v auf denselben Vektor w abbildet, wie es der Tensor mit den ursprünglichen Komponenten in der ursprünglichen Basis getan hat. Das bedeutet: Wenn die transformierte Matrix des Tensors in der neuen Basis gleich



ist, dann muss


sein, wobei



die Matrizen der Vektorkomponenten von v und w in der neuen Basis sind.


Diese Aufgabe wird uns später noch beschäftigen.


 

Beispiele und Übungen[Bearbeiten]

 

Beispiel 2.1: Die Projektion eines Vektors auf einen anderen Vektor als Tensoroperation


Ein Vektor v soll senkrecht auf einen anderen Vektor u projiziert werden.

Gesucht ist der Operator P, der dieses leistet. Damit meinen wir einen Operator, der – auf den Vektor v angewendet - dessen Projektion w auf u ergibt. Es sei also



wobei e der auf u liegende Einheitsvektor ist. Dann liefert nämlich das Skalarprodukt v·e die Länge (Betrag) des projizierten Vektors und der Faktor e dessen Richtung.



Der zu u gehörige Einheitsvektor ist


Damit wird

(2.7)


Da v und u basisunabhängige Vektoren sind, ist auch P basisunabhängig.

Ferner gilt:

1. Das Produkt Pv stellt offensichtlich einen Vektor k u dar, wobei


2. Es ist P(r + s) = Pr + Ps, wie man graphisch leicht zeigen kann, indem man v in zwei beliebige Summanden r und s zerlegt,


3. Es ist die Länge der Projektion des Vektors v proportional zur Länge von v.

Daraus folgt: Der Operator P ist ein Tensor.


Um die Matrix des Tensors P bezüglich der Basis {e1, e2, e3} zu ermitteln, drücken wir das Skalarprodukt v·u und den Vektor u durch ihre Komponenten aus:


(2.8)


Nach den Gleichung (1.16) und (1.15) stellt die rechte Seite einen Vektor w dar mit der Komponentenmatrix



Nach Gleichung (1.14) ist dieser Vektor gleich dem Produkt



Andererseits ist dieser Ausdruck nach Gleichung (2.8) gleich Pv und somit ist


woraus folgt



 


Beispiel 2.2: Spiegelung eines Vektors an einer Ebene als Tensoroperation

Der Einheitsvektor der Flächennormalen der Ebene sei e.



Dann ist



Begründung: Vom Vektor v muss zweimal seine Projektion (v · e)e auf den Einheitsvektor e subtrahiert werden, um w zu erhalten.



Übung 2.2 Beweisen Sie, dass der Operator S aus Beispiel 2.2 ein Tensor ist.


Übung 2.3 Berechnen Sie unter Verwendung des Ergebnisses aus Beispiel 2.1 die Komponentendarstellung des Tensors S aus Übung 2.2.

Wie lautet das Ergebnis, wenn der Vektor e mit dem Basisvektor e1 zusammenfällt?


 

Beispiel 2.3: Die Drehung eines Vektors als Tensoroperation

Ein Vektor v soll bezüglich einer definierten Achse um den Winkel φ gedreht werden. So entstehe der Vektor w. Es soll nun untersucht werden, ob sich der Vektor w als Tensoroperation

darstellen lässt. Wir betrachten den vereinfachten Fall, in dem die Drehachse mit einem der Basisvektoren (hier: e3) zusammenfällt. (Im allgemeinen Fall kann man eine Koordinatentransformation durchführen, um diesen Fall zu verwirklichen.) Bei diesem Beispiel ist es zweckmäßig, gleich mit der Komponentendarstellung der Vektoren zu arbeiten.



Der rechte Teil der Abbildung zeigt die Projektionen der Vektoren v und w in die Grundrissebene.

Es ist nun


oder



und daher gilt für die Matrix des Vektors w:



Wie oben (Beispiel 2.1) gezeigt wurde, ist dann der Vektor w:



und daher



Auch D erfüllt alle Kriterien eines Tensors. Wie man erkennt, ist hier sogar die Matrix des Tensors basisunabhängig.


 


Beispiel 2.4: Das Vektorprodukt als Tensoroperation


Das Vektorprodukt u x v ist ein Vektor w vom Betrag u v sin φ , der auf u und v senkrecht steht und so orientiert ist, dass u, v, w in dieser Reihe ein Rechtssystem bilden. Dabei ist φ der Winkel zwischen den beiden Vektoren.

Wir wollen untersuchen, ob die Bildung des Vektorprodukts als Tensoroperation am Vektor v aufgefasst werden kann, wenn man u als konstant (oder als Parameter) betrachtet.

Nennen wir den Operator, der dieses leisten soll, Su ≡ (u x   ), so ist

(2.9)


Für das Vektorprodukt u x v gilt die Koordinatendarstellung



und für seine Matrix



Diese Matrix soll nun als Matrizenprodukt dargestellt werden. Dazu nehmen wir zunächst eine identische Umformung vor:



Für den Vektor gilt dann


Ein Vergleich mit Gleichung (2.9) zeigt, dass für die Matrix des Operators Su gilt


 


Übung 2.4 Zeigen Sie, dass der Operator S ein Tensor ist.


Beispiel 2.5: Das dyadische Produkt als Tensor

Nach Gleichung (1.25) ist das dyadische Produkt zweier Vektoren v und w bezüglich des benutzten Basissystems durch eine 3x3-Matrix darstellbar:


(2.10)


Wie sich leicht zeigen lässt (was als Übung empfohlen wird) erfüllt diese Matrix die Kriterien 2.1 bis 2.3 für einen Tensor. Da die Vektoren v und w vom benutzten Basissystem unabhängig sind, gilt dies auch für ihr dyadisches Produkt. Folglich stellen die Dyade und ihre Matrix einen Tensor dar. Daraus lassen sich zwei neue Tensor-Kriterien herleiten, von denen jedes für sich hinreichend (aber nicht notwendig) ist.

1. Eine Matrix, deren Elemente wie oben angegeben Produkte von je zwei Vektorkomponenten sind, kann als Matrix eines dyadischen Produkts aufgefasst werden und hat daher Tensoreigenschaft.

2. Es genügt jedoch bereits, wenn sich die Elemente der Matrix bei Wechsel des Koordinatensystems genau so transformieren wie die Produkte von je zwei Vektorkomponenten von der oben dargestellten Art. Dann transformiert sich nämlich auch die Matrix insgesamt wie die Matrix einer Dyade und besitzt daher Tensoreigenschaft.

 

Beispiel 2.5   Der Vektorgradient

Mit dem Gradienten-Operator kann die Änderung dU einer skalaren Ortsfunktion U berechnet werden, die beim Voranschreiten um eine gerichtete Strecke ds (»Verschiebung«) im Skalarfeld eintritt. (Siehe dazu Wikibook Vektoranalysis, Teil II)

Es soll nun untersucht werden, wie sich eine vektorielle Ortsfunktion v beim Voranschreiten im Vektorfeld ändert. Dazu berechnen wir die Änderungen der skalaren Komponenten vx, vy, vz des Vektors v mit Hilfe des Gradienten-Operators:

(2.11)

Damit ergibt sich das Differential dv

(2.12)


Wir bilden nun das dyadische Produkt aus dem Nablaoperator (einem symbolischen Vektor)

und dem Vektor v (Siehe Gleichung (1.25 ))

Dieser Tensor heißt Vektorgradient von v (geschrieben: grad v):


Multipliziert man diesen Tensor mit dem Verschiebungsvektor ds als Vorfaktor (siehe Gleichung (1.27)) so erhält man gemäß Gleichung (1.28) den Vektor dv:

Dies ist genau die gesuchte Änderung dv. Also gilt:

 

1. Beispiel: Das Vektorfeld sei definiert durch v = r. (Man denke sich also an jeden Punkt P(x, y, z) des Feldes seinen Ortsvektor angeheftet.) Der Vektorgradient dieses Feldes ist dann

Dann ist


Interpretation: Wenn man vom Punkt P um die Strecke ds im Feld voranschreitet, ändert sich der Ortsvektor um ds.

 

2. Beispiel: Der Vektor der elektrischen Feldstärke im Punkt P(x, y, z) des Feldes einer Punktladung Q, die sich im Ursprung eines kartesischen Koordinatensystems befindet, ist

Die Komponenten von E sind

woraus folgt

und weiter


Daraus ergibt sich schließlich