Quantenmechanik/ Symmetrien

Aus Wikibooks

Symmetrien, Überblick[Bearbeiten]

Symmetrien sind Gruppen von Transformationen. Gruppen im mathematischen Sinn.
Vokabular: eine Gruppe G ist eine Menge mit einer 'Multiplikation' . Sie ist assoziativ, G hat ein Eins-Element und jedes Element hat ein Inverses. Eine Abbildung von Gruppe G in Gruppe H mit heißt ein Homomorphismus. Ein bijektiver Homomorphismus heißt Isomorphismus. Ein Automorphismus von G ist ein Isomorphismus der Gruppe G auf sich selbst.

Die Quantenmechanik verbindet die Gruppen der Symmetrie-Transformationen der klassischen Physik mit Transformationen der mikroskopischen Zustände im Hilbert-Raum. Es gibt Homomorphismen in der einen oder der anderen Richtung.

Zuerst werden kurz und oberflächlich drei Sorten von Transformationen vorgestellt, solche die mit Raum und Zeit zu tun haben, solche die mit anderen Koordinaten spielen, solche die nur als Eichung aufzufassen sind. Danach kommt mehr Stoff zur unitären Darstellung von Gruppen im Hilbert-Raum.

Die augenfälligste Sorte der Symmetrien beziehen sich auf Raum und Zeit. Sie kommen mit dem Paradebeispiel der Drehungen im Raum immer wieder vor in diesem Kurs. Es sind Transformationen im Definitionsbereich der Wellenfunktionen, die eventuell Transformationen im Wertebereich bewirken, wenn die Funktion kein einfacher Skalar ist. Die wichtigsten sind:

  • Raum- und Zeit-Verschiebung
  • Raum-Drehungen
  • Galilei-Boosts zu konstanter Geschwindigkeit (nichtrelativistisch)
  • Lorentz-Boosts (relativistische Mischung von Raum und Zeit)
  • Raumspiegelung
  • Zeitumkehr

Nach den Regeln der Quantenmechanik werden solche Transformationen abgebildet auf (unitäre lineare) Operatoren im Hilbertraum, so dass die Gruppen-Multiplikation sauber mitspielt. Wellenfunktionen werden unter Erhaltung der Norm gedreht. Operatoren von Observablen werden ebenfalls mitgeschleppt und verhalten sich je nach Kategorie, Skalar, Vektor, Tensor... Zustandsräume sind das Spielfeld von unitären Darstellungen der Gruppen.

Die Spiegelungen sind diskrete Transformationen. Wenn Zustände Eigenvektoren zu diesen sind, dann verhalten die Eigenwerte sich multiplikativ bei der Kombination von Transformationen. Es geht meistens um endliche Gruppen.

In den anderen Fällen gehören die Transformationen zu kontinuierlichen oder Lie-Gruppen. Solche Gruppen sind N-dimensionale Mannigfaltigkeiten und können lokal, also speziell ums Eins-Element herum, durch N reelle Parameter beschrieben werden. Die Tangentenvektoren an den Gruppenraum können als die Richtungs-Ableitungen längs von Ein-Parameter-Untergruppen am Ursprung definiert werden. Sie heißen die Erzeuger, oder Generatoren, oder auch Infinitesimalen Elemente, der Gruppe. Das Wichtige an diesen Erzeugern ist ihre Struktur als Lie-Algebra. Für eine Basis von N Erzeugern gibt es einen Satz von reellen Strukturkonstanten, so dass gilt:

.

Der Ausdruck ist sauber definiert, denn die Erzeuger sind lineare Differential- Operatoren für skalare Testfunktionen auf der Gruppen-Mannigfaltigkeit. Der Kommutator ist antisymmetrisch und hat statt der Distributivregel die Jacobi-Identität: .

Ihrem Auftrag getreu, hat die Mathematik einen vollständigen Katalog aller endlich-dimensionalen abstrakten Lie-Algebren erstellt. Also der Vektorräume versehen mit antisymmetrischem und Jacobi-regelkonformem Lie-Produkt. Es geht da um einfache Algebren, von denen sich keine nichttriviale Unter-Algebra abspalten lässt. Nur ein Musterexemplar für jede Isomorphie-Klasse soll erfasst werden. Es gibt nach seit Urzeiten getaner Forschung mehrere Reihen und einige Ausnahme-Strukturen. Darüber hinaus wurden alle Matrix-Darstellungen der Algebren und der erzeugten Gruppen und speziell alle unitären, reellen, pseudo-reellen, usw. Darstellungen dokumentiert. Auch dabei dreht es sich um die irreduziblen Darstellungen, in denen sich kein invarianter Teilraum mehr abspalten lässt. Die beliebte Drehgruppe SO(3) ist nur ein Exemplar in den Serien von Lie-Gruppen SU(n), SO(n), Sp(n)... Alle haben Prototypen als Matrixgruppen.

Eine Darstellung ist mathematisch definiert als Gruppen-Homomorphismus, dessen Wertebereich eine lineare Gruppe ist. Den unitären Matrixdarstellungen von Lie-Gruppen entsprechen natürlich Matrix-Darstellungen der Lie-Algebra. Ein Gruppenelement U ist danach die Matrix-Exponentialfunktion eines Lie-Algebra-Elements X; t ist reell. Unitäres U hat ein schief-hermitesches X zur Folge: . In der Quantentheorie sind die Generatoren aber meist hermitesche Operatoren, die zu Observablen gehören. Daher definiert die Physik durchgehend ihre Lie-Algebren mit einem parasitären 'i' in den Kommutator- Regeln!

.

Die Darstellung vom Typ der infinitesimalen Transformationen ist hermitesch und qualifiziert sie als Observable.

In einer Darstellung sind alle Polynome der Lie-Algebra-Elemente definiert (am Anfang postuliert die abstrakte Algebra nichts als den Kommutator). Es gibt dann Operator-Kombinationen, die als Diskriminanten für eine unzerlegbare Komponente einer Darstellung dienen. Sie heißen Casimir-Operatoren. Für die Darstellungen der SO(3) ist der Casimir-Operator . Seine Eigenwerte sortieren die Multipletts aus, die die Gruppe irreduzibel darstellen.

Bei der Schrödinger-Gleichung war es bereits notwendig, die Multiplikation mit konstanter Phase und die komplexe Konjugation zu untersuchen. Man hat die Natur abgeklopft auf eine allgemeinere zweite Sorte von Symmetrien. Gruppen, die keinen direkten Bezug zur Raumzeit haben und allein auf die Koordinaten im Wertebereich der Zustände einwirken, nennt man die inneren Symmetrien. Der Urtyp davon war der Isotopenspin oder Isospin. Das Proton und das Neutron unterscheiden sich nur wenig, hautpstächlich in der Ladung und ein wenig in der Masse. Die Idee war, dass sie angenähert zu einem Multiplett einer Gruppendarstellung gehören, dass also ein Hamilton-Operator nullter Ordnung mit einer Lie-Algebra kommutiert. Der Bruch der Symmetrie durch die elektromagnetische Kraft kann dann störungstechnisch als Hamilton-Operator höherer Ordnung angebaut werden. Eine Symmetrie bringt Rechenvorteile und Auswahlregeln und so weiter mit sich, falls sie existiert. Daher wurde eine Isospin-Gruppe SU(2) postuliert; das Dublett Proton/Neutron geört zur Darstellung I=(1/2) mit Quantenzahlen . Später kam eine weitere Quantenzahl S, die Seltsamkeit oder Strangeness, hinzu. Die Gruppe wurde zu einer SU(3) erweitert und etliche Mesonen sowie Hyperonen konnten als Multipletts deren Darstellungen zugeordnet werden. Die kleinstmögliche fundamentale Darstellung wirde mit drei unsichtbaren Quarks bevölkert, aus denen die anderen Teilchen sich zusammenbauen. Die Entdeckung der Quarks war angewandte Gruppentheorie.

Schließlich kam eine dritte Sorte von Symmetrien zum Zuge, die streng genommen keine physikalischen Transformationen sind, die Eich-Invarianzen. Das Wort Eichsymmetrie wird ihnen manchmal verweigert. Denn es sind passive Transformationen -- Wechsel von Koordinaten, aber keine Relationen zwischen verschiedenen physikalischen Objekten. Alles Messbare ist streng eichinvariant. Eine Eich-Gruppe namens Farb-SU(3) dreht an den Feldoperatoren der starken Wechselwirkung, mit der die Gluonen die Quarks binden -- so wie die Photonen mit ihrer Eich-Gruppe U(1) die Elektronen, Positronen und Quarks elektromagnetisch verknüpfen. Die elektro-schwache Wechselwirkung bekommt eine kompliziertere Struktur mit einer Eich-Invarianz , die durch ein Higgs-Feld spontan gebrochen werden muss, damit schwere W- und Z-Bosonen und massenbehaftete Fermionen existieren.

Die spontane Brechung einer Symmetrie ist ein sattsam bekanntes, auch klassisches Phänomen. Wie etwa die spontane Magnetisierung von Ferromagneten. Die Brechung bedeutet formal, dass das physikalische Modell invariant unter einer Transformationsgruppe G ist, dass aber die Systeme, die Lösungen der Modellgleichungen, nur in einer Untergruppe U von G symmetrisch sind. Etwa, weil das Minimum der Energie nicht am Symmetriepunkt zu Hause ist.

Lineare und antilineare Transformationen[Bearbeiten]

Zuerst wollen wir zeigen, dass Symmetrie-Transformationen im Hilbertraum allgemein entweder unitär-linear oder unitär-antilinear dargestellt werden können. Mit einer Basis des Raums H sei ein vollständiges Orthonormalsystems gemeint.

Lineare Operatoren A sind eindeutig durch ihre quadratische Form bestimmt. Denn man kann die Matrixelemente aus

linear kombinieren.

Wenn lineare Operatoren A,B bis auf eine Phase gleich sind, , dann gilt für alle Matrixelemente

Die Umkehrung gilt auch, Beweis: Seien i,j Indizes eines abzählbaren Orthonormalsystems, die Matrixelemente.

Voraussetzung

Das Verhältnis ist unabhängig von j. Symmetrische Berechnung bringt:

Daher ist der Bruch eine Konstante vom Betrag 1:

Behauptung: Eine umkehrbare Abbildung S des Hilbertraums, die das Skalarprodukt invariant lässt, kann mit punktweiser Phasenwahl zu einem Operator T gemacht werden, der entweder linear-unitär oder antilinear-unitär (antiunitär) ist. Beweis-Skizze:

Nach Voraussetzung . Sei ein vollständiges Orthonormalsystem. Dann ist auch eines, denn orthonormal nach Voraussetzung und, gäbe es einen anderen orthogonalen Vektor zu dieser Bildmenge, dann wäre sein Urbild im Widerspruch mit der Vollständigkeit senkrecht zu allen . Sei ein beliebiger Vektor, definiere . Es soll eine Phasentransformation gefunden werden, , so dass entweder oder . Am Anfang setzen wir T=S und veändern T schrittweise. Die Beträge nach allen Voraussetzungen.
Zuerst wählt man alle Phasen für die Basis so dass . Sei nun ein reeller Vektor bezüglich der Basis, das heißt, alle seien reell. Wegen der konstanten Beträge aller Skalarprodukte ist dann: . Man wählt die Phase von so, dass . Dann folgt auch . Ist , wird gesondert argumentiert. Reelle Vektoren werden also mit T so abgebildet, dass ihre Koordinaten gleich bleiben. Mit allen Basis-Teilsummen und jetzt beliebigem gilt: . Dieses sind Teilreihen aus zwei Polygonen in der komplexen Ebene, die bei Null beginnen. Die Gleichungen besagen, dass alle Polygon-Segmente die gleichen Längen haben. Geometrisch ziemlich klar, kann auch streng bewiesen werden: das x-Polygon ist (a) eine gedrehte oder (b) eine gedrehte und gespiegelte Kopie vom v-Polygon. Im Fall (a) wird die Phase von gemäß gewählt, und es folgt für alle i. In Fall (b) gelingt die Phasenwahl . Die Spiegelung erfolgt dann an der reellen Achse, und für alle i. T ist also nach den Phasen-Rotationen ein Operator, der jeden Vektor mit seinen ursprünglichen oder mit den komplex konjugierten Koordinaten in der neuen (phasen-gedrehten) Basis entwickelt. Bleibt zu beweisen, dass die Spiegelung entweder immer oder nie vorkommt. Dann ist T insgesamt wie gefordert, linear oder antilinear. Sei so, dass keine Spiegelung eintritt, und sei a kein Vielfaches von . Alle anderen Vektoren , deren Komponenten nicht verschwinden, haben dann das erhaltene Skalarprodukt . Unmöglich, wenn sie komplex konjugiert werden. Mit ähnlichen Argumenten erschlägt man die Spezialfälle modulo und den Fall der Spiegelung. Alle Vektoren, die nicht proportional zu einem der Basis sind und daher nicht unabhängig vom Rest der Welt justiert werden, haben mindestens zwei nichtverschwindende Koordinaten.

Ergebnis Fall(a): Es gibt einen unitären linearen Operator und
Fall(b): Es existiert einen antilinearer Operator T und .

- Antilineare Operatoren kommutiern nicht mit komplexer Multiplikation.
- Hermitesch adjugierter Antilinearer Operator definiert durch:
- Antiunitärer Operator: definiert als antilinear und

Zu einer Orthonormal-Basis gibt es einen angepassten antilinearen Konjugations-Operator .

Symmetrie-Transformation[Bearbeiten]

Definition: Eine Symmetrie T tranformiert Observablen und Zustände so, dass messbare Eigenschaften erhalten bleiben. Speziell bleiben die Betragsquadrate der Skalarprodukte konstant. Daher ist nach Phasenwahl T entweder unitär oder antiunitär. Erwartungswerte von Observablen B bleiben erhalten, wenn Vektoren und Observablen so transformieren: . Algebraische Ausdrücke zwischen Observablen bleiben bestehen oder werden komplex konjugiert, je nachdem ob T linear oder antilinear ist. Angenommen, ein System kommt daher mit hermiteschen Observablen und deren Kommutations-Relationen . Lineare Symmetrien verändern sie nicht, antilineare klappen das Vorzeichen um.

Sei der Hilbertraum H irreduzibel mit dem Observablensatz , das heißt, es gibt keinen Teilraum G, der von allen nur nach G abgebildet wird. Reichen die transformierten Observablen aus, , um T zu bestimmen? Fast. Sei U eine andere Symmetrie mit denselben Gleichungen, so dass folgt Dann ist eine Konstante. Diese Behauptung ist ein Spezialfall des Schurschen Lemmas. Weil T,U beide unitär sind, gilt mit einer Phase: . Physikalische Modelle haben einen vollständigen Satz kommutierender Observablen, so dass jeder Eigen-Raum H davon irreduzibel ist. Damit ein Beweis der Behauptung: Sei Eigenvektor eines vollständigen Satzes von kommutierenden Observablen. (Die volle Observablen-Menge dagegen transformiert den Vektor.) kommutiert mit allen , so dass auch Eigenvektor zu C ist. C kommutiert aber auch mit allen Operator-Polynomen der Menge . Und diese verbreiten den Vektor u so weiter, dass der ganze Raum aufgespannt wird. Der Hilbertraum H hat daher einen konstanten Eigenwert zu C.

Endergebnis: eine Symmetrie-Transformation ist ein unitärer oder antiunitärer Operator und ist bis auf eine Phase definiert. Im antiunitären Fall dreht die Symmetrie die Vorzeichen von Kommutatoren um.

Sei eine Gruppe von Symmetrien gegeben und jedem Element a wird eine Hilbertraum-Transformation zugeordnet. Wegen der unbestimmten Phasen ist das noch kein Gruppen-Homomorphismus, sondern . Es hängt von der Gruppe ab, ob alle Phasen widerspruchsfrei zu 1 gesetzt werden können. Für Permutationsgruppen ist das möglich. Für die Drehgruppe SO(3) funktioniert es, wenn T auf einem Darstellungsraum mit ganzzahligem Spin operiert. Bei halbzahligem Spin geht es nur modulo Vorzeichen: . Formaler gesagt: Es gibt die universelle Überlagerungsgruppe SU(2) der Drehgruppe SO(3) und einen zwei-zu-eins Homomorphismus . T kann phasenfrei, also als eine Darstellung, für die Gruppe SU(2) aufbereitet werden. Aber T ist nicht als eindeutige Funktion auf SO(3) definiert. Dies hat keine Auswirkung auf physikalisch messbare Größen.

Weiter unten wird die antilinear dargestellte Zeitumkehr behandelt, auch da haben die halbzahligen Spins mit Vorzeichen zu kämpfen.

Mehr zu Gruppen-Darstellungen[Bearbeiten]

Ein Gruppen-Homomorphismus hat oft eine nicht-triviale Untergruppe der Elemente, die auf die Eins in K abgebildet werden. Ist K eine Gruppe linearer Abbildungen in einem Vektorraum H(K), dann nennt man T eine Darstellung von G im Darstellungsraum H(K). Ist darüber hinaus U trivial, also T umkehrbar, heißt T eine treue Darstellung von G. Für jeden Homomorphismus T ist jedenfalls U gutartig im Sinne, dass die Links- und Rechts-Restklassen gleich sind. Das heißt, für . Gleichheit der Mengen ist gemeint, nicht gu=ug für alle u.
Begründung: .

Bei solchen Untergruppen, für die also immer gilt, bilden die Restklassen selbst eine Gruppe mit der Multiplikation

.

Sie heißt die Quotientengruppe G/U. Salopp gesagt, man kann die Untergruppe U herausdividieren. Der Homomorphismus T sinkt herab auf die Quotientengruppe zu einem umkehrbaren Homomorphismus. Die Bildgruppe ist isomorph zur Gruppe (G/U). Im Jargon heißt es, eine Untergruppe wie U ist ein Normalteiler und sie ist invariant unter allen inneren Automorphismen .

Die Dimension des Darstellungsraums wird auch Grad der Darstellung genannt. Darstellungen vom Grad 1 sind Homomorphismen von G auf die reellen und/oder komplexen Zahlen. Außer der trivialen Darstellung gibt es andere mit Grad 1 genau dann, wenn G Abelsche (kommutative) Quotientengruppen G/U hat.

Zwei Darstellungen S,T heißen äquivalent, wenn es eine umkehrbare lineare Transformation L zwischen ihnen gibt: .
Die Spur einer Matrixdarstellung ist die gleiche Funktion für alle zu T äquivalenten Darstellungen und heißt der Charakter von T. Ist T äquivalent zu der komplex konjugierten Darstellung (komplexe Konjugaton aller Matrixelemente) dann ist die Spur reell.

Die direkte Summe zweier Darstellungen ist definiert auf der direkten Summe der Darstellungsräume , durch Anwendung auf Paare:

Als Matrixdarstellung hat man -Matrizen mit den Blöcken von S und von T auf der Diagonale. Der Charakter der direkten Summe ist die Summe der Charaktere. Die Determinante der direkten Summe ist das Produkt der Determinanten. Determinanten sind Darstellungen vom Grad 1.

Das direkte Produkt oder Tensorprodukt von Darstellungen ist definiert auf dem Tensorprodukt zweier Darstellungsräume. angewendet auf einen Produktvektor ist definiert als und wird linear auf alle Linearkombinationen ("verschränkte" Vektoren) fortgesetzt. Der Charakter des direkten Produkts von Darstellungen ist das Produkt der Charaktere.

Eine Darstellung T ist irreduzibel, wenn der Darstellungsraum H keinen Teilraum hat, der unter allen T(g) invariant bleibt. Eine Darstellung ist zerlegbar, wenn H als direkte Summe zweier Teilräume beschrieben kann und die Darstellung eine direkte Summe der Teil-Darstellungen ist. Eine Darstellung ist vollständig reduzibel, wenn sie in eine direkte Summe von (endlich vielen) irreduziblen Komponenten zerlegt werden kann.

Satz. Jede unitäre Darstellung ist entweder irreduzibel oder vollständig zerlegbar. Irreduzible Darstellungen von Abelschen Gruppen haben den Grad 1.

Seien S,T Darstellungen mit Darstellungsräumen H(S),H(T). Eine lineare Abbildung heißt homomorph, wenn sie mit den Darstellungen verträglich ist,

Für alle .

L kann hier durchaus eine rechteckige Matrix sein. Ist L aber umkehrbar, dann nennt man sie isomorph in Bezug auf die Darstellungen.

Lemma von Schur. Seien S,T irreduzible Darstellungen und sei L eine homomorphe Abbildung. Dann gilt

(a) wenn S und T nicht äquivalent sind, dann L=0
(b) sind S und T äquivalent, dann ist entweder L=0 oder .
(c) ist S=T, dann ist L eine konstante Zahl (mal Einheitsmatrix).

Folgerung: Wenn eine quadratische Matrix mit allen Matrizen einer irreduziblen Darstellung vertauscht, dann ist sie eine Konstante (mal Einheitsmatrix).

Satz 1 (Eindeutigkeit). Ist eine Darstellung T vollständig zerlegbar, dann gibt es bis auf Äquivalenz nur eine Zerlegung in irreduzible Teile.

Äquivalente Darstellungen werden als "gleich" angesehen. In einer Zerlegung kann die selbe irreduzible Komponente mehrmals vorkommen, wir schreiben:

und T hat den Charakter .

Satz 2. Ist T vollständig zerlegbar und ist S eine beliebige Komponente von T, dann ist S eine Teilsumme aus der Zerlegung von T:

.

Satz 3. Seien S,T Darstellungen, eine homomorphe Abbildung auf H(T) (L surjektiv), und sei S vollständig reduzibel. Dann ist T äquivalent zu einer Komponente (Teilsumme) von S.

Speziell sei T definiert durch die Vorschrift . Es dürfen für linear unabhängige u,v die Bildvektoren Lu,Lv linear abhängig sein.

Folgerung: Seien S,T Darstellungen (derselben Gruppe), seien bzw. Mengen von (nicht unbedingt linear unabhängigen) Vektoren in den Darstellungsräumen H(S) bzw. H(T). Sei das Tensorprodukt von Darstellungen vollständig zerlegbar. Dann ist die Darstellung in dem Teilraum, der von der Menge aufgespannt wird, eine Komponente von .

Beweis des Lemmas von Schur[Bearbeiten]

In einer leicht verallgemeinerten und umformulierten Version.

Voraussetzungen

Gegeben sind zwei Matrizen-Familien
Sie repräsentieren Abbildungen auf Vektorräumen mit den Dimensionen t durchläuft eine Indexmenge, zum Beispiel aber nicht notwendigerweise sind die Darstellungen einer Gruppe oder Lie-Algebra.
Die Matrixmengen sind irreduzibel, das heißt es gibt keine invarianten echten Teilräume von
Es gibt eine (rechteckige) Matrix P so dass Die Matrix P der Dimension hat Zeilen, Spalten.

Behauptungen

(1) Sind nicht äquivalent, dann folgt P=0.
(2) Sind beide äquivalent, dann entweder P=0 oder
(3) Falls

Korollar

Eine quadratische Matrix P, die mit allen Matrizen D(t) einer irreduziblen Menge vertauscht, ist ein Vielfaches der Einheitsmatrix. Dies ist die nützlichste Umschreibung der Behauptung (3).

Beweis

Sei . Andernfalls nehme man die Transponierten aller Matrizen, was die Ordnung der Produkte umkehrt, und man vertausche (1),(2). In Folgenden gilt die Summenkonvention über doppelte Indizes.
Wähle linear unabhängige Vektoren und definiere
Die Menge dieser Vektoren transformiert nun mit denn:

Sei im Folgenden . Die spannen einen Raum von Dimension auf. Dieser Unterraum ist kein Nullraum und irreduzibel mit Daher muss sein, andernfalls wäre reduzibel. Menge spannt also ganz auf und P ist quadratisch.
Aus Dimensionsgründen sind die linear unabhängig, das heißt hat nur die triviale Lösung
und beide Mengen sind linear unabhängig.
Die Zeilen sind linear unabhängig. Es folgt

Die Darstellungen und sind äquivalent. Sind sie nicht äquivalent, kann also nur P=0 gelten. Dies beweist Behauptungen (1) und (2).

Sei nun und Nach Behauptung (2),
Polynom hat eine Nullstelle (komplexwertige Darstellungen vorausgesetzt).
Die Vektoren transformieren gemäß genau wie die Mengen
Angenommen Matrix Dann ist wie im ersten Teil des Beweises die Menge linear unabhängig und , Widerspruch.
Also was Behauptung (3) beweist.

Anwendungen[Bearbeiten]

Die Darstellungen T seien vorwiegend unitär. Ein Hilbertvektor v in einem Darstellungsraum H(T) transformiert mit einer Darstellung S, wenn er sich in einer irreduziblen Komponente S der Darstellung T befindet. Auf der Menge der linearen Operatoren induziert die Gruppendarstellung T die Operator-Transformationen

.

Q ist wieder eine Darstellung, auf dem Vektorraum der Operatoren. Sprechweise, der Operator L transformiert mit Q. Im Folgenden wird angenommen, dass Q entweder irreduzibel oder vollständig zerlegbar ist. Ist , heißt der Operator invariant unter der Gruppe. Liegt L in einer irreduziblen Komponente der Darstellung Q, dann heißt L ein irreduzibler Tensor-Operator vom Typ .

Standardbasis: Für jede irreduzible Darstellung wählen wir eine einzige Matrixdarstellung, die die Äquivalenzklasse von Komponenten diese Typs verkörpert. Die Basis von Vektoren für diese Matrizen ist die Standardbasis. Die Matrizen einer Klasse werden als notiert. Prototypen unitärer Darstellungen sind dann direkte Summen solcher Matrizen, genannt G. Ein Standardvektor wird notiert. Index nummeriert Kopien der selben irreduziblen Komponente von der Klasse (j), Index durchläuft die Basis in dieser Komponente.

Die folgenden Sätze sind allgemeinere Versionen der Clebsch-Gordan-Zerlegung und der Wigner-Eckart-Formeln.

Satz A.
Sei ein Tupel von Vektoren, das sich wie die Basis einer (zerlegbaren) unitären Darstellung T transformiert, .
Sei die Zerlegung von T in irreduzible Komponenten.
Sei eine Standardkomponente.
Sei die unitäre Matrix dieser Zerlegung, worin die Komponenten vom Typ (k) erfasst.
Sei eine Standard-Basis.

(a) Wenn (j) nicht in der Zerlegung auftaucht, dann
(b) Andernfalls
n(j) und hängen nicht von ab.

Satz B.
Sei ein Tupel von Operatoren, das sich wie die Basis einer unitären Darstellung transformiert,

.

Seien irreduzible Komponenten von T
Sei die Zerlegung
Sei die unitäre Matrix dieser Zerlegung, wo die Komponenten von gleicher Klasse nummeriert.
Sei eine Standard-Basis.
Die Matrixelemente sind:

(a) =0 wenn nicht in der Zerlegung vorkommt, sonst
(b)
und hängen nicht von ab.

Die unitären Matrizen der Zerlegungen sind definiert durch die Gleichungen:

Sie verlangen als Eingabe die Darstellungsmatrizen bzw. . Sie hängen nur vom Transformationsverhalten der Vektoren bzw. der Operatoren ab.

Beweis A. Zuerst wird die unitäre Matrix auf das Tupel angesetzt:

Die Umkehrtransformation wegen Unitarität:

Für jedes Paar spannen die Vektoren einen Unterraum auf, in dem die Standarddarstellung regiert.
In Worten, das angelieferte, eventuell linear abhängige Tupel kann mit einer unitären Matrix so durchmischt werden, dass sich die Mischlinge sauber geordnet mit irreduziblen Blockmatrizen vom Typ transformieren. Es herrscht vielleicht immer noch lineare Abhängigkeit, oder sogar es landet mehr als eine Teilmenge im selben Darstellungs-Block.
Das sortierte Vektor-Tupel kann in der Standardbasis entwickelt werden:

Fü jedes Paar hat man einen Darstellungs-Unterraum . Die zuletzt geschriebene Matrix in den Indizes vermittelt eine homomorphe Abbildung von nach . Nach dem Lemma von Schur ist sie entweder Null oder konstant, da beide Darstellungen bei Äquivalenz die selben sind.

Nun wird Bra-Vektor auf die Umkehrtransformation losgelassen und dort die letzte Gleichung benutzt:

Daraus folgen beide Aussagen des Satzes.

Beweis B. Für alle Paare hat die Menge der Vektoren ein Transformationsverhalten wie die Basisvektoren des Darstellungsproduktes . Sie sind nicht unbedingt linear unabhängig, aber nach der Folgerung aus Satz 3 ist die Darstellung zumindest eine Komponente der Produkt-Darstellung. Man sortiert die Vektormenge um wie im vorigen Beweis. Man definiere, mit der unitären Matrix  :

Hilfe, ist das unübersichtlich mit den 6 Indizes! Erklären!
Rücktransformation mit Unitarität:

.

Die damit eingeführten Vektor-Tupel mit variablem , alle anderen Indizes festgehalten, sind entweder null oder bilden eine Standardbasis für eine Darstellung . Satz A kann angewendet werden, also wird mit Bra-Vektoren  :

Der Ausdruck hinter den Deltas hängt nicht von ab. Damit ergibt die Rücktransformation, bei Behandlung mit  :

Daraus folgt, was behauptet wurde.

Auswahlregel: Seien Vektoren und in Darstellungsräumen zu und . Wenn der Operator L nach Darstellung transformiert und kein irreduzibler Teil von in der Produktdarstellung auftaucht, dann gilt . Bei irreduziblen Darstellungen folgt das direkt aus Satz B. Bei zerlegbaren transformiert wie eine Komponente von und Satz A wird auf diesen Vektor angewendet.

Beispiel Drehgruppe:
Diese Gruppe SO(3), genauer gesagt ihre Überlagerungsgruppe SU(2), die unitären 2x2-Matrizen mit Derminante 1, hat eine Reihe von irreduziblen Darstellungen zu halbzahligem . Mit den Dimensionen (2j+1). Die Zerlegung der Tensorprodukte erfolgt nach der Formel

.

Die unitäre Matrix dazu ist ein Satz von Clebsch-Gordan-Koeffizienten. Die irreduziblen Komponenten kommen je einmal vor, ihre Blockmatrizen stehen bis auf eine Konstante fest.
Ein irreduzibler Tensor-Operator der Drehgruppe ist ein (2k+1)-tupel von Operatoren , das sich nach der Darstellung transformiert. Die Matrixelemente haben die Form von Satz B. Weil jedes mögliche nur einmal in erscheint, hat die Summe über die nur einen Term. Die päzisere Version dieses Ergebnisses ist der Satz von Wigner-Eckart.

Invariante Observablen: Sei der Operator Q invariant unter einer Gruppe von Transformationen, sei eine unitäre (zerlegbare) Darstellung auf dem Zustandsraum. Vektoren einer irreduziblen Standardbasis zur Darstellung transformieren nach Anwendung von Q immer noch mit . Für Matrixelemente folgt aus Satz B (oder auch A):

.

Für jedes j ergibt Q eine hermitesche Matrix in Indizes , wo die anwesenden äquivalenten (j)-Komponenten nummeriert. Ist d(j) die Dimension von , dann sind alle Eigenwerte von Q d(j) mal entartet. Oder sogar mal, falls bei der Diagonalisation der Matrix ein Eigenwert davon mit der Multiplizität p anfällt.
Invariante Operatoren wie z.B. Casimir-Operatoren helfen dabei, degenerierte Zustands-Multipletts zu erkennen und zu sortieren.
Jeder Eigenraum vom Operator Q ist invariant unter der Darstellung. Wenn die Darstellung im Hilbertraum eine endliche Summe ist, dann kann Q höchstens verschiedene Eigenwerte haben.