Beste Antwort
Bei elektromagnetischer Strahlung (Radiometrie) handelt es sich um eine Konzentration oder eine Funktion der Wellenlänge einer Beleuchtung (radiometrische Exitance).
Strahlungsintensität und Lichtstrom oder die wahrgenommene Lichtleistung sind Beispiele für die Spektralverteilung.
Die spektrale Leistungsverteilung über das sichtbare Spektrum einer Quelle kann unterschiedliche Konzentrationen relativer SPDs aufweisen. Beispielsweise erzeugt die relative spektrale Leistungsverteilung der Sonne ein weißes Erscheinungsbild, wenn sie direkt beobachtet wird. Wenn jedoch das Sonnenlicht die Erdatmosphäre beleuchtet, erscheint der Himmel unter normalen Tageslichtbedingungen blau.
Die SPD kann es auch sein wird verwendet, um die Reaktion eines Sensors bei einer bestimmten Wellenlänge zu bestimmen.
Ich hoffe, Ihnen hat diese Antwort gefallen! Bitte stimmen Sie zu und folgen Sie mir 🙂
Antwort
Vielleicht ist hilfreich, um zunächst die folgende täuschend-elementare Frage zu betrachten:
Frage: Was ist eine qualitative, nicht algebraische Eigenschaft einer diagonalisierbaren Matrize, die sie von nicht diagonalisierbaren Matrizen unterscheidet? (Vergessen Sie, ob die Diagonalisierung vorerst von einer Einheit durchgeführt wird.)
Eine Antwort auf Diese heruntergekommene Frage beginnt mit der Beobachtung, dass diagonale Matrizen die folgenden
Polynomeigenschaft diagonalisierbarer Matrizen haben: Wenn A eine diagonalisierbare Matrix ist und P ein reales Polynom ist, dann hängt P (A) nur von den Werten P (lamda) von P bei den Eigenwerten lamda von A ab.
Hier verwenden wir
Definition der Anwendung eines Polynoms auf eine Matrix: Wenn P (x) ein Polynom ist
P (X) = C0 + C1 X + C2 X ^ 2 + .. Cn X ^ n
und A ist eine Matrix, dann definieren wir
P (A) = C0 I + C1 A + C2 A ^ 2 + …
wobei I die Identitätsmatrix ist und wo die Exponenten durch Matrixmultiplikation gebildet werden.
Sie können diese Polynomeigenschaft diagonalisierbarer Matrizen oben beweisen, indem Sie A diagonalisieren und untersuchen, was passiert, wenn Sie nehmen ein Polynom einer Diagonalmatrix.
Für eine diagonalisierbare Matrix kann man den Begriff der Anwendung von Funktionen auf Matrizen von Polynomen auf beliebiges fu erweitern Funktionen unter Verwendung der folgenden
Definition (Funktionsrechnung für diagonalisierbare Matrizen, unelegante Form): Sei A eine diagonalisierbare Matrix und sei f eine reelle oder komplexwertige Funktion der Eigenwerte von A. Dann ist f (A) die Matrix
f (A) = M f (D) M ^ -1,
wobei
A = MDM ^ -1
eine Diagonalisierung von A ist, wobei D diagonal und M invertierbar ist, und wobei f (D) durch Ersetzen jeder diagonalen Eintrittslamda von gebildet wird D durch f (lamda).
Beispiel: Sei f (x) = x ^ (1/3) die Kubikwurzel Funktion, und sei A eine diagonalisierbare Matrix. Dann ist C = f (A) tatsächlich eine Kubikwurzel von A: C ^ 3 = A.
Beispiel: Wenn A ist nicht singulär und diagonalisierbar und f (x) = 1 / x, dann ist f (A) die inverse Matrix von A.
Beispiel: Wenn A diagonalisierbar ist und f (x) = exp (x), dann ist f (A) die Matrixexponentiale von A, gegeben durch die übliche Taylor-Reihe:
exp (A) = I + A + A ^ 2/2 + A ^ 3/3! + …..
Um zu sehen, dass diese Definition von f (A) gut definiert ist (dh unabhängig von der Diagonalisierung), und um zu sehen, wie im nicht diagonalisierbaren Fall vorgegangen wird, ist es hilfreich um f (A) für Diagonale A in der folgenden Form neu zu definieren:
Alternative Definition (Funktionsrechnung für diagonalisierbare Matrizen, bessere Form): Sei A eine diagonale Matrix und sei f eine reelle oder komplexwertige Funktion der Eigenwerte von A. Dann ist f (A) = P (A), wobei P ein Polynom ist, das so gewählt ist, dass f (lamda) = P (lamda) für jeden Eigenwert lamda von A. Insbesondere muss eine Matrix nicht tatsächlich diagonalisiert werden, um eine Funktion f (A) der Matrix zu berechnen: Interpolation von f bei den Eigenwerten von A gibt ein Polynom an, das ausreicht, um f (A) zu berechnen.
Was passiert nun, wenn A nicht diagonalisierbar ist? Nun, wenn wir über die komplexen Zahlen arbeiten, dann sagt die Jordanien-Normalform , dass durch Auswahl einer geeigneten Basis eine solche Matrix als blockdiagonale Matrix geschrieben werden kann, a direkte Summe von Jordan-Blöcken Jn wie
J2 = a 1 0 a.
J3 = a 1 0 0 a 1 0 0 a,
wobei Jn eine Angstmatrix mit einer komplexen Zahl a auf der Diagonale und einer Kette von 1 „s über der Diagonale ist. Es ist zu beachten, dass Mn jeweils den einzelnen Eigenwert a der Multiplizität hat n.
Keiner dieser Jordan-Blöcke ist diagonalisierbar, da der folgende Satz besagt, dass Jordan-Blöcke die Polynomeigenschaft für diagonale Matrizen nicht gemeinsam haben:
Satz: (Die Wirkung von Polynomen auf Jordan-Blöcke) Sei P a Polynom, und sei Jn ein nxn-Jordan-Block der obigen Form. Dann hängt P (J) nur von P (a) und seinen ersten n Ableitungen bei a ab. IE
P (J2) = P (a) P „(a) 0 P (a)
P (J3) = P (a) P „(a) P“ (a) / 2 0 P (a) P“ (a) 0 0 P (a)
P (J4) = P (a) P (a) P (a) / 2! P (a) / 3! 0 P (a) P „(a) P“ „(a) / 2! 0 0 P (a ) P „(a) 0 0 0 P (a)
und so weiter.
Man kann den obigen Satz überprüfen, indem man ihn auf Monome überprüft und dann auf Polynome erweitert, die nur lineare Kombinationen von Monomen sind. P. >
Um zu sehen, wie sich dies auf die Berechnungsfunktionen von Matrizen auswirkt, betrachten Sie das folgende Problem, das die Kubikwurzelfunktion auf Matrizen anwendet:
Problem (Kubikwurzeln von Matrizen): Sei A eine nicht singuläre mxm reelle oder komplexe Matrix. Finden Sie eine Kubikwurzel C = A ^ (1/3) von A, dh eine Matrix C, so dass A = C ^ 3.
Wir geben zwei Lösungen: Die erste beinhaltet die explizite Berechnung der Jordan-Form von Die Matrix A und die zweite verwenden nur die Existenz der Jordan-Form ohne explizite Berechnung.
Lösung 1: Durch die Jordan-Form können wir die Matrix A durch eine Wahl der Basis in Jordan-Blöcke Jn zerlegen, so dass wir die Betrachtung auf den Fall beschränken, dass A = Jn für einige n ist. Zum Beispiel ist für eine komplexe Zahl a
J3 = a 1 0 0 a 1 0 0 a,
Nun ist es nicht schwer zu zeigen, dass es ein Polynom gibt
P (X) = C0 + C1 X + C2 X ^ 2
, so dass man beim Eigenwert a von J3
P (a) = a ^ hat (1/3) P (a) = 1/3 (a ^ (1/3)) ^ (-2) P (a) = -2/9 (a ^ (1/3)) ^ ( -5)
(Da wir davon ausgehen, dass kein Eigenwert 0 ist, ist nichts unendlich.)
(IE P ist die Funktion x -> x ^ 1/3 bis zur Sekunde Ableitung am Punkt x = a. Die Definition von a ^ 1/3 im komplexen Fall ist etwas mehrdeutig, daher habe ich a ^ (- 2/3) = (a ^ (1/3)) ^ ( -2) um dies zu erledigen, was bedeutet, dass in allen drei Formeln dieselbe Kubikwurzel verwendet wird.) Tatsächlich ist
P (X) = (5 a ^ (1/3) + 5 a ^ (-2/3) x – a ^ (- 5/3) x ^ 2) / 9,
obwohl wir P eigentlich nicht berechnen mussten, da aus der allgemeinen Formel für P (J3) im obigen Satz ist
P (J3) = a ^ 1/3 1/3 a ^ (- 2/3) -2/9 a ^ (- 5/3) 0 a ^ (1 / 3) 1/3 a ^ (- 2/3) 0 0 a ^ (1/3)
Dies ist nur unsere gewünschte Kubikwurzel von J3!
C = P. (J3).
Um diesen Hinweis zu sehen, dass
C ^ 3 = (P (J3)) ^ 3 = (P ^ 3) (J3) = R (J3),
wobei R (x) das Polynom ist, das
R (x) = (P (x)) ^ 3 erfüllt.
Die wichtige Eigenschaft von R ist, dass der Punkt x = a, das Polynom R = P ^ 3 entspricht der Identitätsfunktion x -> x bis zu Ableitungen der Ordnung 2
R (a) = a R „(a) = 1 R“ „(a) = 0,
, so dass nach der allgemeinen Formel für ein Polynom, das auf einen Jordan-Block angewendet wird,
C ^ 3 = R (J3) = R (a) R „(a) R (a) / 2 = a 1 0 = J3, 0 R (a) R (a) = 0 a 1 0 0 R (a) = 0 0 a
wie gewünscht / p>
Lösung 2: Wenn A eine mxm-Matrix ist, dann finde ein Polynom P (x), so dass bei jedem Eigenwert x = a von A. Das Polynom und seine Ableitungen der Ordnung bis m-1 stimmen mit der gewünschten Funktion x -> x ^ 1/3 überein. Dann ist C = P (A) die gewünschte Kubikwurzel von A.
Beachten Sie, dass Lösung 2 funktioniert, da alle Jordan-Blöcke von A eine Größe von weniger als n haben und nach Lösung 1 das Polynom P. Ersetzt jeden Jordan-Block durch seine Kubikwurzel. Da wir uns nicht die Mühe gemacht haben, die Jordan-Form von A explizit zu berechnen, kann das von uns verwendete Polynom P von unnötig hohem Grad sein, da wir die Längen der Jordan-Ketten nicht kannten. Die Polynominterpolation war jedoch wahrscheinlich nicht so aufwendig wie die Berechnung der Jordan-Form. (Außerdem haben wir auf diese Weise alle mit der Jordan-Form verbundenen numerischen Instabilitäten und entarteten Eigenwerte vermieden.)
Das Beispiel des Würfels root lädt die folgende Definition ein:
Definition (Variante des Dunford-Kalküls im endlichdimensionalen Fall) : Sei A ein Selbst- adjungierte Matrix. Sei f eine reelle oder komplexe Funktion, deren Domäne die Eigenwerte von A enthält. Dann
f (A) = P (A),
wobei P (x) ist ein Polynom, so dass für jeden Eigenwert x = a
P (a) = f (a) P „(a) = f“ (a) P „“ (a) = f „“ (a ) …………
wobei die Anzahl der übereinstimmenden Ableitungen mindestens der Größe der größten Kette von 1 „s im Jordan-Block entspricht, die dem Eigenwert a entspricht.
Man kann überprüfen, ob das Ergebnis der Anwendung der Funktion x-> 1 / x auf eine Matrix A tatsächlich die übliche inverse Matrix von A ist. Man kann auch überprüfen, ob das Ergebnis der Anwendung der Exponentialfunktion oder Die Sinusfunktion auf eine Matrix A ist die gleiche wie das Anwenden der entsprechenden Taylor-Reihe für exp oder sin auf die Matrix A. Der Begriff des Anwendens einer Funktion auf eine Matrix wird als „Funktionsrechnung“ bezeichnet Deshalb wird der Dunford-Kalkül als „Kalkül“ bezeichnet.
Es ist Standard in der Definition des Dunford-Kalküls, dass f komplexe Ableitungen haben muss, und im Allgemeinen definiert man dies unter Verwendung der Cauchy-Integralformel im unendlichdimensionalen Fall. Ich habe all dies durchgeschnitten, um nur den einfachen endlichen Fall zu erklären, und ich bin umgangen, um zu erklären, was eine Ableitung einer Funktion von den komplexen Zahlen zu den komplexen Zahlen ist. (Glücklicherweise ist die Funktion x-> x ^ (1/3) auf den Realwerten ungleich Null unendlich differenzierbar.) Hier mag es einige Feinheiten geben, aber ich versuche, einen schnellen Überblick über die Konzepte zu geben.
Es ist daher offensichtlich, dass die Jordan-Form in gewissem Sinne im Wesentlichen der Dunford-Kalkül und der Spektralsatz der Funktionskalkül für selbstadjunkte Operatoren ist. (Letzteres ist der Standpunkt, den Reed & Simon in „Methods of Mathematische Physik I: Funktionsanalyse. Diese Diskussion ist nur endlichdimensional, aber Reed & Simon betrachten den unendlichdimensionalen Fall.)
Wie auch immer, das Ergebnis all dessen ist, dass Diagonalisierbarkeit mit Vorstellungen von Nehmen zusammenhängt Funktionen von Matrizen. Dies wird als Funktionskalkül bezeichnet, und es gibt verschiedene Funktionskalküle.
Jetzt ist die Selbstadjunktheit etwas tiefer, da sie eine einheitliche Diagonalisierbarkeit impliziert, nicht nur eine Diagonalisierbarkeit. Die Eigenräume werden orthogonal. Ich habe mir keinen guten Weg ausgedacht, um zu erklären, was intuitiv entscheidend ist. In der Quantenmechanik sind orthogonale Eigenräume jedoch perfekt unterscheidbar, und Selbstadjunktheit wird zu einer natürlichen Bedingung. Das Spektrum des Wasserstoffatoms ist nur die Differenz der Eigenwerte seines Hamilton-Operators.
Eine intuitive Erklärung dafür zu finden, warum die Quantenmechanik eine solche Mathematik beinhaltet, ist mir ein Rätsel.