Migliore risposta
Nella Radiazione Elettromagnetica (Radiometria), è una concentrazione o una funzione della lunghezza donda di unilluminazione (Uscita Radiometrica).
Lintensità radiante e il flusso luminoso o la potenza percepita della luce sono esempi di distribuzione spettrale.
La distribuzione di potenza spettrale sullo spettro visibile da una sorgente può avere concentrazioni variabili di SPD relativi. Ad esempio, la relativa distribuzione spettrale del sole produce un aspetto bianco se osservata direttamente, ma quando la luce solare illumina latmosfera terrestre il cielo appare blu in condizioni normali di luce diurna.
LSPD può anche essere utilizzato per determinare la risposta di un sensore a una lunghezza donda specificata.
Spero che questa risposta ti sia piaciuta! Per favore vota positivamente e seguimi 🙂
Risposta
Forse è è utile considerare prima la seguente domanda ingannevolmente elementare:
Domanda: Cosa è una proprietà qualitativa, non algebrica, delle matrici diagonalizzabili che le distingue dalle matrici non diagonalizzabili? (Dimentica se la diagonalizzazione è fatta da un unitario per ora.)
Una risposta a questa domanda stupida inizia osservando che le matrici diagonali hanno le seguenti
Proprietà polinomiale delle matrici diagonalizzabili: Se A è una matrice diagonalizzabile e P è un polinomio reale, allora P (A) dipende solo dai valori P (lamda) di P agli autovalori lamda di A.
Qui usiamo
Definizione di applicazione di un polinomio a una matrice: Se P (x) è un polinomio
P (X) = C0 + C1 X + C2 X ^ 2 + .. . Cn X ^ n
e A è una matrice, quindi definiamo
P (A) = C0 I + C1 A + C2 A ^ 2 + …
dove I è la matrice identità e dove si formano gli esponenti usando la moltiplicazione di matrici.
Puoi provare questa proprietà polinomiale delle matrici diagonalizzabili sopra diagonalizzando A e guardando cosa succede quando prendi un polinomio di una matrice diagonale.
Per una matrice diagonalizzabile si può estendere la nozione di applicazione di funzioni a matrici da polinomi a fu arbitrario nzioni che utilizzano la seguente
Definizione (calcolo funzionale per matrici diagonalizzabili, forma inelegante): Sia A una matrice diagonalizzabile e sia f una funzione a valori reali o complessi degli autovalori di A. Allora f (A) è la matrice
f (A) = M f (D) M ^ -1,
dove
A = MDM ^ -1
è una diagonalizzazione di A, con D diagonale e M invertibile, e dove f (D) è formata sostituendo ogni lamda di ingresso diagonale di D di f (lamda).
Esempio: Sia f (x) = x ^ (1/3) la radice cubica e sia A una matrice diagonalizzabile. Allora C = f (A) è in effetti una radice cubica di A: C ^ 3 = A.
Esempio: Se A è non singolare e diagonalizzabile ef (x) = 1 / x, allora f (A) è la matrice inversa di A.
Esempio: Se A è diagonalizzabile e f (x) = exp (x), allora f (A) è la matrice esponenziale di A, data dalla solita serie di Taylor:
exp (A) = I + A + A ^ 2/2 + A ^ 3/3! + …..
Per vedere che questa definizione di f (A) è ben definita (cioè indipendente dalla diagonalizzazione) e per vedere come procedere nel caso non diagonalizzabile, è utile per ridefinire f (A) per la diagonale A nella seguente forma:
Definizione alternativa (calcolo funzionale per matrici diagonalizzabili, forma migliore): Sia A una matrice diagonale, e sia f una funzione a valori reali o complessi degli autovalori di A. Allora f (A) = P (A), dove P è un polinomio scelto in modo che f (lamda) = P (lamda) per ogni autovalore lamda di A.
In particolare, non è necessario diagonalizzare effettivamente una matrice per calcolare una funzione f (A) della matrice: Interpolazione di f agli autovalori di A fornisce un polinomio sufficiente per calcolare f (A).
Ora cosa succede se A non è diagonalizzabile? Bene, se stiamo lavorando sui numeri complessi, la Jordan normal form dice che scegliendo una base appropriata tale matrice può essere scritta come una matrice diagonale a blocchi, una somma diretta di Jordan Blocks come Jn
J2 = a 1 0 a.
J3 = a 1 0 0 a 1 0 0 a,
dove Jn è anxn matrice con qualche numero complesso a sulla diagonale e una catena di 1 “s sopra la diagonale. Si noti che in ogni caso Mn ha il singolo autovalore a di molteplicità n.
Nessuno di questi blocchi Jordan è diagonalizzabile, poiché il seguente teorema dice che i blocchi Jordan non condividono la proprietà polinomiale per matrici diagonali :
Teorema: (Lazione dei polinomi sui blocchi di Jordan) Sia P a polinomiale, e sia Jn un blocco nxn di Jordan, della forma sopra. Allora P (J) dipende solo da P (a) e dalle sue prime n derivate in a. IE
P (J2) = P (a) P “(a) 0 P (a)
P (J3) = P (a) P “(a) P” “(a) / 2 0 P (a) P” (a) 0 0 P (a)
P (J4) = P (a) P “(a) P” “(a) / 2! P” “(a) / 3! 0 P (a) P “(a) P” “(a) / 2! 0 0 P (a ) P “(a) 0 0 0 P (a)
e così via.
Si può verificare il teorema di cui sopra controllandolo per i monomi e poi estendendolo ai polinomi, che sono solo combinazioni lineari di monomi.
Per vedere come questo si collega alle funzioni di calcolo delle matrici, considera il seguente problema, che applica la funzione radice cubica alle matrici:
Problema (radici cubiche di matrici): Sia A una matrice reale o complessa mxm non singolare. Trova una radice cubica C = A ^ (1/3) di A, ovvero una matrice C tale che A = C ^ 3.
Diamo due soluzioni: la prima implica il calcolo esplicito della forma di Jordan di la matrice A, e la seconda utilizza solo lesistenza della forma Jordan, senza calcoli espliciti.
Soluzione 1: Con la forma Jordan , possiamo scomporre la matrice A in blocchi di Jordan Jn con una scelta di base, quindi limitiamo la considerazione al caso che A = Jn per qualche n. Ad esempio, per un numero complesso a,
J3 = a 1 0 0 a 1 0 0 a,
Ora non è difficile dimostrare che esiste un polinomio
P (X) = C0 + C1 X + C2 X ^ 2
tale che allautovalore a di J3 si ha
P (a) = a ^ (1/3) P “(a) = 1/3 (a ^ (1/3)) ^ (-2) P” “(a) = -2/9 (a ^ (1/3)) ^ ( -5)
(Dal momento che abbiamo assunto che nessun autovalore sia 0, nulla è infinito.)
(IE P è la funzione x -> x ^ 1/3 fino al secondo derivata al punto x = a. Cè una certa ambiguità nella definizione di a ^ 1/3 nel caso complesso, quindi ho scritto a ^ (- 2/3) = (a ^ (1/3)) ^ ( -2) per prendersi cura di questo, il che significa che la stessa radice cubica viene utilizzata in tutte e tre le formule.) Infatti
P (X) = (5 a ^ (1/3) + 5 a ^ (-2/3) x – a ^ (- 5/3) x ^ 2) / 9,
anche se in realtà non avevamo bisogno di calcolare P, poiché dalla formula generale per P (J3) nel Teorema sopra,
P (J3) = a ^ 1/3 1/3 a ^ (- 2/3) -2/9 a ^ (- 5/3) 0 a ^ (1 / 3) 1/3 a ^ (- 2/3) 0 0 a ^ (1/3)
Questa è solo la nostra radice cubica desiderata di J3!
C = P (J3).
Per vedere questa nota che
C ^ 3 = (P (J3)) ^ 3 = (P ^ 3) (J3) = R (J3),
dove R (x) è il polinomio soddisfacente
R (x) = (P (x)) ^ 3.
La proprietà importante di R è che il punto x = a, il polinomio R = P ^ 3 corrisponde alla funzione identità x -> x fino a derivate di ordine 2
R (a) = a R “(a) = 1 R” “(a) = 0,
in modo che dalla formula generale per un polinomio applicato a un blocco di Jordan,
C ^ 3 = R (J3) = R (a) R “(a) R “” (a) / 2 = a 1 0 = J3, 0 R (a) R “(a) = 0 a 1 0 0 R (a) = 0 0 a
come desiderato.
Soluzione 2: Se A è una matrice mxm, trova un polinomio P (x) in modo che ad ogni autovalore x = a di A il polinomio e le sue derivate di ordine fino a m-1 corrispondono alla funzione desiderata x -> x ^ 1/3. Allora C = P (A) è la radice cubica desiderata di A.
Nota che la soluzione 2 funziona perché tutti i blocchi di Jordan di A saranno di dimensione inferiore a n, e per la soluzione 1 il polinomio P sostituirà ogni blocco jordan con la sua radice cubica. Dal momento che non ci siamo preoccupati di calcolare esplicitamente la forma di Jordan di A, il polinomio P che abbiamo impiegato potrebbe essere di grado inutilmente alto, perché non conoscevamo le lunghezze delle catene di Jordan. Tuttavia, linterpolazione polinomiale probabilmente non era tanto lavoro quanto calcolare la forma di Jordan (inoltre, in questo modo abbiamo evitato qualsiasi instabilità numerica associata alla forma di Jordan e autovalori degeneri)
Lesempio del cubo radice invita la seguente definizione:
Definizione (variante del calcolo di Dunford nel caso a dimensione finita) : Sia A un auto matrice aggiunta. Sia f una funzione reale o complessa il cui dominio contiene gli autovalori di A. Allora
f (A) = P (A),
dove P (x) è un polinomio tale che per ogni autovalore x = a
P (a) = f (a) P “(a) = f” (a) P “” (a) = f “” (a ) …………
dove il numero di derivati abbinati è almeno la dimensione della catena più grande di 1 “s nel blocco di Jordan corrispondente allautovalore a.
Si può verificare che il risultato dellapplicazione della funzione x-> 1 / x ad una matrice A è in effetti la solita matrice inversa di A. Si può anche verificare che il risultato dellapplicazione della funzione esponenziale o la funzione seno a una matrice A è uguale allapplicazione della corrispondente serie di Taylor per exp o sin alla matrice A.
La nozione di applicare una funzione a una matrice è chiamata “calcolo funzionale”, che Ecco perché il calcolo di Dunford è chiamato “calcolo”.
È standard nella definizione del calcolo di Dunford richiedere a f di avere derivate complesse, e generalmente si definisce questo utilizzando la formula integrale di Cauchy nel caso a dimensione infinita. Ho tagliato tutto questo per spiegare solo il semplice caso a dimensione finita, e ho evitato di spiegare cosa sia una derivata di una funzione dai numeri complessi ai numeri complessi. (Fortunatamente la funzione x-> x ^ (1/3) è infinitamente differenziabile sui reali diversi da zero.) Potrebbero esserci alcune sottigliezze qui, ma sto cercando di fornire una rapida panoramica dei concetti.
È quindi evidente che in un certo senso la forma di Jordan è essenzialmente il calcolo di Dunford e il teorema spettrale è il calcolo funzionale per operatori autoaggiunti (questultimo è il punto di vista preso da Reed & Simon in “Methods of Fisica matematica I: analisi funzionale. Questa discussione è solo di dimensione finita, ma Reed e Simon considerano il caso a dimensione infinita.)
Comunque, il risultato di tutto ciò è che la diagonalizzabilità è correlata alle nozioni di presa funzioni di matrici. Questo è chiamato calcolo funzionale e ci sono vari calcoli funzionali.
Ora lautoaggiunzione è un po più profonda, perché implica diagonalizzabilità unitaria, non solo diagonalizzabilità. Gli autospazi diventano ortogonali. Non ho pensato a un buon modo per spiegare cosa sia intuitivamente cruciale in questo. Tuttavia, nella meccanica quantistica gli autospazi ortogonali sono perfettamente distinguibili e lautoaggiungimento diventa una condizione naturale. Lo spettro dellatomo di idrogeno è solo le differenze dellatomo di idrogeno. autovalori del suo operatore hamiltoniano.
Trovare una spiegazione intuitiva del motivo per cui la meccanica quantistica coinvolge tale matematica va oltre le mie capacità.