Vad är spektral fördelning?

Bästa svaret

I elektromagnetisk strålning (radiometri) är det en koncentration eller en funktion av våglängden för en belysning (radiometrisk exitans).

Strålningsintensitet och ljusflöde eller den upplevda kraften av ljus är exempel på spektralfördelning.

Den spektrala kraftfördelningen över det synliga spektrumet från en källa kan ha varierande koncentrationer av relativa SPD. Till exempel ger solens relativa spektrala kraftfördelning ett vitt utseende om det observeras direkt, men när solljuset lyser upp jordens atmosfär ser himlen blått ut under normala dagsljusförhållanden.

SPD kan också vara används för att bestämma svaret från en sensor vid en viss våglängd.

Hoppas att du gillade det här svaret! Uppröst och följ mig 🙂

Svar

Kanske det är bra att först överväga följande bedrägligt elementära fråga:

Fråga: Vad är en kvalitativ, icke-algebraisk egenskap hos en diagonaliserbar matris som skiljer dem från icke-diagonaliserbara matriser? (Glöm om diagonaliseringen görs av en enhet för tillfället.)

Ett svar på den här nedtonade frågan börjar med att observera att diagonala matriser har följande

Polynomegenskap hos diagonaliserbara matriser: Om A är en diagonaliserbar matris och P är ett verkligt polynom, beror P (A) bara på värdena P (lamda) av P vid egenvärdena lamda av A.

Här använder vi

Definition av att tillämpa ett polynom till en matris: Om P (x) är ett polynom

P (X) = C0 + C1 X + C2 X ^ 2 + .. . Cn X ^ n

och A är en matris, då definierar vi

P (A) = C0 I + C1 A + C2 A ^ 2 + …

där I är identitetsmatrisen och där exponenterna bildas med hjälp av matrixmultiplikation.

Du kan bevisa denna polynomegenskap hos diagonaliserbara matriser ovan genom att diagonalisera A och titta på vad som händer när du tar ett polynom av en diagonal matris.

För en diagonaliserbar matris kan man utvidga begreppet att tillämpa funktioner på matriser från polynom till godtycklig fu nktioner med följande

Definition (funktionell beräkning för diagonaliserbara matriser, inelegant form): Låt A vara en diagonaliserbar matris och låt f vara en verklig eller komplex värderad funktion av egenvärdena för A. Då är f (A) matrisen

f (A) = M f (D) M ^ -1,

där

A = MDM ^ -1

är en diagonalisering av A, med D diagonal och M inverterbar, och där f (D) bildas genom att ersätta varje diagonal ingångslamda av D av f (lamda).

Exempel: Låt f (x) = x ^ (1/3) vara kubrot funktion och låt A vara en diagonaliserbar matris. Då är C = f (A) i själva verket en kubrot av A: C ^ 3 = A.

Exempel: Om A är nonsingular och diagonalizable och f (x) = 1 / x, då är f (A) den inversa matrisen för A.

Exempel: Om A är diagonaliserbart och f (x) = exp (x), är f (A) matriseksponentialen för A, ges av den vanliga Taylor-serien:

exp (A) = I + A + A ^ 2/2 + A ^ 3/3! + …..

För att se att denna definition av f (A) är väldefinierad (dvs. oberoende av diagonaliseringen) och för att se hur man ska gå vidare i det icke-diagonaliserbara fallet, är det till hjälp för att omdefiniera f (A) för diagonal A i följande form:

Alternativ definition (funktionskalkyl för diagonaliserbara matriser, bättre form): Låt A vara en diagonal matris och låt f vara en verklig eller komplex värderad funktion av egenvärdena för A. Då är f (A) = P (A), där P är ett polynom som väljs så att f (lamda) = P (lamda) för varje egenvärde lamda av A.

I synnerhet behöver man inte faktiskt diagonalisera en matris för att beräkna en funktion f (A) för matrisen: Interpolering av f vid egenvärdena för A ger ett polynom som är tillräckligt för att beräkna f (A).

Vad händer nu om A inte är diagonaliserbart? Tja, om vi arbetar över de komplexa siffrorna så säger Jordaniens normala form att genom att välja en lämplig bas kan sådan matris skrivas som en blockdiagonal matris, en direkt summa av Jordan Blocks Jn som

J2 = a 1 0 a.

J3 = a 1 0 0 a 1 0 0 a,

där Jn är angstmatris med något komplext tal a på diagonalen och en kedja på 1 ”s över diagonalen. Observera att Mn i varje fall har enstaka egenvärde a av mångfald n.

Ingen av dessa Jordan-block är diagonaliserbara, eftersom följande sats säger att Jordan Blocks inte delar polynomegenskapen för diagonala matriser :

Sats: (Polynomernas verkan på Jordanblock) Låt P vara en polynom, och låt Jn vara ett nxn Jordan-block, av ovanstående form. Då beror P (J) bara på P (a) och på dess första n-derivat vid a. IE

P (J2) = P (a) P ”(a) 0 P (a)

P (J3) = P (a) P ”(a) P” ”(a) / 2 0 P (a) P” (a) 0 0 P (a)

P (J4) = P (a) P ”(a) P” ”(a) / 2! P” ”(a) / 3! 0 P (a) P ”(a) P” ”(a) / 2! 0 0 P (a ) P ”(a) 0 0 0 P (a)

och så vidare.

Man kan verifiera satsen ovan genom att kontrollera den för monomier och sedan utvidga till polynomier, som bara är linjära kombinationer av monomier.

För att se hur detta relaterar till datorfunktioner hos matriser, överväga följande problem, som tillämpar kubens rotfunktion på matriser:

Problem (kubernas rötter av matriser): Låt A vara en icke-singulär mxm verklig eller komplex matris. Hitta en kubrot C = A ^ (1/3) av A, det vill säga en matris C så att A = C ^ 3.

Vi ger två lösningar: Den första innebär att man beräknar Jordaniens form av matrisen A, och den andra använder endast förekomsten av Jordan-formen utan uttrycklig beräkning.

Lösning 1: Av Jordan-formuläret , vi kan sönderdela matrisen A i Jordanblock Jn med ett val av bas, så vi begränsar hänsyn till fallet att A = Jn för vissa n. Till exempel, för något komplext tal a,

J3 = a 1 0 0 a 1 0 0 a,

Nu är det inte svårt att visa att det finns ett polynom

P (X) = C0 + C1 X + C2 X ^ 2

så att man vid egenvärdet a av J3 har

P (a) = a ^ (1/3) P ”(a) = 1/3 (a ^ (1/3)) ^ (-2) P” ”(a) = -2/9 (a ^ (1/3)) ^ ( -5)

(Eftersom vi antar att ingen egenvärde är 0 är inget oändligt.)

(IE P är funktionen x -> x ^ 1/3 fram till den andra derivat vid punkten x = a. Det finns viss tvetydighet i definitionen av a ^ 1/3 i det komplexa fallet, så jag har skrivit a ^ (- 2/3) = (a ^ (1/3)) ^ ( -2) för att ta hand om detta, vilket innebär att samma kubrot används i alla tre formler.) Faktiskt

P (X) = (5 a ^ (1/3) + 5 a ^ (-2/3) x – a ^ (- 5/3) x ^ 2) / 9,

även om vi faktiskt inte behövde beräkna P, eftersom från den allmänna formeln för P (J3) i satsen ovan,

P (J3) = a ^ 1/3 1/3 a ^ (- 2/3) -2/9 a ^ (- 5/3) 0 a ^ (1 / 3) 1/3 a ^ (- 2/3) 0 0 a ^ (1/3)

Detta är bara vår önskade kubrot av J3!

C = P (J 3).

För att se denna anmärkning att

C ^ 3 = (P (J3)) ^ 3 = (P ^ 3) (J3) = R (J3),

där R (x) är polynom som uppfyller

R (x) = (P (x)) ^ 3.

Den viktiga egenskapen hos R är att punkten x = a, polynomet R = P ^ 3 matchar identitetsfunktionen x -> x upp till derivat av ordning 2

R (a) = a R ”(a) = 1 R” ”(a) = 0,

så att enligt den allmänna formeln för ett polynom applicerat på ett Jordan-block,

C ^ 3 = R (J3) = R (a) R ”(a) R ”” (a) / 2 = a 1 0 = J3, 0 R (a) R ”(a) = 0 a 1 0 0 R (a) = 0 0 a

som önskat.

Lösning 2: Om A är en mxm-matris, hitta sedan ett polynom P (x) så att vid varje egenvärde x = a av A polynomet och dess derivat av ordning upp till m-1 matchar önskad funktion x -> x ^ 1/3. Då är C = P (A) den önskade kubroten av A.

Observera att lösning 2 fungerar eftersom alla Jordan-blocken av A kommer att ha en storlek mindre än n, och av lösning 1 polynom P kommer att ersätta varje jordanblock med dess kubrot. Eftersom vi inte brydde oss om att uttryckligen beräkna Jordan-formen av A kan det polynom P vi använde vara av onödigt hög grad, för vi visste inte längden på Jordan-kedjorna. Polynominterpolering var dock troligtvis inte så mycket arbete som att beräkna Jordan-formen. (Dessutom undviker vi på detta sätt alla numeriska instabiliteter i samband med Jordan-formen och degenererade egenvärden.)

Exemplet på kuben root bjuder in följande definition:

Definition (variant av Dunford-kalkylen i det slutliga dimensionella fallet) : Låt A vara en själv- angränsande matris. Låt f vara en verklig eller komplex funktion vars domän innehåller egenvärdena för A. Då

f (A) = P (A),

där P (x) är ett polynom så att för varje egenvärde x = a

P (a) = f (a) P ”(a) = f” (a) P ”” (a) = f ”” (a ) …………

där antalet matchade derivat är åtminstone storleken på den största kedjan på 1 ”i Jordan-blocket som motsvarar egenvärdet a.

Man kan verifiera att resultatet av att tillämpa funktionen x-> 1 / x på en matris A faktiskt är den vanliga inversa matrisen på A. Man kan också verifiera att resultatet av att använda den exponentiella funktionen eller sinusfunktionen på en matris A är densamma som att tillämpa motsvarande Taylor-serie för exp eller sin matris A.

Begreppet att tillämpa en funktion på en matris kallas en ”funktionell kalkyl”, vilken är därför Dunford-kalkylen kallas en ”kalkyl”.

Det är standard att i definitionen av Dunford-kalkylen kräver att f har komplexa derivat, och i allmänhet definierar man detta med Cauchy-integralformeln i det oändliga dimensionella fallet. Jag har skurit igenom allt detta för att bara förklara det enkla ändliga dimensionella fallet och jag har gått bort och förklarat vad ett derivat av en funktion från komplexa tal till komplexa tal är. (Lyckligtvis är funktionen x-> x ^ (1/3) oändligt differentierbar på de icke-nolliga realerna.) Det kan finnas några finesser här, men jag försöker ge en snabb översikt över begreppen.

Det är därför uppenbart att Jordan-formen i någon mening i huvudsak är Dunford-kalkylen och spektralsatsen är den funktionella kalkylen för självanslutande operatörer. (Den senare är den synpunkt som Reed & Simon tar i Matematisk fysik I: Funktionsanalys. Denna diskussion är endast ändlig-dimensionell, men Reed & Simon anser det oändliga-dimensionella fallet.)

Hur som helst, resultatet av allt detta är att diagonaliserbarhet är relaterad till uppfattningar om att ta matrisernas funktioner. Detta kallas den funktionella kalkylen, och det finns olika funktionella kalkyler.

Nu är självanslutningen lite djupare, eftersom den innebär enhetlig diagonaliserbarhet, inte bara diagonaliserbarhet. Egenrummen blir ortogonala. Jag har inte tänkt på ett bra sätt att förklara vad som är intuitivt avgörande för detta. I kvantmekanik kan man dock urskilja ortogonala egenutrymmen och självanslutning blir ett naturligt tillstånd. Väteatomens spektrum är bara skillnaderna mellan egenvärden för sin Hamilton-operatör.

Att komma med en intuitiv förklaring till varför kvantmekanik involverar sådan matematik ligger utanför mig.

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *