Quest-ce que la distribution spectrale?

Meilleure réponse

En Rayonnement électromagnétique (radiométrie), il sagit dune concentration ou dune fonction de la longueur donde dun éclairage (sortie radiométrique).

Lintensité du rayonnement et le flux lumineux ou la puissance perçue de la lumière sont des exemples de distribution spectrale.

La distribution de puissance spectrale sur le spectre visible dune source peut avoir des concentrations variables de SPD relatifs. Par exemple, la distribution de puissance spectrale relative du soleil produit une apparence blanche si elle est observée directement, mais lorsque la lumière du soleil illumine latmosphère terrestre, le ciel apparaît bleu dans des conditions normales de lumière du jour.

Le SPD peut également être utilisé pour déterminer la réponse dun capteur à une longueur donde spécifiée.

Jespère que vous avez aimé cette réponse! Merci de voter pour et de me suivre 🙂

Réponse

Peut-être est utile pour examiner dabord la question élémentaire trompeuse suivante:

Question: Quoi est une propriété qualitative, non algébrique, dune matrices diagonalisables qui les distingue des matrices non diagonalisables? (Oubliez si la diagonalisation est faite par un unitaire pour linstant.)

Une réponse à cette question simplifiée commence par observer que les matrices diagonales ont ce qui suit

Propriété polynomiale des matrices diagonalisables: Si A est une matrice diagonalisable, et P est un polynôme réel, alors P (A) ne dépend que des valeurs P (lamda) de P aux valeurs propres lamda de A.

Ici, nous utilisons

Définition de lapplication dun polynôme à une matrice: Si P (x) est un polynôme

P (X) = C0 + C1 X + C2 X ^ 2 + .. . Cn X ^ n

et A est une matrice, alors nous définissons

P (A) = C0 I + C1 A + C2 A ^ 2 + …

où I est la matrice didentité et où les exposants sont formés en utilisant la multiplication matricielle.

Vous pouvez prouver cette propriété polynomiale des matrices diagonalisables ci-dessus en diagonalisant A et en regardant ce qui se passe lorsque vous prenez un polynôme dune matrice diagonale.

Pour une matrice diagonalisable on peut étendre la notion dapplication de fonctions à des matrices de polynômes à fu arbitraires nctions utilisant la définition suivante

(calcul fonctionnel pour les matrices diagonalisables, forme inélégante): Soit A une matrice diagonalisable, et soit f une fonction réelle ou complexe des valeurs propres de A. Alors f (A) est la matrice

f (A) = M f (D) M ^ -1,

A = MDM ^ -1

est une diagonalisation de A, avec D diagonale et M inversible, et où f (D) est formé en remplaçant chaque entrée diagonale lamda de D par f (lamda).

Exemple: Soit f (x) = x ^ (1/3) la racine cubique fonction, et soit A une matrice diagonalisable. Alors C = f (A) est en fait une racine cubique de A: C ^ 3 = A.

Exemple: Si A est non singulier et diagonalisable et f (x) = 1 / x, alors f (A) est la matrice inverse de A.

Exemple: Si A est diagonalisable et f (x) = exp (x), alors f (A) est lexponentielle matricielle de A, donnée par la série habituelle de Taylor:

exp (A) = I + A + A ^ 2/2 + A ^ 3/3! + …..

Pour voir que cette définition de f (A) est bien définie (cest-à-dire indépendante de la diagonalisation) et pour voir comment procéder dans le cas non diagonalisable, il est utile redéfinir f (A) pour la diagonale A sous la forme suivante:

Définition alternative (calcul fonctionnel pour les matrices diagonalisables, meilleure forme): Soit A une matrice diagonale, et soit f une fonction réelle ou complexe des valeurs propres de A. Alors f (A) = P (A), où P est un polynôme choisi de telle sorte que f (lamda) = P (lamda) pour chaque lamda de valeur propre de A.

En particulier, on na pas besoin de diagonaliser réellement une matrice pour calculer une fonction f (A) de la matrice: Interpolation de f aux valeurs propres de A donne un polynôme suffisant pour calculer f (A).

Que se passe-t-il maintenant si A nest pas diagonalisable? Eh bien, si nous travaillons sur les nombres complexes, alors la forme normale de Jordan dit quen choisissant une base appropriée, une telle matrice peut être écrite comme une matrice diagonale de blocs, un somme directe de Jordan Blocks Jn like

J2 = a 1 0 a.

J3 = a 1 0 0 a 1 0 0 a,

où Jn est une matrice anxn avec un nombre complexe a sur la diagonale et une chaîne de 1 « s au-dessus de la diagonale. Notez que dans chaque cas Mn a la valeur propre unique a de multiplicité n.

Aucun de ces blocs Jordan nest diagonalisable, puisque le théorème suivant dit que les blocs Jordan ne partagent pas la propriété polynomiale des matrices diagonales :

Théorème: (Laction des polynômes sur les blocs Jordan) Soit P un polynôme, et soit Jn un bloc de Jordan nxn, de la forme ci-dessus. Alors P (J) ne dépend que de P (a) et de ses n premières dérivées en a. IE

P (J2) = P (a) P « (a) 0 P (a)

P (J3) = P (a) P « (a) P » « (a) / 2 0 P (a) P » (a) 0 0 P (a)

P (J4) = P (a) P « (a) P » « (a) / 2! P » « (a) / 3! 0 P (a) P « (a) P » « (a) / 2! 0 0 P (a ) P « (a) 0 0 0 P (a)

et ainsi de suite.

On peut vérifier le théorème ci-dessus en le vérifiant pour les monômes, puis en létendant aux polynômes, qui ne sont que des combinaisons linéaires de monômes.

Pour voir comment cela se rapporte aux fonctions de calcul des matrices, considérons le problème suivant, qui applique la fonction racine cubique aux matrices:

Problème (racines cubiques des matrices): Soit A une matrice mxm réelle ou complexe non singulière. Trouvez une racine cubique C = A ^ (1/3) de A, cest-à-dire une matrice C telle que A = C ^ 3.

Nous donnons deux solutions: La première consiste à calculer explicitement la forme de Jordan de la matrice A, et la seconde nutilise que lexistence de la forme Jordan, sans calcul explicite.

Solution 1: Par la forme Jordan , nous pouvons décomposer la matrice A en blocs de Jordan Jn par un choix de base, nous limitons donc notre considération au cas où A = Jn pour un certain n. Par exemple, pour un nombre complexe a,

J3 = a 1 0 0 a 1 0 0 a,

Maintenant, il nest pas difficile de montrer quil existe un polynôme

P (X) = C0 + C1 X + C2 X ^ 2

tel quà la valeur propre a de J3 on a

P (a) = a ^ (1/3) P « (a) = 1/3 (a ^ (1/3)) ^ (-2) P » « (a) = -2/9 (a ^ (1/3)) ^ ( -5)

(Puisque nous avons supposé quaucune valeur propre nest 0, rien nest infini.)

(IE P est la fonction x -> x ^ 1/3 jusquà la seconde dérivée au point x = a. Il y a une certaine ambiguïté dans la définition de a ^ 1/3 dans le cas complexe, jai donc écrit a ^ (- 2/3) = (a ^ (1/3)) ^ ( -2) pour prendre soin de cela, ce qui signifie que la même racine cubique est utilisée dans les trois formules.) En fait

P (X) = (5 a ^ (1/3) + 5 a ^ (-2/3) x – a ^ (- 5/3) x ^ 2) / 9,

bien que nous nayons pas réellement besoin de calculer P, car à partir de la formule générale pour P (J3) dans le théorème ci-dessus,

P (J3) = a ^ 1/3 1/3 a ^ (- 2/3) -2/9 a ^ (- 5/3) 0 a ^ (1 / 3) 1/3 a ^ (- 2/3) 0 0 a ^ (1/3)

Ceci est juste notre racine cubique désirée de J3!

C = P (J3).

Pour voir cette note que

C ^ 3 = (P (J3)) ^ 3 = (P ^ 3) (J3) = R (J3),

où R (x) est le polynôme satisfaisant

R (x) = (P (x)) ^ 3.

La propriété importante de R est que le point x = a, le polynôme R = P ^ 3 correspond à la fonction didentité x -> x jusquaux dérivées dordre 2

R (a) = a R « (a) = 1 R » « (a) = 0,

de sorte que par la formule générale dun polynôme appliqué à un bloc de Jordan,

C ^ 3 = R (J3) = R (a) R « (a) R «  » (a) / 2 = a 1 0 = J3, 0 R (a) R « (a) = 0 a 1 0 0 R (a) = 0 0 a

au choix.

Solution 2: Si A est une matrice mxm, alors trouver un polynôme P (x) de sorte qu’à chaque valeur propre x = a de A le polynôme et ses dérivés dordre jusquà m-1 correspondent à la fonction désirée x -> x ^ 1/3. Alors C = P (A) est la racine cubique souhaitée de A.

Notez que la solution 2 fonctionne parce que tous les blocs de Jordan de A seront de taille inférieure à n, et par la solution 1 le polynôme P remplacera chaque bloc jordan par sa racine cubique. Puisque nous navons pas pris la peine de calculer explicitement la forme de Jordan de A, le polynôme P que nous avons employé peut être dun degré inutilement élevé, car nous ne connaissions pas les longueurs des chaînes de Jordan. Cependant, linterpolation polynomiale nétait probablement pas autant de travail que le calcul de la forme Jordan. (De plus, de cette manière, nous avons évité toute instabilité numérique associée à la forme Jordan et dégénérer les valeurs propres.)

Lexemple du cube root invite la définition suivante:

Définition (variante du calcul de Dunford dans le cas de dimension finie) : Soit A un soi- matrice adjointe. Soit f une fonction réelle ou complexe dont le domaine contient les valeurs propres de A. Alors

f (A) = P (A),

où P (x) est un polynôme tel que pour à chaque valeur propre x = a

P (a) = f (a) P « (a) = f » (a) P «  » (a) = f «  » (a ) …………

où le nombre de dérivés appariés est au moins la taille de la plus grande chaîne de 1 « s dans le bloc Jordan correspondant à la valeur propre a.

On peut vérifier que le résultat de lapplication de la fonction x-> 1 / x à une matrice A est en fait la matrice inverse habituelle de A. On peut aussi vérifier que le résultat de lapplication de la fonction exponentielle ou la fonction sinus à une matrice A équivaut à appliquer la série de Taylor correspondante pour exp ou sin à la matrice A.

La notion dapplication dune fonction à une matrice est appelée « calcul fonctionnel », qui Cest pourquoi le calcul de Dunford est appelé «calcul».

Il est standard dans la définition du calcul de Dunford dexiger que f ait des dérivées complexes, et généralement on définit cela en utilisant la formule intégrale de Cauchy dans le cas de dimension infinie. Jai parcouru tout cela pour simplement expliquer le cas simple de dimension finie, et jai évité dexpliquer ce quest un dérivé dune fonction des nombres complexes aux nombres complexes. (Heureusement, la fonction x-> x ^ (1/3) est infiniment différentiable sur les réels non nuls.) Il peut y avoir quelques subtilités ici, mais jessaye de donner un aperçu rapide des concepts.

Il apparaît donc que dans un certain sens la forme de Jordan est essentiellement le calcul de Dunford et le théorème spectral est le calcul fonctionnel des opérateurs auto-adjoints (ce dernier est le point de vue pris par Reed & Simon dans « Methods of Physique mathématique I: Analyse fonctionnelle. Cette discussion nest que de dimension finie, mais Reed et Simon considèrent le cas de dimension infinie.)

Quoi quil en soit, le résultat de tout cela est que la diagonalisabilité est liée aux notions de prise fonctions des matrices. Cest ce quon appelle le calcul fonctionnel, et il existe différents calculs fonctionnels.

Maintenant, lauto-adjonction est un peu plus profonde, car elle implique une diagonalisabilité unitaire, pas seulement une diagonalisabilité. Les espaces propres deviennent orthogonaux. Je nai pas pensé à une bonne manière dexpliquer ce qui est intuitivement crucial à ce sujet. Cependant, en mécanique quantique, les espaces propres orthogonaux sont parfaitement distinguables, et lauto-adjonction devient une condition naturelle. Le spectre de latome dhydrogène nest que les différences de la valeurs propres de son opérateur hamiltonien.

Il me dépasse de trouver une explication intuitive des raisons pour lesquelles la mécanique quantique implique de telles mathématiques.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *