¿Qué es la distribución espectral?

Mejor respuesta

En Radiación Electromagnética (Radiometría), es una concentración o una función de la longitud de onda de una iluminación (Salida Radiométrica).

La intensidad radiante y el flujo luminoso o el poder percibido de la luz son ejemplos de distribución espectral.

La distribución de poder espectral sobre el espectro visible de una fuente puede tener concentraciones variables de SPD relativos. Por ejemplo, la distribución de la potencia espectral relativa del sol produce una apariencia blanca si se observa directamente, pero cuando la luz del sol ilumina la atmósfera de la Tierra, el cielo aparece azul en condiciones normales de luz diurna.

El SPD también puede ser utilizado para determinar la respuesta de un sensor en una longitud de onda específica.

¡Espero que te haya gustado esta respuesta! Por favor, vota y sígueme 🙂

Responder

Quizás Es útil considerar primero la siguiente pregunta engañosamente elemental:

Pregunta: ¿Qué ¿Es una propiedad cualitativa, no algebraica, de las matrices diagonalizables que las distingue de las matrices no diagonalizables? (Olvídese de si la diagonalización la realiza un unitario por ahora).

Una respuesta a esta pregunta simplista comienza observando que las matrices diagonales tienen la siguiente

Propiedad polinomial de las matrices diagonalizables: Si A es una matriz diagonalizable y P es un polinomio real, entonces P (A) depende solo de los valores P (lamda) de P en los valores propios lamda de A.

Aquí usamos

Definición de aplicar un polinomio a una matriz: Si P (x) es un polinomio

P (X) = C0 + C1 X + C2 X ^ 2 + .. . Cn X ^ n

y A es una matriz, entonces definimos

P (A) = C0 I + C1 A + C2 A ^ 2 + …

donde I es la matriz de identidad y donde se forman los exponentes usando la multiplicación de matrices.

Puede probar esta propiedad polinomial de las matrices diagonalizables arriba diagonalizando A y mirando lo que sucede cuando toma un polinomio de una matriz diagonal.

Para una matriz diagonalizable, uno puede extender la noción de aplicar funciones a matrices desde polinomios hasta fu arbitrario Funciones usando la siguiente

Definición (cálculo funcional para matrices diagonalizables, forma poco elegante): Sea A una matriz diagonalizable y sea f una función de valor real o complejo de los valores propios de A. Entonces f (A) es la matriz

f (A) = M f (D) M ^ -1,

donde

A = MDM ^ -1

es una diagonalización de A, con D diagonal y M invertible, y donde f (D) se forma reemplazando cada entrada diagonal lamda de D por f (lamda).

Ejemplo: Sea f (x) = x ^ (1/3) la raíz cúbica función, y sea A una matriz diagonalizable. Entonces C = f (A) es de hecho una raíz cúbica de A: C ^ 3 = A.

Ejemplo: Si A es no singular y diagonalizable y f (x) = 1 / x, entonces f (A) es la matriz inversa de A.

Ejemplo: Si A es diagonalizable y f (x) = exp (x), entonces f (A) es la matriz exponencial de A, dada por la serie de Taylor habitual:

exp (A) = I + A + ¡A ^ 2/2 + A ^ 3/3! + …..

Para ver que esta definición de f (A) está bien definida (es decir, independiente de la diagonalización) y para ver cómo proceder en el caso no diagonalizable, es útil para redefinir f (A) para la diagonal A en la siguiente forma:

Definición alternativa (cálculo funcional para matrices diagonalizables, mejor forma): Sea A una matriz diagonal, y sea f una función de valor real o complejo de los valores propios de A. Entonces f (A) = P (A), donde P es un polinomio elegido de modo que f (lamda) = P (lamda) para cada valor propio lamda de A.

En particular, no es necesario diagonalizar una matriz para calcular una función f (A) de la matriz: Interpolación de f en los valores propios de A da un polinomio suficiente para calcular f (A).

Ahora, ¿qué sucede si A no es diagonalizable? Bueno, si estamos trabajando con números complejos, entonces la forma normal de Jordan dice que al elegir una base adecuada, dicha matriz se puede escribir como una matriz diagonal en bloque, una suma directa de Jordan Blocks Jn como

J2 = a 1 0 a.

J3 = a 1 0 0 a 1 0 0 a,

donde Jn es una matriz ansn con algún número complejo a en la diagonal y una cadena de 1 «s por encima de la diagonal. Tenga en cuenta que en cada caso Mn tiene el valor propio único a de multiplicidad norte.

Ninguno de estos bloques de Jordan es diagonalizable, ya que el siguiente teorema dice que Los bloques de Jordan no comparten la propiedad polinomial de las matrices diagonales :

Teorema: (La acción de polinomios en bloques de Jordan) Sea P un polinomio, y sea Jn un bloque de Jordan nxn, de la forma anterior. Entonces P (J) depende solo de P (a) y de sus primeras n derivadas en a. IE

P (J2) = P (a) P «(a) 0 P (a)

P (J3) = P (a) P «(a) P» «(a) / 2 0 P (a) P» (a) 0 0 P (a)

P (J4) = P (a) P «(a) P» «(a) / 2! P» «(a) / 3! 0 P (a) P «(a) P» «(a) / 2! 0 0 P (a ) P «(a) 0 0 0 P (a)

y así sucesivamente.

Uno puede verificar el teorema anterior comprobando que no haya monomios y luego extendiéndolo a polinomios, que son solo combinaciones lineales de monomios.

Para ver cómo se relaciona esto con el cálculo de funciones de matrices, considere el siguiente problema, que aplica la función de raíz cúbica a las matrices:

Problema (raíces cúbicas de matrices): Sea A una matriz no singular mxm real o compleja. Encuentre una raíz cúbica C = A ^ (1/3) de A, que es una matriz C tal que A = C ^ 3.

Damos dos soluciones: la primera implica calcular explícitamente la forma de Jordan de la matriz A, y el segundo usa solo la existencia de la forma de Jordan, sin cálculo explícito.

Solución 1: Por la forma de Jordan , podemos descomponer la matriz A en bloques de Jordan Jn mediante una elección de base, por lo que restringimos la consideración al caso de que A = Jn para algún n. Por ejemplo, para un número complejo a,

J3 = a 1 0 0 a 1 0 0 a,

Ahora bien, no es difícil demostrar que existe un polinomio

P (X) = C0 + C1 X + C2 X ^ 2

tal que en el valor propio a de J3 uno tiene

P (a) = a ^ (1/3) P «(a) = 1/3 (a ^ (1/3)) ^ (-2) P» «(a) = -2/9 (a ^ (1/3)) ^ ( -5)

(Dado que asumimos que ningún valor propio es 0, nada es infinito.)

(IE P es la función x -> x ^ 1/3 hasta el segundo derivada en el punto x = a. Existe cierta ambigüedad en la definición de a ^ 1/3 en el caso complejo, por lo que he escrito a ^ (- 2/3) = (a ^ (1/3)) ^ ( -2) para solucionar esto, lo que significa que se usa la misma raíz cúbica en las tres fórmulas). De hecho

P (X) = (5 a ^ (1/3) + 5 a ^ (-2/3) x – a ^ (- 5/3) x ^ 2) / 9,

aunque en realidad no necesitamos calcular P, ya que a partir de la fórmula general para P (J3) en el teorema anterior,

P (J3) = a ^ 1/3 1/3 a ^ (- 2/3) -2/9 a ^ (- 5/3) 0 a ^ (1 / 3) 1/3 a ^ (- 2/3) 0 0 a ^ (1/3)

¡Esta es solo nuestra raíz cúbica deseada de J3!

C = P (J 3).

Para ver esta nota que

C ^ 3 = (P (J3)) ^ 3 = (P ^ 3) (J3) = R (J3),

donde R (x) es el polinomio que satisface

R (x) = (P (x)) ^ 3.

La propiedad importante de R es que el punto x = a, el polinomio R = P ^ 3 coincide con la función de identidad x -> x hasta derivadas de orden 2

R (a) = a R «(a) = 1 R» «(a) = 0,

de modo que según la fórmula general de un polinomio aplicado a un bloque de Jordan,

C ^ 3 = R (J3) = R (a) R «(a) R «» (a) / 2 = a 1 0 = J3, 0 R (a) R «(a) = 0 a 1 0 0 R (a) = 0 0 a

como desee.

Solución 2: Si A es una matriz mxm, entonces encuentre un polinomio P (x) de modo que en cada valor propio x = a de A el polinomio y sus derivadas de orden hasta m-1 coinciden con la función deseada x -> x ^ 1/3. Entonces C = P (A) es la raíz cúbica deseada de A.

Tenga en cuenta que la solución 2 funciona porque todos los bloques de Jordan de A tendrán un tamaño menor que n, y por la solución 1 el polinomio P reemplazará cada bloque de Jordan por su raíz cúbica. Como no nos molestamos en calcular explícitamente la forma de Jordan de A, el polinomio P que empleamos puede ser de un grado innecesariamente alto, porque no conocíamos las longitudes de las cadenas de Jordan. Sin embargo, la interpolación polinomial probablemente no fue tanto trabajo como calcular la forma de Jordan. (Además, de esta manera evitamos las inestabilidades numéricas asociadas con la forma de Jordan y los valores propios degenerados).

El ejemplo del cubo root invita a la siguiente definición:

Definición (variante del cálculo de Dunford en el caso de dimensión finita) : Sea A un auto- matriz adjunta. Sea f una función real o compleja cuyo dominio contiene los valores propios de A. Entonces

f (A) = P (A),

donde P (x) es un polinomio tal que para en cada valor propio x = a

P (a) = f (a) P «(a) = f» (a) P «» (a) = f «» (a ) …………

donde el número de derivadas emparejadas es al menos el tamaño de la cadena más grande de 1 «s en el bloque de Jordan correspondiente al valor propio a.

Se puede verificar que el resultado de aplicar la función x-> 1 / x a una matriz A es de hecho la matriz inversa habitual de A. También se puede verificar que el resultado de aplicar la función exponencial o la función seno a una matriz A es lo mismo que aplicar la serie de Taylor correspondiente para exp o sin a la matriz A.

La noción de aplicar una función a una matriz se llama «cálculo funcional», que es por eso que el cálculo de Dunford se llama «cálculo».

Es estándar en la definición del cálculo de Dunford requerir que f tenga derivadas complejas, y generalmente se define esto usando la fórmula integral de Cauchy en el caso de dimensión infinita. He analizado todo esto para explicar el caso simple de dimensión finita, y he evitado explicar qué es una derivada de una función de los números complejos a los números complejos. (Afortunadamente, la función x-> x ^ (1/3) es infinitamente diferenciable en los reales distintos de cero.) Puede haber algunas sutilezas aquí, pero estoy tratando de dar una descripción general rápida de los conceptos.

Por lo tanto, es evidente que, en cierto sentido, la forma de Jordan es esencialmente el cálculo de Dunford y el teorema espectral es el cálculo funcional para operadores autoadjuntos (este último es el punto de vista adoptado por Reed y Simon en «Methods of Física matemática I: análisis funcional. Esta discusión es solo de dimensión finita, pero Reed y Simon consideran el caso de dimensión infinita.)

De todos modos, el resultado de todo esto es que la diagonalizabilidad está relacionada con las nociones de tomar funciones de matrices. Esto se llama cálculo funcional, y hay varios cálculos funcionales.

Ahora, la autoadjunta es un poco más profunda, porque implica una diagonalizabilidad unitaria, no solo una diagonalizabilidad. Los espacios propios se vuelven ortogonales. No he pensado en una buena manera de explicar lo que es intuitivamente crucial acerca de esto. Sin embargo, en la mecánica cuántica, los espacios propios ortogonales son perfectamente distinguibles y la autoadincidencia se convierte en una condición natural. El espectro del átomo de hidrógeno son solo las diferencias de los valores propios de su operador hamiltoniano.

Llegar a una explicación intuitiva de por qué la mecánica cuántica involucra tales matemáticas está más allá de mí.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *