O que é distribuição espectral?

Melhor resposta

Em Radiação Eletromagnética (Radiometria), é uma concentração ou função do comprimento de onda de uma iluminação (Exitância Radiométrica).

A intensidade do radiente e o fluxo luminoso ou a potência percebida da luz são exemplos de distribuição espectral.

A distribuição da potência espectral sobre o espectro visível de uma fonte pode ter concentrações variáveis ​​de SPDs relativos. Por exemplo, a distribuição de energia espectral relativa do sol produz uma aparência branca se observada diretamente, mas quando a luz do sol ilumina a atmosfera da Terra, o céu parece azul em condições normais de luz do dia.

O SPD também pode ser usado para determinar a resposta de um sensor em um comprimento de onda especificado.

Espero que você tenha gostado desta resposta! Vote positivamente e siga-me 🙂

Resposta

Talvez seja é útil primeiro considerar a seguinte pergunta aparentemente elementar:

Pergunta: O que é uma propriedade qualitativa, não algébrica de matrizes diagonalizáveis, distinguindo-as das matrizes não diagonalizáveis? (Esqueça se a diagonalização é feita por um unitário por enquanto.)

Uma resposta para esta questão simplificada começa observando que as matrizes diagonais têm o seguinte

Propriedade polinomial de matrizes diagonalizáveis: Se A é uma matriz diagonalizável e P é um polinômio real, então P (A) depende apenas dos valores P (lamda) de P nos valores próprios lamda de A.

Aqui usamos

Definição de aplicação de um polinômio a uma matriz: Se P (x) for um polinômio

P (X) = C0 + C1 X + C2 X ^ 2 + .. . Cn X ^ n

e A é uma matriz, então definimos

P (A) = C0 I + C1 A + C2 A ^ 2 + …

onde I é a matriz de identidade e onde os expoentes são formados usando a multiplicação de matrizes.

Você pode provar esta propriedade polinomial de matrizes diagonalizáveis ​​acima diagonalizando A e observando o que acontece quando você pega um polinômio de uma matriz diagonal.

Para uma matriz diagonalizável pode-se estender a noção de aplicação de funções a matrizes de polinômios a fu arbitrário nções usando as seguintes

Definição (cálculo funcional para matrizes diagonalizáveis, forma deselegante): Seja A uma matriz diagonalizável e seja f uma função de valor real ou complexo dos autovalores de A. Então f (A) é a matriz

f (A) = M f (D) M ^ -1,

onde

A = MDM ^ -1

é uma diagonalização de A, com D diagonal e M invertível, e onde f (D) é formado pela substituição de cada entrada diagonal lamda de D por f (lamda).

Exemplo: Seja f (x) = x ^ (1/3) a raiz cúbica e seja A uma matriz diagonalizável. Então C = f (A) é de fato uma raiz cúbica de A: C ^ 3 = A.

Exemplo: Se A for não singular e diagonalizável ef (x) = 1 / x, então f (A) é a matriz inversa de A.

Exemplo: Se A é diagonalizável ef (x) = exp (x), então f (A) é a matriz exponencial de A, dada pela série usual de Taylor:

exp (A) = I + A + A ^ 2/2 + A ^ 3/3! + …..

Para ver que esta definição de f (A) é bem definida (ou seja, independente da diagonalização) e para ver como proceder no caso não diagonalizável, é útil para redefinir f (A) para a diagonal A na seguinte forma:

Definição alternativa (cálculo funcional para matrizes diagonalizáveis, melhor forma): Seja A uma matriz diagonal, e seja f uma função de valor real ou complexo dos autovalores de A. Então f (A) = P (A), onde P é um polinômio escolhido de forma que f (lamda) = P (lamda) para cada lamda de autovalor de A.

Em particular, não é necessário realmente diagonalizar uma matriz para calcular uma função f (A) da matriz: Interpolação de f nos autovalores de A fornece um polinômio suficiente para calcular f (A).

Agora, o que acontece se A não for diagonalizável? Bem, se estivermos trabalhando sobre os números complexos, então a forma normal de Jordan diz que, ao escolher uma base apropriada, essa matriz pode ser escrita como uma matriz de bloco diagonal, um soma direta de Jordan Blocks Jn like

J2 = a 1 0 a.

J3 = a 1 0 0 a 1 0 0 a,

em que Jn é a matriz ansn com algum número complexo a na diagonal e uma cadeia de 1 “s acima da diagonal. Observe que em cada caso Mn tem o único autovalor a de multiplicidade n.

Nenhum desses blocos de Jordan é diagonalizável, pois o seguinte teorema diz que Blocos de Jordan não compartilham a propriedade polinomial para matrizes diagonais :

Teorema: (A ação dos polinômios em blocos de Jordan) Seja P um polinomial, e seja Jn um bloco de Jordan nxn, da forma acima. Então P (J) depende apenas de P (a) e de suas primeiras n derivadas em a. IE

P (J2) = P (a) P “(a) 0 P (a)

P (J3) = P (a) P “(a) P” “(a) / 2 0 P (a) P” (a) 0 0 P (a)

P (J4) = P (a) P “(a) P” “(a) / 2! P” “(a) / 3! 0 P (a) P “(a) P” “(a) / 2! 0 0 P (a ) P “(a) 0 0 0 P (a)

e assim por diante.

Pode-se verificar o teorema acima verificando-o para monômios e, em seguida, estendendo para polinômios, que são apenas combinações lineares de monômios.

Para ver como isso se relaciona com funções de computação de matrizes, considere o seguinte problema, que aplica a função de raiz cúbica a matrizes:

Problema (raízes cúbicas de matrizes): Seja A uma matriz real ou complexa não singular mxm. Encontre uma raiz cúbica C = A ^ (1/3) de A, que é uma matriz C tal que A = C ^ 3.

Damos duas soluções: a primeira envolve o cálculo explícito da forma Jordan de a matriz A, e a segunda usa apenas a existência da forma Jordan, sem computação explícita.

Solução 1: pela forma Jordan , podemos decompor a matriz A em blocos de Jordan Jn por uma escolha de base, portanto, restringimos a consideração ao caso de A = Jn para algum n. Por exemplo, para algum número complexo a,

J3 = a 1 0 0 a 1 0 0 a,

Agora não é difícil mostrar que existe um polinômio

P (X) = C0 + C1 X + C2 X ^ 2

tal que no autovalor a de J3 se tem

P (a) = a ^ (1/3) P “(a) = 1/3 (a ^ (1/3)) ^ (-2) P” “(a) = -2/9 (a ^ (1/3)) ^ ( -5)

(Uma vez que assumimos que nenhum valor próprio é 0, nada é infinito.)

(IE P é a função x -> x ^ 1/3 até o segundo derivada no ponto x = a. Há alguma ambigüidade na definição de a ^ 1/3 no caso complexo, então escrevi a ^ (- 2/3) = (a ^ (1/3)) ^ ( -2) para cuidar disso, o que significa que a mesma raiz cúbica é usada em todas as três fórmulas.) Na verdade

P (X) = (5 a ^ (1/3) + 5 a ^ (-2/3) x – a ^ (- 5/3) x ^ 2) / 9,

embora não precisemos realmente calcular P, já que a partir da fórmula geral para P (J3) no teorema acima,

P (J3) = a ^ 1/3 1/3 a ^ (- 2/3) -2/9 a ^ (- 5/3) 0 a ^ (1 / 3) 1/3 a ^ (- 2/3) 0 0 a ^ (1/3)

Esta é apenas a nossa raiz cúbica desejada de J3!

C = P (J3).

Para ver esta nota,

C ^ 3 = (P (J3)) ^ 3 = (P ^ 3) (J3) = R (J3),

onde R (x) é o polinômio que satisfaz

R (x) = (P (x)) ^ 3.

A propriedade importante de R é que o ponto x = a, o polinômio R = P ^ 3 corresponde à função de identidade x -> x até derivadas de ordem 2

R (a) = a R “(a) = 1 R” “(a) = 0,

de modo que pela fórmula geral para um polinômio aplicado a um bloco de Jordan,

C ^ 3 = R (J3) = R (a) R “(a) R “” (a) / 2 = a 1 0 = J3, 0 R (a) R “(a) = 0 a 1 0 0 R (a) = 0 0 a

conforme desejado.

Solução 2: se A é uma matriz mxm, então encontre um polinômio P (x) de modo que em cada autovalor x = a de A o polinômio e seus derivados de ordem até m-1 correspondem à função desejada x -> x ^ 1/3. Então C = P (A) é a raiz cúbica desejada de A.

Observe que a solução 2 funciona porque todos os blocos de Jordan de A terão tamanho menor que n, e pela solução 1 o polinômio P irá substituir cada bloco da Jordânia por sua raiz cúbica. Como não nos preocupamos em calcular explicitamente a forma Jordan de A, o polinômio P que empregamos pode ser de grau desnecessariamente alto, porque não conhecíamos os comprimentos das cadeias de Jordan. No entanto, a interpolação polinomial provavelmente não deu tanto trabalho quanto calcular a forma Jordan. (Além disso, evitamos quaisquer instabilidades numéricas associadas à forma Jordan e autovalores degenerados.)

O exemplo do cubo root convida à seguinte definição:

Definição (variante do cálculo de Dunford no caso de dimensão finita) : Seja A um self- matriz adjunta. Seja f uma função real ou complexa cujo domínio contém os autovalores de A. Então

f (A) = P (A),

onde P (x) é um polinômio tal que para cada autovalor x = a

P (a) = f (a) P “(a) = f” (a) P “” (a) = f “” (a ) …………

onde o número de derivados combinados é pelo menos o tamanho da maior cadeia de 1 “s no bloco Jordan correspondente ao autovalor a.

Pode-se verificar que o resultado da aplicação da função x-> 1 / x a uma matriz A é de fato a usual matriz inversa de A. Pode-se verificar também que o resultado da aplicação da função exponencial ou a função seno a uma matriz A é o mesmo que aplicar a série de Taylor correspondente para exp ou sin à matriz A.

A noção de aplicar uma função a uma matriz é chamada de “cálculo funcional”, que é por isso que o cálculo de Dunford é chamado de “cálculo”.

É padrão na definição do cálculo de Dunford exigir que f tenha derivadas complexas, e geralmente se define isso usando a fórmula integral de Cauchy no caso de dimensão infinita. Eu cortei tudo isso apenas para explicar o caso simples de dimensão finita, e evitei explicar o que é uma derivada de uma função dos números complexos para os números complexos. (Felizmente, a função x-> x ^ (1/3) é infinitamente diferenciável nos reais diferentes de zero.) Pode haver algumas sutilezas aqui, mas estou tentando dar uma visão geral rápida dos conceitos.

É, portanto, aparente que em algum sentido a forma de Jordan é essencialmente o cálculo de Dunford e o teorema espectral é o cálculo funcional para operadores auto-adjuntos. (O último é o ponto de vista de Reed & Simon em “Métodos de Física Matemática I: Análise funcional. Esta discussão é apenas de dimensão finita, mas Reed e Simon consideram o caso de dimensão infinita.)

De qualquer forma, o resultado de tudo isso é que a diagonalização está relacionada às noções de tomada funções de matrizes. Isso é chamado de cálculo funcional, e existem vários cálculos funcionais.

Agora, a auto-articulação é um pouco mais profunda, porque implica diagonalizabilidade unitária, não apenas diagonalização. Os autoespaços tornam-se ortogonais. Não pensei em uma boa maneira de explicar o que é intuitivamente crucial sobre isso. No entanto, na mecânica quântica, os autoespaços ortogonais são perfeitamente distinguíveis e a auto-junção torna-se uma condição natural. O espectro do átomo de hidrogênio são apenas as diferenças do autovalores de seu operador hamiltoniano.

Encontrar alguma explicação intuitiva de por que a mecânica quântica envolve tal matemática está além da minha compreensão.

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *