Resolução óptica - Optical resolution

A resolução óptica descreve a capacidade de um sistema de imagem em resolver detalhes no objeto que está sendo criado.

Um sistema de imagem pode ter muitos componentes individuais, incluindo uma lente e componentes de gravação e exibição. Cada um deles contribui para a resolução óptica do sistema, assim como o ambiente no qual a imagem é feita.

Resolução lateral

A resolução depende da distância entre dois pontos de irradiação distinguíveis. As seções abaixo descrevem as estimativas teóricas de resolução, mas os valores reais podem ser diferentes. Os resultados a seguir são baseados em modelos matemáticos de discos de Airy , que assumem um nível de contraste adequado. Em sistemas de baixo contraste, a resolução pode ser muito menor do que o previsto pela teoria descrita abaixo. Os sistemas ópticos reais são complexos e as dificuldades práticas frequentemente aumentam a distância entre fontes pontuais distinguíveis.

A resolução de um sistema é baseada na distância mínima na qual os pontos podem ser distinguidos como indivíduos. Vários padrões são usados ​​para determinar, quantitativamente, se os pontos podem ser distinguidos ou não. Um dos métodos especifica que, na linha entre o centro de um ponto e o próximo, o contraste entre a intensidade máxima e mínima seja pelo menos 26% inferior ao máximo. Isso corresponde à sobreposição de um disco de Airy no primeiro anel escuro do outro. Esse padrão de separação também é conhecido como critério de Rayleigh . Em símbolos, a distância é definida da seguinte forma:

Onde

é a distância mínima entre os pontos resolvíveis, nas mesmas unidades que são especificadas
é o comprimento de onda da luz, comprimento de onda de emissão, no caso da fluorescência,
é o índice de refração da mídia em torno dos pontos de radiação,
é o meio ângulo do lápis de luz que entra na objetiva, e
é a abertura numérica

Esta fórmula é adequada para microscopia confocal, mas também é usada na microscopia tradicional. Em microscópios confocais de varredura a laser , a metade do máximo de largura total (FWHM) da função de dispersão de pontos é freqüentemente usada para evitar a dificuldade de medir o disco de Airy. Isso, combinado com o padrão de iluminação rasterizado, resulta em melhor resolução, mas ainda é proporcional à fórmula baseada em Rayleigh fornecida acima.

Também comum na literatura de microscopia é uma fórmula para resolução que trata as preocupações acima mencionadas sobre o contraste de forma diferente. A resolução prevista por esta fórmula é proporcional à fórmula baseada em Rayleigh, diferindo em cerca de 20%. Para estimar a resolução teórica, pode ser adequado.

Quando um condensador é usado para iluminar a amostra, a forma do lápis de luz que emana do condensador também deve ser incluída.

Em um microscópio configurado corretamente ,.

As estimativas de resolução acima são específicas para o caso em que duas amostras idênticas muito pequenas que irradiam incoerentemente em todas as direções. Outras considerações devem ser levadas em consideração se as fontes irradiam em diferentes níveis de intensidade, são coerentes, grandes ou irradiam em padrões não uniformes.

Resolução da lente

A capacidade de uma lente de resolver detalhes geralmente é determinada pela qualidade da lente, mas é limitada pela difração . A luz proveniente de uma fonte pontual no objeto difrata através da abertura da lente de modo que forma um padrão de difração na imagem, que tem um ponto central e anéis brilhantes circundantes, separados por nulos escuros; esse padrão é conhecido como padrão de Airy e o lobo central brilhante como disco de Airy . O raio angular do disco de Airy (medido do centro ao primeiro nulo) é dado por:

    

Onde

θ é a resolução angular em radianos,
λ é o comprimento de onda da luz em metros,
e D é o diâmetro da abertura da lente em metros.

Dois pontos adjacentes no objeto dão origem a dois padrões de difração. Se a separação angular dos dois pontos for significativamente menor do que o raio angular do disco de Airy, então os dois pontos não podem ser resolvidos na imagem, mas se sua separação angular for muito maior do que isso, imagens distintas dos dois pontos são formadas e pode, portanto, ser resolvido. Rayleigh definiu o " critério de Rayleigh " um tanto arbitrário de que dois pontos cuja separação angular é igual ao raio do disco de Airy ao primeiro nulo podem ser considerados resolvidos. Pode-se observar que quanto maior o diâmetro da lente ou sua abertura, maior será a resolução. Os telescópios astronômicos têm lentes cada vez maiores para que possam "ver" detalhes cada vez mais sutis nas estrelas.

Porém, apenas as lentes da mais alta qualidade têm resolução limitada por difração, e normalmente a qualidade das lentes limita sua capacidade de resolver detalhes. Essa habilidade é expressa pela Função de Transferência Ótica, que descreve a variação espacial (angular) do sinal de luz em função da frequência espacial (angular). Quando a imagem é projetada em um plano plano, como um filme fotográfico ou um detector de estado sólido, a frequência espacial é o domínio preferido, mas quando a imagem é referida apenas à lente, a frequência angular é preferida. OTF pode ser dividido nos componentes de magnitude e fase da seguinte forma:

Onde

e são frequência espacial no plano xey, respectivamente.

O OTF leva em conta a aberração , o que a expressão de frequência limitante acima não faz. A magnitude é conhecida como Função de Transferência de Modulação (MTF) e a porção de fase é conhecida como Função de Transferência de Fase (PTF) .

Em sistemas de imagem, o componente de fase normalmente não é capturado pelo sensor. Assim, a medida importante com relação aos sistemas de imagem é o MTF.

A fase é extremamente importante para a óptica adaptativa e os sistemas holográficos.

Resolução do sensor (espacial)

Alguns sensores ópticos são projetados para detectar diferenças espaciais na energia eletromagnética . Estes incluem filme fotográfico , dispositivos de estado sólido ( CCD , detectores CMOS e detectores infravermelhos como PtSi e InSb ), detectores de tubo ( vidicon , plumbicon e tubos fotomultiplicadores usados ​​em dispositivos de visão noturna), detectores de digitalização (usados ​​principalmente para IR) , detectores piroelétricos e detectores de microbolômetro . A capacidade de tal detector de resolver essas diferenças depende principalmente do tamanho dos elementos de detecção.

A resolução espacial é normalmente expressa em pares de linhas por milímetro (lppmm), linhas (de resolução, principalmente para vídeo analógico), contraste vs. ciclos / mm ou MTF (o módulo de OTF). O MTF pode ser encontrado tomando a transformada de Fourier bidimensional da função de amostragem espacial. Pixels menores resultam em curvas MTF mais amplas e, portanto, melhor detecção de energia de frequência mais alta.

Isso é análogo a tomar a transformada de Fourier de uma função de amostragem de sinal ; como nesse caso, o fator dominante é o período de amostragem, que é análogo ao tamanho do elemento da imagem ( pixel ).

Outros fatores incluem ruído de pixel, diafonia de pixel, penetração de substrato e fator de preenchimento.

Um problema comum entre não técnicos é o uso do número de pixels no detector para descrever a resolução. Se todos os sensores fossem do mesmo tamanho, isso seria aceitável. Como não são, o uso do número de pixels pode ser enganoso. Por exemplo, uma câmera de 2 megapixels de pixels de 20 micrometros quadrados terá resolução pior do que uma câmera de 1 megapixel com pixels de 8 micrometros, se todo o resto for igual.

Para medição de resolução, os fabricantes de filmes geralmente publicam um gráfico de Resposta (%) vs. Frequência Espacial (ciclos por milímetro). O enredo é derivado experimentalmente. Os fabricantes de sensores de estado sólido e câmeras normalmente publicam especificações das quais o usuário pode derivar um MTF teórico de acordo com o procedimento descrito abaixo. Alguns também podem publicar curvas MTF, enquanto outros (especialmente fabricantes de intensificadores) irão publicar a resposta (%) na frequência de Nyquist ou, alternativamente, publicar a frequência em que a resposta é 50%.

Para encontrar uma curva MTF teórica para um sensor, é necessário conhecer três características do sensor: a área de detecção ativa, a área que compreende a área de detecção e as estruturas de interconexão e suporte ("imóveis"), e o número total de essas áreas (a contagem de pixels). A contagem total de pixels é quase sempre fornecida. Às vezes, as dimensões gerais do sensor são fornecidas, a partir das quais a área imobiliária pode ser calculada. Quer a área imobiliária seja fornecida ou derivada, se a área de pixel ativa não for fornecida, ela pode ser derivada da área imobiliária e do fator de preenchimento , onde o fator de preenchimento é a proporção da área ativa para a área imobiliária dedicada.

Onde

  • a área ativa do pixel tem dimensões a × b
  • o pixel imobiliário tem dimensões c × d

Na notação de Gaskill, a área de detecção é uma função 2D comb ( x , y ) da distância entre os pixels (a inclinação ), convolvida com uma função ret ( x , y ) 2D da área ativa do pixel, limitada por uma função 2D função rect ( x , y ) da dimensão geral do sensor. A transformada de Fourier é uma função governada pela distância entre os pixels, convolvida com uma função governada pelo número de pixels e multiplicada pela função correspondente à área ativa. Essa última função serve como um envelope geral para a função MTF; contanto que o número de pixels seja muito maior do que um (1), o tamanho da área ativa domina o MTF.

Função de amostragem:

onde o sensor tem pixels M × N


Resolução do sensor (temporal)

Um sistema de imagem em execução a 24 quadros por segundo é essencialmente um sistema de amostragem discreto que faz a amostragem de uma área 2D. As mesmas limitações descritas por Nyquist se aplicam a este sistema como a qualquer sistema de amostragem de sinal.

Todos os sensores têm uma resposta de tempo característica. O filme é limitado na resolução curta e nos extremos de resolução longa por quebra de reciprocidade . Normalmente, são considerados mais longos do que 1 segundo e menores do que 1 / 10.000 segundo. Além disso, o filme requer um sistema mecânico para avançá-lo através do mecanismo de exposição, ou um sistema óptico móvel para expô-lo. Isso limita a velocidade na qual quadros sucessivos podem ser expostos.

CCD e CMOS são as preferências modernas para sensores de vídeo. O CCD tem sua velocidade limitada pela taxa em que a carga pode ser movida de um local para outro. O CMOS tem a vantagem de ter células endereçáveis ​​individualmente, o que levou a sua vantagem na indústria de fotografia de alta velocidade .

Vidicons, Plumbicons e intensificadores de imagem têm aplicações específicas. A velocidade em que podem ser amostrados depende da taxa de decaimento do fósforo usado. Por exemplo, o fósforo P46 tem um tempo de decaimento de menos de 2 microssegundos, enquanto o tempo de decaimento P43 é da ordem de 2-3 milissegundos. O P43 é, portanto, inutilizável em taxas de quadros acima de 1000 quadros por segundo (quadro / s). Consulte § Links externos para obter links para informações sobre fósforo.

Os detectores piroelétricos respondem às mudanças de temperatura. Portanto, uma cena estática não será detectada, então eles requerem helicópteros . Eles também têm um tempo de decaimento, de modo que a resposta temporal do sistema piroelétrico será um passa-banda, enquanto os outros detectores discutidos serão um passa-baixo.

Se os objetos dentro da cena estiverem em movimento em relação ao sistema de imagem, o desfoque de movimento resultante resultará em resolução espacial mais baixa. Tempos de integração curtos irão minimizar o desfoque, mas os tempos de integração são limitados pela sensibilidade do sensor. Além disso, o movimento entre os quadros em imagens em movimento terá impacto nos esquemas de compressão de filme digital (por exemplo, MPEG-1, MPEG-2). Finalmente, existem esquemas de amostragem que requerem movimento real ou aparente dentro da câmera (espelhos de varredura, persianas rolantes) que podem resultar na renderização incorreta do movimento da imagem. Portanto, a sensibilidade do sensor e outros fatores relacionados ao tempo terão um impacto direto na resolução espacial.

Efeito de largura de banda analógica na resolução

A resolução espacial dos sistemas digitais (por exemplo, HDTV e VGA ) são fixados independentemente da largura de banda analógica porque cada pixel é digitalizado, transmitido e armazenado como um valor discreto. Câmeras digitais, gravadores e monitores devem ser selecionados de forma que a resolução seja idêntica de uma câmera para outra. No entanto, em sistemas analógicos, a resolução da câmera, gravador, cabeamento, amplificadores, transmissores, receptores e display podem ser todos independentes e a resolução geral do sistema é governada pela largura de banda do componente de menor desempenho.

Em sistemas analógicos, cada linha horizontal é transmitida como um sinal analógico de alta frequência. Cada elemento de imagem (pixel) é, portanto, convertido em um valor elétrico analógico (voltagem) e as mudanças nos valores entre os pixels, portanto, tornam-se mudanças na voltagem. Os padrões de transmissão exigem que a amostragem seja feita em um tempo fixo (descrito abaixo), portanto, mais pixels por linha torna-se um requisito para mais mudanças de tensão por unidade de tempo, ou seja, maior frequência. Uma vez que tais sinais são tipicamente limitados em banda por cabos, amplificadores, gravadores, transmissores e receptores, a limitação de banda no sinal analógico atua como um filtro passa-baixo eficaz na resolução espacial. A diferença nas resoluções entre VHS (240 linhas discerníveis por linha de varredura), Betamax (280 linhas) e o formato ED Beta mais recente (500 linhas) é explicada principalmente pela diferença na largura de banda de gravação.

No padrão de transmissão NTSC , cada campo contém 262,5 linhas e 59,94 campos são transmitidos a cada segundo. Cada linha deve, portanto, levar 63 microssegundos, 10,7 dos quais são para redefinir para a próxima linha. Portanto, a taxa de retorno é 15,734 kHz. Para que a imagem pareça ter aproximadamente a mesma resolução horizontal e vertical (consulte o fator de Kell ), ela deve ser capaz de exibir 228 ciclos por linha, exigindo uma largura de banda de 4,28 MHz. Se a largura da linha (sensor) for conhecida, ela pode ser convertida diretamente em ciclos por milímetro, a unidade de resolução espacial.

Os sinais do sistema de televisão B / G / I / K (geralmente usados ​​com codificação de cores PAL ) transmitem quadros com menos frequência (50 Hz), mas o quadro contém mais linhas e é mais largo, portanto, os requisitos de largura de banda são semelhantes.

Observe que uma "linha discernível" forma a metade de um ciclo (um ciclo requer uma linha escura e uma linha clara), então "228 ciclos" e "456 linhas" são medidas equivalentes.

Resolução do sistema

Existem dois métodos para determinar a resolução do sistema. A primeira é realizar uma série de convoluções bidimensionais , primeiro com a imagem e a lente, depois o resultado desse procedimento com o sensor e assim por diante em todos os componentes do sistema. Isso é caro do ponto de vista computacional e deve ser executado novamente para cada objeto a ser trabalhado.

O outro método é transformar cada um dos componentes do sistema no domínio da frequência espacial e, em seguida, multiplicar os resultados 2-D. Uma resposta do sistema pode ser determinada sem referência a um objeto. Embora esse método seja consideravelmente mais difícil de compreender conceitualmente, ele se torna mais fácil de usar computacionalmente, especialmente quando diferentes iterações de projeto ou objetos de imagem devem ser testados.

A transformação a ser usada é a transformada de Fourier.


Resolução ocular

O olho humano é uma característica limitante de muitos sistemas, quando o objetivo do sistema é apresentar dados a humanos para processamento.

Por exemplo, em uma função de segurança ou controle de tráfego aéreo, o monitor e a estação de trabalho devem ser construídos de forma que humanos comuns possam detectar problemas e direcionar medidas corretivas. Outros exemplos são quando um humano está usando os olhos para realizar uma tarefa crítica, como voar (pilotagem por referência visual), dirigir um veículo e assim por diante.

A melhor acuidade visual do olho humano em seu centro óptico (a fóvea) é inferior a 1 minuto de arco por par de linhas, reduzindo rapidamente para longe da fóvea.

O cérebro humano requer mais do que apenas um par de linhas para entender o que o olho está imaginando. Os critérios de Johnson definem o número de pares de linhas de resolução ocular, ou resolução do sensor, necessários para reconhecer ou identificar um item.

Resolução atmosférica

Os sistemas que procuram por longos caminhos atmosféricos podem ser limitados pela turbulência . Uma medida chave da qualidade da turbulência atmosférica é o diâmetro de visão , também conhecido como diâmetro de visão de Fried . Um caminho que é temporalmente coerente é conhecido como um patch isoplanático .

As grandes aberturas podem sofrer com a média da abertura , o resultado de vários caminhos sendo integrados em uma imagem.

Escalas de turbulência com comprimento de onda em aproximadamente uma potência de 6/5. Assim, ver é melhor em comprimentos de onda infravermelhos do que em comprimentos de onda visíveis.

As exposições curtas sofrem menos turbulência do que as exposições mais longas devido à turbulência da escala "interna" e "externa"; curto é considerado muito inferior a 10 ms para imagens visíveis (normalmente, qualquer coisa inferior a 2 ms). A turbulência de escala interna surge devido aos redemoinhos no fluxo turbulento, enquanto a turbulência de escala externa surge do grande fluxo de massa de ar. Essas massas normalmente se movem lentamente e, portanto, são reduzidas diminuindo o período de integração.

Um sistema limitado apenas pela qualidade da óptica é considerado limitado pela difração . No entanto, uma vez que a turbulência atmosférica é normalmente o fator limitante para sistemas visíveis que procuram por caminhos atmosféricos longos, a maioria dos sistemas é limitada por turbulência. As correções podem ser feitas usando óptica adaptativa ou técnicas de pós-processamento.

Onde

é a frequência espacial
é o comprimento de onda
f é o comprimento focal
D é o diâmetro da abertura
b é uma constante (1 para propagação de campo distante)
e é o diâmetro de visão de Fried

Medindo a resolução óptica

Uma variedade de sistemas de medição estão disponíveis e o uso pode depender do sistema que está sendo testado.

Os gráficos de teste típicos para a função de transferência de contraste (CTF) consistem em padrões de barra repetidos (consulte a discussão abaixo). A resolução limite é medida determinando o menor grupo de barras, tanto vertical quanto horizontalmente, para o qual o número correto de barras pode ser visto. Ao calcular o contraste entre as áreas pretas e brancas em várias frequências diferentes, no entanto, os pontos do CTF podem ser determinados com a equação de contraste.

Onde

é o valor normalizado do máximo (por exemplo, a tensão ou valor cinza da área branca)
é o valor normalizado do mínimo (por exemplo, a tensão ou valor cinza da área preta)

Quando o sistema não consegue mais resolver as barras, as áreas pretas e brancas têm o mesmo valor, então Contraste = 0. Em frequências espaciais muito baixas, C max = 1 e C min = 0 então Modulação = 1. Alguma modulação pode ser vista acima da resolução limitante; estes podem ter aliases e reversão de fase.

Ao usar outros métodos, incluindo o interferograma, senoide e a borda no alvo ISO 12233, é possível calcular a curva MTF inteira. A resposta à borda é semelhante a uma resposta ao degrau , e a transformada de Fourier da primeira diferença da resposta ao degrau produz o MTF.

Interferograma

Um interferograma criado entre duas fontes de luz coerentes pode ser usado para pelo menos duas finalidades relacionadas à resolução. O primeiro é determinar a qualidade de um sistema de lentes (veja LUPI ), e o segundo é projetar um padrão em um sensor (especialmente filme fotográfico) para medir a resolução.

Alvo NBS 1010a / ISO # 2

Este gráfico de teste de resolução de 5 barras é frequentemente usado para avaliação de sistemas de microfilme e scanners. É conveniente para uma faixa de 1: 1 (normalmente cobrindo 1-18 ciclos / mm) e é marcado diretamente em ciclos / mm. Detalhes podem ser encontrados em ISO-3334.

Alvo da USAF em 1951

SilverFast Resolution Target USAF 1951 para determinar a resolução ideal de um scanner

O alvo do teste de resolução USAF 1951 consiste em um padrão de alvos de 3 barras. Frequentemente encontrado cobrindo uma faixa de 0,25 a 228 ciclos / mm. Cada grupo consiste em seis elementos. O grupo é designado por um número de grupo (-2, -1, 0, 1, 2, etc.) que é a potência à qual 2 deve ser elevado para obter a frequência espacial do primeiro elemento (por exemplo, o grupo -2 é 0,25 pares de linhas por milímetro). Cada elemento é a 6ª raiz de 2 menor que o elemento anterior no grupo (por exemplo, o elemento 1 é 2 ^ 0, o elemento 2 é 2 ^ (- 1/6), o elemento 3 é 2 (-1/3), etc. ) Ao ler o grupo e o número do elemento do primeiro elemento que não pode ser resolvido, a resolução de limitação pode ser determinada por inspeção. O complexo sistema de numeração e o uso de um gráfico de consulta podem ser evitados com o uso de um gráfico de layout aprimorado, mas não padronizado, que rotula as barras e espaços diretamente em ciclos / mm usando a fonte estendida OCR-A .

Alvo NBS 1952

O alvo NBS 1952 é um padrão de 3 barras (barras longas). A frequência espacial é impressa ao lado de cada conjunto de barras triplas, de modo que a resolução limite pode ser determinada por inspeção. Normalmente, essa frequência só é marcada depois que o gráfico foi reduzido em tamanho (normalmente 25 vezes). O aplicativo original exigia colocar o gráfico a uma distância de 26 vezes a distância focal da lente de imagem usada. As barras acima e à esquerda estão em sequência, separadas por aproximadamente a raiz quadrada de dois (12, 17, 24, etc.), enquanto as barras abaixo e à esquerda têm a mesma separação, mas um ponto de partida diferente (14, 20, 28, etc.)

Alvo de resolução de vídeo EIA 1956

Alvo de resolução de vídeo EIA 1956

O alvo de resolução EIA 1956 foi projetado especificamente para ser usado com sistemas de televisão. As linhas que se expandem gradualmente perto do centro são marcadas com indicações periódicas da frequência espacial correspondente. A resolução de limitação pode ser determinada por inspeção. A medida mais importante é a resolução horizontal de limitação, uma vez que a resolução vertical é normalmente determinada pelo padrão de vídeo aplicável (I / B / G / K / NTSC / NTSC-J).

Meta IEEE Std 208-1995

O alvo de resolução IEEE 208-1995 é semelhante ao alvo EIA. A resolução é medida em linhas de TV horizontais e verticais.

Alvo ISO 12233

O alvo ISO 12233 foi desenvolvido para aplicações em câmeras digitais, uma vez que a resolução espacial das câmeras digitais modernas pode exceder as limitações dos alvos mais antigos. Inclui vários alvos de ponta de faca com o propósito de calcular MTF por transformada de Fourier . Eles são deslocados da vertical em 5 graus para que as bordas sejam amostradas em muitas fases diferentes, o que permite a estimativa da resposta de frequência espacial além da frequência de Nyquist da amostragem.

Padrões de teste aleatórios

A ideia é análoga ao uso de um padrão de ruído branco na acústica para determinar a resposta de frequência do sistema.

Padrões sinusóides monotonicamente crescentes

O interferograma usado para medir a resolução do filme pode ser sintetizado em computadores pessoais e usado para gerar um padrão para medir a resolução óptica. Veja especialmente as curvas Kodak MTF.

Multiburst

Um sinal multiburst é uma forma de onda eletrônica usada para testar sistemas analógicos de transmissão, gravação e exibição. O padrão de teste consiste em vários períodos curtos de frequências específicas. O contraste de cada um pode ser medido por inspeção e registrado, dando um gráfico de atenuação vs. frequência. O padrão multiburst NTSC3.58 consiste em blocos de 500 kHz, 1 MHz, 2 MHz, 3 MHz e 3,58 MHz. 3,58 MHz é importante porque é a frequência de crominância para vídeo NTSC.

Discussão

Usando uma barra, a medida resultante é a função de transferência de contraste (CTF) e não o MTF. A diferença surge da sub-harmônica das ondas quadradas e pode ser facilmente calculada.

Veja também

Referências

  1. ^ a b "Centro de recursos do Olympus FluoView: resolução e contraste em microscopia confocal" . olympusconfocal.com . Arquivado do original em 5 de julho de 2004 . Página visitada em 30/12/2019 .
  2. ^ Propriedades dos objetivos do microscópio | MicroscopyU
  3. ^ Molecular Expressions Microscopy Primer: Anatomy of the Microscope - Abertura numérica e resolução
  • Gaskill, Jack D. (1978), Linear Systems, Fourier Transforms, and Optics , Wiley-Interscience. ISBN   0-471-29288-5
  • Goodman, Joseph W. (2004), Introdução à Fourier Optics (Terceira Edição) , Roberts & Company Publishers. ISBN   0-9747077-2-4
  • Fried, David L. (1966), "Resolução óptica através de um meio aleatoriamente não homogêneo para exposições muito longas e muito curtas.", J. Opt. Soc. Amer. 56: 1372-9
  • Robin, Michael e Poulin, Michael (2000), Digital Television Fundamentals (2ª edição) , McGraw-Hill Professional. ISBN   0-07-135581-2
  • Smith, Warren J. (2000), Modern Optical Engineering (Terceira edição) , McGraw-Hill Professional. ISBN   0-07-136360-2
  • Accetta, JS e Shumaker, DL (1993), The Infrared and Electro-optical Systems Handbook , SPIE / ERIM. ISBN   0-8194-1072-1
  • Roggemann, Michael e Welsh, Byron (1996), Imaging Through Turbulence , CRC Press. ISBN   0-8493-3787-9
  • Tatarski, VI (1961), Wave Propagation in a Turbulent Medium , McGraw-Hill, NY

links externos