Um sensor de imagem integrado para aberração

blog

LarLar / blog / Um sensor de imagem integrado para aberração

Nov 26, 2023

Um sensor de imagem integrado para aberração

Nature volume 612, páginas 62–71 (2022)Cite este artigo 32k Acessos 21 Citações 54 Detalhes de métricas altmétricas Sensores de imagem digital planares facilitam amplas aplicações em uma ampla gama de

Nature volume 612, páginas 62–71 (2022)Cite este artigo

32 mil acessos

21 citações

54 Altmétrico

Detalhes das métricas

Os sensores de imagem digital plana facilitam amplas aplicações em uma ampla variedade de áreas1,2,3,4,5, e o número de pixels aumentou rapidamente nos últimos anos2,6. No entanto, o desempenho prático dos sistemas de imagem é fundamentalmente limitado por aberrações ópticas espacialmente não uniformes originadas de lentes imperfeitas ou perturbações ambientais . Aqui propomos um sensor de imagem de campo de luz de varredura integrado, denominado sensor de meta-imagem, para obter fotografia tridimensional corrigida de aberração em alta velocidade para aplicações universais sem modificações adicionais de hardware. Em vez de detectar diretamente uma projeção de intensidade bidimensional, o sensor de metaimagem captura distribuições extrafinas de campos de luz quadridimensionais através de um conjunto de microlentes vibratórias codificadas, permitindo a síntese flexível e precisa de imagens moduladas por campos complexos no pós-processamento. . Usando o sensor, alcançamos fotografia de alto desempenho de até um gigapixel com uma única lente esférica sem dados prévios, levando a reduções de ordens de magnitude na capacidade do sistema e nos custos de imagem óptica. Mesmo na presença de turbulência atmosférica dinâmica, o sensor de metaimagem permite a correção de aberração multissite ao longo de 1.000 segundos de arco em um telescópio terrestre de 80 centímetros sem reduzir a velocidade de aquisição, abrindo caminho para levantamentos sinópticos do céu de alta resolução. Além disso, mapas de profundidade precisos e de alta densidade podem ser recuperados simultaneamente, facilitando diversas aplicações, desde condução autônoma até inspeções industriais.

Os sensores de imagem bidimensionais (2D) revolucionaram muitos campos, incluindo inspeção industrial, dispositivos móveis, condução autônoma1, vigilância2, diagnóstico médico3, biologia4 e astronomia5. Beneficiando-se do rápido desenvolvimento da indústria de semicondutores, o número de pixels em sensores digitais cresceu rapidamente na última década2,6. No entanto, o desempenho prático da maioria dos sistemas de imagem atingiu um gargalo definido pela óptica em vez da eletrônica. Por exemplo, dado um sensor gigapixel, o número efetivo de pixels de um sistema de imagem é geralmente limitado ao nível de megapixels, devido a aberrações ópticas originadas de lentes imperfeitas ou perturbações ambientais, que fazem com que a luz emitida de um ponto se espalhe por uma grande região. em um sensor 2D7,8. Enquanto isso, a projeção de cenas tridimensionais (3D) em um plano 2D incorre na perda de diversas liberdades do campo de luz, como profundidade e coerência local. Como resultado, há muito tempo é um desafio obter mapas de profundidade de alta densidade com um sensor integrado9.

Especialistas em engenharia óptica passaram centenas de anos projetando sistemas de imagem perfeitos para correção de aberrações com múltiplas lentes projetadas com precisão em modo sequencial10. No entanto, a dificuldade de projeto e fabricação óptica aumenta exponencialmente com o produto espaço-largura de banda, que descreve o número total de graus de liberdade para um sistema óptico e estabelece um limite superior no número efetivo de pixels devido aos limites de difração . Nesse caso, sistemas de imagens incoerentes de alto desempenho com grandes produtos efetivos de largura de banda espacial são geralmente muito caros e volumosos, como telescópios de grande abertura e mesoscópios . Metalens e óptica de forma livre podem potencialmente aliviar esse problema, fabricando superfícies de lentes otimizadas quando recebem precisão de usinagem suficiente em grande escala . Algoritmos de desfoque de imagem podem melhorar o contraste da imagem por meio de estimativas precisas da função de dispersão de pontos (PSF) . A engenharia PSF com abertura codificada preserva mais informações reduzindo os nulos no domínio da frequência20,21. No entanto, é muito difícil recuperar a informação de alta frequência perdida por uma função de transferência de baixa modulação (MTF), e essas abordagens geralmente requerem dados prévios específicos e estimativas precisas de PSF, especialmente para aberrações espacialmente não uniformes . Além disso, todos estes métodos ainda são sensíveis a aberrações ambientais dinâmicas com pequenas profundidades de campo.