sensoriamento remoto

sensoriamento remoto

(Parte 3 de 10)

As plataformas de sensoriamento remoto definem o nível de aquisição dos dados. Esses níveis podem ser orbital (representados pelas plataformas espaciais), aéreo (representados pelas aeronaves e helicópteros) e terrestre (representados por torres, e sistemas radiométricos de campo).

Até o ano de 1946, os dados de sensoriamento foram adquiridos essencialmente a partir de aeronaves ou balões. Em 1946 foram obtidas as primeira fotografias a partir do foguete V-2. Essas fotos demonstraram o imenso potencial que imagens orbitais possuíam uma vez que forneciam uma nova perspectiva de observação da Terra. Apesar desse potencial, apenas na década de 60 começaram a ser obtidos dados de sensoriamento remoto a partir de plataformas orbitais.

Em 1961 foi obtida a primeira fotografia orbital colorida a partir de um câmara automática colocada a bordo da espaçonave MA-4 Mercury. A partir desta data, diversas outras missões orbitais foram realizadas e fotografias obtidas das mais diversa regiões do planeta Terra.

As plataformas espaciais de sensoriamento remoto podem ser classificadas em plataformas tripuladas tais como as da série Mercury, Gemini, Apollo na década de 60 e os ônibus espaciais (Space Shuttle) a partir dos anos 80, ou ainda as plataformas soviéticas Vostok, Voskod, Soyuz e não tripuladas, como os vários programas existentes desde o lançamento dos primeiros satélites meteorológicos.

As plataformas espaciais podem ser classificadas em função do tipo de órbita em satélites geoestacionários e satélites de órbita polar.

Os satélites de órbita geoestacionária são satélites localizados em órbitas altas (a pelo menos 35 mil quilômetros acima da superfície da Terra ) no plano do Equador, as quais

Introdução ao Sensoriamento Remoto se deslocam à mesma velocidade e direção do movimento de rotação da Terra, com isto, o satélite se mantém estacionário em relação à superfície, observando sempre a mesma região. Os satélite GOES e Meteosat são exemplos de plataformas espaciais geoestacionárias.

Os satélites de órbita polar são síncronos com o Sol, ou seja, sua velocidade de deslocamento perpendicularmente ao plano do Equador é tal que sua posição angular em relação ao Sol se mantém constante ao longo do ano. Um satélite de órbita polar completa, em média, 15 órbitas em torno da Terra por dia. Cada órbita é completada em cerca de 100 minutos. Esses satélites podem assim passar sob todos os pontos da superfície terrestre sempre no mesmo horário, seja de dia ou seja a noite.

O primeiro satélite experimental a carregar a bordo um sensor meteorológico foi lançado pelos Estados Unidos da América em 1959. As primeiras plataformas espaciais de sensoriamento remoto foram os satélites meteorológicos da série TIROS (Television Infrared Observation Sattelite) lançado pela primeira vez em 1960. O programa teve tal êxito que em 1966 já havia um sistema global operacional de aquisição diária de dados meteorológicos sob a administração da NOAA (National Oceanographic Atmospheric Administration).

No início da década de 60 a National Aeronautics and Space Administration

(NASA) deu início ao programa de satélites da série Nimbus com o objetivo de atender às necessidades da pesquisa meteorológica. O programa visava não só o desenvolvimento de plataformas orbitais mais avançadas, mas também sensores mais avançados que permitissem o monitoramento diário e global da atmosfera terrestre para se criar uma base de dados para a previsão do tempo de curto e médio prazo. O satélite Nimbus foi lançado em 1964 segundo uma órbita polar, e é o precursor do atual satélite NOAA.

Em 1972 foi lançado pela NASA o primeiro satélite de Recursos Naturais o

ERTS-1 (Earth Resources Technology Satellite) o qual posteriormente foi renomeado para Landsat-1. O Landsat1- foi seguido de uma série de satélites, sendo que em 1999 foi lançado o sétimo com várias inovações tecnológicas decorrentes não só do desenvolvimento de detetores e componentes ópticos mais eficientes, como também , em decorrência das demandas da comunidade de usuários de produtos de sensoriamento remoto.

A partir de 1981 os ônibus espaciais passaram a prover uma outra plataforma alternativa para a aquisição de dados de sensoriamento remoto. A Segunda missão do ônibus espacial levou a bordo um conjunto de sensores orientados para o sensoriamento remoto terrestre, dentre os quais destacam-se um radar imageador, um radiômetro operando no visível e no infra-vermelho. Em um futuro próximo, estes estarão disponíveis para a aquisição de dados de sensoriamento a partir de estações espaciais.

As atividades de sensoriamento remoto não se limitam à superfície terrestre. Na verdade, elas tiveram seu início a partir da necessidade de se obter informações remotas de planetas como Marte, Mercúrio, Venus, Júpiter, Urano. Existem numerosas imagens adquiridas da superfície da Lua, Mercúrio, Marte, Júpiter e dos anéis de Saturno, e da atmosfera de Venus, Júpiter, Saturno e Urano. Outros tipos de sensores remotos como radares altímetros, sondas, detetores de radiação gama, radiômetros são utilizados em inúmeras missões interplanetárias.

O uso de sistemas orbitais está se tornando uma necessidade em um número grande de disciplinas ligadas às ciências ambientais devido às necessidades de informações globais e sinópticas a pequenos intervalos de revisita. Esses fatores são essenciais para a observação de fenômenos dinâmicos como a atmosfera, os oceanos, e os processos biológicos e biogeoquímicos.

Introdução ao Sensoriamento Remoto

A Tabela 3.1 apresenta uma relação de diferentes tipos de informação comumente necessárias em estudos que envolvem a aplicação de técnicas de sensoriamento remoto, os respectivos tipos de sensores empregados e alguns exemplos de equipamentos atualmente disponíveis.

Tabela 3.1 – Tipos de dados de sensoriamento remoto (Adaptado de Elachi, 1987)

Tipo de informação necessáriaTipo de SensorExemplo de Sistemas

Alta resolução espacial e amplo recobrimento do terreno

Sensores imageadores e câmeras

Large Format Câmera, radar imageador do satélite JERS-1

Alta resolução espectral sobre áreas limitadasEspectrômetro e espectro radiômetros Shuttle Imaging Spectrometer

Resolução espectral limitada com alta resolução espacial

Mapeadores multiespectrais TM/Landsat, HRV/Spot, RADARSAT

Alta resolução espectral e alta resolução espacial Espectrômetros imageadoresAVIRIS, MODIS, ASTER

Alta precisão de medidas de intensidade ao longo de linhas ou faixas Radiômetros e DifusômetrosERS-1 difusômetro

Alta precisão de medidas de intensidade com resolução espacial moderada Radiômetros imageadores SMMR/AVHRR

Alta precisão de localização e perfilAltímetros e sondasAltímetro TOPEX/Poseidon Mapeamento Tridimensional do TerrenoAltímetrosShuttle High Resolution Altimeter

3.2 Sistemas sensores: sistemas fotográficos

Uma vez que a energia emitida, retro-espalhada, ou refletida pelo alvo atinja o sensor, este deve ser capaz de realizar duas funções básicas:

a ) focalizar a energia sobre um detetor; b) transformar a energia focalizada numa intensidade de sinal passível de ser registrada de forma permanente.

Assim sendo, todos os sistemas sensores são composto por um sistema de lentes, um sistema de abertura óptica e um detetor. Nesse sentido, todo sistema sensor pode ser melhor compreendido através de sua analogia com o sistema visual humano.

O estudo do sistema visual humano permite compreender as funções básicos de um sistema sensor. Segundo Slater (1980) o olho humano desempenha um papel muito importante na atividade de sensoriamento remoto, não só pela semelhança com os sistemas sensores desenvolvidos a partir de analogias com a visão humana, mas também, pelo fato de que toda a análise das imagens de sensoriamento remoto e todas as atividades de interpretação dessas imagens repousam no processo de interpretação de cores, padrões e texturas. Segundo Slater (1980) os olhos são o derradeiro sensor contra o qual os demais são calibrados.

3.2.1. O sistema visual humano

Uma completa descrição do olho humano pode ser encontrada em Maluf Rosa (1999). Como pode ser observado na Figura 3.4, o globo ocular é formado por três membranas:

a) uma membrana externa, chamada esclerótica, formada por um tecido fibroso e responsável pela proteção das membranas internas e pela manutenção da forma do olho.

A porção anterior da esclerótica é formada por um tecido transparente chamado córnea; b) uma membrana média, chamada vascular, formada pela coróide, pelo corpo ciliar e pela iris. Na porção anterior da membrana forma-se uma pequena abertura circular denominada pupila;

Introdução ao Sensoriamento Remoto c) uma membrana interna, chamada retina ou membrana nervosa, formada por receptores, especializados em responder à estimulação pela luz e em transformar a energia luminosa em impulsos nervosos responsáveis pela “sensação de visão”. A iris é um diafragma circular, situado atrás da córnea e possuí uma abertura circular chamada pupila. A iris é formada por dois tipos de fibras musculares lisas dispostas circularmente e radialmente. Essas fibras são responsáveis pela variação do diâmetro de abertura da pupila nos processos de acomodação do olho a diferentes intensidades luminosas e a diferentes distâncias dos objetos. Entre a esclerótica e a córnea forma-se um meio transparente chamado humor aquoso, que preenche o espaço vazio entre a córnea e o cristalino. O cristalino é formado por um conjunto de lentes biconvexas encerradas por uma membrana fina chamada cápsula, e localizado imediatamente atrás da iris. O cristalino encontra-se à pequena distância atrás da pupila, e é mantido na posição através dos ligamentos suspensores. A cavidade ocular posterior ao cristalino é preenchida por uma substância gelatinosa transparente chamada corpo vítreo.

Fig. 3.4 – Esquema do Olho Humano (Adaptado de Slater, 1980)

A imagem formada pelas lentes é focalizada na retina, na porção posterior do olho. A retina, como já mencionado possui um mosaico de receptores sensíveis a luz, conhecidos por cones e bastonetes. Os cones ocupam uma região chamada de fóvea central, ao longo do eixo óptico.

A fóvea central é a região da retina humana de maior acuidade visual, visto que os cones são sensíveis a altos e médios níveis de intensidade luminosa e às diferenças de comprimento de onda da energia proveniente dos diferentes objetos. Assim sendo, a percepção de cor é função dos cones, e se dá principalmente na região da fóvea central. A medida em que se distancia da fóvea central a densidade de cones da retina diminuí e esta passa a ser formada por bastonetes, os quais são responsáveis pela detecção de baixos níveis de energia, e não sensíveis a cor.

Os cones são, desta forma, responsáveis pela visão fotótica ou diurna, e os bastonetes, pela visão escotótica ou noturna. O máximo de sensibilidade média do olho humano à visão diurna encontra-se em 5 nm, enquanto o máximo de sensibilidade do olho humano à visão noturna encontra-se em 505 nm. A maior sensibilidade dos bastonetes a níveis mais baixos de energia se dá em detrimento da acuidade visual. Os cones permitem o reconhecimento de objetos muito menores do que os bastonetes.

Introdução ao Sensoriamento Remoto

3.2.2- Analogia entre o olho humano e a câmera fotográfica

Existem grandes semelhanças entre o olho humano e os sensores em geral, e a câmera fotográfica em particular. Essas analogias podem ser observadas na Figura 3.5. Em ambos os sistemas, os raios luminosos são refratados e focalizados através de sistemas de lentes sobre uma superfície sensível. Na câmera fotográfica, esta superfície sensível é a película fotográfica (nos sensores de varredura multiespectral são os detetores). Nos olho humano esta superfície sensível é a retina.

O meio refringente na câmara fotográfica são as lentes, nos sensores de varredura são lentes, grades de difração, espelhos, etc e no olho humano é o cristalino, a córnea, e em menor grau o humor aquoso e o humor vítreo.

Fig. 3.5 - Esquema geral do olho humano como uma analogia de um sensor (Adaptado de Maluf Rosa, 1999).

Como pode ser observado na Figura 3.5, a imagem de um objeto sofre uma inversão ao atingir a película. O mesmo ocorre com a imagem retiniana. È o processamento no cérebro que determina o reposicionamento da imagem. Da mesma forma, para que a imagem formada sobre a película fotográfica corresponda à imagem real, o filme é submetido a processamento fotográfico.

(Parte 3 de 10)

Comentários