Home ISAT: Remote sensing
Post
Cancel

ISAT: Remote sensing

Lien de la note Hackmd

Introduction

Remote sensing

What is remote sensing ?

  • Remote: operating without a direct contact
  • Sensing: perform a measure
  • Measure something at a distance, rather than in situ. It relies on propagated signal of some sort, for example optical, acoustical, or microwave

Remote sensing image

Panchromatic image

La particularite de ces systemes est qu’ils ont leur propre source d’illumination, en envoyant des signaux qui interagissent avec des objets d’interete.

Exemple: on prend une photo avec de la lumiere, c’est un systeme actif

Ici on s’interesse a la teledetection ou on utilise des sources d’illumination externe (le soleil)

On s’interesse principalement au regime optique de la lumiere, avec de l’optique geometrique. On est dans les plages du visible a l’infrarouge.

On va regarder l’heterogeneite des donnees qu’on peut avoir en teledetection:

Multispectral

On a aussi des images multispectral:

Hyperspectral

From low spatial resolution…

To high spatial resolution

Spatial details in satellite images

Spatial details in aerial images

Spatial details in drone images

Bonne precision pour identifier des feuilles de plante, utile pour verifier leur etat de sante

J’espere que vous vous en rappelez

Multitemporal images

Ce sont les Alpes, par-dessus Grenoble Ce sont des recombinaisons fausses couleurs Il y a des parties manquantes sur l’image a cause des nuages

On a une acquisition par jour par satellite, et on a 2 satellites.

On a certaines satellites “Agile” capablent d’orienter leurs cameras

Voici d’autres acquisitions:

En comparant les images, on voit clairement le deplacement de la camera

Multiangular drone images

On entre en convergence en computer vision, on retrouve les memes problematiques.

Applications

Thematic classification

On veut tirer des informations de ces images, par exemple: semantic segmentation

Anomaly detection

Detecter des evenements rares comme des phenomenes naturels.

(Video) Nearly 20 Years of Change at Your Fingertips

Optical radiation model

Optical Remote sensing principle

Quant a la source d’illumination:

On a des longueurs d’ondes beaucoup plus elevees par rapport a ce qu’on utilise dans les capteurs optiques, on peut aller jusqu’aux ondes radios

Solar radiation

Pour le soleil, le pic d’emission par rapport a sa temperature se trouve dans le visible

Solar spectral irradiance

Et le Red-Shift ?

On a un soleil dans une autre galaxie, si l’emission de cette etoile etait dans le jaune mais que la galaxie se deplace, on a une reduction en frequence qu’on voit comme un shift dans le spectre d’emission C’est l’effet Doppler qui fait ca, caracterise par la nature ondulatoire de la lumiere C’est comme ca qu’on arrive a estimer les velocite de galaxies On relie ca aux gazs presents dans les etoiles, ces derniers ont des spectres d’emissions particulier donc avec le red-shift on peut estimer le decalage

Solar/Earth radiation

Tout corps avec une temperature $\le 0K$ aura un spectre d’emission hors du visible

Radiation Components

On est a l’exterieur de l’atmosphere:

Optical remote sensing component

Radiation mechanism

Radiation component

Surface-reflected, unscattered component $L_{\lambda}^{su}$

  • The atmosphere interacts with radiation both on the solar and view path
  • The fraction or radiation that arrives at the earth’s surface is the solar path transmittance, $\tau_s(\lambda)$
  • The molecular absorption bands of water and carbon dioxide cause deep absorphtion features that, in 2 bandas near $1.4\mu m$ and $1.9\mu m$, completely block transmission of radiation

Solar path

  • $0$: Rien qui est transmis
  • $1$: La couche est totalement transparente

Exemple: Sentinel-2 spectral responses

Atmospheric scattering mechanisms

L’aerosol est la composante principale qui va determiner l’absorption. Ces bandes ne sont pas forcement utiles pour le monitorage de la surface terrester mais sont des indicateurs lors du moment de l’acquisition.

Si on considere l’interaction de la couche atmospherique avec la source d’illumination, on a la transmission qui va determiner une modulation de l’energie.

On a du scattering avec des nuages ou du brouillard

Interaction with the surface

Solar path

Irradiance at the surface

Surface radiance

Measuring the BRDF

At the sensor

Radiation mechanism

On mesure la combinaison de ces 3 composantes au niveau du capteur

Radiance at the sensor

Surface reflected, atmosphere-scattered component $L_{\lambda}^{sd}$

On peut comparer ces 2 images:

Les zones d’ombre n’ont pas de composante direct d’illumination. On recoit l’information d’une composante qui est reflechi sur cette zone qui est reflechi par l’atmosphere.

Sans atmosphere, on n’a pas d’information car pas d’eclairage (photo 2).

Image formation in optical sensors

Acquisition geometry

  • Directions
    • Cross-track
    • Along-track
  • Scanners
    • Line scanner
    • Whiskbroom scanner
    • Pushbroom scanner
  • Geometry of acquisition different from pinhole
  • Field of view (FOV) full cross-track angular coverage
  • Ground-projected Field Of View (GFOV) ground coverage of the FOV

Overall sensor model

Sensor characterization

The sensor will sense the physical signal with a non-zero

  • Integration time
  • Spectral bandwith
  • Spatial distance

Spatial resolution

Pourquoi on descend a des resolutions tres poussees ?

Car d’un point de vue technologique, on arrive a produire des capteurs avec des grande precisions On est limites a un facteur qui est le rapport signal/bruit

Point spread function

D’un point de vue de caracterisation des instruments:

Cette transformation est donnee par la point spread function. C’est la reponse a une impulsion sur un Dirac (ici un point tres brillant qui va etre “etale” par un point optique)

The sensor modifies the spatial properties of the signal

  • blurring
  • distortion of geometry

The PSF is composed of different components:

  • optical PSF $\text{PSF}_{opt}$
  • image motion $\text{PSF}_{im}$
  • detector PSF $\text{PSF}_{det}$
  • electronix PSF $\text{PSF}_{el}$
\[\text{PSF} = \text{PSF}_{opt} * \text{PSF}_{im} * \text{PSF}_{det} * \text{PSF}_{el}\]

Modulation Transfer Function

C’est les modules de la reponse sous filtre On retrouve ces profils dans les directions de deplacement de la plateforme

Point Spread Function and sampling

On fait une sorte de filtre anti aliasing

Spectral resolution

Si on prend un capteur qu’avec 4 bandes, on aura 4 valeurs par acquisition La resolution sera differentes qu’avec plus de capteurs

Spectral response

Bayer pattern

Multispectral sensors

Example: WorldView2 sensor

Spectral responses

Ca permet de garantir d’avoir des niveaux d’energie suffisant

Example: Sentinel-2 spectral response

Example: VEN$\mu$S

VEN$\mu$S (Vegetation and Environment monitoring on a New MicroSatellite)

Illustration of a three-array TDI detector unit (image credit: EIOp Ltd.)

Question - The rainbow plane

Trouvee sur Google Earth

On a des repliques colorisees differement de cet avion

Pourquoi ?

On a fait les acquisitions de differents spectres a differents moments

Pourquoi on a les “contours” de l’avion ?

On dirait le domaine frequentiel

Ce sera donc une derivee premiere ou seconde calculee sur l’image de l’avion.

Pourquoi faire ca ?

Car c’est la fusion d’une image panchromatique avec une image multispectrale

This post is licensed under CC BY 4.0 by the author.