Observer la Terre depuis l'espace, avec Thomas Corpetti

Télécharger MP3

Sous-titres générés avec IA (Whisper), editing et proofing par Guglielmo Fernandez Garcia.

En 2004, Google rachète EarthViewer, connu aujourd'hui sous le nom de Google Earth.

Et il y a de fortes chances que ce service de consultation d'image satellite soit le premier

que vous ayez connu. Et peut-être que comme moi, quand cette technologie est arrivée jusqu'à vous,

votre premier réflexe a été de regarder votre ville, l'endroit où vous habitez,

les lieux connus à proximité de chez vous, comme si cela vous paraissait presque impossible.

Et oui, au lancement de Google Earth, on arrivait encore à être fasciné par la tech.

Mais bon, cette technologie, elle pose quand même de nombreuses questions.

Peut-on vraiment tout voir depuis l'espace ? On le sait, des satellites sont en orbite autour

de la Terre et nous regardent. Mais qu'est-ce qu'ils regardent exactement ? Quelle est la

véritable utilité de ces engins qu'on envoie dans l'espace ? Pour répondre à nos interrogations,

avec Guglielmo, nous avons rencontré Thomas Corpetti, chercheur au CNRS et

directeur adjoint du laboratoire LETG de Rennes 2, littoral environnement,

télédétection et géomatique. Avant de commencer, je dois faire un

avoue. L'observation de la Terre est en partie mon domaine. J'ai travaillé à LETG et je connais

bien Thomas. Pour cette émission, j'essaierai donc votre steward de l'espace. Attachez vos

ceintures et préparez-vous à vous lancer en orbite.

Commençons avec du jargon. Parmi les quatre lettres qui composent les noms LETG,

nous nous concentrons sur la lettre T, télédétection. Pour comprendre ce qu'il

signifie, il suffit de se rappeler qu'il est composé de TELÉ, qui signifie un latin

des loins, et DETECTION, qui signifie tout simplement mesurer, mesurer des loins.

Et c'est quelque chose que vous connaissez bien. Lorsque vous voyez un beau paysage et

que vous prenez une photo avec votre téléphone, vous capterez la lumière à distance. En termes

techniques, la lumière est un rayonnement électromagnétique. Cette lumière atteint

votre smartphone, les capteurs. Dans la télédétection, les capteurs,

l'équivalent de votre appareil photo, sont montés non pas sur votre téléphone mais sur

des avions, des drones et sur des satellites. Imaginez donc la Terre et une multitude de

petites satellites qui tournent autour et qui la prend en photo.

Maintenant qu'on a les bases, on va mettre les deux pieds dedans. C'est dans cette émission

que j'ai besoin de savoir. Est-ce qu'on peut tout voir depuis l'espace ? Est-ce qu'on peut

tout observer ? On a toujours le fantasme qu'on peut tout observer et qu'on a tout le

temps une caméra au-dessus de nous. C'est pas vrai, pas encore vrai. On a des images à peu

près en permanence qui prennent des observations. Si on regarde autour de Rennes, on ne peut pas

garantir qu'il va y avoir une image tout de suite mais on va en avoir dans les quelques

heures. Après, il y a toujours des questions de résolution spatiale. La résolution spatiale en

gros, c'est la précision qu'on va avoir dans un pixel d'une image. Des satellites qui

permettent de voir très en détail. Il y en a de plus en plus mais il n'y en a pas encore tant

que ça. Mais il existe des satellites avec des résolutions spatiales très très élevées où on

peut voir des détails, des résolutions de l'ordre de quelques centimètres. C'est-à-dire

qu'un pixel va mesurer 2-3 centimètres carrés. Donc évidemment, on peut voir beaucoup de

choses dedans. Après, ces images-là, ce n'est pas de la vidéo donc on ne va pas avoir un

flux continu mais on va avoir une image de temps en temps. Du coup, pour faire simple à expliquer,

on peut dire que ces satellites, que non, la chose qu'on fait, c'est qu'on envoie des boîtes

contenant des caméras, si je ne me trompe pas. Mais est-ce que ces caméras, c'est des

caméras normales ? Est-ce que c'est comme le Macanone que j'ai à la maison ? Non. Les

caméras normales, comme tu dis, c'est des caméras RGB. En fait, les appareils

photos qu'on a tous les jours sur nos smartphones, etc., c'est des appareils

photos qui capent dans trois longueurs d'onde, donc qui capent du rouge vers le bleu. Je pense

qu'on a tous vu ça sur nos télé qui a ces trois couleurs. C'est les trois canaux,

donc les trois bandes spectralles qu'on appelle, qui permettent de reconstruire la

lumière visible que notre œil peut voir. Après, quand on s'intéresse à de la mesure

physique, on est intéressé par voir ce que l'œil peut voir mais on est aussi intéressé

par voir si on ne peut pas capter de la température, de l'humidité et plein d'autres

informations. Et ça, on ne va pas le voir dans le canal visible, donc dans l'espace que

notre œil peut voir, mais on va le voir dans d'autres longueurs d'onde qu'on appelle.

Donc, on a tous entendu parler d'infrarouges, d'ultraviolets et ça, c'est des capteurs qu'on

a aussi sur les images satellite qui permettent d'accéder à pas mal d'informations qui sont

encore plus riches que juste une caméra et un appareil photo Canon ou Sony classique.

Ça, c'est ce qu'on appelle de l'imagerie passive, c'est-à-dire qu'on va capter ce que

la Terre émet. On peut aussi faire de l'imagerie active. On a tous entendu parler

de radars. Maintenant, on entend aussi parler de l'IDAR, mais donc là, l'image réactive,

c'est de satellites qui vont lancer un signal, une onde radar par exemple. Cette onde radar

va évoluer dans l'atmosphère, va percuter un certain nombre d'objets et va être réémise

vers le capteur. Et en fait, l'analyse de ce signal réémis fournit aussi d'autres

types d'informations, donc encore différentes de l'infrarouge, etc.

Ok, donc les données satellites avec lesquelles travaille Thomas ne sont vraiment

pas les mêmes qu'on peut retrouver sur Google Earth. On y reviendra. Si je reviens

sur ce qu'a dit Thomas, on a deux types d'imagerie, donc l'une où l'on observe

les émissions brutes de la Terre et une autre dans laquelle l'outil d'observation est actif

dans le processus de conception d'une image, notamment grâce aux ondes LIDAR et radars.

Mais alors ce genre de capteurs, ils ont un intérêt que depuis l'espace ?

Sur des satellites, mais aussi sur l'imagerie aérienne par des avions,

sur des drones. Et ça, des capteurs LIDAR, on en met des fois dans des

pièces pour avoir la géométrie 3D d'une pièce en cinéma, par exemple,

pour faire de la reconstruction. Donc on peut utiliser partout. Après,

il y a toujours des compromis à trouver. Donc le satellite c'est très intéressant

parce qu'il est en orbite en permanence, donc il va pouvoir faire d'acquisition quand on le

souhaite. Le drone, par exemple, ça va être très flexible pour faire une mesure à un moment

donné ponctuel, mais il faut qu'il n'y ait pas de nuages, il faut qu'il n'y ait pas de

vent, pas trop de vent pour faire voler le drone. L'imagerie aérienne, pareil,

ça va dépendre des autorisations de vol, si on peut survoler certaines zones en milieu urbain,

mais chacune ont des spécificités. Donc le satellite, on va dire, c'est un peu le fond,

ils sont tout le temps là à tourner, ils peuvent fournir de l'information. Et le drone

et l'imagerie aérienne peuvent fournir des informations vraiment localement précises,

par exemple après un tremblement de terre, après une crue, pour apporter une vue plus

immédiate sans attendre que le satellite passe et peut-être plus précise aussi.

Comme l'a dit Thomas, il s'agit de méthodes de mesure actives, c'est-à-dire que notre

appareil photo, entre guillemets, émet un signal électromagnétique et capte ce qui lui

revient. Un peu comme quand on prend une photo avec les flashs parce qu'il fait trop sombre,

on envoie de la lumière et on capte le retour. Bon, nous connaissons tous et toutes les

termes radar, par exemple quand on craint d'un excès de vitesse sur l'autoroute. Et

en général, dans un radar, les signales émis, les flashs, aient une onde radio. Dans

un lidar, en revanche, les signales émis aient une lumière, par exemple une lumière

infrarouge. Ce qui change entre les deux, elle est le type de rayonnement qu'on envoie. Il

y a aussi d'autres différences, mais ce n'est pas important pour nos discussions.

Ce qui est important, c'est que ces deux méthodes permettent de voir des choses très

différentes. Par exemple, les radars permettent de voir même lorsqu'il y a du brouillard

ou des nuages. Et c'est pourquoi ils ont très utilisé un météorologie par exemple.

Cependant, ils ont souvent moins précis qu'un lidar. Les LIDAR quant à lui,

peuvent fournir des modèles 3D avec très grande précision, de maquette numérique d'un

objet, mais avec un mauvais temps névorien. Bon dit comme ça, ça semble que nous sommes

en un domaine très très très technique et éloigné de la vie quotidienne. Et

je pense plutôt que des exemples nous aideraient à comprendre les niveaux que ces technologies

ont atteint. Donc le lidar, effectivement, permet de faire des modèles 3D avec une très

grande précision de ce qu'on observe. Donc il y a beaucoup de personnes, par exemple en

géologie, qui s'intéressent à la suivi de déformations de roches ou de falaise. Donc

c'est vraiment des déformations infimes et qui sont sur des échelles de temps très longs. Et

en faisant des relevés lidar. Donc là, ce n'est pas des données aéroportées, c'est terrestre.

On vient avec un capteur lidar. On fait un scan 3D de la falaise et on revient un an après et

on essaie de capter des micro variations. Donc jusqu'à présent, il y a beaucoup d'informations

3D. Donc beaucoup de villes font des relevés lidar. Pas toutes, mais Rennes, par exemple,

Rennes a deux ou trois relevés lidar au cours de ces dernières années. Donc vraiment

des modèles 3D à très haute précision de la ville de Rennes où on peut refaire tous les

bâtiments, la végétation, etc. Mais actuellement, en France, il n'y a pas un modèle unique de

France 3D actuellement, mais il y a un gros projet en cours. Il est porté par l'IGN qui

s'appelle Lidar HD et l'idée c'est de faire un scan 3D de la France entière à très haute

résolution. Donc ça va changer les choses, je pense, au niveau recherche parce que ça va

nous fournir des données qui sont assez uniques. Et l'idée de l'IGN, c'est aussi de refaire ce

genre de relevés régulièrement pour voir l'évolution en 3D de tout le territoire français.

Et ça, ça va changer les choses d'un point de vue analyse et observation de l'environnement,

notamment toutes les études qu'on fait. Enfin, nous, dans notre cas, on fait beaucoup

d'études en milieu urbain. Pour analyser l'environnement en milieu urbain, on a besoin

de savoir comment évoluent les quartiers, comment évoluent les bâtiments, où se situe

la végétation, etc. Et là, ça va être des données assez intéressantes pour travailler dessus.

Et là, pendant notre entretien, j'ai bien senti Thomas enjouer par le fait d'avoir

une France en 3D grâce aux données Lidar. Mais à ce moment-là, je ne peux pas m'empêcher

de penser aux dérives potentielles d'une telle technologie. Personnellement, ça me fait

peur de savoir qu'on peut avoir de super données 3D depuis l'espace d'en bas de chez

moi. Alors, est-ce que les chercheurs se posent ce genre de questions autour de la

Je vais répondre un petit peu à côté d'abord, mais par exemple, sur la ville de Rennes,

la ville de Rennes est très intéressée par l'état de la végétation dans la ville,

parce que la végétation, ça a beaucoup d'influence sur le climat, sur la pollution.

Donc, dans tous les problèmes actuels, c'est important de bien maîtriser la végétation.

Et en fait, la ville de Rennes, les services de la ville de Rennes ne connaissent que la

végétation publique. Et encore, il faut aller sur le terrain faire des relevés et ne

connaît pas en fait toute la végétation privée, alors qu'à Rennes, il y a énormément

de pavillons dans Rennes intramuros avec des arbres et qui apportent beaucoup de végétation.

Donc ça, c'est des choses qu'on peut voir par satellite. Mais effectivement,

on va compter les arbres, les haies chez les gens, dans la vie privée des gens.

Mais ça, le satellite le fait par défaut, c'est-à-dire que le satellite va tout

scanner indépendamment de l'espace public, de l'espace privé. Alors, pour l'instant,

les satellites gratuits, les images disponibles librement sont à des résolutions

spatiales modérées. Un pixel va correspondre à 10 mètres sur 10 mètres. On peut voir si

il y a un arbre dans le jardin des gens, mais on ne va pas distinguer des personnes, etc.

Mais effectivement, ça pose des vraies questions de vie privée qui posent des

problèmes de droits. Pour l'instant, dans les données qui sont fournies librement,

les résolutions ne sont pas suffisantes pour vraiment être intrusives. On peut

évidemment voir si des gens ont des piscines, si on peut voir leur aménagement intérieur

dans leur jardin, mais on n'arrive pas à accéder encore à de l'information très

précise. Mais c'est une vraie question, surtout quand on est dans une ère d'open data,

donc d'essayer de fournir les données, etc. Mais effectivement,

ce sont des questions qui sont de plus en plus présentes, des questions de vie

privée pour l'observation de la Terre. Bon, nous avons parlé de ce que ces satellites

peuvent voir, le modèle 3D et quelques applications. Mais il manque encore le

travail de Thomas et de son laboratoire. Finalement, ces laboratoires portent aussi

le mot environnement dans son nom. Essayons donc d'expliquer un peu plus en détail comment

cet univers des satellites devient intéressant pour la recherche scientifique en géographie

et environnement. De manière générale, il y a beaucoup de phénomènes qui sont émergents,

des phénomènes climatiques violents, il y a beaucoup de dérèglements qu'on observe

partout, en milieu urbain, en mer, avec toutes les questions liées au réchauffement.

Ces phénomènes, on les observe. On se doute bien de l'origine, de la cause qui est liée à

un réchauffement climatique. Après, il y a plein de choses qui ne sont pas encore comprises.

Donc les villes se densifient énormément. Avec la densification, il y a des problèmes,

donc il y a l'habitat qui devient de plus en plus massif. Ça crée des îlots de chaleur

parce que, ça c'est des phénomènes physiques, mais les rayons du soleil peuvent

être piégés entre des bâtiments, etc. Donc on voit bien que si on a des bâtiments

de plus en plus hauts, ça va emmagasiner un peu plus de chaleur. Donc il y a un

phénomène d'îlots de chaleur, il y a des phénomènes de pollution parce qu'il y a plus de

monde, etc. Et on a tendance à penser, à juste titre, que les arbres sont une bonne

réponse parce que les arbres absorbent du CO2, les arbres permettent de rafraîchir un peu

les villes avec les vapotranspirations, etc. Et par contre, on se rend compte, on s'est

rendu compte, au canicule de 2022 et même à l'été 2023, qu'il y a des arbres qui sont

morts en ville alors qu'ils étaient au milieu de parcs et donc ils ont dépéri et alors

qu'ils étaient a priori dans des conditions bonnes et il y a des arbres qui ont résisté alors

qu'ils étaient au milieu de bitumes, dans des rues, etc. Et du coup, il y a des problèmes

actuels. Là, les arbres en gros ne vont pas bien en ville et on ne sait pas pourquoi et on

observe des choses surprenantes. Donc on essaie par exemple de comprendre ça. Il y a

des phénomènes qui ne sont pas compris. Par exemple, des phénomènes météo aussi

violents qui vont générer des très fortes pluies, très localisées et qui vont faire

énormément de dégâts et on ne sait pas pourquoi ces phénomènes se créent. On n'arrive

pas à trouver des signes précurseurs. Donc on analyse vraiment ce genre de phénomène et la

démarche est vraiment de l'observation. Donc on observe ces phénomènes-là. Donc on va essayer

de remonter à des informations de végétation, mais aussi dans les arbres, des informations sur

leur contexte et ce qui sont dans des parcs, dans des zones urbaines, etc. Donc derrière,

on a besoin de détecter tout ça et en fait, on va essayer de comprendre en fait ce qui crée

ces phénomènes, ce qui peut les déclencher ou pas et dans le but de fournir des outils

d'aide à la décision, donc d'aménagements urbains dans le cas des armes ou des outils

d'aide déjà d'alarme un petit peu plus précis pour les phénomènes climatiques. Mais dans le

but en gros de comprendre et de modéliser ce genre de phénomène qui ne sont pas encore

complètement compris. Tu as donné plein d'exemples et c'est des exemples qu'on peut

entendre citer dans les médias, notamment à travers le projet Copernicus, je crois. Est-ce

que tu peux nous en parler un peu ? Alors le projet Copernicus, c'est un projet lancé

par l'Union européenne, donc un très grand projet, très vaste projet d'observation de la

Terre. En gros, il y a des enjeux aussi géopolitiques, on va dire, mais c'est

important pour l'Europe d'avoir ses propres systèmes d'observation. Donc Copernicus a

lancé un très grand nombre de satellites d'observation de la Terre et notamment toute

la constellation Sentinelle qui est beaucoup utilisée. Et en gros, la constellation Sentinelle,

ça révolutionne un petit peu la manière dont on fait de l'imagerie satellite. Donc je vais

vous donner un exemple. Jusqu'à présent, quand on veut une image satellite, par exemple,

sur la ville de Rennes, on fait une commande à un fournisseur d'images satellite. Donc en

France, il y a Airbus, par exemple, qui est un fournisseur d'images. On lui dit, j'aimerais

bien une image lors du prochain passage du satellite sur Rennes. On fait la commande. Le

satellite, quand il passe au-dessus de Rennes, il prend une série de photos et il traite

l'image et après on reçoit l'image satellite sur Rennes. Donc ça marche en général comme ça à

la commande. Sentinelle, c'est un satellite qui va prendre des photos en permanence, en

permanence, en permanence de tout ce qu'il voit. Donc ce qui fait que sur un même site,

on va avoir sur Rennes, par exemple, on va avoir des images tous les 3-4 jours. Donc

c'est à 10 mètres de résolution spatiale, ce qui n'est pas de la très très haute résolution,

mais ce qui est quand même pas mal. Et en fait, ce qui fait qu'on a des données,

un flux de données complètement énorme. Donc ce qui pose aussi des questions de traitement,

de stockage, etc. On a des données en continu sur l'ensemble du globe qui sont fournies.

Du coup, on a un gros des satellites que tous les jours, tout le temps, ils envoient de la

data sur Terre et toutes ces données sont stockées où, sans gérer par qui et est-ce

qu'elles sont vraiment utilisées ? Concrètement, elles sont sous-utilisées

parce qu'on a un flux de données énorme. Alors elles sont stockées où ? Donc c'est

Copernicus qui a ses propres systèmes de stockage. Donc en France, le CNES

stocke les données sentinelles et fournit des accès aux données sentinelles. Le problème,

et c'est un problème, c'est qu'ils sont performants mais disons qu'il y a des boîtes

privées comme Google qui fournissent aussi l'accès aux données sentinelles et c'est

peut-être plus facile de passer par les interfaces de Google que les interfaces du

CNES. Il y a aussi un certain nombre de boîtes privées qui sont développées autour

du traitement de données sentinelles, autour de la valorisation des données

sentinelles. Donc il y a Carmap qui est issue du laboratoire et qui, elles, traitent

les données sentinelles pour fournir chaque mois une donnée, une image bien propre et

accessible au grand public sur l'ensemble du globe. Mais effectivement, elles sont

complètement sous-exploitées et du coup, il y a aussi des entreprises qui prennent ça pour

essayer de fournir du service dessus parce qu'on sent qu'il y a un potentiel énorme mais

qui est complètement sous-exploité. Du coup, on a dit, on a cette génération de données,

ces données arrivent sur terre. Pour moi, il manque un morceau, tu en as déjà nommé.

Qu'est-ce qui se passe une fois que ces images arrivent ? Comment on les traite ? Qu'est-ce

qu'on fait ? La donnée satellite, quand elle arrive déjà, quand on la voit sur Google Earth,

c'est super bien, elle est bien calée, on peut superposer une carte dessus, etc. Mais déjà,

il y a tous ces problèmes de bien la caler, la géoréférencer. C'est une technique en

soi. Enfin, c'est des choses à faire quand on reçoit une image brute, de bien la spatialiser.

Il y a aussi pas mal de questions de correction atmosphérique, géométrique,

donc pour qu'elles soient un petit peu homogènes, pour que si on a une image de

la même zone deux, trois jours après, qu'on puisse les comparer. Il y a beaucoup de

prétraitement à faire sur les données en recevant le signal brut, donc il y a vraiment

un signal qui va être émis par le satellite, qui va nous donner des informations sur l'image.

Et après, derrière, une image, c'est d'un point de vue traitement de données,

c'est un tableau de nombres. Une image en deux dimensions, ça va être un tableau de

nombres. Et dans chaque nombre, ça va être un facteur où on va voir toutes les

informations de la couleur rouge, vert, bleu ou infrarouge, etc. Et derrière,

toutes les techniques de passer de cette information là, brute, numérique,

à une quantité de chlorophylle, à dire là, je suis dans une zone urbaine,

je suis dans un lac, etc. Là, c'est tout le domaine du traitement de données. Et là,

il y a énormément de choses à faire. Et donc là, il y a beaucoup de gens,

donc data science en général, mais tout ce qui est traitement de données,

là, il y a énormément, énormément de recherches à faire pour en fait interpréter

ces données un petit peu automatiquement. Et c'est à ce moment-là que vous utilisez

l'intelligence artificielle. Oui, exactement. Donc là-dessus,

l'intelligence artificielle, on n'en utilisait pas avant que ça arrive.

C'était tout le domaine traitement d'images. Et effectivement,

depuis l'arrivée, depuis une dizaine d'années, une quinzaine d'années,

de l'IA et des méthodes de réseau de neurones qui ont révolutionné pas mal

de choses dans tous les domaines, dans le domaine spatial, aussi on s'est mis

à ces données-là. Et ça a apporté beaucoup, beaucoup de gains, en fait,

dans pas mal de tâches de reconnaissance en observation latère.

Bon, ça s'entend, je voulais que Thomas nous parle d'intelligence artificielle.

D'une part parce que je savais que ça représentait une grosse partie de son travail,

et d'autre part parce que j'avais pas réellement compris comment l'IA pouvait

servir la recherche en observation spatiale. Mais il y a quand même quelque chose qui

m'intrigue. C'est le regard critique qu'on peut poser sur le travail d'une IA.

J'enregistre cette émission en 2024 et aujourd'hui, perso, quand j'entends IA,

je peux pas empêcher de penser aux résultats approximatifs qu'on peut avoir.

Qu'en pense Thomas ?

Nous, dans notre domaine, je pense que quand on fait un peu de traitement de données,

on sait très bien mesurer la fiabilité. Et effectivement, il y a un travail de

pédagogie à faire. Souvent, même quand on entend dans les médias grands publics,

l'algorithme a interprété que, ou l'ordinateur a dit que, etc.

On sait très bien que derrière, il n'y a pas de magie, c'est des humains qui les

programment. L'IA, les techniques d'intelligence artificielle, comme on

entend récemment, ont permis des très grands progrès. Si je sors du domaine

satellite, essayer de reconnaître automatiquement dans une image, par

exemple, si on a un chien, un chat, une montagne, etc. Avant l'IA, les

meilleures méthodes avaient à peu près 70-80% de bonne précision.

Maintenant, elles sont à 95% de bonne précision, ce qui est la précision

d'un être humain. C'est-à-dire qu'un être humain, si on lui demande, si on lui

donne 2000 images à classer, il ne va pas faire 100%, il va faire à peu

près 95%. Donc là-dessus, il y a des gains très importants. Après, en

observation de la Terre, je pense qu'il faut faire très attention parce que

justement, autant si on voit une image d'un chien ou d'un chat, que

l'ordinateur dit c'est un chat et qu'on voit que c'est un chien, on est

capable de le voir. Quand une méthode d'IA en observation de la Terre va

dire là, il y a tant de chlorophynes, ou là, c'est telle espèce d'arme, etc.

On n'a pas le même regard critique et la question de la validation, elle est

très importante. Donc effectivement, tout n'est pas fiable et il ne faut pas

avoir une confiance aveugle dessus. Et sachant qu'il y a des problèmes aussi,

par exemple, toutes les techniques de deepfake qu'on voit, elles sont

marrantes, elles sont rigolotes pour des applications au grand public.

On peut s'en servir aussi en traitement de données parce que ça

peut permettre de, par exemple, si on veut améliorer la précision d'une

image satellite, ça peut permettre de fournir, on peut utiliser ce genre de

méthode pour essayer de voir plus précisément. Par exemple, à

l'intérieur d'une ville, essayer de détecter les arbres de manière plus

précise, etc. Ces méthodes-là, elles fournissent des résultats visuels qui

sont super impressionnants en fait. On se dit, d'un coup, on a une image

dont la résolution est bien augmentée, mais là, ça peut générer beaucoup

de données aberrantes, incohérentes. Il faut être très prudent là-dessus,

complètement. Alors là, j'avoue que je suis un peu perdu avec ce que

vient de dire notre invité. Quand Thomas dit qu'on peut se servir

des mêmes méthodes que celles qu'on utilise pour faire des deepfakes, je suis

un peu choqué. Généralement, quand on parle de deepfake, on parle d'une

fausse photo ou d'une fausse vidéo générée par une intelligence

artificielle à partir d'une grande base de données. Je vous renvoie à

notre émission sur l'IA avec Aurélie le maître, dans laquelle on va plus

loin dans nos explications. Bref, j'avais compris que l'IA était

pratique pour gérer de gros volumes de données, mais là, si j'écoute ce

que me dit Thomas, les chercheurs peuvent carrément utiliser de l'IA

générative pour créer ou en tout cas améliorer les images qu'ils vont

observer. Je demande à notre invité de m'en dire plus. Un exemple très

classique, j'ai une image chantinel qui a 10 mètres de résolution

spatiale. Donc 10 mètres de résolution spatiale, il faut imaginer

si on regarde une ville, on va globalement distinguer, si on regarde

Rennes, on va tout distinguer, le parc du tabord, la place de

glisse, etc. On va pas bien voir les haies, les contours, les routes dans

les détails, etc. Donc on peut, pour des applications, par exemple, ou

agricoles de détection des haies, où on veut avoir les parcelles précises, donc

on peut chercher à améliorer la résolution spatiale des images, donc

faire une image de la même zone, mais avec plus de précision. Et là, en

fait, les techniques qui sont les plus impressionnantes

visuellement utilisent les mêmes genres de techniques que les deepfakes,

c'est-à-dire qu'on va montrer à un algorithme d'IA plein d'images à

très haute résolution, donc des images comme il s'attendrait à voir, et

après on lui montre l'image à moyenne résolution, il va essayer de

reconstruire l'image la plus probable, la version haute résolution la plus

probable. Et là, ça peut produire des résultats donc visuellement super

impressionnants. Donc si c'est juste pour améliorer le confort

visual, c'est bien. Si derrière, on veut faire de la mesure physique,

mesurer, évaluer ou identifier des espèces d'art ou des taux de

chlorophylle ou des choses comme ça, là par contre, ça produit des

choses qui sont pour l'instant incohérentes.

Ainsi, lorsque l'on voit des images satellite ou des produits

dérivés, par exemple des cartes de végétation en ville, il est possible

qu'une IA soit passée par là. Perso, je trouve que c'est un bon

exemple de l'imprégnation de l'IA dans le numérique et dans la

société, notamment derrière la face visible des modèles les plus

populaires. On l'a déjà dit, mais les mondes de l'IA ne se

limitent pas à chager pt et mid-journée.

Mais il y a une chose qui nous étonne dans l'industrie

aérospatiale. Thomas travaille à Rennes 2, sur des modèles d'IA qui

analysent des images venant de l'espace, des satellites qui ont été

conçus et construits par des ingénieurs, qui ne sont pas

sûrement sur les campus de Rennes 2.

Du coup, ça semble que la machine mobilisée par cette

industrie n'est pas exactement petite.

Mais bon, alors quels sont les liens entre un chercheur ou une

chercheuse à un bout de chaîne comme Thomas et les ingénieurs

concepteurs qui les satellites les font ?

Tous ces acteurs travaillent-ils séparamment ou ensemble pour

s'y mettre d'accord sur ce qu'il faut envoyer de l'espace ?

Et comment ils travaillent ?

En France, le CNES ou l'Agence spatiale européenne est sans cesse

en train de réfléchir à des nouveaux capteurs, des nouveaux

satellites. Et il y a tout un protocole qui est vraiment bien

calibré. Il y a différents niveaux entre la preuve de concept,

l'idée du satellite, la preuve de concept, des tests, etc.

Donc, il y a tout un protocole qui mêle des concepteurs et

les chercheurs, etc.

Donc, par exemple, on est dans un projet pour un satellite

thermique qui va mesurer des températures.

Et là-dessus, il y a pas mal d'études amont de

faisabilité.

Après, il y a des études de terrain, c'est-à-dire qu'on va

essayer de faire des vols aériens qui vont essayer de

reproduire sur des sites d'études le plus fidèlement

possible le type d'image que le satellite ferait.

Et après, il y a des projets de recherche autour.

On exploite ces données et on essaie de voir ce qu'on peut

en faire. On voit si c'est intéressant, etc.

On fait remonter ça.

Et après, il y a tout un système, tout un protocole en

sept ou huit étapes qui va à la fin, si tout est

passé, jusqu'à la conception du satellite.

Mais oui, les chercheurs sont bien impliqués dans la

création des satellites et effectivement, c'est

important. Et du coup, la méthode, la méthodologie,

c'est vraiment d'essayer de reproduire sur terre avec

des avions le type d'image que le plus fidèlement

possible le type d'image que les satellites ferait.

Et derrière, on lance des projets de recherche et on

regarde la faisabilité.

Les satellites, ils sont primordiaux pour le

travail de Thomas. Ça, on commence à le comprendre.

Pour autant, il y a un sujet qui revient souvent

lorsqu'on parle d'eux et qu'on n'a pas encore

abordé, c'est les déchets spatiaux.

En gros, quand on arrête d'utiliser un satellite,

eh ben, il continue de tourner en orbite autour de

la Terre sans servir à grand chose.

Ça, c'est un truc que je savais avant l'émission.

Par contre, ce que je savais pas, c'est les

raisons qui nous font arrêter l'utilisation

d'un satellite.

Alors, un satellite, il a besoin pour fonctionner

d'énergie quand même.

Donc, il est en orbite, donc c'est un phénomène

physique et mécanique qui fait qu'il tourne en

permanence. Mais des fois, il peut un peu

dévier de sa trajectoire.

Donc, il a besoin d'un petit peu d'énergie

des fois pour se corriger de sa trajectoire.

Il a aussi des systèmes d'acquisition, etc.

Donc, il a besoin d'une énergie.

Et ça, on est obligé de lui donner au début

parce qu'on ne peut pas l'alimenter, on ne

peut pas le recharger sur place.

Donc, il part avec des batteries, des panneaux

solaires, etc. Mais à un moment, en fait,

à un moment, il ne va plus fonctionner.

Il y a aussi l'usure des matériaux et des

capteurs sur place, etc.

Donc, les satellites, en général, ils sont

prévus pour une durée de vie.

Donc, ça dépend du satellite, mais il y en

a qui tiennent très longtemps.

Par exemple, il y a Spot en France.

Spot, c'est, ça veut dire satellite

pour l'observation de la Terre et les

satellites en durer bien plus longtemps que

prévu. Et après, il y en a aussi qui

dure moins longtemps que prévu, mais

disons qu'ils ont besoin d'énergie.

Donc, il faut les alimenter et on peut donc

qu'ils sont obligés de partir avec une

réserve d'énergie qui, à un moment, va

s'épuiser. Et parfois, il y a des

panneaux ou les capteurs qui ne

marchent plus, etc.

Les mondes de l'observation de la

Terre est, selon Alex et moi, un

exemple parfait d'un des plus grands

problèmes, peut-être même un paradoxe

de numérique d'aujourd'hui.

Nous avons rempli l'espace autour de la

Terre avec des milliers de satellites.

Certains d'entre eux sont là pour

comprendre comment fonctionne notre

planète et comment nous la changeons,

et donc pour la protéger, limiter

les dégâts et s'adapter à des

changements qu'il est trop tard pour

éviter. Un objectif qui est généré

pour les moins nobles, même

nécessaires. Mais ces satellites sont,

d'une part, voués à devenir des

déchets et, d'autre part, ils

envoient un flux continu des

données entre l'espace et la Terre.

Ces données sont sous-exploitées et

analysées par des technologies

gourmandes à l'énergie telles que

l'IA. Or, idéalement, l'un des

objectifs de numérique est de nous

aider à résoudre des problèmes de

notre société. Bon, ce n'est pas

toujours le cas, mais ce n'est pas

la question ici. La question est la

suivante. À quel moment les

développements technologiques

continuent ? Est-il réellement un

outil pour améliorer nos vies,

et celle de tous les êtres

vivants dans ces cas ? Et à quel

moment devient une fuite en avant ?

Comment trouver un équilibre ?

L'impression est qu'il n'est pas

du tout évident de savoir quand

le numérique devient un frein,

qu'il devient de technosolutionnisme,

au lieu d'être un véritable

progrès. Et ces doutes n'agitent

pas seulement l'observation de

la Terre, mais tout le numérique

en général. En même temps,

soyons clairs, nous ne disons

pas ici qu'il faut cesser

d'observer la Terre, mais

qu'il est difficile de faire

un état de lieu global et

aussi que ce n'est pas notre

rôle. Mais la question reste

ouverte collectivement. À quel

point c'est trop ? Et à quel

point on a toujours besoin

parce que l'application mérite ?

C'est pour ça qu'à la fin de nos

discussions avec Thomas, nous

essayons de comprendre comment

il vit cette, peut-être,

contradiction intrinsèque à

son travail.

D'un point de vue purement

personnel, ce n'est pas que

j'ai l'impression de me cacher

derrière une bonne conscience

en me disant que je travaille

sur des questions

d'environnement. Mais si on

veut être un petit peu

provocateur, on peut se

demander si finalement avec

tout ça, on ne fait pas

plus de mal à l'environnement

qu'on lui apporte de

réponse. Bon, je ne pense

pas, j'y crois quand

même, mais effectivement, je

pense qu'on est dans une phase

où il va falloir se raisonner

à un moment dans l'avenir

parce qu'on ne peut pas

lancer des satellites

indéfiniment. Ça a aussi

un coût écologique de

lancer des satellites.

Et alors c'est super d'un

point de vue technologique

d'être tout le temps de plus

en plus précis, d'avoir

des observations de plus en

plus fines. Mais pour

l'instant, je pense

effectivement qu'on est dans

une, un peu comme dans

tous les domaines, on a

été dans une phase où on a

lancé, on a des satellites

partout, on acquiert des

données et on sent bien

que dans l'intelligence

artificielle, par exemple,

maintenant, on parle d'IA

frugale, on essaie d'être,

de faire attention à la

consommation. Je pense que

dans le satellite, on va

aller par là, même si c'est

pas encore des choses dont

on entend parler beaucoup.

Et sachant que dans le

satellite, il y a aussi

beaucoup d'enjeux militaires,

de souveraineté, etc.

Donc, je ne suis pas sûr

que ça s'arrête tout de

suite parce que c'est un

vrai enjeu de puissance

aussi pour les États,

d'être capable d'observer un

petit peu partout. Et

finalement, à mon avis,

si on a tous ces satellites

là, d'un point de vue

civile, c'est qu'on

bénéficie de tous les

satellites qui sont lancés

à des points de vue

militaire. Et du coup,

il y a des capteurs un

petit peu pour des

applications civiles qui

sont mises dessus. Et du

coup, le satellite

militaire, je ne suis pas

sûr que ça s'arrête,

surtout dans un monde

un petit peu en tension,

polarisé, etc.

Ça reste un outil

important.

Cette émission se terminera

donc avec cette

réflexion. Est-ce que

tout cela vaut le coup ?

On vous laissera y répondre

en attendant. Nous, on

remercie grandement Thomas

Corpetti, chercheur

au CNRS et directeur

adjoint du laboratoire

L.E.T.G. de Rennes 2

pour avoir accepté de

répondre à nos questions.

On espère que cette

émission sur l'observation

de la Terre depuis

l'espace vous aura plu.

Si c'est le cas,

on vous invite à vous

abonner à l'émission

sur la plateforme d'écoute

de votre choix et à nous

laisser un commentaire

ou des étoiles.

Dans cette émission,

on aura parlé d'IA

et si c'est un sujet

qui vous intéresse,

on vous invite à aller

écouter notre entretien

avec Aurélie Lemaitre,

une chercheuse qui

travaille sur une IA

qui lit la musique.

Bref, il est déjà temps

de nous laisser.

On se dit à très vite

dans AZERTY

Sous-titres générés avec IA (Whisper), editing et proofing par Guglielmo Fernandez Garcia.

Créateurs et invités

Alexandre Allain
Hôte
Alexandre Allain
Développeur Front-End, j'explore la société numérique en podcast et à la radio depuis 2017.
 Guglielmo Fernandez Garcia
Hôte
Guglielmo Fernandez Garcia
Je bricole des IA, mais j'aime aussi la vulga et les sciences sociales
Observer la Terre depuis l'espace, avec Thomas Corpetti
Diffusé par