Observer la Terre depuis l'espace, avec Thomas Corpetti
Télécharger MP3Sous-titres générés avec IA (Whisper), editing et proofing par Guglielmo Fernandez Garcia.
En 2004, Google rachète EarthViewer, connu aujourd'hui sous le nom de Google Earth.
Et il y a de fortes chances que ce service de consultation d'image satellite soit le premier
que vous ayez connu. Et peut-être que comme moi, quand cette technologie est arrivée jusqu'à vous,
votre premier réflexe a été de regarder votre ville, l'endroit où vous habitez,
les lieux connus à proximité de chez vous, comme si cela vous paraissait presque impossible.
Et oui, au lancement de Google Earth, on arrivait encore à être fasciné par la tech.
Mais bon, cette technologie, elle pose quand même de nombreuses questions.
Peut-on vraiment tout voir depuis l'espace ? On le sait, des satellites sont en orbite autour
de la Terre et nous regardent. Mais qu'est-ce qu'ils regardent exactement ? Quelle est la
véritable utilité de ces engins qu'on envoie dans l'espace ? Pour répondre à nos interrogations,
avec Guglielmo, nous avons rencontré Thomas Corpetti, chercheur au CNRS et
directeur adjoint du laboratoire LETG de Rennes 2, littoral environnement,
télédétection et géomatique. Avant de commencer, je dois faire un
avoue. L'observation de la Terre est en partie mon domaine. J'ai travaillé à LETG et je connais
bien Thomas. Pour cette émission, j'essaierai donc votre steward de l'espace. Attachez vos
ceintures et préparez-vous à vous lancer en orbite.
Commençons avec du jargon. Parmi les quatre lettres qui composent les noms LETG,
nous nous concentrons sur la lettre T, télédétection. Pour comprendre ce qu'il
signifie, il suffit de se rappeler qu'il est composé de TELÉ, qui signifie un latin
des loins, et DETECTION, qui signifie tout simplement mesurer, mesurer des loins.
Et c'est quelque chose que vous connaissez bien. Lorsque vous voyez un beau paysage et
que vous prenez une photo avec votre téléphone, vous capterez la lumière à distance. En termes
techniques, la lumière est un rayonnement électromagnétique. Cette lumière atteint
votre smartphone, les capteurs. Dans la télédétection, les capteurs,
l'équivalent de votre appareil photo, sont montés non pas sur votre téléphone mais sur
des avions, des drones et sur des satellites. Imaginez donc la Terre et une multitude de
petites satellites qui tournent autour et qui la prend en photo.
Maintenant qu'on a les bases, on va mettre les deux pieds dedans. C'est dans cette émission
que j'ai besoin de savoir. Est-ce qu'on peut tout voir depuis l'espace ? Est-ce qu'on peut
tout observer ? On a toujours le fantasme qu'on peut tout observer et qu'on a tout le
temps une caméra au-dessus de nous. C'est pas vrai, pas encore vrai. On a des images à peu
près en permanence qui prennent des observations. Si on regarde autour de Rennes, on ne peut pas
garantir qu'il va y avoir une image tout de suite mais on va en avoir dans les quelques
heures. Après, il y a toujours des questions de résolution spatiale. La résolution spatiale en
gros, c'est la précision qu'on va avoir dans un pixel d'une image. Des satellites qui
permettent de voir très en détail. Il y en a de plus en plus mais il n'y en a pas encore tant
que ça. Mais il existe des satellites avec des résolutions spatiales très très élevées où on
peut voir des détails, des résolutions de l'ordre de quelques centimètres. C'est-à-dire
qu'un pixel va mesurer 2-3 centimètres carrés. Donc évidemment, on peut voir beaucoup de
choses dedans. Après, ces images-là, ce n'est pas de la vidéo donc on ne va pas avoir un
flux continu mais on va avoir une image de temps en temps. Du coup, pour faire simple à expliquer,
on peut dire que ces satellites, que non, la chose qu'on fait, c'est qu'on envoie des boîtes
contenant des caméras, si je ne me trompe pas. Mais est-ce que ces caméras, c'est des
caméras normales ? Est-ce que c'est comme le Macanone que j'ai à la maison ? Non. Les
caméras normales, comme tu dis, c'est des caméras RGB. En fait, les appareils
photos qu'on a tous les jours sur nos smartphones, etc., c'est des appareils
photos qui capent dans trois longueurs d'onde, donc qui capent du rouge vers le bleu. Je pense
qu'on a tous vu ça sur nos télé qui a ces trois couleurs. C'est les trois canaux,
donc les trois bandes spectralles qu'on appelle, qui permettent de reconstruire la
lumière visible que notre œil peut voir. Après, quand on s'intéresse à de la mesure
physique, on est intéressé par voir ce que l'œil peut voir mais on est aussi intéressé
par voir si on ne peut pas capter de la température, de l'humidité et plein d'autres
informations. Et ça, on ne va pas le voir dans le canal visible, donc dans l'espace que
notre œil peut voir, mais on va le voir dans d'autres longueurs d'onde qu'on appelle.
Donc, on a tous entendu parler d'infrarouges, d'ultraviolets et ça, c'est des capteurs qu'on
a aussi sur les images satellite qui permettent d'accéder à pas mal d'informations qui sont
encore plus riches que juste une caméra et un appareil photo Canon ou Sony classique.
Ça, c'est ce qu'on appelle de l'imagerie passive, c'est-à-dire qu'on va capter ce que
la Terre émet. On peut aussi faire de l'imagerie active. On a tous entendu parler
de radars. Maintenant, on entend aussi parler de l'IDAR, mais donc là, l'image réactive,
c'est de satellites qui vont lancer un signal, une onde radar par exemple. Cette onde radar
va évoluer dans l'atmosphère, va percuter un certain nombre d'objets et va être réémise
vers le capteur. Et en fait, l'analyse de ce signal réémis fournit aussi d'autres
types d'informations, donc encore différentes de l'infrarouge, etc.
Ok, donc les données satellites avec lesquelles travaille Thomas ne sont vraiment
pas les mêmes qu'on peut retrouver sur Google Earth. On y reviendra. Si je reviens
sur ce qu'a dit Thomas, on a deux types d'imagerie, donc l'une où l'on observe
les émissions brutes de la Terre et une autre dans laquelle l'outil d'observation est actif
dans le processus de conception d'une image, notamment grâce aux ondes LIDAR et radars.
Mais alors ce genre de capteurs, ils ont un intérêt que depuis l'espace ?
Sur des satellites, mais aussi sur l'imagerie aérienne par des avions,
sur des drones. Et ça, des capteurs LIDAR, on en met des fois dans des
pièces pour avoir la géométrie 3D d'une pièce en cinéma, par exemple,
pour faire de la reconstruction. Donc on peut utiliser partout. Après,
il y a toujours des compromis à trouver. Donc le satellite c'est très intéressant
parce qu'il est en orbite en permanence, donc il va pouvoir faire d'acquisition quand on le
souhaite. Le drone, par exemple, ça va être très flexible pour faire une mesure à un moment
donné ponctuel, mais il faut qu'il n'y ait pas de nuages, il faut qu'il n'y ait pas de
vent, pas trop de vent pour faire voler le drone. L'imagerie aérienne, pareil,
ça va dépendre des autorisations de vol, si on peut survoler certaines zones en milieu urbain,
mais chacune ont des spécificités. Donc le satellite, on va dire, c'est un peu le fond,
ils sont tout le temps là à tourner, ils peuvent fournir de l'information. Et le drone
et l'imagerie aérienne peuvent fournir des informations vraiment localement précises,
par exemple après un tremblement de terre, après une crue, pour apporter une vue plus
immédiate sans attendre que le satellite passe et peut-être plus précise aussi.
Comme l'a dit Thomas, il s'agit de méthodes de mesure actives, c'est-à-dire que notre
appareil photo, entre guillemets, émet un signal électromagnétique et capte ce qui lui
revient. Un peu comme quand on prend une photo avec les flashs parce qu'il fait trop sombre,
on envoie de la lumière et on capte le retour. Bon, nous connaissons tous et toutes les
termes radar, par exemple quand on craint d'un excès de vitesse sur l'autoroute. Et
en général, dans un radar, les signales émis, les flashs, aient une onde radio. Dans
un lidar, en revanche, les signales émis aient une lumière, par exemple une lumière
infrarouge. Ce qui change entre les deux, elle est le type de rayonnement qu'on envoie. Il
y a aussi d'autres différences, mais ce n'est pas important pour nos discussions.
Ce qui est important, c'est que ces deux méthodes permettent de voir des choses très
différentes. Par exemple, les radars permettent de voir même lorsqu'il y a du brouillard
ou des nuages. Et c'est pourquoi ils ont très utilisé un météorologie par exemple.
Cependant, ils ont souvent moins précis qu'un lidar. Les LIDAR quant à lui,
peuvent fournir des modèles 3D avec très grande précision, de maquette numérique d'un
objet, mais avec un mauvais temps névorien. Bon dit comme ça, ça semble que nous sommes
en un domaine très très très technique et éloigné de la vie quotidienne. Et
je pense plutôt que des exemples nous aideraient à comprendre les niveaux que ces technologies
ont atteint. Donc le lidar, effectivement, permet de faire des modèles 3D avec une très
grande précision de ce qu'on observe. Donc il y a beaucoup de personnes, par exemple en
géologie, qui s'intéressent à la suivi de déformations de roches ou de falaise. Donc
c'est vraiment des déformations infimes et qui sont sur des échelles de temps très longs. Et
en faisant des relevés lidar. Donc là, ce n'est pas des données aéroportées, c'est terrestre.
On vient avec un capteur lidar. On fait un scan 3D de la falaise et on revient un an après et
on essaie de capter des micro variations. Donc jusqu'à présent, il y a beaucoup d'informations
3D. Donc beaucoup de villes font des relevés lidar. Pas toutes, mais Rennes, par exemple,
Rennes a deux ou trois relevés lidar au cours de ces dernières années. Donc vraiment
des modèles 3D à très haute précision de la ville de Rennes où on peut refaire tous les
bâtiments, la végétation, etc. Mais actuellement, en France, il n'y a pas un modèle unique de
France 3D actuellement, mais il y a un gros projet en cours. Il est porté par l'IGN qui
s'appelle Lidar HD et l'idée c'est de faire un scan 3D de la France entière à très haute
résolution. Donc ça va changer les choses, je pense, au niveau recherche parce que ça va
nous fournir des données qui sont assez uniques. Et l'idée de l'IGN, c'est aussi de refaire ce
genre de relevés régulièrement pour voir l'évolution en 3D de tout le territoire français.
Et ça, ça va changer les choses d'un point de vue analyse et observation de l'environnement,
notamment toutes les études qu'on fait. Enfin, nous, dans notre cas, on fait beaucoup
d'études en milieu urbain. Pour analyser l'environnement en milieu urbain, on a besoin
de savoir comment évoluent les quartiers, comment évoluent les bâtiments, où se situe
la végétation, etc. Et là, ça va être des données assez intéressantes pour travailler dessus.
Et là, pendant notre entretien, j'ai bien senti Thomas enjouer par le fait d'avoir
une France en 3D grâce aux données Lidar. Mais à ce moment-là, je ne peux pas m'empêcher
de penser aux dérives potentielles d'une telle technologie. Personnellement, ça me fait
peur de savoir qu'on peut avoir de super données 3D depuis l'espace d'en bas de chez
moi. Alors, est-ce que les chercheurs se posent ce genre de questions autour de la
Je vais répondre un petit peu à côté d'abord, mais par exemple, sur la ville de Rennes,
la ville de Rennes est très intéressée par l'état de la végétation dans la ville,
parce que la végétation, ça a beaucoup d'influence sur le climat, sur la pollution.
Donc, dans tous les problèmes actuels, c'est important de bien maîtriser la végétation.
Et en fait, la ville de Rennes, les services de la ville de Rennes ne connaissent que la
végétation publique. Et encore, il faut aller sur le terrain faire des relevés et ne
connaît pas en fait toute la végétation privée, alors qu'à Rennes, il y a énormément
de pavillons dans Rennes intramuros avec des arbres et qui apportent beaucoup de végétation.
Donc ça, c'est des choses qu'on peut voir par satellite. Mais effectivement,
on va compter les arbres, les haies chez les gens, dans la vie privée des gens.
Mais ça, le satellite le fait par défaut, c'est-à-dire que le satellite va tout
scanner indépendamment de l'espace public, de l'espace privé. Alors, pour l'instant,
les satellites gratuits, les images disponibles librement sont à des résolutions
spatiales modérées. Un pixel va correspondre à 10 mètres sur 10 mètres. On peut voir si
il y a un arbre dans le jardin des gens, mais on ne va pas distinguer des personnes, etc.
Mais effectivement, ça pose des vraies questions de vie privée qui posent des
problèmes de droits. Pour l'instant, dans les données qui sont fournies librement,
les résolutions ne sont pas suffisantes pour vraiment être intrusives. On peut
évidemment voir si des gens ont des piscines, si on peut voir leur aménagement intérieur
dans leur jardin, mais on n'arrive pas à accéder encore à de l'information très
précise. Mais c'est une vraie question, surtout quand on est dans une ère d'open data,
donc d'essayer de fournir les données, etc. Mais effectivement,
ce sont des questions qui sont de plus en plus présentes, des questions de vie
privée pour l'observation de la Terre. Bon, nous avons parlé de ce que ces satellites
peuvent voir, le modèle 3D et quelques applications. Mais il manque encore le
travail de Thomas et de son laboratoire. Finalement, ces laboratoires portent aussi
le mot environnement dans son nom. Essayons donc d'expliquer un peu plus en détail comment
cet univers des satellites devient intéressant pour la recherche scientifique en géographie
et environnement. De manière générale, il y a beaucoup de phénomènes qui sont émergents,
des phénomènes climatiques violents, il y a beaucoup de dérèglements qu'on observe
partout, en milieu urbain, en mer, avec toutes les questions liées au réchauffement.
Ces phénomènes, on les observe. On se doute bien de l'origine, de la cause qui est liée à
un réchauffement climatique. Après, il y a plein de choses qui ne sont pas encore comprises.
Donc les villes se densifient énormément. Avec la densification, il y a des problèmes,
donc il y a l'habitat qui devient de plus en plus massif. Ça crée des îlots de chaleur
parce que, ça c'est des phénomènes physiques, mais les rayons du soleil peuvent
être piégés entre des bâtiments, etc. Donc on voit bien que si on a des bâtiments
de plus en plus hauts, ça va emmagasiner un peu plus de chaleur. Donc il y a un
phénomène d'îlots de chaleur, il y a des phénomènes de pollution parce qu'il y a plus de
monde, etc. Et on a tendance à penser, à juste titre, que les arbres sont une bonne
réponse parce que les arbres absorbent du CO2, les arbres permettent de rafraîchir un peu
les villes avec les vapotranspirations, etc. Et par contre, on se rend compte, on s'est
rendu compte, au canicule de 2022 et même à l'été 2023, qu'il y a des arbres qui sont
morts en ville alors qu'ils étaient au milieu de parcs et donc ils ont dépéri et alors
qu'ils étaient a priori dans des conditions bonnes et il y a des arbres qui ont résisté alors
qu'ils étaient au milieu de bitumes, dans des rues, etc. Et du coup, il y a des problèmes
actuels. Là, les arbres en gros ne vont pas bien en ville et on ne sait pas pourquoi et on
observe des choses surprenantes. Donc on essaie par exemple de comprendre ça. Il y a
des phénomènes qui ne sont pas compris. Par exemple, des phénomènes météo aussi
violents qui vont générer des très fortes pluies, très localisées et qui vont faire
énormément de dégâts et on ne sait pas pourquoi ces phénomènes se créent. On n'arrive
pas à trouver des signes précurseurs. Donc on analyse vraiment ce genre de phénomène et la
démarche est vraiment de l'observation. Donc on observe ces phénomènes-là. Donc on va essayer
de remonter à des informations de végétation, mais aussi dans les arbres, des informations sur
leur contexte et ce qui sont dans des parcs, dans des zones urbaines, etc. Donc derrière,
on a besoin de détecter tout ça et en fait, on va essayer de comprendre en fait ce qui crée
ces phénomènes, ce qui peut les déclencher ou pas et dans le but de fournir des outils
d'aide à la décision, donc d'aménagements urbains dans le cas des armes ou des outils
d'aide déjà d'alarme un petit peu plus précis pour les phénomènes climatiques. Mais dans le
but en gros de comprendre et de modéliser ce genre de phénomène qui ne sont pas encore
complètement compris. Tu as donné plein d'exemples et c'est des exemples qu'on peut
entendre citer dans les médias, notamment à travers le projet Copernicus, je crois. Est-ce
que tu peux nous en parler un peu ? Alors le projet Copernicus, c'est un projet lancé
par l'Union européenne, donc un très grand projet, très vaste projet d'observation de la
Terre. En gros, il y a des enjeux aussi géopolitiques, on va dire, mais c'est
important pour l'Europe d'avoir ses propres systèmes d'observation. Donc Copernicus a
lancé un très grand nombre de satellites d'observation de la Terre et notamment toute
la constellation Sentinelle qui est beaucoup utilisée. Et en gros, la constellation Sentinelle,
ça révolutionne un petit peu la manière dont on fait de l'imagerie satellite. Donc je vais
vous donner un exemple. Jusqu'à présent, quand on veut une image satellite, par exemple,
sur la ville de Rennes, on fait une commande à un fournisseur d'images satellite. Donc en
France, il y a Airbus, par exemple, qui est un fournisseur d'images. On lui dit, j'aimerais
bien une image lors du prochain passage du satellite sur Rennes. On fait la commande. Le
satellite, quand il passe au-dessus de Rennes, il prend une série de photos et il traite
l'image et après on reçoit l'image satellite sur Rennes. Donc ça marche en général comme ça à
la commande. Sentinelle, c'est un satellite qui va prendre des photos en permanence, en
permanence, en permanence de tout ce qu'il voit. Donc ce qui fait que sur un même site,
on va avoir sur Rennes, par exemple, on va avoir des images tous les 3-4 jours. Donc
c'est à 10 mètres de résolution spatiale, ce qui n'est pas de la très très haute résolution,
mais ce qui est quand même pas mal. Et en fait, ce qui fait qu'on a des données,
un flux de données complètement énorme. Donc ce qui pose aussi des questions de traitement,
de stockage, etc. On a des données en continu sur l'ensemble du globe qui sont fournies.
Du coup, on a un gros des satellites que tous les jours, tout le temps, ils envoient de la
data sur Terre et toutes ces données sont stockées où, sans gérer par qui et est-ce
qu'elles sont vraiment utilisées ? Concrètement, elles sont sous-utilisées
parce qu'on a un flux de données énorme. Alors elles sont stockées où ? Donc c'est
Copernicus qui a ses propres systèmes de stockage. Donc en France, le CNES
stocke les données sentinelles et fournit des accès aux données sentinelles. Le problème,
et c'est un problème, c'est qu'ils sont performants mais disons qu'il y a des boîtes
privées comme Google qui fournissent aussi l'accès aux données sentinelles et c'est
peut-être plus facile de passer par les interfaces de Google que les interfaces du
CNES. Il y a aussi un certain nombre de boîtes privées qui sont développées autour
du traitement de données sentinelles, autour de la valorisation des données
sentinelles. Donc il y a Carmap qui est issue du laboratoire et qui, elles, traitent
les données sentinelles pour fournir chaque mois une donnée, une image bien propre et
accessible au grand public sur l'ensemble du globe. Mais effectivement, elles sont
complètement sous-exploitées et du coup, il y a aussi des entreprises qui prennent ça pour
essayer de fournir du service dessus parce qu'on sent qu'il y a un potentiel énorme mais
qui est complètement sous-exploité. Du coup, on a dit, on a cette génération de données,
ces données arrivent sur terre. Pour moi, il manque un morceau, tu en as déjà nommé.
Qu'est-ce qui se passe une fois que ces images arrivent ? Comment on les traite ? Qu'est-ce
qu'on fait ? La donnée satellite, quand elle arrive déjà, quand on la voit sur Google Earth,
c'est super bien, elle est bien calée, on peut superposer une carte dessus, etc. Mais déjà,
il y a tous ces problèmes de bien la caler, la géoréférencer. C'est une technique en
soi. Enfin, c'est des choses à faire quand on reçoit une image brute, de bien la spatialiser.
Il y a aussi pas mal de questions de correction atmosphérique, géométrique,
donc pour qu'elles soient un petit peu homogènes, pour que si on a une image de
la même zone deux, trois jours après, qu'on puisse les comparer. Il y a beaucoup de
prétraitement à faire sur les données en recevant le signal brut, donc il y a vraiment
un signal qui va être émis par le satellite, qui va nous donner des informations sur l'image.
Et après, derrière, une image, c'est d'un point de vue traitement de données,
c'est un tableau de nombres. Une image en deux dimensions, ça va être un tableau de
nombres. Et dans chaque nombre, ça va être un facteur où on va voir toutes les
informations de la couleur rouge, vert, bleu ou infrarouge, etc. Et derrière,
toutes les techniques de passer de cette information là, brute, numérique,
à une quantité de chlorophylle, à dire là, je suis dans une zone urbaine,
je suis dans un lac, etc. Là, c'est tout le domaine du traitement de données. Et là,
il y a énormément de choses à faire. Et donc là, il y a beaucoup de gens,
donc data science en général, mais tout ce qui est traitement de données,
là, il y a énormément, énormément de recherches à faire pour en fait interpréter
ces données un petit peu automatiquement. Et c'est à ce moment-là que vous utilisez
l'intelligence artificielle. Oui, exactement. Donc là-dessus,
l'intelligence artificielle, on n'en utilisait pas avant que ça arrive.
C'était tout le domaine traitement d'images. Et effectivement,
depuis l'arrivée, depuis une dizaine d'années, une quinzaine d'années,
de l'IA et des méthodes de réseau de neurones qui ont révolutionné pas mal
de choses dans tous les domaines, dans le domaine spatial, aussi on s'est mis
à ces données-là. Et ça a apporté beaucoup, beaucoup de gains, en fait,
dans pas mal de tâches de reconnaissance en observation latère.
Bon, ça s'entend, je voulais que Thomas nous parle d'intelligence artificielle.
D'une part parce que je savais que ça représentait une grosse partie de son travail,
et d'autre part parce que j'avais pas réellement compris comment l'IA pouvait
servir la recherche en observation spatiale. Mais il y a quand même quelque chose qui
m'intrigue. C'est le regard critique qu'on peut poser sur le travail d'une IA.
J'enregistre cette émission en 2024 et aujourd'hui, perso, quand j'entends IA,
je peux pas empêcher de penser aux résultats approximatifs qu'on peut avoir.
Qu'en pense Thomas ?
Nous, dans notre domaine, je pense que quand on fait un peu de traitement de données,
on sait très bien mesurer la fiabilité. Et effectivement, il y a un travail de
pédagogie à faire. Souvent, même quand on entend dans les médias grands publics,
l'algorithme a interprété que, ou l'ordinateur a dit que, etc.
On sait très bien que derrière, il n'y a pas de magie, c'est des humains qui les
programment. L'IA, les techniques d'intelligence artificielle, comme on
entend récemment, ont permis des très grands progrès. Si je sors du domaine
satellite, essayer de reconnaître automatiquement dans une image, par
exemple, si on a un chien, un chat, une montagne, etc. Avant l'IA, les
meilleures méthodes avaient à peu près 70-80% de bonne précision.
Maintenant, elles sont à 95% de bonne précision, ce qui est la précision
d'un être humain. C'est-à-dire qu'un être humain, si on lui demande, si on lui
donne 2000 images à classer, il ne va pas faire 100%, il va faire à peu
près 95%. Donc là-dessus, il y a des gains très importants. Après, en
observation de la Terre, je pense qu'il faut faire très attention parce que
justement, autant si on voit une image d'un chien ou d'un chat, que
l'ordinateur dit c'est un chat et qu'on voit que c'est un chien, on est
capable de le voir. Quand une méthode d'IA en observation de la Terre va
dire là, il y a tant de chlorophynes, ou là, c'est telle espèce d'arme, etc.
On n'a pas le même regard critique et la question de la validation, elle est
très importante. Donc effectivement, tout n'est pas fiable et il ne faut pas
avoir une confiance aveugle dessus. Et sachant qu'il y a des problèmes aussi,
par exemple, toutes les techniques de deepfake qu'on voit, elles sont
marrantes, elles sont rigolotes pour des applications au grand public.
On peut s'en servir aussi en traitement de données parce que ça
peut permettre de, par exemple, si on veut améliorer la précision d'une
image satellite, ça peut permettre de fournir, on peut utiliser ce genre de
méthode pour essayer de voir plus précisément. Par exemple, à
l'intérieur d'une ville, essayer de détecter les arbres de manière plus
précise, etc. Ces méthodes-là, elles fournissent des résultats visuels qui
sont super impressionnants en fait. On se dit, d'un coup, on a une image
dont la résolution est bien augmentée, mais là, ça peut générer beaucoup
de données aberrantes, incohérentes. Il faut être très prudent là-dessus,
complètement. Alors là, j'avoue que je suis un peu perdu avec ce que
vient de dire notre invité. Quand Thomas dit qu'on peut se servir
des mêmes méthodes que celles qu'on utilise pour faire des deepfakes, je suis
un peu choqué. Généralement, quand on parle de deepfake, on parle d'une
fausse photo ou d'une fausse vidéo générée par une intelligence
artificielle à partir d'une grande base de données. Je vous renvoie à
notre émission sur l'IA avec Aurélie le maître, dans laquelle on va plus
loin dans nos explications. Bref, j'avais compris que l'IA était
pratique pour gérer de gros volumes de données, mais là, si j'écoute ce
que me dit Thomas, les chercheurs peuvent carrément utiliser de l'IA
générative pour créer ou en tout cas améliorer les images qu'ils vont
observer. Je demande à notre invité de m'en dire plus. Un exemple très
classique, j'ai une image chantinel qui a 10 mètres de résolution
spatiale. Donc 10 mètres de résolution spatiale, il faut imaginer
si on regarde une ville, on va globalement distinguer, si on regarde
Rennes, on va tout distinguer, le parc du tabord, la place de
glisse, etc. On va pas bien voir les haies, les contours, les routes dans
les détails, etc. Donc on peut, pour des applications, par exemple, ou
agricoles de détection des haies, où on veut avoir les parcelles précises, donc
on peut chercher à améliorer la résolution spatiale des images, donc
faire une image de la même zone, mais avec plus de précision. Et là, en
fait, les techniques qui sont les plus impressionnantes
visuellement utilisent les mêmes genres de techniques que les deepfakes,
c'est-à-dire qu'on va montrer à un algorithme d'IA plein d'images à
très haute résolution, donc des images comme il s'attendrait à voir, et
après on lui montre l'image à moyenne résolution, il va essayer de
reconstruire l'image la plus probable, la version haute résolution la plus
probable. Et là, ça peut produire des résultats donc visuellement super
impressionnants. Donc si c'est juste pour améliorer le confort
visual, c'est bien. Si derrière, on veut faire de la mesure physique,
mesurer, évaluer ou identifier des espèces d'art ou des taux de
chlorophylle ou des choses comme ça, là par contre, ça produit des
choses qui sont pour l'instant incohérentes.
Ainsi, lorsque l'on voit des images satellite ou des produits
dérivés, par exemple des cartes de végétation en ville, il est possible
qu'une IA soit passée par là. Perso, je trouve que c'est un bon
exemple de l'imprégnation de l'IA dans le numérique et dans la
société, notamment derrière la face visible des modèles les plus
populaires. On l'a déjà dit, mais les mondes de l'IA ne se
limitent pas à chager pt et mid-journée.
Mais il y a une chose qui nous étonne dans l'industrie
aérospatiale. Thomas travaille à Rennes 2, sur des modèles d'IA qui
analysent des images venant de l'espace, des satellites qui ont été
conçus et construits par des ingénieurs, qui ne sont pas
sûrement sur les campus de Rennes 2.
Du coup, ça semble que la machine mobilisée par cette
industrie n'est pas exactement petite.
Mais bon, alors quels sont les liens entre un chercheur ou une
chercheuse à un bout de chaîne comme Thomas et les ingénieurs
concepteurs qui les satellites les font ?
Tous ces acteurs travaillent-ils séparamment ou ensemble pour
s'y mettre d'accord sur ce qu'il faut envoyer de l'espace ?
Et comment ils travaillent ?
En France, le CNES ou l'Agence spatiale européenne est sans cesse
en train de réfléchir à des nouveaux capteurs, des nouveaux
satellites. Et il y a tout un protocole qui est vraiment bien
calibré. Il y a différents niveaux entre la preuve de concept,
l'idée du satellite, la preuve de concept, des tests, etc.
Donc, il y a tout un protocole qui mêle des concepteurs et
les chercheurs, etc.
Donc, par exemple, on est dans un projet pour un satellite
thermique qui va mesurer des températures.
Et là-dessus, il y a pas mal d'études amont de
faisabilité.
Après, il y a des études de terrain, c'est-à-dire qu'on va
essayer de faire des vols aériens qui vont essayer de
reproduire sur des sites d'études le plus fidèlement
possible le type d'image que le satellite ferait.
Et après, il y a des projets de recherche autour.
On exploite ces données et on essaie de voir ce qu'on peut
en faire. On voit si c'est intéressant, etc.
On fait remonter ça.
Et après, il y a tout un système, tout un protocole en
sept ou huit étapes qui va à la fin, si tout est
passé, jusqu'à la conception du satellite.
Mais oui, les chercheurs sont bien impliqués dans la
création des satellites et effectivement, c'est
important. Et du coup, la méthode, la méthodologie,
c'est vraiment d'essayer de reproduire sur terre avec
des avions le type d'image que le plus fidèlement
possible le type d'image que les satellites ferait.
Et derrière, on lance des projets de recherche et on
regarde la faisabilité.
Les satellites, ils sont primordiaux pour le
travail de Thomas. Ça, on commence à le comprendre.
Pour autant, il y a un sujet qui revient souvent
lorsqu'on parle d'eux et qu'on n'a pas encore
abordé, c'est les déchets spatiaux.
En gros, quand on arrête d'utiliser un satellite,
eh ben, il continue de tourner en orbite autour de
la Terre sans servir à grand chose.
Ça, c'est un truc que je savais avant l'émission.
Par contre, ce que je savais pas, c'est les
raisons qui nous font arrêter l'utilisation
d'un satellite.
Alors, un satellite, il a besoin pour fonctionner
d'énergie quand même.
Donc, il est en orbite, donc c'est un phénomène
physique et mécanique qui fait qu'il tourne en
permanence. Mais des fois, il peut un peu
dévier de sa trajectoire.
Donc, il a besoin d'un petit peu d'énergie
des fois pour se corriger de sa trajectoire.
Il a aussi des systèmes d'acquisition, etc.
Donc, il a besoin d'une énergie.
Et ça, on est obligé de lui donner au début
parce qu'on ne peut pas l'alimenter, on ne
peut pas le recharger sur place.
Donc, il part avec des batteries, des panneaux
solaires, etc. Mais à un moment, en fait,
à un moment, il ne va plus fonctionner.
Il y a aussi l'usure des matériaux et des
capteurs sur place, etc.
Donc, les satellites, en général, ils sont
prévus pour une durée de vie.
Donc, ça dépend du satellite, mais il y en
a qui tiennent très longtemps.
Par exemple, il y a Spot en France.
Spot, c'est, ça veut dire satellite
pour l'observation de la Terre et les
satellites en durer bien plus longtemps que
prévu. Et après, il y en a aussi qui
dure moins longtemps que prévu, mais
disons qu'ils ont besoin d'énergie.
Donc, il faut les alimenter et on peut donc
qu'ils sont obligés de partir avec une
réserve d'énergie qui, à un moment, va
s'épuiser. Et parfois, il y a des
panneaux ou les capteurs qui ne
marchent plus, etc.
Les mondes de l'observation de la
Terre est, selon Alex et moi, un
exemple parfait d'un des plus grands
problèmes, peut-être même un paradoxe
de numérique d'aujourd'hui.
Nous avons rempli l'espace autour de la
Terre avec des milliers de satellites.
Certains d'entre eux sont là pour
comprendre comment fonctionne notre
planète et comment nous la changeons,
et donc pour la protéger, limiter
les dégâts et s'adapter à des
changements qu'il est trop tard pour
éviter. Un objectif qui est généré
pour les moins nobles, même
nécessaires. Mais ces satellites sont,
d'une part, voués à devenir des
déchets et, d'autre part, ils
envoient un flux continu des
données entre l'espace et la Terre.
Ces données sont sous-exploitées et
analysées par des technologies
gourmandes à l'énergie telles que
l'IA. Or, idéalement, l'un des
objectifs de numérique est de nous
aider à résoudre des problèmes de
notre société. Bon, ce n'est pas
toujours le cas, mais ce n'est pas
la question ici. La question est la
suivante. À quel moment les
développements technologiques
continuent ? Est-il réellement un
outil pour améliorer nos vies,
et celle de tous les êtres
vivants dans ces cas ? Et à quel
moment devient une fuite en avant ?
Comment trouver un équilibre ?
L'impression est qu'il n'est pas
du tout évident de savoir quand
le numérique devient un frein,
qu'il devient de technosolutionnisme,
au lieu d'être un véritable
progrès. Et ces doutes n'agitent
pas seulement l'observation de
la Terre, mais tout le numérique
en général. En même temps,
soyons clairs, nous ne disons
pas ici qu'il faut cesser
d'observer la Terre, mais
qu'il est difficile de faire
un état de lieu global et
aussi que ce n'est pas notre
rôle. Mais la question reste
ouverte collectivement. À quel
point c'est trop ? Et à quel
point on a toujours besoin
parce que l'application mérite ?
C'est pour ça qu'à la fin de nos
discussions avec Thomas, nous
essayons de comprendre comment
il vit cette, peut-être,
contradiction intrinsèque à
son travail.
D'un point de vue purement
personnel, ce n'est pas que
j'ai l'impression de me cacher
derrière une bonne conscience
en me disant que je travaille
sur des questions
d'environnement. Mais si on
veut être un petit peu
provocateur, on peut se
demander si finalement avec
tout ça, on ne fait pas
plus de mal à l'environnement
qu'on lui apporte de
réponse. Bon, je ne pense
pas, j'y crois quand
même, mais effectivement, je
pense qu'on est dans une phase
où il va falloir se raisonner
à un moment dans l'avenir
parce qu'on ne peut pas
lancer des satellites
indéfiniment. Ça a aussi
un coût écologique de
lancer des satellites.
Et alors c'est super d'un
point de vue technologique
d'être tout le temps de plus
en plus précis, d'avoir
des observations de plus en
plus fines. Mais pour
l'instant, je pense
effectivement qu'on est dans
une, un peu comme dans
tous les domaines, on a
été dans une phase où on a
lancé, on a des satellites
partout, on acquiert des
données et on sent bien
que dans l'intelligence
artificielle, par exemple,
maintenant, on parle d'IA
frugale, on essaie d'être,
de faire attention à la
consommation. Je pense que
dans le satellite, on va
aller par là, même si c'est
pas encore des choses dont
on entend parler beaucoup.
Et sachant que dans le
satellite, il y a aussi
beaucoup d'enjeux militaires,
de souveraineté, etc.
Donc, je ne suis pas sûr
que ça s'arrête tout de
suite parce que c'est un
vrai enjeu de puissance
aussi pour les États,
d'être capable d'observer un
petit peu partout. Et
finalement, à mon avis,
si on a tous ces satellites
là, d'un point de vue
civile, c'est qu'on
bénéficie de tous les
satellites qui sont lancés
à des points de vue
militaire. Et du coup,
il y a des capteurs un
petit peu pour des
applications civiles qui
sont mises dessus. Et du
coup, le satellite
militaire, je ne suis pas
sûr que ça s'arrête,
surtout dans un monde
un petit peu en tension,
polarisé, etc.
Ça reste un outil
important.
Cette émission se terminera
donc avec cette
réflexion. Est-ce que
tout cela vaut le coup ?
On vous laissera y répondre
en attendant. Nous, on
remercie grandement Thomas
Corpetti, chercheur
au CNRS et directeur
adjoint du laboratoire
L.E.T.G. de Rennes 2
pour avoir accepté de
répondre à nos questions.
On espère que cette
émission sur l'observation
de la Terre depuis
l'espace vous aura plu.
Si c'est le cas,
on vous invite à vous
abonner à l'émission
sur la plateforme d'écoute
de votre choix et à nous
laisser un commentaire
ou des étoiles.
Dans cette émission,
on aura parlé d'IA
et si c'est un sujet
qui vous intéresse,
on vous invite à aller
écouter notre entretien
avec Aurélie Lemaitre,
une chercheuse qui
travaille sur une IA
qui lit la musique.
Bref, il est déjà temps
de nous laisser.
On se dit à très vite
dans AZERTY
Sous-titres générés avec IA (Whisper), editing et proofing par Guglielmo Fernandez Garcia.
Créateurs et invités

