La tendance s’affirme de plus en plus sur les réseaux sociaux : la diffusion de fausses images satellites. Le plus souvent, il s’agit de vues aériennes retouchées de manière à tromper le public. Parfois, des procédés plus complexes sont employés via l’intelligence artificielle (IA).Un phénomène problématique, car les images satellites, sont régulièrement employées par les fact checkers dans le cadre de leur travail de vérification. Les manipulateurs l’ont bien compris…
Plusieurs images satellites falsifiées ont attiré votre attention ces derniers mois. Premier exemple lors des raids indiens sur le Pakistan en mai dernier. Il y a eu une très forte désinformation, autour de ces opérations aériennes. Nous vous en parlions ici.
A la veille du déclenchement des hostilités, des comptes mettaient en ligne de prétendues photos satellites montrant des avions de combat Rafale prêts à entrer en action. Selon les commentaires, ces avions de chasse indiens avaient été surpris par les caméras d’un satellite sur une base non identifiée. Cette image était une infox. Cela n’avait pas échappé à certains utilisateurs.
Après vérification, il s’agissait d’un trucage. Pour schématiser, quatre petits avions gris, étaient copiés-collés sur une photo satellite pour faire croire à une preuve. Cette infox devait contribuer à préparer l’opinion à l’entrée en guerre de l’Inde avec ses Rafale. L’avion français fut dans les jours suivant l’objet d’une vaste campagne de désinformation orchestrés par le Pakistan et la Chine. Ailleurs dans le monde, les images satellites ont été largement utilisées pour documenter les résultats du spectaculaire raid ukrainien contre des bases stratégiques russes début juin. Ce fut aussi l'occasion de détecter de fausses vues aériennes destinée à amplifier les dégâts.
Autre exemple, les fameuses images de la frégate nord coréenne endommagé lors de la cérémonie de lancement devant le dictateur Kim Jong Un. Très vite des photos du chantier naval de Chongjin ou a eu lieu l’accident ont été diffusée. Pour masquer l’ampleur du désastre, des grandes bâches bleues avaient été disposées sur la coque du bateau. Suite à une défaillance du système de mise l’eau, le navire s’était couché, à moitié dans le port, à moitié sur le quai. Quelques heures plus tard, des photos, encore plus précises, ont été diffusées sur les réseaux. A priori, il s’agissait de la même scène : une vue verticale, même orientation, même angle, mais ces images avaient été améliorées par IA pour les faire passer pour des photos en HD.
Résultat : l’IA avait oublié certains éléments, comme l’un des portiques du chantier tout simplement effacé, ou avait exagéré d’autres éléments afin de produire une image plus spectaculaire. Cette image a donc été altérée, et qui ne peut pas constituer une base de travail pour les fact-checker, ni un élément probant. Image qui ne portrait aucune mention annonçant l’utilisation d’un outil d’intelligence artificielle.
Comme ces clichés récents, censés montrer un important déploiement de troupes russes dans la région de Briansk proche de l’Ukraine ou encore les dégâts causés par de récentes frappes de drones à Kiev. A première vue, ces images sont très réalistes, mais elles ne sont pas authentiques. Alors comment savoir ? Il existe bien des détecteurs d’IA, toutefois ils ne sont pas fiables à 100%.
Comme à chaque fois en pareil cas, il convient d’effectuer une recherche par image inversée pour voir si les photos douteuses apparaissent t sur des publications sérieuses et dans quel contexte. Il faut aussi rechercher la source de ces images. Assez facile, car les fournisseurs d’images spatiales, (des agences publiques ou des entreprises privées), ne sont pas très nombreuses. Rfi travaille régulièrement avec Airbus Space, Planet-Labs et Maxar. Par ailleurs, ces entreprises sont très soucieuses de leur réputation compte tenu des enjeux commerciaux. Elles sont donc vigilantes et peuvent coopérer avec les modérateurs ou les médias afin d’améliorer la traçabilité des images.
L’utilisateur pourra aussi comparer des images douteuses à des images fiables, même si elles sont plus anciennes, par exemple, en utilisant Google Earth. Enfin, il convient de rechercher les incohérences graphiques assez caractéristiques des images produites grâce à l’intelligence artificielle générative. Vérifier par exemple la symétrie des bâtiments, les proportions, ou encore les murs et les fenêtres d’un immeuble qui peuvent « pencher » et qui visuellement s’inscrive mal dans la géométrie de l’ensemble.
Prudence donc, car à l'avenir, pour chaque image authentique, il pourrait y avoir plusieurs contrefaçons « convaincantes » et cela risque de réduire la confiance du public dans l'imagerie spatiale.