Images sous influence : comment l’IA s’est glissée dans nos photos au quotidien

2025 est l’année de l’avènement de l’intelligence artificielle. Tout en inquiétant, elle s’est immiscée dans la pratique même de la photographie, influence les choix esthétiques, enrichit les récits visuels, automatise des tâches jadis manuelles, ouvre de nouveaux territoires narratifs. Pour les amateurs comme les professionnels.

C’était il y a moins de 10 ans, à peine. L’intelligence artificielle appartenait encore au domaine des laboratoires et des spéculations futuristes. En quelques années, elle s’est pourtant glissée dans nos téléphones, nos moteurs de recherche, nos boîtes mail, nos logiciels de retouche photo, dans notre doigt qui clique pour prendre une image. Et aujourd’hui, elle aide à composer, assembler et imaginer des images que nul appareil photo n’a jamais capturées. Si la photographie a toujours été intimement liée à l’innovation technologique — du daguerréotype à la pellicule, de l’argentique au numérique —, jamais cette relation n’avait été aussi profondément transformée qu’aujourd’hui.

L’arrivée de l’intelligence artificielle dans l’univers de l’image a d’abord été discrète. Adobe a introduit dès 2016 des fonctions d’optimisation automatiques basées sur l’apprentissage machine. Google Photos a commencé à classifier les visuels par thèmes ou visages sans intervention humaine. Mais la véritable rupture est survenue en 2022, lorsque des outils comme DALL·E, Midjourney ou Stable Diffusion ont permis à n’importe quel internaute de générer en quelques secondes des images à partir d’une simple phrase, le dit prompt. La frontière entre capture et création, entre document et invention, s’est alors brouillée.

Pour les photographes, cette mutation soulève autant d’opportunités que de questions. Faut-il considérer ces images comme de la photographie, ou comme un nouveau médium ? Sont-elles des œuvres originales, ou le résultat d’algorithmes nourris d’archives visuelles existantes ? Et que devient le rôle de l’auteur, quand l’appareil photo lui-même disparaît de l’équation ? Certains y voient une menace existentielle. « L’IA n’est pas seulement un outil, elle redéfinit la notion même d’image », prévient l’historien de l’art Antonio Somaini. « Ce que nous voyons n’est plus nécessairement le reflet d’un moment ou d’un lieu, mais la projection statistique de milliers d’images passées. »

Peter Trimmel wins first prize for his UHY fennel at the Kooma Giants Show in Limburg, 1956, New Farmer series, 2023. © Bruce Eesly

Pour d’autres, elle représente au contraire un formidable champ d’expérimentation. Le photographe allemand Boris Eldagsen, qui a remporté en 2023 un prix Sony avec une image générée par IA avant de le refuser publiquement, parlant d’une « opportunité d’interroger notre rapport à l’image et à la vérité ». L’artiste Bruce Eesly, invité aux Rencontres d’Arles en 2024 avec « New Farmer », une série utilisant l’IA pour établir des analogies entre l’histoire de l’agriculture industrielle et le techno-optimisme de notre époque, estime que son travail « mêle faits et fiction pour perturber les récits historiques communément acceptés ».

Derrière les débats théoriques, un fait demeure : l’intelligence artificielle est désormais une composante incontournable de l’écosystème visuel. Elle infiltre les pratiques professionnelles, transforme les métiers, modifie les attentes du public et redessine les frontières de l’art. De la retouche invisible aux créations entièrement synthétiques, de la photographie de mode aux archives historiques, elle s’invite partout, souvent sans que nous en ayons pleinement conscience.

L’IA, nouvel outil ou nouveau créateur ?

Les premiers usages de l’intelligence artificielle dans la photographie remontent aux années 2010, bien avant que les générateurs d’images spectaculaires n’envahissent les réseaux. À cette époque, l’IA reste cantonnée à des tâches invisibles : correction automatique de l’exposition, reconnaissance de visages, suppression du bruit. Google Photos classe déjà les albums en fonction des lieux ou des personnes ; Adobe introduit dans Photoshop des outils d’« ajustement intelligent » capables d’identifier un ciel ou un visage pour les retoucher séparément. Mais l’image reste capturée, non produite.

La bascule s’opère en 2022. Cette année-là, l’arrivée simultanée de DALL·E 2, Midjourney et Stable Diffusion change la donne. Pour la première fois, une intelligence artificielle peut créer une image de toutes pièces à partir d’une simple phrase. Plus besoin de capteur, d’objectif, ni même de scène réelle : l’image naît d’un prompt, cet énoncé textuel que l’algorithme interprète et transforme en visuel. En quelques secondes, il devient possible de faire surgir un portrait réaliste d’un astronaute sur Mars dans le style de Richard Avedon ou une scène de rue parisienne comme l’aurait photographiée Henri Cartier-Bresson.

Ce basculement provoque alors une explosion d’usages. Depuis 2022, plus de 15 milliards d’images ont été générées par des outils d’intelligence artificielle, selon les données de la plateforme Everypixel, un bond sans précédent dans l’histoire de la création visuelle. Midjourney, l’un des générateurs les plus populaires, revendique aujourd’hui une communauté estimée entre 19 et 21 millions de membres actifs sur Discord, selon des chiffres compilés par des analystes indépendants. Cette démocratisation fulgurante a transformé l’image en un terrain d’expérimentation global, accessible aussi bien aux amateurs qu’aux photographes professionnels. « Nous assistons à une démocratisation sans précédent de la création visuelle », estime Sam Altman, PDG d’OpenAI, la société qui développe Chatgpt. « Ce n’est plus seulement un outil réservé aux artistes ou aux experts : c’est une extension naturelle de l’imagination humaine. »

Cette démocratisation sans précédent transforme la photographie en un terrain d’expérimentation pour des millions d’amateurs et de professionnels. « L’IA n’est pas un simple gadget », observe l’artiste Refik Anadol, pionnier dans le domaine et créateur d’installations génératives exposées au MoMA. « Elle redéfinit notre manière de produire des images, tout comme l’appareil photo l’a fait au 19ᵉ siècle. »

Unsupervised © Refik Anadol / MoMA

Cette révolution touche aussi les outils que les photographes utilisent au quotidien. Adobe intègre à son écosystème l’outil Firefly, qui permet d’ajouter, supprimer ou générer des éléments dans une image existante en quelques clics. Des plateformes comme Runway Gen-2 transforment une photo en vidéo animée, tandis que Topaz Labs utilise des réseaux de neurones pour restaurer d’anciennes images en ultra-haute définition. Dans les studios, les photographes de mode créent désormais des décors entiers sans quitter leur ordinateur, et certains photojournalistes ou éditeurs photo s’appuient sur l’IA pour coloriser des archives ou reconstituer des images manquantes dans une séquence historique.

Ces outils, pourtant, posent une question fondamentale : sont-ils encore de simples auxiliaires ou deviennent-ils des co-auteurs ? L’artiste français François Bellabas, qui combine photographie et génération algorithmique, refuse de trancher : « L’IA n’est ni un pinceau ni un photographe. C’est une autre façon de penser l’image, un partenaire dont il faut apprendre le langage. » La notion même de création devient floue : qui est l’auteur d’une image produite par des milliards de paramètres entraînés sur des archives collectives ? L’humain qui a formulé la demande, ou l’algorithme lui-même ?  

Un nouvel imaginaire visuel

L’irruption de l’intelligence artificielle dans la création d’images a produit, en quelques années à peine, une esthétique nouvelle – déroutante, fascinante et parfois inquiétante. Là où la photographie traditionnelle repose en général sur la captation du réel, l’IA génère des visions qui oscillent entre hyperréalisme et surréalisme. Le résultat n’est ni tout à fait documentaire, ni totalement imaginaire : il appartient à une zone grise, celle de l’image plausible.

AI x Future Cities © Manas Bhatia

Un simple mot peut aujourd’hui faire surgir un univers. Les plateformes comme Midjourney ou Firefly traduisent en images des concepts qui, jusqu’alors, n’existaient qu’en idées. Les photographes s’en servent pour explorer des scénarios impossibles à mettre en scène. L’architecte Manas Bhatia, à travers sa série « AI x Future Cities », a ainsi généré des visions urbaines durables : des tours couvertes d’algues servant aussi de filtres d’air, des structures mêlant végétal et architecture, dans un monde futuriste.

Cette esthétique algorithmique s’appuie sur une hybridation sans précédent des styles. L’IA assimile en un instant des siècles d’histoire de l’art et de photographie. Elle peut combiner la lumière de Rembrandt, le cadrage de Diane Arbus et la palette chromatique de Saul Leiter pour créer des images inédites. L’artiste allemand Boris Eldagsen, lauréat controversé du prix Sony en 2023 avant de le refuser, expliquait ainsi : « L’IA nous donne accès à une mémoire visuelle collective. Elle fonctionne comme un immense inconscient photographique. » Sa série « Pseudomnesia » (fausses mémoires), réalisée avec des outils génératifs, reproduit l’aspect de vieilles photographies de famille qui n’ont pourtant jamais existé. Présentées à Paris Photo, et vendues plus de 20 000 € euros chacune, ces œuvres ont ouvert un débat fondamental sur la nature de l’image.

© Boris Eldagsen. Sony World Photography Awards

Les images produites par IA adoptent les codes de la photographie documentaire – grain, profondeur de champ, lumière naturelle – tout en échappant à ses contraintes matérielles. Elles peuvent sembler photographiées, alors qu’elles ne le sont pas. C’est précisément cette ambiguïté qui fascine les artistes comme le public. « Je cherche à créer des images qui ont l’air d’exister depuis toujours », confie l’artiste américaine Stephanie Dinkins, qui utilise l’IA pour interroger les récits afro-américains. « L’important n’est pas de savoir si elles sont “vraies”, mais ce qu’elles disent de notre imaginaire collectif. »

L’esthétique de l’IA ne se limite pas au visuel : elle redéfinit aussi les modes narratifs. Certains artistes conçoivent des séries qui s’étendent sur plusieurs générations fictives, d’autres reconstituent des scènes effacées de l’histoire. Dans « The Unseen Archive », projet collectif présenté à la Biennale de Venise en 2024, des artistes ont « photographié » des femmes scientifiques invisibilisées, en imaginant les portraits qu’elles n’ont jamais eus. L’objectif n’était pas de tromper, mais de réparer une absence.

L’IA dans nos poches

À chaque fois que nous déclenchons l’appareil photo de notre smartphone, nous collaborons déjà avec une intelligence artificielle – souvent sans même le savoir. Dans l’ombre de chaque cliché, des algorithmes analysent, corrigent, recomposent et interprètent la scène, transformant un simple geste en un processus technologique complexe. Loin d’être un outil réservé aux artistes ou aux laboratoires, l’IA s’est installée dans nos vies quotidiennes, intégrée au cœur de nos téléphones, de nos applications, et de nos habitudes visuelles.

Cette révolution silencieuse repose sur ce que les ingénieurs appellent la « photographie computationnelle ». Aujourd’hui, un iPhone, un Google Pixel ou un Samsung Galaxy ne se contente plus d’enregistrer la lumière : ces smartphones capturent plusieurs images simultanément, les combinent, équilibrent les contrastes, reconstituent les zones surexposées, et affinent les textures. « La photographie computationnelle utilise des techniques comme le stacking, la cartographie de profondeur ou la segmentation de scène pour transformer l’image dès sa création », explique un rapport de Visionary.ai, société spécialisée dans ces technologies. En moins d’une seconde, plusieurs milliards d’opérations sont effectuées pour produire une image « idéale » – bien plus fidèle à l’attente de l’utilisateur qu’à la réalité brute.

Dans ce domaine, les géants de la tech se livrent une course à l’innovation. Google a fait de son mode Night Sight une vitrine de l’IA embarquée, capable d’éclairer une scène nocturne presque invisible à l’œil nu. Apple, de son côté, combine jusqu’à neuf images à chaque déclenchement pour générer un seul cliché à la dynamique optimisée. Et certains projets vont encore plus loin : « Nous voulons transformer la photographie numérique grâce à l’IA, pas simplement améliorer les images après coup », déclarait récemment Ziv Attar, ancien ingénieur d’Apple, au média CXOTalk. « Notre objectif est d’inventer des appareils eux-mêmes rendus possibles par l’intelligence artificielle. »

Ces transformations ne se limitent pas à la capture. La retouche automatisée est devenue un réflexe universel. Sur des applications comme Google Photos ou Lightroom Mobile, un clic suffit pour lisser un ciel, adoucir un visage ou effacer un passant. Le Magic Editor de Google, déployé en 2024, permet de déplacer un sujet ou de recomposer entièrement une scène en quelques secondes, une opération qui, il y a 10 ans, aurait nécessité des heures de travail sur Photoshop.

Night Sight par Google
Magic Editor par Google

Certaines marques ont été accusées « d’embellir » artificiellement leurs photos. Samsung, par exemple, a été critiqué pour son mode « Lune » qui, dès 2023, combinait plusieurs prises et appliquait un renforcement algorithmique des détails lunaires – à tel point que des utilisateurs ont dénoncé des images « recréées » plutôt que capturées. La question posée est essentielle : jusqu’où une photographie générée ou augmentée par l’IA reste-t-elle une trace du réel ?

Chaque jour, plus de 1,8 milliard d’images sont produites dans le monde via des smartphones. Presque toutes ont subi, d’une manière ou d’une autre, un traitement algorithmique avant d’être vues ou partagées. L’historien de l’art Daniel Palmer observe que cette « hybridation entre capture et calcul » transforme notre rapport collectif à l’image : « Elle modifie la mémoire visuelle, la circulation des images et notre confiance dans ce que nous voyons. »

À mesure que l’IA se glisse dans chaque pixel de notre quotidien, elle devient aussi un filtre esthétique implicite. Les styles d’image, les corrections automatiques, les retouches « par défaut » façonnent désormais l’imaginaire collectif. Dans ce nouvel âge de l’image, comprendre et maîtriser cette médiation technologique devient aussi important que savoir cadrer ou choisir la lumière.

L’IA au service des photographes

Si l’intelligence artificielle a bouleversé l’esthétique de l’image, elle a aussi profondément transformé le métier de photographe. Aujourd’hui, rares sont ceux qui travaillent sans recourir, d’une manière ou d’une autre, à un outil algorithmique. De la retouche automatisée à la génération d’images hybrides, ces technologies ont infiltré toutes les étapes de la chaîne de production visuelle — souvent sans que le spectateur s’en rende compte.

La retouche d’image est l’un des domaines où l’impact est le plus spectaculaire. Les outils de correction « intelligente » ont fait un bond considérable grâce à l’apprentissage profond. Cela concerne des retouches classiques comme la luminosité, le contraste, la colorimétrie, mais pas que. L’algorithme Generative Fill d’Adobe Photoshop, par exemple, permet désormais d’étendre le cadre d’une image en inventant de nouvelles zones réalistes à partir du contenu existant. Des logiciels comme Topaz Photo AI ou Luminar Neo restaurent des images floues, éliminent automatiquement les éléments indésirables et améliorent la résolution sans perte de qualité.

Generative Fill par Adobe Photoshop

L’intelligence artificielle s’impose aussi dans la préparation et la planification des prises de vue. Grâce à des outils comme Kaiber ou Runway, les photographes peuvent visualiser à l’avance le rendu d’une scène ou simuler différentes conditions lumineuses sans quitter leur studio. En photographie de mode ou publicitaire, les studios exploitent désormais l’IA pour créer des « jumeaux numériques » de mannequins avant la séance réelle, ce qui réduit considérablement les coûts logistiques. Le secteur de la banque d’images illustre bien ce virage : Shutterstock, par exemple, tire désormais une part importante de ses revenus de la licence de données destinées à l’IA, avec plus de 104 millions de dollars enregistrés en 2023 sur ce segment, et 138 millions pour 2024. L’automatisation touche toutes les étapes du processus visuel, de la retouche à la diffusion, et redéfinit les compétences requises dans les studios.

Le photojournalisme, domaine historiquement attaché au réel, n’échappe pas à cette mutation. L’IA y sert d’abord d’outil d’analyse et d’archivage. Des systèmes comme Content Authenticity Initiative d’Adobe permettent de tracer l’origine des images et d’en certifier l’authenticité. D’autres, comme le moteur de recherche visuel de Reuters, utilisent l’apprentissage automatique pour indexer des millions de clichés en fonction de leur contenu, facilitant ainsi le travail des rédactions. Certains reporters peuvent aussi utiliser l’IA pour reconstituer des images manquantes dans une séquence documentaire ou pour coloriser des archives historiques afin de mieux contextualiser un sujet. D’autres lancent des débats, comme Jonas Bendiksen, membre de Magnum Photos : « Dans quelle mesure notre propre communauté de photographes et d’éditeurs sera-t-elle capable de distinguer les deep fakes des vrais ? »

La transformation touche également la diffusion et la commercialisation des images. Les plateformes de banque d’images exploitent désormais des systèmes d’IA capables de prédire quelles photographies auront le plus de succès auprès des clients, influençant ainsi les choix éditoriaux. « L’IA est devenue un assistant silencieux qui oriente notre production », explique le photographe commercial espagnol Javier Cortés. « Elle nous indique les tendances, optimise nos métadonnées et nous aide à vendre plus vite. »

Cette omniprésence soulève toutefois des questions sur l’identité même du métier. Certains photographes craignent que la standardisation imposée par les algorithmes n’appauvrisse la créativité. D’autres, au contraire, y voient une opportunité. « Si vous me demandez pourquoi je prends des photos… elles touchent les autres et leur font voir le monde comme je l’ai vu… Et c’est encore possible avec une image IA », estime l’artiste Rankin.

Photographie et vérité : les nouveaux enjeux éthiques et juridiques

Depuis ses origines, la photographie a été perçue comme un témoin fiable du réel. Une image valait preuve. Mais l’arrivée de l’intelligence artificielle a fissuré cette certitude. Lorsque n’importe qui peut générer, en quelques secondes, une scène d’actualité fictive ou un portrait d’une personne qui n’existe pas, comment distinguer le vrai du faux ? Cette question, loin d’être théorique, est devenue un défi majeur pour les photographes, les médias et la société dans son ensemble.

Le phénomène des deepfakes en est l’exemple le plus frappant. En 2023, une image montrant le pape François portant une doudoune blanche façon Balenciaga a circulé massivement sur les réseaux sociaux. Elle avait été générée par Midjourney, sans aucune intention malveillante, mais elle a suffi à prouver à quel point notre regard pouvait être trompé. Selon une étude de l’université de Stanford, près de 20 % des Américains ont déjà partagé au moins une image générée par IA en pensant qu’elle était authentique. Pour les photojournalistes, cette confusion est une menace directe pour la crédibilité de leur travail. Pour ceux dont le travail est plus subjectif, la question est moins importante. « L’IA ne m’inquiète pas du tout… », explique Annie Leibovitz. « La photographie en elle-même n’est pas vraiment réelle… J’utilise tous les outils à ma disposition. »

Le pape François se promène en doudoune Balenciaga. © Image générée par Midjourney : Twitter

La prolifération des images générées suscite pour autant une méfiance croissante. Selon une étude du Reuters Institute (2024), dans plusieurs pays, une majorité de personnes se dit mal à l’aise à l’idée qu’une information soit principalement produite par l’IA. Aux États-Unis, 52 % des répondants déclarent qu’ils seraient inconfortables avec des journaux entièrement conçus par des modèles algorithmiques. Par ailleurs, dans une enquête du Pew Research Center de 2025, on observe une tension durable : une forte proportion d’Américains affirme que l’IA doit être transparente, même si beaucoup doutent de leur propre capacité à juger son usage sur le contenu visuel. Ces données confirment que l’un des plus grands défis est de rétablir la confiance dans l’image à l’ère de la génération algorithmique.

Les rédactions et les institutions culturelles ont commencé à réagir. L’Associated Press a adopté en 2023 une charte stricte interdisant toute image générée dans ses contenus éditoriaux sans mention explicite. L’Agence France-Presse a mis en place un protocole de vérification basé sur la détection des métadonnées et sur des outils d’analyse de pixels. Et depuis 2024, l’outil Content Credentials, développé par Adobe dans le cadre de la Content Authenticity Initiative, permet d’authentifier les photographies à la source : chaque fichier contient une « signature » indiquant s’il s’agit d’une image capturée ou générée.

Mais la question de la vérité ne se limite pas à la manipulation. Elle concerne aussi les droits d’auteur. Les images générées par IA sont souvent produites à partir de bases de données d’images préexistantes, elles-mêmes issues de photographies protégées. Des artistes comme Sarah Silverman ou le photographe allemand Matthias Koch ont ainsi engagé des actions en justice contre les éditeurs de modèles génératifs, accusés d’avoir utilisé leurs œuvres sans autorisation. « Nous sommes face à une zone grise du droit d’auteur », explique le juriste américain Daniel Gervais. « Qui possède une image produite par un algorithme entraîné sur des millions d’œuvres ? Celui qui a écrit le prompt ? Le développeur du modèle ? Ou les auteurs des images d’origine ? »

Cherry Airlines, 2024 © Pascal Sgro

Ce flou juridique s’étend aussi à la responsabilité. Que se passe-t-il lorsqu’une image générée cause un préjudice — par exemple en véhiculant une fausse information ou en portant atteinte à la réputation d’une personne ? Les législations nationales peinent à suivre. L’Union européenne travaille à un AI Act, qui devrait imposer une transparence obligatoire pour les contenus générés artificiellement. En Chine, une loi entrée en vigueur depuis 2023 exige que toute image produite par IA soit explicitement étiquetée comme telle. En Corée du Sud, les nombreux écrans publicitaires qui utilisent des images générées par IA (photos et vidéos) précisent également cette spécificité.

Ces questions redéfinissent aussi l’éthique des photographes. Nombreux sont ceux qui appellent à un usage responsable de l’IA, à l’image du photojournaliste danois Mads Nissen : « Nous devons être clairs sur ce que nous montrons. Si une image n’a pas été capturée par un appareil photo, elle ne peut être présentée comme une photographie. » Dans les écoles et festivals, des ateliers se multiplient pour sensibiliser les jeunes photographes à ces enjeux — preuve que la photographie ne se pense plus seulement comme un acte de création, mais aussi comme un acte de transparence.

Nouvelles visions et reconnaissance institutionnelle

Depuis 2022, les artistes se sont eux aussi emparé des outils génératifs pour tester, imaginer, créer de nouvelles visions. 2025 est une année charnière pour la reconnaissance de ces nouvelles œuvres par les institutions artistiques. En janvier, Bruxelles a posé un jalon clair avec « AImagine – Photography and Generative Images », au Hangar, première exposition collective d’envergure intégralement consacrée aux images créées avec l’IA dans un lieu de référence de la photographie. Co-curatée par l’historien Michel Poivert et l’équipe du Hangar, elle a rassemblé 18 projets, fruits d’un appel à candidatures et d’une sélection curatoriale. « Qui a peur de l’intelligence artificielle ? Les photographes peut-être, mais pas tous ! », lançait alors Poivert, qui défend l’idée d’un étiquetage clair des images générées pour « éduquer les publics ». La directrice Delphine Dumont parlait, elle, d’une « nécessité d’explorer l’avenir de l’image ». L’exposition, présentée dans le cadre du PhotoBrussels Festival et forte de son succès, a été prolongée jusqu’au 25 juin 2025.

Le parcours a donné des repères concrets. Brodbeck & de Barbuat on retracé l’histoire de la photographie avec « Une Histoire parallèle » (2022-2023), série qui met à nu les « ratés » et biais des modèles, devenus matériaux narratifs. Alexey Yurenev a entraîné un modèle sur 35 000 images de la Seconde Guerre mondiale pour « Silent Hero » (2019-), comblant les silences d’un récit familial. Pascal Sgro a réactivé l’imaginaire des années 1950 avec « Cherry Airlines » (2024). À côté, Delphine Diallo (« Kush », 2024) et Nicolas Grospierre (« Giant Inscrutable » Matrices, 2024) ont projeté l’IA vers des futurs symboliques ou architecturaux, quand Justine Van den Driessche (« The Progress », 2023) et Jordan Beal (« Lineaments », 2024) ont eux brouillé temporalités et paysages.

Une Histoire parallèle, 2022-2023 © Brodbeck & de Barbuat
Une Histoire parallèle, 2022-2023 © Brodbeck & de Barbuat
We are at War, Planches Contact 2024 © Phillip Toledano

Un peu plus tôt, pour la dernière édition du festival Planches Contact, à Deauville, Phillip Toledano avait aussi entièrement réalisé les images accrochées au mur en utilisant l’intelligence artificielle, en particulier l’application Midjourney. Et utilisé des références bien connues du grand public, avec « Another America », une réécriture surprenante de l’histoire américaine, alors que « We Are at War » a ressuscité visuellement le Débarquement en Normandie, à l’occasion de son 80e anniversaire. L’artiste a proposé indirectement de recréer les images que Robert Capa aurait selon la légende réalisées sur la plage et dont les négatifs auraient par la suite disparu ou été abîmés. Une série qui oscille ainsi entre faits historiques et fake news en pleine époque complotiste. « Je n’utilise pas l’imagerie de Robert Capa ni son style pour réaliser des prompts », a expliqué le photographe. « J’utilise son histoire comme un véhicule pour parler de ce que l’intelligence artificielle est capable de réaliser. » Laura Serani, alors directrice artistique du festival, a déclaré également: « Derrière les images de Phillip, il y a de l’intelligence, de la finesse, un récit, il y a une beauté aussi, une force, une dramaturgie très inspirée du cinéma. Ce n’est pas la machine qui crée ces éléments. C’est la personne qui est derrière la machine. » 

Ce printemps, au Jeu de Paume (Paris), « Le monde selon l’IA » (11 avril – 21 septembre 2025) a pris une autre tangente : montrer ce qui, d’ordinaire, reste invisible. Le commissaire général Antonio Somaini a résumé l’enjeu: « Les algorithmes […] transforment notre expérience des images », et l’exposition a fait affleurer les « opérations discrètes » et « processus invisibles » de l’IA. Parmi les repères : les fresques de Kate Crawford & Vladan Joler (« Calculating Empires », 2023), la critique de la reconnaissance d’objets par Trevor Paglen (« The Treachery of Object Recognition », 2019), la matérialité coûteuse de l’IA chez Julian Charrière (« Buried Sunshines Burn », 2023 ; « Metamorphism », 2016), l’effacement critique des sujets chez Nouf Aljowaysir, ou encore l’anticipation « posthume » de Grégory Chatonsky (« La quatrième mémoire », 2025).

Ailleurs dans le monde, un autre jalon institutionnel a compté : Refik Anadol au MoMA de New York. Son installation « Unsupervised » (19 novembre 2022 – 29 octobre 2023) a rêvé la collection du musée : un modèle a exploré 138 151 images des collections pour générer, en temps réel, des flux visuels abstraits. « A quoi rêverait une machine après avoir “vu” la collection du MoMA ? », a déclaré l’artiste. Avec cette œuvre née de données, l’institution a avalisé l’IA comme langage d’exposition à part entière.

Unsupervised © Refik Anadol / MoMA
De Beauvoir, 2019 © Trevor Paglen
La quatrième mémoire, 2025 © Gregory Chatonsky
Giant Inscrutable Matrices, 2024 © Nicolas Grospierre

Ainsi, ce mouvement s’inscrit-il dans une chronologie plus longue : dès 2019, le Barbican (Londres) organisait « AI: More than Human », vaste panorama mêlant artistes et chercheurs. Si l’exposition n’était pas centrée sur la photographie, elle offrait un contexte pour comprendre l’essor créatif des modèles — de la reconnaissance à la génération — que l’on voit aujourd’hui investir les institutions photo.

Ce faisceau d’expositions dit deux choses. D’abord, l’IA n’est plus un « à-côté » de la photographie : elle la travaille de l’intérieur, dans ses codes et ses lieux. Ensuite, le récit se déplace — du « vrai/faux » vers « pourquoi et comment » l’image est produite, montrée, expliquée. « Nous vivons à une époque où la technologie des objectifs est pleinement développée et où tout est possible en matière de création d’images. Avec l’essor de l’intelligence artificielle, de nombreuses images risquent de devenir des hallucinations statistiques », estime le curateur Erik Kessels. « Le “comment” perd de son importance, le “pourquoi” prend le dessus. C’est précisément pourquoi les idées nouvelles et la création de récits originaux en photographie deviennent essentielles. » Pour Antonio Somaini, il s’agit moins d’« illustrer » l’IA que d’en rendre palpables les circuits : infrastructures, données, travail humain, biais. Et de mettre les publics face à un médium qui, du Hangar au Jeu de Paume, du MoMA au Barbican, est désormais pleinement exposé.

L’IA dans le photojournalisme et les médias : opportunités et dangers

Nulle part l’arrivée de l’intelligence artificielle n’a soulevé autant de débats que dans le domaine du photojournalisme. En septembre dernier, à l’occasion du festival Visa pour l’image, son directeur Jean-François Leroy rappelait: « Face à la prolifération de l’intelligence artificielle et des images manipulées, Visa pour l’image 2025 montre des informations nuancées et vérifiées, provenant du terrain et non des réseaux sociaux ; des images faites par des humains et non par l’IA générative. » Pour la presse, plus qu’ailleurs, l’image n’est pas un simple objet esthétique : elle est un témoignage, une preuve, un outil de mémoire collective. Or, lorsque les frontières entre fiction et réalité deviennent floues, c’est toute la crédibilité de l’information qui vacille.

D’un côté, l’IA offre des possibilités inédites aux journalistes et aux agences de presse. Dans les rédactions, l’IA est utilisée non seulement pour indexer les images, mais aussi pour en garantir l’authenticité. Des initiatives comme la Content Authenticity Initiative (CAI) et la norme C2PA permettent désormais d’intégrer directement dans les fichiers une signature numérique attestant de leur origine. Parallèlement, plusieurs médias ont expérimenté des usages non-documentaires de l’IA, par exemple pour visualiser des lieux inaccessibles ou reconstituer des scènes historiques à partir de descriptions textuelles. Ces images, clairement étiquetées comme synthétiques, ne remplacent pas la photographie documentaire, mais en étendent le champ narratif et l’impact éditorial.

L’intelligence artificielle contribue aussi à de nouvelles formes de narration documentaire. Dans certains projets d’investigation, les journalistes utilisent des modèles génératifs pour visualiser des situations impossibles à photographier : des scènes de crimes effacées, des archives détruites ou des paysages disparus. Dans un projet du The New York Times, l’IA a permis de reconstituer les visages de migrants décédés en mer Méditerranée à partir de descriptions et de données biométriques partielles — une démarche sensible qui ne remplace pas la photographie, mais la prolonge.

Mais ces opportunités sont contrebalancées par des dangers bien réels. La prolifération de fausses images est devenue l’un des enjeux majeurs de l’ère numérique. En mars 2023, une photo virale montrant l’arrestation fictive de Donald Trump a été partagée des millions de fois sur les réseaux sociaux avant que les médias ne la démentent. Selon une étude de l’Université d’Amsterdam, près de 60 % des utilisateurs interrogés ont déclaré avoir déjà douté de l’authenticité d’une image d’actualité. Pour les rédactions, cette méfiance généralisée complique la tâche : il ne suffit plus de produire des images, il faut désormais prouver qu’elles sont vraies.

Cette situation a conduit à une mobilisation collective. En 2023, l’Associated Press, l’AFP, Getty Images et d’autres grands acteurs ont signé la Content Authenticity Initiative, une coalition visant à intégrer des « certificats d’origine » directement dans les fichiers photographiques. Chaque image produite par leurs photographes contient désormais une trace numérique inviolable attestant de son authenticité. De plus, plusieurs agences exigent que toute image générée par IA soit clairement étiquetée, sous peine d’exclusion des circuits de diffusion.

Les photojournalistes eux-mêmes adaptent leur pratique. Certains, comme Jonas Bendiksen, ont expérimenté l’IA pour en tester les limites : en 2021, il avait présenté au festival Visa pour l’Image une série intitulée « The Book of Veles », entièrement générée par ordinateur. Le projet, conçu comme une provocation intellectuelle, avait trompé nombre d’éditeurs et de commissaires avant que l’auteur ne révèle sa supercherie. « Ce n’était pas pour ridiculiser qui que ce soit », expliquait-il, « mais pour montrer à quel point il est facile de manipuler notre confiance dans l’image. »

Le 4 avril 2023, le projet du photographe Michael Christopher Brown, intitulé « 90 miles », avait lui aussi particulièrement enflammé le monde du photojournalisme. Il s’agissait d’une «expérience post-photographique d’illustration de reportages générée par intelligence artificielle (IA) ; qui explorait les événements historiques et les réalités de la vie cubaine qui ont motivé les Cubains à traverser l’océan séparant La Havane de la Floride, ce qui représente une distance de 90 miles», selon l’explication du photographe.

90 Miles, 2023 © Michael Christopher Brown

La leçon est claire : l’ère de la photographie comme preuve absolue est révolue. Dans ce nouveau contexte, les images doivent être accompagnées de transparence, de données contextuelles, voire de documentation complémentaire pour regagner la confiance du public. Comme le résume la photographe et reporter turco-américaine Nicole Tung : « Notre responsabilité est double : montrer le monde tel qu’il est, mais aussi expliquer comment et pourquoi nous montrons ces images. »

L’intelligence artificielle ne remplacera probablement jamais le photojournalisme, car elle ne peut pas être témoin du réel. Mais elle oblige la profession à se réinventer, à renforcer ses protocoles, à redéfinir son rapport au public. En cela, elle ne représente pas une menace, mais un révélateur : celui des fragilités et des forces d’un métier qui repose plus que jamais sur la confiance.

Une révolution silencieuse dans l’économie de l’image

Si l’IA a transformé les pratiques et les imaginaires, c’est dans l’économie de la photographie que son impact se révèle le plus radical. En quelques années, les modèles économiques traditionnels ont été profondément remodelés — certains acteurs historiques voient leurs marges s’effondrer, tandis que de nouveaux marchés émergent à une vitesse fulgurante.

Le premier bouleversement concerne les coûts de production. Créer une image de qualité professionnelle ne nécessite plus d’équipes entières, de studios coûteux ni de jours de postproduction. Un photographe de mode peut désormais générer un décor complet en 3D ou remplacer un mannequin absent par une version synthétique pour une fraction du prix initial. Un photographe de plats gastronomiques peut générer par IA une image souvent bien plus alléchante que la sienne. Selon une étude de Deloitte publiée en 2024, les budgets moyens de production visuelle dans l’industrie publicitaire ont chuté de 32 % depuis l’adoption d’outils génératifs à grande échelle. Et la tendance pour 2025 est encore plus importante. « Là où une campagne nécessitait dix jours de shooting, elle peut aujourd’hui être produite en trois », explique Laura McLean, directrice de création de l’agence Saatchi & Saatchi Londres.

La baisse des coûts de production transforme les modèles économiques traditionnels. Les entreprises d’images de stock, comme Getty ou Shutterstock, investissent massivement dans la génération d’images « à la demande » plutôt que dans la production traditionnelle. Shutterstock a ainsi annoncé que son activité liée aux licences d’IA représentait plus de 100 millions de dollars en 2023, un chiffre en forte croissance qui reflète le déplacement de la valeur vers l’exploitation des données. En parallèle, Getty a vu son segment « Creative » reculer de 4,5 % en 2024, signe que la demande pour les images générées progresse rapidement. Le marché est en pleine recomposition, comme en témoigne l’annonce d’un projet de fusion entre les deux géants, évalué à 3,7 milliards de dollars.

Campagne publicitaire pour Martini générée par l’IA
Campagne publicitaire pour Martini générée par l’IA

Le marché de l’art, souvent plus lent à évoluer, n’est pas épargné. Les maisons de vente aux enchères ont commencé à proposer des œuvres générées par IA. En 2023, « Edmond de Belamy », une œuvre algorithmique du collectif Obvious, s’est vendue chez Christie’s pour 432 500 dollars, marquant une étape symbolique. Depuis, de nombreuses galeries spécialisées, comme Bitforms à New York ou Gazelli Art House à Londres, exposent des projets photographiques hybrides mêlant prises de vue réelles et génération synthétique. L’IA devient ainsi un médium reconnu, non seulement comme outil technique, mais comme pratique artistique à part entière.

Ce bouleversement économique pose aussi la question de la valeur. Que vaut une image produite instantanément et à l’infini ? Comment préserver la rareté — concept fondamental du marché photographique — dans un univers d’abondance ? Pour l’historien de l’art Fred Ritchin, ancien doyen de l’International Center of Photography (ICP), « la valeur ne réside plus dans l’objet, mais dans le contexte. Ce qui comptera, ce sera l’histoire derrière l’image, le regard qui l’a guidée, la réflexion qui l’accompagne. » Autrement dit, c’est moins la photographie en elle-même qui sera monétisable que l’ensemble du projet intellectuel et narratif dont elle procède.

Enfin, l’IA rebat les cartes du travail. De nouvelles professions apparaissent — prompt designers, ingénieurs créatifs, spécialistes de l’authentification d’images — tandis que d’autres se transforment. Les photographes deviennent aussi des curateurs de données, des scénaristes d’images ou des superviseurs de flux créatifs automatisés. « Ce que l’IA ne peut pas faire c’est créer à la place de l’humain », nuance Florence Moll, agente de photographes régulièrement en commande pour des marques de luxe et campagnes commerciales. « Elle n’a pas de fantaisie propre, ni d’imaginaire. Elle est un outil tout neuf qui libère les intelligences créatives. »

Cette révolution économique, silencieuse mais implacable, modifie profondément l’écosystème de la photographie. Elle fait émerger de nouvelles hiérarchies, redistribue la valeur et redéfinit la place de l’auteur. L’image n’est plus seulement un produit fini : elle devient un service, une expérience, un processus. Et dans ce nouvel ordre visuel, la photographie s’éloigne de l’objet unique pour entrer dans l’ère de la production infinie.

Photographier demain

L’essor fulgurant de l’intelligence artificielle a bouleversé le monde de l’image en moins de trois ans. Mais ce que nous vivons aujourd’hui n’est probablement qu’un avant-goût. À mesure que les modèles deviennent plus puissants, que leurs capacités d’analyse et de génération s’affinent, la frontière entre photographie et image synthétique continuera de s’effacer.

Dans les écoles d’art et de photographie, cette mutation est déjà en cours. L’apprentissage du prompt engineering — l’art de formuler une requête efficace pour guider un modèle d’IA — s’ajoute aux cours de composition, d’éclairage ou de tirage argentique. Certaines institutions, comme l’ICP de New York, ont même créé des ateliers hybrides où les étudiants doivent produire des séries mêlant prises de vue réelles et images générées. « Comprendre comment fonctionne l’IA, c’est aussi comprendre comment elle transforme notre regard », affirme Fred Ritchin, aussi l’un des premiers théoriciens à avoir intégré l’IA dans l’enseignement photographique.

Cette hybridation se traduit encore dans la pratique de nombreux artistes. Certains, comme Sofia Crespo, utilisent l’IA pour explorer des formes biologiques impossibles à photographier. D’autres, comme Trevor Paglen, s’en servent pour révéler des structures invisibles — bases de données, systèmes de surveillance — qui façonnent notre monde. À mi-chemin entre documentaire et spéculation, ces approches suggèrent une nouvelle forme de photographie : non plus centrée sur la capture du réel, mais sur sa modélisation et sa mise en récit. « L’IA n’est pas là pour remplacer la photographie », explique Paglen, « mais pour nous aider à imaginer ce que nous ne pouvons pas toujours voir ».

The progress, 2023 © Justine Van den Driessche

Certaines start-up travaillent également sur des appareils hybrides capables de générer des images complémentaires directement depuis le viseur, ou d’enrichir en temps réel la prise de vue par des éléments synthétiques. Le projet expérimental « Paragraphica », par exemple, n’utilise ni capteur ni objectif : il collecte des données de localisation, de météo et d’environnement pour produire, via un modèle d’intelligence artificielle, une image générée en lieu et place de la photographie traditionnelle. D’autres prototypes, comme le CMR M-1, embarquent des algorithmes de diffusion directement dans l’appareil, permettant au photographe de moduler en temps réel le rendu génératif grâce à des « cartes LoRA » personnalisées. Canon explore déjà ces nouvelles possibilités avec ses derniers boîtiers hybrides, comme l’EOS R5 Mark II, dont l’autofocus repose sur des modules d’apprentissage profond capables d’anticiper le mouvement des sujets, d’adapter l’exposition en temps réel et même d’améliorer automatiquement la qualité d’image grâce à des algorithmes embarqués. Ensemble, ces innovations dessinent les contours d’un futur proche où l’appareil ne se contente plus d’enregistrer ce que voit le photographe, mais l’anticipe, l’interprète et l’enrichit au moment même de la prise de vue.

D’autres développent des outils de narration automatisée capables d’associer texte, image et données pour créer des reportages multimédias complets. Dans ce nouvel écosystème, le photographe deviendrait moins un opérateur technique qu’un directeur de création, un auteur capable d’orchestrer des flux complexes d’images humaines et artificielles.

L’histoire de la photographie a toujours été celle de ruptures technologiques : du collodion humide à la pellicule, du noir et blanc à la couleur, de l’argentique au numérique, de l’obturateur mécanique au capteur CMOS. Chaque fois, la discipline a connu des résistances, puis une réinvention. L’intelligence artificielle ne fait pas exception. Elle n’est probablement pas la fin de la photographie, mais l’un de ses prochains chapitres — un chapitre où l’acte de photographier ne consistera plus seulement à capturer la lumière, mais aussi à dialoguer avec des machines capables d’en inventer de nouvelles.

Vous avez perdu la vue.
Ne ratez rien du meilleur des arts visuels. Abonnez vous pour 7€ par mois ou 84€ 70€ par an.