Pendant des décennies, posséder un appareil photo représentait un fragile contrat avec la réalité : un cadre, un obturateur, une trace de lumière. Pas une garantie de vérité — mais l’accord tacite que quelque chose s’était tenu un jour devant l’objectif. Aujourd’hui, l’écrivain et pédagogue Fred Ritchin voit ce contrat s’effondrer sous le poids des images synthétiques. Les visuels générés par l’IA empruntent les codes de la photographie — profondeur de champ, grain, lumière naturelle — mais ils ne renvoient à rien de vécu, rien de témoigné. Ils encouragent, dit-il, une nouvelle épistémologie : des images qui « reflètent nos propres conceptions du réel », remplaçant le monde par nos fantasmes. Ce qui fut autrefois une preuve devient un décor, et le spectateur se retrouve incapable de distinguer un témoignage d’une illusion. Ce n’est pas une inquiétude marginale mais civique. La photographie, prévient-il, est en train d’être « contrefaite », et avec elle, notre capacité à partager une compréhension commune des événements.
Fred Ritchin a passé plus de quatre décennies à étudier ces mutations depuis l’intérieur des institutions qui ont façonné le médium. Doyen émérite de l’International Center of Photography et ancien éditeur photo au New York Times Magazine, il a vu la photographie passer de la pellicule au pixel, de la retouche à la recomposition, du témoignage à la simulation. Le danger n’est pas que l’IA produise de nouvelles images, mais qu’elle le fasse sans expérience, sans rencontre, sans risque. Depuis leur salon, n’importe qui peut fabriquer des mondes, des identités, des crises qui n’ont jamais existé. Pendant ce temps, le journalisme repose encore sur la photographie pour faire témoignage, ancrer le discours, résister à la propagande. Pour Ritchin, la question n’est plus de savoir si l’IA transformera la photographie, mais si la photographie peut survivre comme non-fiction. L’avenir dépendra de la confiance — non envers l’appareil photo lui même, mais envers la personne derrière elle ; non envers l’image, mais envers le contexte et la responsabilité qui l’accompagnent.
Dans l’entretien qui suit, il partage avec Blind ses réflexions sur l’essor des images générées par intelligence artificielle.
Ces dernières années, la photographie est passée de la capture du monde à sa génération. D’un point de vue sociologique, comment pensez-vous que cela affecte notre compréhension collective de ce qui est « visible » et de ce qui est « réel » ?
Les images générées par IA, même si elles paraissent photoréalistes, ne sont pas des photographies. Ce sont des images synthétiques pouvant être produites par un ordinateur dans plusieurs styles, y compris ceux qui imitent l’apparence de photographies.
Leur impact sur la photographie est déjà énorme, rendant les spectateurs sceptiques face aux photographies réelles, puisqu’ils ne savent plus quoi croire — un dilemme qui s’impose désormais rapidement pour la vidéo également. La contrefaçon de la monnaie photographique, la remise en cause de la compréhension que nous avions jusqu’ici selon laquelle l’appareil photo et l’objectif fournissaient des points de référence visuels permettant aux spectateurs de comprendre ce qui se passe dans le monde ou ce qui s’est produit dans le passé, crée à la fois incertitude et chaos. Elle rend de plus en plus difficile pour les gens de distinguer le vrai du faux, constituant une menace grandissante non seulement pour le fonctionnement des sociétés démocratiques, mais pour notre sens d’une réalité partagée. Comment pouvons-nous voter si nous ne savons pas ce qui se passe ? Comment pouvons-nous communiquer si nous vivons dans des univers séparés, enfermés dans nos propres préconceptions que les photographies et les vidéos ne peuvent plus efficacement remettre en question ?
Les images produites par l’intelligence artificielle empruntent les codes visuels de la photographie : grain, profondeur de champ, lumière. Si une image synthétique se comporte comme une photographie, réagissons-nous encore au médium lui-même ou aux attentes culturelles que nous avons construites autour de lui ?
Nous réagissons à l’attente qu’une image qui ressemble à une photographie soit, pour reprendre la formulation de l’écrivain John Berger, une citation des apparences. Cela n’a jamais signifié que la photographie était la vérité, seulement qu’elle fournissait des points de référence jugés dignes de confiance pour contempler des réalités autres que la sienne. L’imagerie photoréaliste générée par IA encourage les gens à produire des images qui reflètent leurs propres conceptions du réel, remplaçant ce qui se passe réellement par leurs notions préconçues.
Cela, bien sûr, posait déjà problème en photographie lorsque des personnes peu au fait d’une autre culture produisaient des images reflétant leurs propres biais. Mais le problème est bien pire aujourd’hui : plus besoin de quitter son domicile pour produire des images qui non seulement reflètent ces biais, mais permettent de fabriquer des représentations réalistes de personnes et de lieux qui n’ont jamais existé. Nous pouvons désormais facilement refaire le monde — comme le titre de mon premier livre en 1990 — « à notre image ».
Vous avez souvent écrit sur la « valeur de vérité » de la photographie journalistique. Devons-nous abandonner l’idée qu’une photographie constitue une preuve — ou avons-nous besoin de nouveaux systèmes de confiance, comme la provenance ou la certification ?
Une réponse pourrait être que nous faisons confiance au photographe, pas à l’appareil photo, tout comme nous faisons confiance à l’auteur, pas aux mots. C’est pourquoi plusieurs d’entre nous ont fondé Writing with Light (wwlight.org), pour mettre l’accent sur l’auteur de la photographie, reconnaître la personne derrière l’appareil photo et ne pas placer toute notre foi dans l’appareil lui-même.
Nous savons tous qu’il est possible de mettre en scène un scénario et d’en faire une photographie qui déforme la réalité, comme cela se fait couramment en politique, par exemple. Dans ces cas-là, la photographie déforme les événements même si l’image elle-même n’a pas été manipulée par logiciel ou en chambre noire.
Il serait également utile de considérer les photographies journalistiques et la plupart des photographies documentaires comme relevant de la catégorie de l’« imaginaire non-fictionnel », comme nous utilisons ce terme pour les mots, afin de clarifier la différence entre les images qui interprètent la réalité et celles qui la fabriquent.
En outre, il serait utile de commencer à définir une photographie journalistique comme une « citation des apparences », en considérant le cadre photographique comme l’équivalent de guillemets. De même que pour un texte cité, rien ne peut être modifié sans en informer le lecteur par une ellipse ou des crochets, rien de ce qui se trouve dans le cadre d’une photographie journalistique ne peut être changé, à l’exception de modifications mineures telles que le nettoyage de parasites visuels, le recadrage ou de modestes ajustements de contraste, sans en avertir le lecteur. Cela clarifierait pour celui-ci que ce qu’il voit est un enregistrement de ce qui s’est produit, non une fabrication. Le crédit pourrait alors être modifié pour indiquer la mention suivante : « Photographie journalistique par [nom du photographe] ».
Les modèles de deep learning sont entraînés sur des milliards d’images — dont beaucoup sont personnelles, privées ou culturellement sensibles. Quelles conséquences culturelles à long terme voyez-vous dans le fait que ces jeux de données façonnent notre imagination visuelle ?
D’après mon expérience, un grand nombre d’images générées par IA sont banales, historiquement incorrectes, racistes, misogynes ou narcissiques, mais certaines sont révélatrices. En tant que directeur photo, j’avais souvent une idée claire des images qu’un photographe produirait en commande et je lui demandais souvent de me surprendre, de faire quelque chose d’autre que l’image conventionnelle — par exemple le portrait d’un écrivain, inévitablement photographié dans son bureau avec des étagères remplies de livres. L’imagerie générée par IA à laquelle j’ai soumis mes propres prompts m’a parfois surpris de manière fascinante : une image de deux hommes posant avec leurs enfants pour illustrer « la famille parfaite » ; une image d’un singe avec sa progéniture pour « les meilleures mères » ; « les dictateurs préférés de Trump » représentés avec deux Trump, etc. L’IA semble parfois déjouer les attentes, dépasser l’imagerie sur laquelle elle a été entraînée, bien que récemment j’aie eu beaucoup moins de succès, car les images générées sont devenues plus conventionnelles et moins surprenantes.
Le photojournalisme prétend témoigner. Aujourd’hui, l’imagerie synthétique peut recréer des événements qui n’ont jamais existé ou réinventer des scènes qui ont existé. La photographie a-t-elle encore un rôle comme preuve ?
Oui, la photographie a un rôle majeur comme preuve, mais cela nécessitera davantage de contextualisation et, parfois, la présence du photographe, des personnes représentées ou de témoins pour corroborer qu’elle représente fidèlement ce qui s’est passé. C’est le cas depuis longtemps devant les tribunaux, et il faudra désormais réfléchir à la façon de fournir davantage de contexte dans les médias. Une seule image peut ne pas suffire.
Par exemple, un bouton permettant au lecteur de consulter une séquence d’images, l’équivalent d’une planche-contact à partir de laquelle une image a été sélectionnée, ou d’autres photographies et vidéos de la même scène, serait utile. Lorsque je travaillais il y a de nombreuses années comme commissaire sur une exposition Magnum de 400 photographies censée représenter quarante ans d’histoire mondiale, j’ai réalisé que je ne regardais que quatre secondes d’histoire, si l’on considère que l’obturateur de l’appareil n’était ouvert qu’environ 1/100e de seconde par photographie. Dans les couches d’un environnement numérique, on peut faire bien davantage pour fournir contexte et corroboration.
Mais nous devons être transparents envers les lecteurs quant au type d’images qu’ils regardent, et ce système d’étiquetage doit être largement adopté. L’aide des grandes entreprises technologiques serait essentielle pour filtrer différents types d’images. Et il doit y avoir des sanctions pour ceux qui étiquettent leurs images de manière abusive.
De nombreux utilisateurs de smartphones collaborent sans le savoir avec l’IA : HDR computationnel, lissage de la peau, remplacement du ciel. Pensez-vous que cette médiation invisible redéfinit notre sens collectif de ce que devraient être des images « normales » ?
Je pense qu’il s’agit d’une manifestation de « l’entitlement du consommateur », l’idée selon laquelle ce que le consommateur (ou le prosumer) souhaite, il ou elle l’obtient. C’est souvent fait dans l’appareil, avec des préréglages déterminés par le fabricant. Nous sommes passés d’une photographie impliquant la lumière traversant une lentille, enregistrée sur pellicule, à une photographie computationnelle où ce qui traverse la lentille est routinement modifié par logiciel, puis à l’imagerie générée par IA, où ni objectif ni appareil ne sont nécessaires.
Dans ce processus, la photographie est passée d’un médium dialectique, nous montrant ce que nous n’aurions peut-être pas voulu voir, à un médium nous donnant ce que les fabricants d’appareils photo, ainsi que nous-mêmes, pensons devoir vouloir, pour finalement fabriquer une imagerie qui n’a peut-être que peu ou rien à voir avec ce qui existe. En conséquence, nous devenons de petites divinités de mondes qui n’existent pas, tandis que le monde dans lequel nous vivons réellement est de plus en plus ignoré alors qu’il se dégrade rapidement à cause du changement climatique, des guerres, des dictatures, etc.
Historiquement, les nouvelles technologies en photographie produisent de nouvelles esthétiques. Avec l’IA, nous voyons non seulement de nouveaux styles, mais de nouvelles mythologies — « souvenirs plausibles », archives fabriquées, futurs imaginés. Que nous disent ces narrations sur notre époque ?
Bien qu’il existe de nombreuses manières dont l’imagerie générée par IA élargira nos horizons de manière productive, je pense que certaines de ses utilisations actuelles sont le signe de la confusion et de l’anxiété dans lesquelles nous vivons, nous accrochant à des illusions tout en peinant à affronter les réalités qui nécessitent notre attention.
Beaucoup d’entre nous ont perdu, par exemple, le sens d’une communauté plus large à laquelle nous appartenons, y compris le fait de lire les mêmes journaux et magazines dont les unes permettraient de concentrer nos sociétés sur des enjeux précis, de nous donner des objectifs communs. Par conséquent, nous n’avons pas de photographies iconiques capables de rallier le monde à une cause, comme la célèbre photographie Earthrise de l’astronaute William Anders en 1968, qui a contribué à lancer le mouvement environnemental ; ou les photographies déchirantes d’Emmett Till, cet enfant afro-américain brutalement assassiné par des racistes dans les années 1950, qui ont donné un élan majeur au mouvement des droits civiques ; ou encore celle du petit réfugié syrien Alan Kurdi, retrouvé noyé sur une plage turque, qui a poussé individus et gouvernements à se montrer bien plus solidaires envers les réfugiés.
Certes, les images générées par IA seront utiles de manières que nous ne pouvons pas encore prédire, notamment pour explorer ce qui échappe peut-être au champ de la photographie : pensées et rêves, civilisations anciennes, événements futurs tels que ceux susceptibles de se produire dans certaines régions en raison du changement climatique, univers quantiques, visions du monde différentes, processus biologiques, etc. — mais ce que nous ne devons pas faire, c’est permettre à l’usage généralisé de l’IA de s’emparer de notre sens de l’actualité et de nos capacités à la comprendre et à l’affronter. Aujourd’hui, elle est de plus en plus utilisée comme arme par des gouvernements et d’autres groupes pour intimider et terrifier les gens, déstabiliser notre perception de ce qui nous entoure, fracturer les sociétés et rendre les dictatures plus probables.
Les institutions artistiques commencent à exposer des œuvres générées par IA comme art visuel, mais le public se sent souvent mal à l’aise, voire trahi. Qu’est-ce qui est en jeu éthiquement lorsque des musées, des festivals ou des médias présentent des images artificielles dans des contextes documentaires ?
Une question qui n’a pas été abordée est la suivante : quels sont les droits d’un photographe pour empêcher d’autres de produire des images générées par IA basées sur son propre travail ? Quels sont les paramètres éthiques admissibles, et quelles devraient être les conséquences juridiques ? Comment protéger les images cruciales, telles que celles expliquant des moments charnières de l’histoire, contre les abus de ceux qui cherchent à déformer le passé de manière malveillante, par exemple en transformant les auteurs de violences en victimes ?
Ce sont des questions que les institutions doivent explorer en profondeur. Sinon, il est trop facile de célébrer de telles œuvres, qu’elles soient réalisées avec l’aide de l’IA ou autrement, simplement parce qu’elles sont nouvelles. Le des auteurs des photographies doit être respecté, tout comme les droits des victimes d’atrocités, désormais revictimisées par des images qui déforment ce qu’elles ont subi.
Mais l’industrie photographique a été lente à réagir. En tant que personne ayant écrit quatre livres sur le sujet depuis 1990 (le plus récent, The Synthetic Eye: Photography Transformed in the Age of AI, paru cette année), et un article sur le même sujet dans le New York Times Magazine en 1984, je peux témoigner de la réticence persistante des institutions à prendre ces changements profonds au sérieux, à se réunir et à décider d’une réponse commune.
Si vous deviez conseiller de jeunes photographes aujourd’hui, les encourageriez-vous à maîtriser l’IA comme un outil, ou à y résister ?
On peut considérer l’IA comme un « outil numérique », mais on peut aussi la considérer comme faisant partie d’un environnement numérique. Le numérique diffère considérablement de l’analogique à bien des égards — l’image y est constituée d’une mosaïque de pixels, chacun pouvant être modifié rapidement et de façon indétectable ; il est non linéaire, contrairement aux livres et magazines imprimés ; il permet à chacun d’être non seulement producteur mais éditeur à très faible coût ; et des technologies numériques telles que l’IA peuvent facilement usurper l’autorité de l’auteur.
J’encouragerais donc les photographes à comprendre ces différences et d’autres encore, à cesser de voir la photographie comme si elle était le même médium que celui pratiqué au siècle précédent, et à réfléchir aux stratégies les mieux adaptées pour communiquer leur propre compréhension du monde.
Serait-il utile d’intégrer la vidéo et l’audio à leur pratique, d’écrire un court code éthique expliquant leur approche et consultable en cliquant sur leur nom sous l’image, de fournir beaucoup plus de contexte pour leur travail, etc. ?
Ou serait-il parfois pertinent de laisser des personnes décrire comment elles ont subi des violences lorsqu’aucun photographe ni aucun appareil photo n’étaient présents, puis de les aider à produire des images générées par IA qui représentent la manière dont elles ont été maltraitées, comme cela a été fait par Exhibit A-I en Australie pour illustrer la situation des réfugiés ? S’agirait-il d’une pratique éthique et utile ?
Oui, tout le monde devrait comprendre comment l’IA fonctionne et décider si elle aide à faire avancer leur pratique ou la compromet, tout en étant transparent dans ses choix. De même que l’invention de la photographie a contribué à provoquer une renaissance chez les peintres, l’invention de l’IA pourrait aider les photographes à percevoir de nouvelles possibilités.
Plus d’informations sur Fred Ritchin ici.