LinuxFr.org Se connecter 25 ans de GIMP et version de développement 2.99.2 : premiers pas vers GIMP 3 ! Derniers commentaires Étiquettes (tags) populaires Sites amis À propos de LinuxFr.org

Non. C’est une erreur commune:

DPI = Dots per Inch (points par pouce)

PPI = Pixels per Inch (pixels par pouce)

La notion de “point” (attention, je ne parle pas du point typographique qui est une unité de mesure, je parle vraiment d’un petit point, physiquement; malheureusement — c’est d’autant plus malheureux car ces 2 notions sont utilisés en imprimerie — en français on n’a que le mot “point” pour exprimer les 2 notions alors que l’anglais a “dot” et “point” donc ils font la différence) n’a pas de sens physique dans l’électronique d’un écran. L’unité d’un écran est le pixel.

On parle de “points par pouce” (DPI) quand on parle de la densité de points imprimés par une imprimante par exemple. Dans ce contexte, le point a un sens physique (l’imprimante peut en effet imprimer un certain nombre de points dans une unité de longueur physique donnée). On pourra d’ailleurs découvrir que les points peuvent même avoir des tailles diverses! C’est vraiment pas le concept du pixel.

Et même encore là, je pourrais commencer à vous parler de comment marche une imprimante, des différents types d’imprimantes (donc comment ça peut éventuellement mettre à mal le concept de densité de points) et de tout ce qu’il peut y avoir derrière ce terme qui rend le concept encore un peu moins évident. On pourrait même discuter du concept de LPI (lines per Inch) pour l’impression en halftone, qui est la base du CMYK, et utilisé en impression offset.

D’ailleurs même pour les fichiers RAW que les marketeux aiment aussi qualifier en points (pour eux, tout est point!), il est techniquement malvenu de dire que ce sont des pixels. Ce sont des mesures physiques en grille. Chaque mesure physique est d’ailleurs dans un canal différent (car les capteurs ne sont pas RGB, donc on a certaines mesures en rouge, d’autres en verts, d’autres en bleu, sur des coordonnées différentes) et c’est pour cela qu’on ne peut pas visualiser un fichier RAW (si un logiciel affiche une image RAW, il aura fait des choix et un traitement quelconques pour générer des pixels, vous ne voyez pas le RAW car par définition les mesures n’ont pas un sens encore; d’ailleurs c’est pour cela qu’on peut sortir des images de toute sorte de lumières et couleurs à partir d’un même RAW principalement basé sur son ressenti artistique sans qu’une version soit plus “vraie” que l’autre puisque les mesures contenus dans le RAW n’ont pas encore de sens colorimétrique; une fois que l’image est transformée en matrice de pixels, là il y a un sens colorimétrique et à ce moment seulement, si 2 visualiseurs d’image montrent une image différente, au moins l’un est dans le faux). Dans ces cas là par exemple, il serait plus juste de parler en SPI (“samples per inch” – mesures par pouce). En RAW, ce terme est peu utilisé, mais il l’est beaucoup pour les scanners.

LinuxFr.org Se connecter 25 ans de GIMP et version de développement 2.99.2 : premiers pas vers GIMP 3 ! Derniers commentaires Étiquettes (tags) populaires Sites amis À propos de LinuxFr.org

Ensuite soyons clair, on est habitué au fait que plein de gens font l’erreur et je comprends qu’on fasse l’amalgame. D’ailleurs il est tout à fait naturel d’essayer de faire correspondre un “pixel” à un “point” d’impression lorsque la cible de l’œuvre est l’impression. Néanmoins ce n’est absolument pas une obligation technique! C’est donc un gros “néanmoins”. Typiquement on peut vouloir imprimer à plus faible densité de points (sans pour autant changer la taille physique) pour diverses raisons (dont économiser un chouille d’encre, ou simplement parce que l’imprimante ne peut monter suffisamment haut, etc.). D’ailleurs quand vous envoyez une image à un imprimeur, chercher à avoir une image exactement à la densité recommandé est une erreur de débutant qui ne comprend pas les concepts de résolution et d’impression. Typiquement on a eu quelqu’un l’autre jour qui voulait absolument envoyer une image à 300PPI car l’imprimeur lui avait dit qu’il fallait 300DPI. Il avait une image à environ 350PPI. Ça n’avait strictement aucun intérêt d’essayer de redimensionner l’image. Pire cela aurait probablement diminué la qualité de l’impression finale sans raison. Il n’est absolument pas nécessaire de faire une correspondance exacte entre les pixels et les points car il n’y a aucune correspondance sémantique ou logique directe entre pixels de l’image ou de l’écran et points d’impression. Éventuellement une correspondance de simplification, mais c’est tout.

Ce type d’anecdote montre aussi bien que comprendre un minimum la technique et le sens des mots est importants, sinon on se met juste à répéter des termes qu’on ne comprend pas, comme des perroquets. Et forcément on ne peut pas les comprendre car ils ne veulent plus rien dire hors contexte (pourquoi on parle de pixel en numérique? De point en imprimerie? De lignes en offset? Tous ces termes ont un sens et une origine physiques et sont donc logiques; si on les intervertit, on ne peut que s’embrouiller). C’est assez triste de voir même des auteurs de livres ou des profs qui ne comprennent pas de quoi ils parlent sortent des âneries. Puis tant de gens vont juste répéter ces mêmes trucs toute leur vie ou carrière (car même pas mal de pros ne cherchent pas à comprendre). Rien n’est plus triste quand on a un pro qui cherche absolument à mettre une image à 72DPI pour le web, ce qui… n’a juste aucun sens. Mettre une densité pour une image qui n’est faite que pour être vue sur un écran n’a absolument aucun sens. Pour une image faite pour le web, il faut uniquement raisonner en dimensions en pixels. C’est la seule chose qui importe! Mettre 72DPI ou 300DPI ou 10000DPI dans les métadonnées… ne change absolument rien. Niet. Que dalle. Ce mythe a été initialement propagé par Apple dans les années 80, quand ils ont fait des écrans à 72PPI et ont essayé de les faire correspondre à la densité de leurs imprimantes. Franchement un truc totalement ridicule. Ce chiffre est juste resté et pour une raison incompréhensible, les gens ont décidé qu’une photo devait avoir cette densité de pixel (info qui n’est simplement jamais utilisé de nos jours).

Et donc pour conclure, quand on parle de haute densité de pixels à l’écran, on parle donc bien de HiPPI. Le fait que les marketeux qui n’y comprennent pas grand chose se soient emparés des mauvais termes (qui sont alors devenus une sorte de standard pour l’achat) n’est pas la première et ne sera pas la dernière fois. Et de mon côté, ça ne m’empêchera pas d’utiliser les bons termes. 😛

Ensuite j’en fais pas une maladie et si on me dit “DPI” pour parler de densité de pixels, c’est pas moi qui vais reprendre (là j’explique mais c’est particulier car tu m’interpelles sur le sujet, alors… faut bien expliquer!) car je comprends ce que cette personne veut dire. J’ai mieux à faire. Mais j’utilise le terme approprié quand j’écris sur le sujet. Et quiconque s’intéresse un peu à la technique sait qu’utiliser DPI hors imprimerie (par exemple pour qualifier la densité en pixel d’un écran) n’a juste aucun sens.

Film d’animation libre en CC by-sa/Art Libre, fait avec GIMP et autre logiciels libres: ZeMarmot [ http://film.zemarmot.net ]

Leave a Reply

Your email address will not be published. Required fields are marked *