Les unités de mesure en informatique



L’unité principale de mesure en informatique est l’octet ; elle sert à mesurer ce qu’on appelle abusivement le poids d’un fichier comme si le fait d’avoir de nombreux fichiers sur sa machine rendait l’ordinateur plus lourd.

Bien évidemment, il n’en est rien. Nous dirons que l’octet mesure l’encombrement d’un fichier dans un support de stockage (CD, DVD, disque dur ou Clé USB). L’octet est le nom de cette mesure en français. Sa traduction en anglais est le byte. A ne pas confondre avec le bit (binary unit). Il faut 8 bits pour faire un octet et par voie de conséquence un byte. Le préfixe « oct » comme dans octogone signifie 8.

Table de conversion des différentes unités

Alors, en quoi le byte nous concerne-t’il? De nombreux supports de stockage sont fabriqués, en Asie notamment, dans des pays où l’on utilise l’anglais comme langue internationale. Si vous regardez de plus près ce qui est mentionné sur votre clé USB ou votre DVD, vous verrez que c’est l’unité utilisée.

Le bit, quant à lui, sert à quantifié la vitesse ou le débit. Le débit de votre connexion Internet se mesure en bits/secondes ou encore, plus communément, bits/s. Si le débit de votre connexion ADSL est de 8 Mbits/s, c’est donc que chaque seconde 1 Mo de données transitent à travers votre modem jusqu’à votre ordinateur.
On utilisera également le bit pour jauger de la qualité d’un fichier « MP3 ». En général, ce format de fichier a un débit de 192 Kbits/s. On est loin des 1,41 Mbits/s d’un CD audio. Le MP3 n’est pas fait pour écouter sur une chaine HIFI mais sur son baladeur MP3 ou son smartphone avec un casque dans un environnement plus ou moins bruyant. Le MP3 est également intéressant pour son faible encombrement. On peut donc mettre d’autant plus de morceaux de musique dans la mémoire d’un téléphone ou sur une Clé USB que l’on branche dans sa voiture.

 

Intéressons-nous maintenant à trois autres unités qui concernent l’image numérique. Votre écran d’ordinateur ou les photos faites avec votre téléphone ont une taille. Il en va de même pour celles que vous faites avec votre Appareil Photo Numérique (APN) ou celles que vous numérisez.
La taille d’une photo ne se mesure pas en cm mais en pixel, souvent noté px. Ce mot provient de la contraction, en anglais, des deux noms « picture » et « element ». En effet, le pixel est le plus petit élément qui compose une image. Un pixel est généralement rectangulaire et parfois carré.

On ne parlera pas de la taille d’une image, quoique communément accepté, mais de sa résolution. Par exemple, un écran peut mesurer 1920 * 1080 pixels. Le premier nombre est toujours celui de la largeur et le deuxième celui de la hauteur. La largeur est plus élevée que la hauteur parce que nos écrans sont rectangulaires en mode paysage, dans le sens horizontal. C’est le contraire en mode portrait, sens vertical.

Vous pouvez connaître la résolution de votre écran sur PC, en faisant un clic droit sur une zone vierge du bureau puis « Paramètres d’affichage« . Reprenons notre exemple, 1920 * 1080 = 2 073 600 pixels = 2 Mpx. A cette taille là, on parlera de HD (Haute Définition) sur votre téléviseur ; la HD commençant à 1080 px de large. Ou encore 7380 * 4320 correspond à de la Ultra HD, soit 4 fois plus que de la HD, c’est à dire près de 32 Mpx. Cette unité vous la connaissez, c’est celle que vous vantent les vendeurs de smartphones ou d’APN. Mais, une quantité de pixels ne suffit pas, à elle seule, à faire la qualité d’une image.

C’est là qu’intervient la définition. La définition se mesure en dpi (dot per inch), en français point par pouce. 1 pouce = 2,54 cm. Si l’on vous dit que votre écran a une définition de 100 dpi, cela signifie qu’il y a 100 points tous les 2,54 cm. Alors, les pixels font-ils tout? Est-ce qu’une grande image a une meilleur qualité qu’une petite? Pas nécessairement.

Prenons un exemple. Vous allez acheter deux draps de bain. Tous deux font 150 * 65 cm. Mais l’un a une densité de 80 gr de coton lorsque l’autre fait 500 gr de coton. Lequel sera le plus spongieux. Oui, en effet c’est celui de 500 gr et pourtant les deux serviettes font la même taille en cm.

Transposons cela dans l’imagerie numérique. Vous numérisez (scanner, en anglais) deux diapositives l’une en 100 dpi et l’autre en 600 dpi. Certes, la deuxième aura une plus grande taille en px mais elle aura aussi une meilleure densité (« d » comme définition ; « d » comme densité). C’est à dire qu’en la grossissant à 200% ou même 300% on verra mieux les petits détails alors que la première pixelisera beaucoup plus rapidement. C’est à dire qu’on verra vite les millions de petits carrés qui composent l’image.

Les écrans d’ordinateur fonctionnent souvent en 72 dpi ; ça ne sert donc pas à grand chose de mettre des photos plus denses sur son site Internet. En revanche, on utilisera 300 dpi pour imprimer une photo en bonne qualité et entre 400 et 600 pour une impression de très bonne qualité.

Enfin, viennent les pouces, ils servent à mesurer la diagonale de votre écran d’ordinateur ou de votre téléviseur. On l’a vu, 1 pouce = 2,54 cm. Ainsi un écran de 15 pouces mesure 38 cm de diagonale et un écran 17 pouces fera 43 cm. On écrira également 17″.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

© Boulanger Jean Informatique
Versailles & Le Chesnay