Background Image
Table of Contents Table of Contents
Previous Page  10 / 28 Next Page
Information
Show Menu
Previous Page 10 / 28 Next Page
Page Background

Weiterbildung

10

Le temps va vite. Encore plus vite dans le domaine de la technique. La loi de

Moore – Gordon Moore – a affirmé que le nombre de transistors par circuit de

même taille allait doubler, à prix constants, tous les ans. Il rectifia par la suite

en portant à dix-huit mois le rythme de doublement. Il en déduisit que la puis-

sance des ordinateurs allait croître de manière exponentielle, et ce pour des

années. Il avait raison. Sa loi, fondée sur un constat empirique, a été vérifiée

jusqu'à aujourd'hui. Il a cependant déclaré en 1997 que cette croissance des

performances des puces se heurterait aux environs de 2017 à une limite phy-

sique : celle de la taille des atomes. Cette prédiction s’est justifiée pendant

longtemps, cependant, les écarts ne sont actuellement plus aussi grands et

nous devons trouver d’autres approches pour continuer cette progression.

Avec Bigdata, Bitcoin Mining et VirtualReality, ce besoin de puissance est

toujours plus pressant.

«Bien ! mais mon PC n’a pas suivi, il est

toujours aussi lent qu’il y a 15 ans.»

Ce n’est cependant pas la réalité. Nos

ordinateurs nous sont toujours fidèles

car le Output (définition, traitement)

demande des calculs toujours plus in-

tensifs. Aujourd’hui, les informations

que nous recevons sont toujours nom-

breuses, nous devons les travailler, les

stocker et les renvoyer.

Avant, les photos numériques avait un

format de 1–8Mpx (1–8Mio. pixels), au-

jourd’hui des Smartphones qui font des

photos en dessous de 16Mpx n’exitent

pratiquement plus. Des définitions jusqu’à

36Mpx ne sont plus une exception avec

les caméras professionnelles. Une réduc-

tion de telles images dans une mise en

page, sans diminuer la masse de pixels,

donne un résultat de plus centaines de

PPI et une énorme quantité de données.

Le but est l’optimisation

Voir un film en 4K sur un moniteur Full-

HD n’a pas plus de sens que de travailler

des photos en 600dpi sur un RIP, si la

définition maximum de l’imprimante est

de 300dpi. Ou d’imprimer un DIN- A0 en

300dpi, si celui-ci sera vu à une distance

de 3mètres. Finalement, la distance de

vision sera le facteur déterminant pour

trouver la «bonne» définition.

Nous surchargeons nos processeurs

d’images tramées très souvent avec

des données trop importantes ou trop

complexes, ce qui n’est pas satisfaisant

et prend du temps. Un PC graphique ré-

sout ce travail beaucoup plus efficace-

ment et prépare avant tous les fichiers

d’impression sans qu’il soit nécessaire

que l’imprimante soit à l’arrêt pendant

l’élaboration de l’image.

Un fichier TIFF de 150MB permet

dans de rares cas, une meilleure quali-

té d’impression qu’un fichier JPEG de

5MB pour la même image. C’est pour-

quoi une nouvelle calculation bicubique

aura lieu au plus tard lors d’une expor-

tation en PDF et une compression des

données en JPEG sera faite. En ce qui

concerne les données d’images nom-

breuses, il est nécessaire de limiter la

valeur de définition voir le Screenshot.

Le potentiel de calculation nécessaire

dont nous avons besoin dans la branche

graphique, pour produire des images

et des graphiques avec une qualité op-

timale, est actuellement sur le marché.

Il est cependant important pour nous

d’atteindre le meilleur résultat possible

avec des données les plus basses pos-

sibles, ceci afin d’éviter du temps inutile

sur le RIP. La solution est l’optimisation

des données d’impression, la recalcula-

tion de la définition du document et de la

compression des données.

Définition du document et puissance de calculation

Il tempo passa velocemente. E ancora più velocemente nel settore tecnolo-

gico. La «Legge Moore» di Gordon Moore sostiene, che la potenza di calcolo

si raddoppia di anno in anno. Questo perché il numero dei transistor posti

sulla stessa superfice si raddoppia. Per un lungo periodo questa previsione si

era verificata, ma nel frattempo i passi non sono più così lunghi. Ciò induce

a trovare altre impostazioni, per continuare a incrementare in questa entità

la potenza di calcolo. In tempi di BigData, Bitcoin Mining e VirtualReality è

tuttora richiesta una esponenzialmente crescente potenza di calcolo.

«Bene! Ma il mio computer apparente-

mente non ne è venuto a conoscenza, per-

ché è tuttora assopito, come 15 anni fa!»

In breve: non lo è. I nostri computer ci

sembrano lenti ancora tuttora, perché

l'output (raffigurazione / lavorazione) è di

elevata intensità di calcolo. Oggi sono

richieste presentazioni, elaborazioni, me-

morizzazioni intermedie e trasmissioni

di una vasta quantità di informazioni. Se

un tempo le foto digitali contenevano

18Mpx (1–8mio. Pixel), oggi non esiste

praticamente uno smartphone che non

fotografi con minimo 16Mpx. Le fotoca-

mere professionali non raramente offro-

no una definizione fino a 36Mpx. Una

riduzione di queste foto in un layout, sen-

za dovere ridurre i pixel, risulta in centina-

ia e centinaia di PPI e formati file enormi.

L'obbiettivo è l'ottimizzazione

Vedere un film 4K su uno schermo full-

hd fa così poco senso come l'elabora-

zione di foto 600dpi su un RIP, quando

la definizione massima della stampante

consente 300dpi. Oppure stampare un

DIN-A0 con 300dpi, quando lo stampato

va osservato a 3metri di distanza. Infine

è determinante la distanza visiva dall'im-

magine per trovare la definizione output

«giusta».

Troppo spesso sovraccarichiamo i nostri

processori di retinatura d'immagine con

dati troppo ampi o complessi, ciò risulta

Definizione dell'output e potenza di calcolo