Weiterbildung
10
Le temps va vite. Encore plus vite dans le domaine de la technique. La loi de
Moore – Gordon Moore – a affirmé que le nombre de transistors par circuit de
même taille allait doubler, à prix constants, tous les ans. Il rectifia par la suite
en portant à dix-huit mois le rythme de doublement. Il en déduisit que la puis-
sance des ordinateurs allait croître de manière exponentielle, et ce pour des
années. Il avait raison. Sa loi, fondée sur un constat empirique, a été vérifiée
jusqu'à aujourd'hui. Il a cependant déclaré en 1997 que cette croissance des
performances des puces se heurterait aux environs de 2017 à une limite phy-
sique : celle de la taille des atomes. Cette prédiction s’est justifiée pendant
longtemps, cependant, les écarts ne sont actuellement plus aussi grands et
nous devons trouver d’autres approches pour continuer cette progression.
Avec Bigdata, Bitcoin Mining et VirtualReality, ce besoin de puissance est
toujours plus pressant.
«Bien ! mais mon PC n’a pas suivi, il est
toujours aussi lent qu’il y a 15 ans.»
Ce n’est cependant pas la réalité. Nos
ordinateurs nous sont toujours fidèles
car le Output (définition, traitement)
demande des calculs toujours plus in-
tensifs. Aujourd’hui, les informations
que nous recevons sont toujours nom-
breuses, nous devons les travailler, les
stocker et les renvoyer.
Avant, les photos numériques avait un
format de 1–8Mpx (1–8Mio. pixels), au-
jourd’hui des Smartphones qui font des
photos en dessous de 16Mpx n’exitent
pratiquement plus. Des définitions jusqu’à
36Mpx ne sont plus une exception avec
les caméras professionnelles. Une réduc-
tion de telles images dans une mise en
page, sans diminuer la masse de pixels,
donne un résultat de plus centaines de
PPI et une énorme quantité de données.
Le but est l’optimisation
Voir un film en 4K sur un moniteur Full-
HD n’a pas plus de sens que de travailler
des photos en 600dpi sur un RIP, si la
définition maximum de l’imprimante est
de 300dpi. Ou d’imprimer un DIN- A0 en
300dpi, si celui-ci sera vu à une distance
de 3mètres. Finalement, la distance de
vision sera le facteur déterminant pour
trouver la «bonne» définition.
Nous surchargeons nos processeurs
d’images tramées très souvent avec
des données trop importantes ou trop
complexes, ce qui n’est pas satisfaisant
et prend du temps. Un PC graphique ré-
sout ce travail beaucoup plus efficace-
ment et prépare avant tous les fichiers
d’impression sans qu’il soit nécessaire
que l’imprimante soit à l’arrêt pendant
l’élaboration de l’image.
Un fichier TIFF de 150MB permet
dans de rares cas, une meilleure quali-
té d’impression qu’un fichier JPEG de
5MB pour la même image. C’est pour-
quoi une nouvelle calculation bicubique
aura lieu au plus tard lors d’une expor-
tation en PDF et une compression des
données en JPEG sera faite. En ce qui
concerne les données d’images nom-
breuses, il est nécessaire de limiter la
valeur de définition voir le Screenshot.
Le potentiel de calculation nécessaire
dont nous avons besoin dans la branche
graphique, pour produire des images
et des graphiques avec une qualité op-
timale, est actuellement sur le marché.
Il est cependant important pour nous
d’atteindre le meilleur résultat possible
avec des données les plus basses pos-
sibles, ceci afin d’éviter du temps inutile
sur le RIP. La solution est l’optimisation
des données d’impression, la recalcula-
tion de la définition du document et de la
compression des données.
Définition du document et puissance de calculation
Il tempo passa velocemente. E ancora più velocemente nel settore tecnolo-
gico. La «Legge Moore» di Gordon Moore sostiene, che la potenza di calcolo
si raddoppia di anno in anno. Questo perché il numero dei transistor posti
sulla stessa superfice si raddoppia. Per un lungo periodo questa previsione si
era verificata, ma nel frattempo i passi non sono più così lunghi. Ciò induce
a trovare altre impostazioni, per continuare a incrementare in questa entità
la potenza di calcolo. In tempi di BigData, Bitcoin Mining e VirtualReality è
tuttora richiesta una esponenzialmente crescente potenza di calcolo.
«Bene! Ma il mio computer apparente-
mente non ne è venuto a conoscenza, per-
ché è tuttora assopito, come 15 anni fa!»
In breve: non lo è. I nostri computer ci
sembrano lenti ancora tuttora, perché
l'output (raffigurazione / lavorazione) è di
elevata intensità di calcolo. Oggi sono
richieste presentazioni, elaborazioni, me-
morizzazioni intermedie e trasmissioni
di una vasta quantità di informazioni. Se
un tempo le foto digitali contenevano
18Mpx (1–8mio. Pixel), oggi non esiste
praticamente uno smartphone che non
fotografi con minimo 16Mpx. Le fotoca-
mere professionali non raramente offro-
no una definizione fino a 36Mpx. Una
riduzione di queste foto in un layout, sen-
za dovere ridurre i pixel, risulta in centina-
ia e centinaia di PPI e formati file enormi.
L'obbiettivo è l'ottimizzazione
Vedere un film 4K su uno schermo full-
hd fa così poco senso come l'elabora-
zione di foto 600dpi su un RIP, quando
la definizione massima della stampante
consente 300dpi. Oppure stampare un
DIN-A0 con 300dpi, quando lo stampato
va osservato a 3metri di distanza. Infine
è determinante la distanza visiva dall'im-
magine per trovare la definizione output
«giusta».
Troppo spesso sovraccarichiamo i nostri
processori di retinatura d'immagine con
dati troppo ampi o complessi, ciò risulta
Definizione dell'output e potenza di calcolo