preprensa-1

El camino hacia la forma. 1 ra DG Gabriel Macarol Fundamentos de la producción de Impresos Edición - FILO/UBA parte

Views 63 Downloads 3 File size 545KB

Report DMCA / Copyright

DOWNLOAD FILE

Citation preview

El camino hacia la forma. 1

ra

DG Gabriel Macarol Fundamentos de la producción de Impresos Edición - FILO/UBA

parte

INDICE • El camino hacia la forma. Una aproximación histórica • Los Materiales fotosensibles •

Materiales Fotosensibles basados en Halogenuros de Plata.



La película gráfica



Materiales Fotosensibles basados en polímeros

• El original •

El original papel



El original electrínico ara gráfica





Los archivos de imagen





La tipografía digital





El formato PDF

• Tramas •

Clasificación de tramas



Tramas AM



Tramas FM



Tramas´híbridas, de modulación cruzada y PMR



Ganancia de punto

• El color en preprensa •

WYSIWYG



Perfiles de color



Trappong y overprint

• Escáneres •

Tipos de escáneres, cama plana y rotativos

• Flujos de trabajo •

Clasificación, CTF, CTP y DI



CTF





Previsualización





Pruebas de color digitales





Rasterización





Filmado y revelado





Pruebas de color de peliculado

2

El camino hacia la forma. 1

ra

parte

La palabra forma es, acaso, una de las palabras con mayor cantidad de definiciones en nuestro idioma. En el contexto de este curso, llamaremos forma impresora al objeto que lleva la información del diseño a imprimir. Esta forma varía sus características de acuerdo con sistema de impresión escogido: puede ser en relieve, en superficie, en profundidad, de penetración o digital. Los procesos de preprensa son los que, en general, preparan las condiciones y los objetos necesarios para la fabricación de estas formas; estos procesos de preprensa variarán según el sistema de impresión y/o el flujo de trabajo adoptado. Las formas más utilizadas en producción gráfica son los fotograbados (grabados realizados por medios fotoquímicos). En los sistemas en relieve encontraremos, entre otros, los fotopolímeros y los clisés metálicos; en superficie, las planchas o chapas de offset; en profundidad, los cilindros grabados de rotograbado o huecograbado; los shablones, en serigrafía –un sistema por penetración de tinta– y, por último, las formas digitales, cuyas características nos hacen repensar el concepto de forma variable. Hablaremos de forma cuando haya un momento de impresión: un sello de goma o una huella dactilar entintada son formas (no industriales) que llevan la información inscripta en sus relieves. En el camino hacia la forma tendremos que sortear muchísimos obstáculos; todos, afortunadamente, conocidos. Los japoneses llamaron “calidad total” a la reducción del error entre los pasos de un proceso a otro; sepan disculpar esta atrevida síntesis, pero en preprensa, la conciencia del error, de los límites de cada técnica y tecnología asociada, hará que

3

el producto final sea el óptimo. De esto se trata el control de calidad en preprensa, conocer los errores y prevenirlos, detectar cada uno y también su origen. Conocemos dos tipos de errores: los absolutos y los relativos. Los absolutos tienen que ver con cifras, unidades, las diferencias exactas entre un valor y otro, las diferencias precisas entre lo esperado y lo obtenido. Los relativos utilizan los porcentajes como expresión numérica. Figúrense ahora un proceso de diez pasos: entre cada paso detectamos un error de “sólo” el 2%. Al finalizar, el error acumulado dará un resultado de 16,62% relativo al esperado, es entonces necesario reducir el error entre paso y paso. La ecuación contiene al menos estas dos variables: la cantidad de pasos y el porcentaje de error. En el gráfico 1 tenemos la curva del error en función de la cantidad de pasos; en este caso, con un error del 5% vemos derrumbarse intensamente el equilibrio de la calidad. Debemos admitir con cierta vergüenza que estos niveles, en países como el nuestro, son moneda corriente en la mayoría de los talleres gráficos, que, al no contar con la tecnología apropiada o con la capacitación suficiente (hemos visto muchos talleres con la tecnología a disposición y sin la persona adecuada para el control de calidad), no garantizan los niveles mínimos de calidad en los procesos de preprensa, de prensa o terminación.

Gráfico 1 – Eje y: porcentaje de calidad, eje x, cantidad de pasos

4

Una aproximación histórica. La mayoría de los procesos utilizados hoy en imprenta abrevan en lejanas técnicas artesanales. Siguiendo la clasificación de formas antedicha encontraremos, al revisar las páginas de antiguas civilizaciones, la utilización de diversos sellos o tacos de distintos materiales. Estos eran relieves con los que se imprimía cualquier tipo de superficie. Los grabados en madera, llamados más tarde xilografías, comenzaron a utilizarse de manera cotidiana por artistas para imprimir piezas editoriales como los primeros incunables, e inclusive también antes de la invención de los tipos móviles en Oriente y en Europa durante el Medioevo tardío. Durero fue, sin dudas, el artista que llevó a su máxima expresión la técnica del grabado sobre madera y metal. La lógica de los grabados en relieve es sencilla: se intenta conseguir que la imagen o el diseño que se quiere imprimir quede distinguido por una diferencia de altura; la zona impresora se entintará, y finalmente, por medios manuales o mecánicos, la forma entintada se presionará sobre una superficie, por ejemplo, papel. La técnica básica variará según el material que utilicemos; hoy en día, los grabadores artísticos utilizan materiales que van desde la madera o el linóleo hasta materiales sintéticos, como resinas o enduido plástico para realizar sus tacos de impresión. Asimismo, encontraremos, a partir del Renacimiento, técnicas de grabado sobre láminas metálicas. Como los relieves conseguidos sobre el metal son producidos por mordientes de ácido o por puntas secas y buriles, a estos tacos se los llamó “en bajo relieve” o “en profundidad”. Los distintos nombres de estos grabados son entre otros, aguafuerte, mezzotinta, aguatinta y punta seca, según la técnica que les da origen. La lógica será, entonces, provocar una mácula, un rasguño, una zona rasgada en profundidad para que ingrese la tinta. Al limpiar superficialmente la lámina metálica, quedará tinta en las marcas producidas, obteniendo luego, por presión, la obra impresa sobre un soporte que resista el trabajo de una prensa. A fines del siglo XVIII, Alojz Senefelder, casi por casualidad y gracias a la eterna repulsión entre los medios grasos y el agua, descubrió un método sencillo para imprimir a partir de una piedra, forma a la que luego llamarán piedra litográfica. Dibujando con un lápiz graso en la superficie de la piedra se concebía un diseño, luego mojaba la piedra, pero lo dibujado quedaba seco debido a su estirpe oleosa. Al entintar la superficie, sólo lo delineado tomaba para sí la tinta y finalmente al imprimir conseguía la lámina terminada. Esta forma, al no necesitar surcos o sobrerrelieves se la llama en superficie. Sobre las formas por penetración poco se puede decir: encontramos los estarcidos, impresiones rupestres de la Cueva de las Manos, en los que una forma bloquea la llegada de tinta al soporte y los batik, técnica del Pacífico insular, donde estampaban telas indumentarias con la ayuda de seda natural para delimitar las áreas de color. Vimos que las formas impresoras de nuestros antepasados artísticos se construían con diversas técnicas, pero que la finalidad era la misma: obtener la matriz con la que imprimir.

5

Con el providencial encuentro de la química y la óptica a principios del siglo XIX se prefiguraba la fotografía, soporte fundamental de las artes gráficas del siglo XX. La impensada posibilidad de imprimir imágenes fotográficas se tornaba realidad. Las películas fotográficas de alto contraste brindaron el soporte ideal para copiar las formas de manera precisa en los tonos planos, como cuerpos tipográficos o planos de color, pero presentaban dificultades para copiar fotoquímicamente los medios tonos o tonos de grises, obstáculo superado con la invención de la trama.

Los materiales fotosensibles Los elementos con la propiedad de alterarse con la presencia de la luz fueron descubiertos por los alquimistas a partir del siglo VI en su obseso camino por la perfección áurea. Llamaron “Luna Córnea” a un componente que se oscurecía hasta ennegrecer. Ahora sabemos que era un derivado de la plata (Ag) asombrosamente parecido al que actualmente se usa en la industria fotográfica. Su aprovechamiento recién se dio a fines del siglo XVIII, cuando Nicephore Niepce combinó betún de Judea, albúmina, juguetes ópticos y algunos otros elementos para su invento: la fotografía. Vamos a encontrar muchísimas aplicaciones cotidianas de los materiales fotosensibles, desde las luces del alumbrado público, que se encienden al oscurecer, hasta los diagnósticos médicos más sofisticados, pasando, por supuesto, por el universo fotográfico. Las cámaras de fotos personales o de uso gráfico son precisos mecanismos ópticos que proyectan una imagen escogida y encuadrada hacia una película o superficie fotosensible de haluros de plata o CCD (Charged Coupled Device), es decir, respaldos digitales. Los materiales fotosensibles están, en general, conformados por un soporte y una emulsión fotosensible. El soporte sirve de medio estable, como por ejemplo, el celuloide en las radiografías, que está cubierto de una emulsión que cambia de estado con la presencia de los rayos X.

Materiales Fotosensibles basados en Halogenuros de Plata. El celuloide (acetato de celulosa) que conforma la película está recubierto por una delgada capa de material que llamaremos emulsión fotosensible (EF). La base de toda emulsión fotosensible son los halogenuros de plata: ioduro, bromuro, fluoruro y cloruro de plata. Estas sustancias tienen la propiedad de reaccionar frente a la luz, estímulo que provoca una reacción química de precipitado al combinarse el oxígeno con la plata y generar moléculas de óxido de plata que caen por su propio peso. Nuestro privativo interés: estas partículas son negras. Recuerden los objetos de plata que se oscurecen con el tiempo.…

6

Las emulsiones sensibles gráficas son del tipo ortocromático, es decir que registran sólo parte de la radiación luminosa total, por ejemplo, no reaccionan con la radiación roja. Además, son de alta latitud, con lo cual la variación de niveles de grises que pueden registrar es muy baja. Como ejemplo, las películas en nuestras cámaras de fotos tienen una latitud de media a baja, pues lo que queremos es registrar el máximo de detalles en todas sus gamas y matices. En gráfica lo que buscamos al momento del revelado es, negro y blanco en papeles o negro y transparente en películas. Estas emulsiones son también llamadas de alto contraste y su misión es transmutar todos los grises que sean más oscuros que el gris medio hacia el negro, y los que queden por debajo del gris medio al blanco, sin posibilidad alguna de representar valores intermedios. Además, pueden ser negativas o positivas. Las negativas reaccionarán a la luz ennegreciéndose, mientras que las positivas funcionan exactamente a la inversa. Veamos que ocurre con las emulsiones que ennegrecen. Dijimos antes que las sales de plata reaccionan a la luz. Actualmente la reacción es controlada, de manera que si tuviéramos la posibilidad de “ver” un rollo de fotos sin revelar (y sin que se vele), y tuviésemos la esperanza de encontrar una imagen, nos frustraríamos. ¿Qué ocurre entonces? ¿Por qué la emulsión no ennegreció? Para poder controlar los niveles de reacción a la luz, lo primero que se obtiene es una “imagen latente”, una reacción incompleta que terminará su proceso de ennegrecimiento en un laboratorio fotográfico en un baño revelador. “Tomamos nota” de la imagen y la terminamos en laboratorio. Pero, dirán, ¿sobre qué material estamos trabajando? Los materiales gráficos son esencialmente papel y película gráfica, la emulsión fotosensible viene en una pequeña capa sobre estos materiales. El proceso de laboratorio consta de cuatro pasos: el revelado, el detenido, el fijado y el lavado, en este orden. La función del revelado será entonces terminar con el decantamiento de las sales de plata en forma de moléculas de óxido de plata, que son negras. Cabe aclarar que sólo las moléculas alcanzadas por la luz decantan, entonces, ¿qué ocurre con las que no fueron alcanzadas por la luz? Si no detuviésemos la acción del revelador, en un tiempo cercano, las moléculas que no reaccionaron comenzarían a hacerlo. En un laboratorio, los tiempos y la temperatura de todos los baños son variables primarias. Esta es la función del detenedor: interrumpir la acción del revelador. Luego, en el baño fijador, eliminaremos la emulsión no decantada y fijaremos la imagen que a esta altura ya será perfectamente visible. Papeles o películas son lavadas y secadas en el último paso. Desde hace varios años, los papeles gráficos de alto contraste han caído en desuso al ritmo de la aparición de las tecnologías digitales, ritmo acelerado que en los últimos tiempos ha dejado casi sin trabajo a un rubro sin el cual 80 años de imprenta industrializada hubieran sido imposibles: la fotomecánica. De manera que mostraremos el funcionamiento de una película gráfica de alto contraste.

La película gráfica Durante muchos años, los procesos de producción de películas gráficas, copias de contacto, fotolitos, fotograbados, etcétera, fueron tarea excluyente de los talleres

7

de fotomecánica. En ellos coexistían la artesanía y las técnicas precisas de la fotografía con cámaras fotográficas gráficas de tipo vertical. El diseñador se presentaba con un original en papel, muchas veces montado en cartón, al cual le eran tomadas una serie de fotografías para producir las películas. Los tiempos han cambiado radicalmente para todos, pero esencialmente pata los fotomecánicos. En la producción industrial de materiales impresos debemos obtener matrices con las cuales grabar las formas impresoras. Los sistemas industriales con flujo de trabajo del tipo “directo a película” (CTF, Computer To Film) son los que utilizan películas para construir las formas para cada sistema de impresión. Estas matrices son las películas gráficas y llevan impresa la información en la medida exacta a la que van a ser producidos los impresos. Se deberá decir, entonces, que al finalizar la producción de preprensa en CTF, debemos obtener películas gráficas y pruebas de color (que veremos más adelante) cuyas cantidades dependerán del tipo de impreso y el sistema de impresión. Lo cierto es que la película debe oficiar de pantalla o máscara; para esto, lo negro debe ser opaco a la luz, es decir que ésta no la pueda atravesar. (Recuerden las horrendas marcas que dejan los bikinis en la piel al cubrirla del sol.)

Partes de una película gráfica En el corte transversal de una película gráfica virgen encontraremos: • Emulsión fotosensible • Acetato de celulosa (celuloide transparente) • Capa anti-halo

Por arriba y por debajo del acetato se encuentran dos mordientes. La función de los mordientes es de contención y de adherencia de la emulsión y de la capa anti-halo. El soporte más común en películas es el acetato de celulosa, medio translúcido bastante flexible y resistente. La capa anti-halo tiene una función importantísima: absorbe los reflejos por refracción dentro de la película de celuloide. La luz cambia de dirección cuando atraviesa medios de distinta densidad y provoca falta de definición en la imagen, algo así como un fuera de foco.

8

Al copiar una película los rayos de luz blanca llegan hasta la emulsión y hacen reaccionar la superficie en las zonas específicas de contacto, dan origen así a la imagen latente.

Luego de los procesos de laboratorio (el revelado, el detenido, el fijado y el lavado), la película quedará lista para su uso en gráfica.

El control de una película gráfica Para poder utilizar una película en gráfica debe cumplir con algunos requisitos, los más importantes son la orientación, su carácter de positiva o negativa y, por último, la opacidad, o sea, el grado de densidad de negro. Las películas terminadas tienen una cara lisa, es decir, sin restos de emulsión ni de otras sustancias, y una cara que lleva la información grabada y mostrada por la emulsión. Para poder orientar una película correctamente buscaremos primero un punto de referencia: una letra, palabra o texto, si no los hubiera deberemos localizar una imagen conocida o corresponderla al “mono” (apócope de monográfico) o boceto de diseño. El objetivo será enfrentarnos a la película y orientarla de manera que la podamos leer correctamente. Una vez hecho esto deberemos detectar de qué lado quedó la emulsión, deben saber que para el sistema offset la emulsión debería estar justo del otro lado, es decir, que entre sus ojos y la emulsión se encuentre el celuloide. En este estado, la película se llamará emulsion down (emulsión abajo).

9

Si la emulsión se encontrara por encima del celuloide se llamará, claro, emulsion up (emulsión arriba), los sistemas de relieve (por ejemplo, flexografía) por lo general utilizan esta condición. Por regla general, cuando se realiza una copia por contacto, muy común al copiar formas impresoras, las emulsiones de película y de la forma deben entrar en contacto íntimo. La razón es que las aberraciones producidas por la refracción de la luz deforman, a veces es imperceptible, los contornos de las tipografías o puntos de trama. Una película puede ser negativa o positiva. Si fotografiáramos un cuadrado negro, el registro negativo sería la imagen a la inversa, es decir, un cuadrado transparente sobre un fondo negro, mientras que el positivo sería un cuadrado negro sobre un fondo transparente. La densidad de una película es otra de las condiciones fundamentales para una buena transmisión del diseño a la forma. En una copia por contacto, la fuente luminosa deberá ser uniforme, es decir, iluminar de manera pareja una superficie plana, lo ideal para estos casos es una insoladora.  Las insoladoras más modernas tienen el control del tiempo de exposición por medio de procesos digitales. También, para un íntimo contacto entre película y forma, aportan una bomba de vacío que hace que se elimine el 99% del aire alojado entre ambas, que podría provocar fuera de focos y pequeñas distorsiones. El éxito de los procesos fotográficos depende de algunas variables entre las que encontramos la temperatura de los líquidos, la temperatura ambiente, los tiempos de exposición y de baño de los materiales y la juventud o frescura de los materiales utilizados. Una manera sencilla de controlar la calidad de una copia fue introducir en los procesos, cuñas de control. 

Estas cuñas se agregan a los originales en todos los procesos de preprensa, de hecho muchos softwares lo incluyen como opción en el momento de imprimir películas gráficas. De esta manera, tendremos datos objetivos, datos que se mantienen constantes y que darán las diferencias al ser medidas con un densitómetro de transparencia. También hay por reflexión, para medir la densidad de la tinta en los impresos. Los campos de control para la densidad de la película son preferentemente los plenos de negro. El densitómetro de transparencias funciona leyendo cuanta luz atraviesa determinado material; en este caso, un pleno de negro sobre una película.

10

Si tuviéramos una transparencia ideal, la luz pasaría en un 100% de un lado al otro de la película. Como no podemos tener estas certezas absolutas, en la realidad contamos con el error. Una densidad base se leerá entonces en todo material translúcido, que es la cantidad de luz que deja pasar. Cómo funciona un densitómetro: una fuente de luz se encarga de iluminar la muestra, una célula fotoeléctrica, del otro lado (por eso el densitómetro es de transparencia), se encarga de registrar cuánto del 100% emitido llega hasta la célula. Los parámetros normales de densidad oscilan entre 2,6 y 3,4 de opacidad; cuanto más grande es el número, más opacidad tiene la muestra. Estos valores son unidades matemáticas de opacidad, el resultado del logaritmo del inverso del valor de la transluminancia, log(1/tr). Si la película cuenta con un grado menor que el aceptado, hay altísimas probabilidades de que la película provoque desajustes en pasos posteriores. Por ejemplo, imágenes muy claras, quemado en las fotografías, formas inútiles en sistemas de relieve o hueco y/o defectuosas en sistemas de superficie o penetración. Una gran serie de ecuaciones conforman el “corpus densitométrico”, estos cálculos, simples pero que requieren de un conocimiento previo de nociones fisicomatemáticas, son resueltos por el procesador del densitómetro. Lo usaremos tal como usamos un teléfono celular, sin saber sobre la naturaleza de las ondas electromagnéticas o de la estructura molecular del silicio. Por último, debemos incluir como ítem a controlar el tramado de imágenes, pero esto lo desarrollaremos en el párrafo concerniente a tramas.

Materiales fotosensibles basados en polímeros Los polímeros son macromoléculas (generalmente orgánicas) formadas por la unión de moléculas más pequeñas llamadas monómeros. Los polímeros naturales, por ejemplo la lana, la seda, la celulosa, etcétera, se han empleado profusamente y han tenido mucha importancia a lo largo de la historia. Sin embargo, hasta finales del siglo XIX no aparecieron los primeros polímeros sintéticos como, por ejemplo, el celuloide. Los primeros polímeros que se sintetizaron se obtenían a través de transformaciones de polímeros naturales. En 1839 Charles Goodyear realizó el vulcanizado del caucho. El nitrato de celulosa se sintetizó accidentalmente en el año 1846 por el químico Christian Friedrich Schönbein y en 1868, John W. Hyatt sintetizó el celuloide a partir de nitrato de celulosa. DuPont, desde 1928, desarrolló un gran número de nuevos polímeros: polietilenos, poliésteres, poliamidas, neopreno, etcétera. Sus propiedades mecánicas de estabilidad dimensional hacen que estos materiales den muchísimas prestaciones en la industria gráfica: formas, soportes y terminaciones protectoras. El fotopolímero es una clase de polímero que reacciona, polimerizándose (todo un trabalenguas) ante la presencia de luz ultra-violeta (UV) que inicia la reacción: los monómeros se convierten en moléculas más grandes y estables. Como ejemplo, la forma impresora del sistema flexográfico es un fotopolímero que es grabado por exposición directa o por un láser de luz UV, que genera el relieve deseado para la impresión.

11

El original

Quizás sea verdad que el siglo XX haya terminado en los 80. Quizás la empresa Apple también forma parte de esta posibilidad. Las metáforas planteadas por los sistemas operativos de interfaz gráfica como el que desarrolló Apple y por el luego “adaptado” Microsoft Windows aplastaron, por su sencillez y practicidad a los primitivos sistemas de líneas de comando (DOS). Las metáforas apuntaban (y aún lo hacen) a generar un ambiente amable y, sobre todo, conocido: para borrar un archivo se debía “tirar al tacho de basura”. Se habla de archivos y de ventanas aunque estos sean sólo índices piercianos. Por continuidad, los primeros softwares gráficos comenzaron a punta de mouse a delinear protoarchivos que definirían más tarde el eje tecnológico de la autoedición. La panacea de la era digital había comenzado sin independizarse de la vieja usanza análoga: las referencias y marcas tradicionales de corte, registro y demasías siguen hasta nuestros días. Asimismo, brillaron los meteoros digitales en el cielo de fin de siglo, también arribaron los nuevos problemas, los errores algorítmicos de la lógica del silicio. Las nuevas tecnologías que solucionan viejos obstáculos inventan nuevos. La autoedición (desktop publishing) es, simplemente, una nueva forma de hacer viejas cosas. Los procesos que anteriormente se realizaban desde el esquema de la manualidad, armado de originales rígidos, peliculados en cámaras verticales, separación de color por medios fotográficos, positivado de planchas, alzado e im-

12

posición manual de páginas o calibración manual del color, hoy en día se gestan en una línea de procesos digitales. Esta línea deberá, para conseguir un buen resultado, tener un alto grado de optimización. Hablaremos de páginas digitales, de escaneados, de imágenes vectoriales o pixelares y, sobre todo, de lenguajes y códigos de descripción de página, es decir, de lenguajes comunes a muchas máquinas que comparten un proceso, en este caso el difundido postscript. Hardware va a ser la palabra de moda, “ferretería” es su significado literal. Lo material, el objeto “computadora”es a lo que realmente refiere. Las primeras Apple Macintosh eran una suerte de televisores blanco y negro de 9” con una ranura para diskettes, un teclado y un mouse. No tenían disco rígido, soportaban como máximo 4 Mb de RAM y costaban alrededor de u$s 2.500. Precio que paradójicamente se mantiene para una estación de trabajo gráfico promedio después de más de 20 años. Delimitar las ventajas y desventajas del universo digital sería una tarea tan ardua como útil, pero este no es el eje de nuestro capítulo, muchos libros han hablado de esto en los 90. Lo que nadie puede negar es que el trabajo de producción de originales para gráfica a partir de la aparición del ordenador es mucho más rápido y efectivo, sólo pensemos en el copy-paste y el undo en un sentido práctico. Citemos entonces la clasificación de Nicholas Negroponte, director del laboratorio de medios del MIT, la realidad se divide en dos: las cosas y la información. Es decir, “átomos y bits”. Recuerden cuánto ocupa la Enciclopedia Británnica en una biblioteca y cuánto en un CD: compresión de datos y corrección de errores son, entonces, las grandes ventajas de la digitalización. Ojalá Nicholas perdone esta simplificación. Servicios de red cada vez más poderosos y dispositivos de almacenaje cada vez más rápidos y vastos hacen que el trabajo de preproducción gráfica sea más sencillo, pero no olviden: las nuevas tecnologías, que solucionan viejos obstáculos, inventan nuevos. Por otro lado, la impronta electrónica modifica sustancialmente el esquema de trabajo tradicional en el cual la mayor parte de los procesos eran fotoquímicos y, dependían en gran manera de la experticia del fotomecánico a cargo. Los objetos que se producen en la industria gráfica son, en general, soportes o superficies que se entintan y que se preparan para su comercialización, distribución y/o uso. Hoy en día, los originales son documentos, objetos digitales producto de algún determinado software, que no dejan en profundidad de pertenecer a la lógica del bit, ceros y unos. De cualquier manera, estos documentos están conformados por elementos gráficos que tienen determinadas características, conocerlas hace la diferencia entre un original bien hecho, calificado, y otro que va a corromper o demorar el sistema de producción. En un arrebato de síntesis, y descontando apreciaciones semióticas, podemos decir que en todo diseño en dos dimensiones encontramos tres cosas: tipografía, imágenes icónicas y misceláneas. Esta clasificación está tomada de la primera manera de clasificar los elementos gráficos en el sistema de tipos móviles de antaño, en el que encontramos tipografía, clisés de relieve para las imágenes y elementos no tipográficos. Entre las imágenes icónicas encontramos las fotografías, ilustraciones, gráficos e iconografías, sobre estas hablaremos en un

13

próximo punto. Las misceláneas son filetes, cuadratines, texturas, símbolos no tipográficos, indents, etcétera. En cuanto al texto, y sin titubeo, descubriremos que en su ADN reina la letra. A modo de homenaje vamos a sintetizar algunas características de los originales en papel ya que algunas de éstas perduran actualmente, luego veremos los originales electrónicos para gráfica (OEG).

El original en papel Todo lo que se ha hecho a lo largo de 80 años en impresión está condensado en los procesos digitales de fines de siglo XX. La función del original en papel, como así también la del electrónico, es codificar el diseño visual a manera de objeto que sirva para la producción de las formas de impresión. Estos originales tendrán el objetivo de conseguir que las películas y las pruebas de color sean correctamente producidas. Mucho se podría escribir acerca del original en papel, pero nos sentiríamos invadiendo la ardua tarea de un historiador. Sencillamente, en un cartón montado blanco, se delineaba el diseño de un impreso; este original se debía realizar excluyentemente en blanco (fondo) y negro para que los procesos fotográficos registraran su contenido. Recuerden, los materiales fotosensibles gráficos son de alto contraste, cualquier valor de gris que hubiere sería interpolado hacia el blanco o el negro, esto es muy importante, en el próximo punto lo retomaremos para ver cómo se procede con imágenes que tengan grises o colores. Asimismo, se debían separar los colores manualmente. En impresión se necesita de una “pasada” por la máquina correspondiente para cada color de tinta. De manera que la regla es la siguiente: para cada color-tinta una forma y le sigue, para

14

cada forma un original; debemos confesar que con alguna pericia se podía ahorrar un original incluyendo en el mismo cartón la información de varios colores-tinta. Muchas de las marcas accesorias utilizadas en los originales manuales se utilizan en los electrónicos. A saber: las cruces de registro, las líneas de corte y el área de demasía de color. Al trabajar con varios colores que deben registrar entre sí en el momento de impresión, es preciso contar con una referencia, ya que muchas veces las impresiones son polícromas, es decir, de más de una tinta a la vez. Las cruces de registro sirven entonces en el momento de imprimir y, por lo tanto, deben estar en el original. Las líneas de corte indicarán al operario de guillotina por dónde cortar el impreso acabado. Si el diseño tuviere impresión al corte, sangrando, se deben prolongar más allá de las líneas imaginarias que provocan las líneas de corte, a esto se le llama área o zona de demasía de color. Para terminar, algo característico de los originales en papel eran las aclaraciones en color celeste, color que no salía fotografiado; y el papel vegetal por encima del original se usaba como protección.

El original electrónico para gráfica Los archivos de imagen Los archivos de imagen para la producción de originales electrónicos para gráfica (OEG) pueden ser archivos pixelares o vectoriales. Los archivos pixelares están compuestos por unidades mínimas de información llamadas pixeles, también son llamados “mapas de bits” o bitmaps. Los pixeles tienen siguientes las propiedades: • son cuadrados • tienen un tamaño que está relacionado con su definición de resolución, cuya unidad de medida es el dpi (dots per inches), puntos por pulgadas. • cada pixel tiene la capacidad de representar un único valor de gris (incluso uno ‘transparente’), la cantidad de valores de gris que puede representar se llama “profundidad de color” y se mide en bits, y responde a la expresión • cantidad de grises = 2x donde x es la cantidad de bits. Una imagen con pixeles de 8 bits puede representar 256 tonos de grises diferentes. • Siempre se agrupan formando superficies rectangulares Como es de suponer, las imágenes pixelares comparten estas características y le suman a su definición la cantidad de canales con las que están construidas, es decir, su “modo”. A las que están formadas por un solo canal se las llama en escala de grises o grayscale. Estos archivos pueden representar cualquier escena, pero en un solo tono, lo cual no implica que sean grises como en una foto en blanco y negro, sino que también podrían representarse situaciones de tonalidades diferentes, rojas, azules, etcétera, con toda su variación tonal.

15

Ahora lo complicado, una imagen a color va a necesitar de más de un canal de información para poder componer en pantalla la policromía esperada. El caso más común es el de las imágenes en modo RGB: rojo, verde y azul (Red – Green – Blue). La computadora, para hacer visible este tipo de imágenes, utiliza tres canales grayscale, cada canal llevará la información de un color básico, y de sus mezclas digitales se producirá el color correspondiente. A esta descripción corresponde cada una de las imágenes fotográficas que ven en internet o que provienen de sus escáneres, entre otras. Las imágenes multitonales son archivos de modo monotono, duotono, tritono, cuatritono, etcétera, es decir, se definen por la cantidad de canales asignados para cada una de ellas. Una con dos canales será duotono. Estos archivos corresponderán a imágenes con composiciones de color especiales, por ejemplo, una foto de autor con colores sepiados; para ser reproducida en estas condiciones en imprenta, su composición digital debe incluir la información para tinta negra y otra sepia: un canal para el negro y uno para el sepia. También se usan para contener dentro de imágenes a todo color, uno especial, por ejemplo plateado. Muchas obras de arte que incluyen dorados o plateados deben ser reproducidas a partir de pentatonos (5 canales) para lograr alguna fidelidad en relación con la obra original. Por último, las imágenes en modo CMYK (Cyan – Magenta – Amarillo – Negro) que contienen cuatro canales grayscale para la información esencial de la separación de color para la impresión policroma en imprenta. Los softwares de edición de imágenes pixelares, como el Photoshop, pueden previsualizar cada canal por separado y dan una utilidad sin paralelo para una comprobación previa de la separación del color. Observemos que el peso en Kbytes de una imagen pixelar está definido por la resolución (dpi), su profundidad de color (cantidad de bits) y su tamaño en ancho y alto; nótese que aumenta geométricamente en relación a su tamaño: tal como para pintar un cuadrado de dos metros de lado necesitamos 4 veces más pintura que para pintar uno de un metro de lado. Nos enfrentamos, y cabe aclararlo en este momento, con la poco propicia convención de utilizar la misma unidad para cosas diferentes. Tenemos ‘dpi’ que miden resolución de imágenes, pero también tenemos dpi que miden calidades de periféricos, como los escáneres e impresoras. Llamaremos entonces dpi de entrada a los que tienen que ver con dispositivos de entrada a la CPU, es decir, los escáneres u otros dispositivos de captura de imagen, como cámaras digitales, y que sirven, como veremos más adelante, para definir la calidad de lectura de estos aparatos. Dpi de salida serán los que definen la calidad de periféricos de salida, como los diferentes tipos de impresoras y filmadoras de película digitales o planchas. Esto es sencillo, cuanta más información tenga para definir una imagen, mejor será esta. La información de la que hablamos está definida como cantidad de pixels por pulgada. Cuanto más pequeños son estos pixels, mejor “dibujada” estará. Las imágenes que vemos en nuestras pantallas de computadora son, definitivamente, digitales. Todas se construyen a partir de pequeñas celdas fácilmente observables con una lupa o cuentahílos sobre el vidrio del monitor o la membrana del plasma. Estos módulos de color, a su vez, están formados por tres pequeños sectores luminosos de color rojo, verde y azul (RGB). Las formas y colores se delinearán entonces por la iluminación de cada uno de estos módulos comandados

16

por un software y una placa de video. A modo de experimento, miremos con un cuentahílos en zonas de diferente color del monitor y veremos las combinaciones que se proponen para la composición cromática. Descubrirán que el color blanco, como metáfora de la realidad, es una construcción de los tres colores luz en máxima intensidad, es decir, una ilusión. Los archivos de formato vectorial son, como en el caso de la tipografía digital, definidos por lenguajes de descripción matemática, como el Postcript. Generalmente son el resultado de programas graficadotes, como el Adobe Illustrator, el Inkscape o el CorelDraw. El formato gráfico vectorial más utilizado es el EPS (Encapsulated Postscript), ya que es multiplataforma y absolutamente tolerado por los programas de armado de páginas y por los RIP, importantes computadoras que son esenciales en el proceso de preprensa. Pueden guardar información necesaria, como parámetros de separación de color, trapping y overprint. Todos los objetos vectoriales están definidos por un contorno y un relleno y son el resultado de una función matemática. Esto es una gran ventaja si se considera que un cuadrado definido vectorialmente pesa en Kbyte exactamente lo mismo independientemente de su tamaño ya que las variables que lo definen son numéricas. En nuestra natural concepción dual de las cosas nos preguntaremos cuál de los dos tipos de archivo (pixelares o vectoriales) son mejores. Y la respuesta es ni uno ni el otro. Son diferentes, desde su concepción, y por lo tanto son usados para diferentes situaciones.

La tipografía digital Como dijimos antes, todo gráfico en un entorno Postscript se define matemáticamente. La tipografía también, por la llana razón de que para Postscript, la tipografía es el dibujo de una función predefinida. Una ‘a’ minúscula o una ‘efe’ mayúscula serán, entonces, diferentes funciones. Para la bonanza de nuestras actividades editoriales, de esto jamás nos tendremos que preocupar. ¿Cuáles son las puntas de este iceberg? En nuestros programas de armado más comunes encontramos la posibilidad de variar la fuente, el tamaño, el interletrado, etcétera; cuando informamos estos valores, estamos pasando valores variables a estas veladas fórmulas. Sencillo. La primera gran ventaja del postscript es que un archivo con una letra en cuerpo 10 va a pesar lo mismo que uno con esa misma letra en cuerpo 250. La segunda ventaja de la tipografía postscript es un tema que incumbe por demás a diseñadores y editores. La tipografía, así como cualquier otro archivo digital (.doc, .xls, etc), se puede manipular, copiar, borrar, además de tener una extensión que le es propia y que la identifica, por ejemplo .ttf para las fuentes True Type u OTF para las multiplataforma. A diferencia de formatos como las True Type Font, la tipografía vectorial es “inteligente”. Contiene en sus parámetros internos delicadas fórmulas que hacen que las letras sepan numéricamente acerca de su línea de base (baseline) o que sepan unas de otras; como ejemplo, en la palabra TIBURCIO, la T sabe que a su lado hay una I, la I sabe que está entre la T y la B, y así sucesivamente. Los diseñadores gráficos y tipógrafos observaron que entre una letra y otra no puede haber un kerning fijo. El kerning es una unidad para medir la proximidad de una letra a otra en cada fuente tipográfica. Se mide en unidades em o en y tienen rela-

17

ción con el diseño de la caja de la M o la N respectivamente. En algunos softwares aparece como tracking. Con kerning constante, un texto se vería como en una máquina de escribir, y podría provocar espacios indeseables que dificultan la lectura. Antes de las tipografías postcript, estas correcciones ópticas se hacían de manera manual, letra por letra, con tipos móviles, sobre todo en títulos y subtítulos. A principios de los 90, las tipografías digitales de Adobe se llamaron de tipo 3 (Type3) y tenían la desventaja de imprimirse correctamente, pero su visualización en pantalla era pésima. Luego las Type1 solucionaron el problema a través del Adobe Type Manager, que mostraba la tipografía de manera perfecta en relación con la calidad del monitor. De más está decir que son las recomendadas para todo tipo de uso editorial y gráfico a pesar de sus competidoras de siempre, las TrueType. Hacia fines de los 90, Adobe desarrolló las tipografías Multiple Master Fonts (MMF) y las Open Type Fonts (OTF). Las primeras combinaban de manera sorprendente todas las variantes de familia en un solo archivo. A manera de perilla de volumen uno podía lograr ennegrecer (hacer más negrita) o aclarar una tipografía, a gusto y piacere del usuario. Las Open Type son las más nuevas. Su principal destreza es ser multiplataforma, es decir, poder funcionar indistintamente entre plataformas Apple, Windows, Unix o Linux. Las TTF más modernas también tienen esta característica. La mayoría de los softwares utilizan la tipografía como un archivo asociado, es decir, toman la información de otro origen y se remiten a ella sólo cuando es necesario. Esto hace que los archivos digitales tengan un menor peso, pero esta ventaja muchas veces se vuelve en contra, ya que, en primera instancia y como buena costumbre, las fuentes tipográficas utilizadas, sus archivos nativos, deben acompañar al original electrónico terminado. Cuando se pasa por alto este pequeño detalle, nuestros originales electrónicos se vuelven totalmente inestables. Convertir la tipografía a curvas, es decir, volverlas puramente dibujo, es una posible solución para no tener que preocuparse de los links perdidos a tipografía. Lógicamente, el peso del archivo se incrementará en relación con la cantidad de caracteres utilizados.

18

El formato PDF Muchos dicen que Adobe Systems cavó su propia tumba al inventar el formato que está revolucionando la producción de OEG. Al ser considerado el remedio para todas las pandemias en la generación de originales estables y seguros, se volvió rápidamente un estándar. El PDF (acrónimo del inglés Portable Document Format, documento de formato portátil) es un formato de tipo mixto (imagen vectorial, mapa de bits y texto). Está especialmente ideado para documentos susceptibles de ser impresos, ya que especifica toda la información necesaria para la presentación final del documento, determinando todos los detalles de cómo va a quedar. Cada vez se utiliza más como especificación de visualización y de intercambio, gracias a la gran calidad del rendering de las fuentes utilizadas y a las facilidades que ofrece para el manejo del documento, como búsquedas, hiperenlaces, etcétera. Uno puede generar un PDF de casi la totalidad de los soft actuales, pero ¿todos estos PDF sirven para la producción gráfica? ¿Pandemia? ¿Qué tipo de enfermedades digitales nos azotan? Con la idea de mejorar los flujos de trabajo en preprensa, las distintas asociaciones que agrupan internacionalmente el área de servicios, hace más de una década (no existía la plataforma PDF), perpetraron un trabajo de campo. Consistía en una serie de preguntas de las cuales se arrojaron algunas cifras y algunas horrendas conclusiones: sólo un 42% de los originales electrónicos recibidos en preprensa calificaba para comenzar sin problemas el proceso de preimpresión. ¿Tan mal se trabaja? ¿Tan poco oficio en el tema? Lo cierto es que algunos detalles no son errores de importancia, pero son errores al fin. La lista de problemas potenciales se basó en la lista de control preliminar presentada en el documento “Control digital previo” preparado por la GATF-World en abril-marzo de 1996. Los problemas se dividieron en la encuesta en ocho categorías: discos y archivos, páginas, fuentes, gráficas vinculadas, exploraciones, pruebas, atrape (trapping) y procesamiento de archivos. El resultado fue una lista de 10 ítems comunes (para ampliar ver apunte “Soluciones a los problemas con archivos digitales”) Las nuevas tecnologías conllevan nuevos desafíos y nuevos problemas. Con el original en papel, ninguna de estas cuestiones existía, con la aplicación informática a la industria gráfica, se eliminaron sobre todo pérdidas de tiempo y posibilidades de corrección instantáneas. Evidentemente, todo oficio requiere cierta maestría. Los ordenadores no son la solución a todos nuestros problemas, por el contrario, saber manejar los softwares profesionales y el lenguaje Postscript ‘es’ el verdadero problema. El PDF es una alternativa para los archivos PostScript. El formato ofrece una vista previa en pantalla que muestra de manera precisa el contenido de los archivos (a diferencia del PostScript, que no posibilita esta opción, y del PostScript encapsulado (EPS), en el que la vista previa puede diferir mucho del contenido de los archivos). El reducido número operadores PostScript disponibles en PDF hace de los archivos compactos PDF una alternativa más consistente frente a los archivos PostScript convencionales. Por supuesto y aplicando inducción, en esta nueva manera de trabajo también vamos a tener que reaprender sus reglas y problemas. Crear un PDF consistente, que certifique en la mayoría de las plataformas de preprensa y que sirva de comienzo seguro para una producción gráfica, también tienen sus inconvenientes. La ten-

19

dencia es esta, flujos de trabajo basados en software y plataforma de estandarización y certificación en PDF. Desde los originales en papel hasta los modernos archivos de intercambio, sigue habiendo estándares que se mantienen: las marcas accesorias de corte y registro, las cuñas de control, el overprint, el trapping (serán analizados más adelante) y el área de demasía de color, entre las más importantes.

TRAMAS

La impresión de imágenes de tono continuo No existe una máquina de impresión industrial que pueda imprimir tonos continuos. Esta sentencia, superable con el avance tecnológico, nos dice que para poder imprimir una imagen con variaciones tonales (simplemente mire a su alrededor, todo tiene una variación de tono que nos inserta en un universo al menos tridimensional), deberemos, o algo deberá, convertir esta imagen análoga en una información discreta o no-analógica. Los métodos de fines de siglo XIX fueron realmente sorprendentes. En el año 1880, Stephen Horgan se vale de dos vidrios rayados mecánicamente que, colocados en ángulo recto, lograban transmutar la imagen, al fotografiarla intevernida, en una grilla de puntos variables en tamaño, es decir, una trama. Las tramas logran la variación tonal de una manera algo difícil de ver. Una imagen impresa mono o policromática es, en la mayoría de los casos, una conjunción de puntos que permanecen un sus sitios variando sus tamaños o que, a modo de spray, utilizan el dithering para simular tonos más o menos oscuros o de color. Más adelante ampliaremos estos conceptos. Quizás suene abstracto, pero recuerden qué ven cuando se acercan a un afiche callejero, o en la parada de colectivos, o con una lupa observan una foto impresa: no es otra cosa que la ‘trama’. El ojo es engañado una vez más.

20

Clasificación, las tramas AM, FM, XM y PMR La amplitud y la frecuencia son conceptos que provienen de la órbita científica y que vienen a describir la magnitud y la reiteración de un impulso energético, como las ondas electromagnéticas. En gráfica, la transcribimos de la siguiente manera: las tramas son pequeños grafismos cuya ‘amplitud’ va a representar el tamaño de cada punto y su ‘frecuencia’ la cantidad de repeticiones en la estructura de la trama.

Tramas de amplitud modulada - AM Ciertamente estas tramas, que llamaremos tramas AM (amplitud modulada; sí, como la radio) delinean una imagen con la modulación del tamaño de los puntos, son las utilizadas todavía en el 90% de los impresos en nuestro país. Sus características son: su lineatura, su valor tonal, su inclinación y la forma de sus puntos. Actualmente se refieren a ellas como “trama convencional”. La frecuencia de puntos alineados (lineatura) se toma en relación a una unidad homologada mundialmente, la pulgada (inch). De manera que los puntos se acomodan en una grilla damérica de líneas entrecruzadas. La cantidad de líneas de puntos por pulgada son los LPI (lines per inch) propia de esa trama. En la práctica corroborarán que una lineatura de más de 185 LPI será imperceptible al ojo promedio. Y que una lineatura inferior a 90 LPI deja en evidencia la población de puntos de una imagen impresa. Las podemos llamar cerradas o abiertas, aunque este dato no nos dice mucho objetivamente, nos daría una idea de lo que estamos hablando, tramas cerradas como las que representan la imagen de una manera más precisa por su alta lineatura y tramas abiertas las que, por tener poca cantidad de estímulos por unidad de medida, se revelan ante nuestra mirada dejando ver los puntos que la conforman. El valor tonal de una trama se mide en una relación porcentual: un valor pleno (de cualquier color) equivale al 100% de esa tinta-color. La ausencia de esa tinta impresa se considera un 0% de ese color. Por supuesto, un gris medio será el 50% de negro y un rosa, posiblemente, sea un 50% de magenta. Otra vez, a nuestros ojos humanos, un 1 o 2% de trama es normalmente imperceptible así como la diferencia entre un 98 y un 100%. Para hacer control de calidad del valor de la trama, existen espectro-fotómetros por reflexión, suena difícil, pero es simple, un aparato con sensores lumínicos que hacen rebotar sobre una trama impresa un haz de luz. El reflejo de esa luz es comparada IN-OUT, parametriza cuanta luz salió y cuanta es recibida por reflexión. La diferencia es el valor tonal de la trama. Este dispositivo es esencial en cualquier taller gráfico que ofrezca un servicio de calidad. Siempre nos hemos referido a las tramas como sucesiones de puntos y en el imaginario popular un punto equivale a un círculo. Pues no, una trama mecánica de puntos circulares encuentra un damero cuadriculado en valores próximos a un 50%. Y, en casos más recientes, la aparición de impresoras de alta resolución y de lenguajes de descripción de páginas digitales más precisos (más ajustadamente a partir de los lenguajes de Adobe Postscript versión 2 y 3) dieron la posibilidad de elegir entre una suerte de puntos no circulares. Entonces además de round dot, encon-

21

traremos puntos elípticos, cuadrados, estrella, hexagonales, honey comb, rombo, cadena, entre otros. Las aplicaciones de cada punto, es decir la razón de su existencia, tienen que ver con la capacidad de cada forma de reproducir con más acierto la realidad. Nos cuentan los cuadernillos técnicos que, por ejemplo, el punto elíptico produce una percepción más fiel de los colores pasteles o el color piel y que los romboidales representan mejor los brillos metálicos. Un hecho práctico, tramas hexagonales son utilizadas en las formas impresoras del huecograbado. Las tramas AM nos han dado muchísimas satisfacciones como para hablar mal de ellas, ciertamente imprimen muy bien en zonas de colores con grises medios y procesan los plenos de una manera más sencilla y eficaz. También responden óptimamente en el proceso de copiado fotográfico de las formas a partir de los peliculados AM. Sus problemas, en cuanto a la reproductibilidad los vamos a encontrar en las zonas de reproducción de altas y bajas luces, es decir, sombras y detalles muy claros, y, por otro lado, en el efecto moiré.

Efecto moiré Para entender efecto moiré les preguntaré: ¿Han visto cómo el ojo ve rodar en sentido contrario una rueda de bicicleta a cierta velocidad? ¿O cuando se apaga un ventilador? Bueno, ese efecto visual se llama resonancia óptica. Ocurre cuando dos o más tramados, sucesiones de grafismos o, sencillamente algo que se repite con alguna frecuencia regular, se interpone y se mezcla visualmente conformando un nuevo estímulo.

En gráfica es altamente probable que dos o más tramas se superpongan. Para que las tramas puedan reproducir la gama tonal de un multitonono, se las inclina, una con respecto a las otras, girándolas en valores determinados; por ejemplo, la trama que representa el negro se imprime con una inclinación de 45º, la del amarillo 90º, la del magenta 75º y la del cyan 105º. De esta manera, si están en registro, cada una donde debe estar, las tramas de las tintas CMYK se superponen sin formar moiré y crean lo que se llama la ‘roseta de color’. Estos ángulos son teóricos y de referencia general, existen talleres gráficos donde por producto de un trabajo de investigación sobre la totalidad de los procesos se determinan an-

22

gulaturas diferentes, que son las más convenientes para cada empresa en cuanto a la calidad del impreso. En el gráfico observamos dos tramas superpuestas con una inclinación errónea. Las figuras y las manchas de grises que se observan (sobre todo entrecerrando los ojos) son el efecto moiré. Su aparición puede suceder en dos momentos: la impresión o el escaneado. En la impresión es más fácil de ver y de entender. Suele suceder cuando las formas están mal registradas o mal montadas en los cilindros de impresión. En el escaneado, la superposición de tramas se produce siempre entre un impreso que queremos digitalizar (que obviamente está tramado) y la ‘trama’ de la pastilla de lectores CCD. Para solucionar este problema hay varios trucos. Veamos tres. Los programas de manejo, drivers, que traen los escáneres dan la primera solución. Muchos aportan una herramienta de destramado que anula el moiré. Para poder usarla, hay que saber a que lineatura está el impreso que queremos escanear. Otra manera es utilizar los filtros de destramado que tienen muy a mano los programas de edición de imágenes como el Adobe Photoshop. Y la tercera, que quizás sea la que más respeta la imagen original, es digitalizar poniendo el original inclinado dentro del escáner en diferentes ángulos, hasta lograr un archivo con muy poco o sin moiré.

Tramas de frecuencia modulada - FM Es inevitable comentar lo que se expresa como “Procesos y producción Hi-Fi”. A pesar de que es un término que nace en el entorno del audio de alta calidad, la intertextualidad hace que de un detalle audiófilo nos movamos hacia lo que sería “la búsqueda de la alta calidad en impresión”. El uso de los mejores componentes, la excelencia en la manufactura y el control de calidad son algunas de las condiciones para una producción Hi-Fi (High Fidelity). Las investigaciones sobre procesos y productos gráficos han trabajado esencialmente sobre la reproductibilidad de las formas y el color y dieron algunos resultados reales. En color, a modo de ejemplo ya que volveremos a este tema, el hexacrome. O el uso de colores especiales. En preprensa, las tramas FM y las híbridas. Las tramas FM fueron presentadas por AGFA en la década del 90 como la panacea de la preimpresión, es decir, la solución a todos los problemas que presentaban las AM: el moiré, la ganancia de punto en la zonas críticas (luces y sombras) y la formación de una roseta de color muy visible en algunos colores. Su lógica es sencilla, representan las variaciones tonales con puntos, pero estos puntos no varían su tamaño, sino que varían la distancia entre ellos. ‘Modulados en frecuencia’, es decir, la concentración de puntos será variable. Cuanto más próximos estén, más densa en color será la imagen. ¿Cuál será la lógica de la distribución de estos micropuntos? Se denomina estocástico a aquel sistema que funciona, sobre todo, por el azar. Las leyes de causa-efecto no explican cómo actúa el sistema de manera determinista, sino en función de probabilidades. Estas tramas determinan la posición de los puntos de manera aleatoria. Utilizan grandes mosaicos azarosos que componen las imágenes con las diferentes variaciones tonales en función de una mejor reproducción de la imagen original. Por fin, después de tanta inversión en tecnología, veremos algunas características de las tramas FM.

23

AM y FM

Las ventajas de estas tramas son, entre otras, la definición y la ausencia de moiré. Los pequeños puntos de trama que generan las imágenes son casi imperceptibles, comparables al tamaño de un punto de trama AM a 240 lpi, lo que da a la reproducción un acabado excelente. Por otro lado, debido a que la distribución de los puntos es ‘aleatoria’, no existe una frecuencia ordenada, cosa que determina la ausencia del moiré en la superposición de colores, recuerden que sería inimaginable el efecto moiré en una impresión monocroma. Cuando necesitamos imprimir a varias tintas, en tramas AM cada una debe tener diferente angulatura. ¡Peligro de rosetas de color demasiado evidentes! Tranquilos, existen las tramas FM. ¿Cuál es la razón por la cual no tuvo aceptación inmediata? A nivel mundial, todo nuevo producto requiere de un tiempo de adaptación y de recuperación de obsolescencia de la maquinaria. Todas las empresas gráficas sufren de este período, se necesitan inversiones para poder aggiornar la maquinaria y sobre todo los procesos a nivel holístico, modificación en la producción de formas (ya veremos su intervención en los flujos de trabajo Computer to Plate) e inversión en capacitación de personal. A nivel nacional, la razón es sencilla, para imprimir en sistemas Hi-Fi se necesitan operarios especializados, productos que ameriten estas tecnologías y un buen presupuesto. Historia conocida. Para darnos una idea del uso de este tramado, desde las más sencillas impresoras de chorro de tinta, hasta los plotters de mayor definición funcionan de esta manera, con tramado FM. Las tramas FM siguen avanzando y ya tienen nuevas versiones de “dithering”, es decir, la manera que la procesadora planea la ubicación de los puntillos de trama, ya que la práctica ha descubierto que ciertas disposiciones son más favorables que otras.

24

En este sentido, las nuevas tramas FM, las de segunda generación, además de variar el espacio entre los puntos, hacen que aquellas imágenes que necesiten representaciones más planas (por ejemplo en plenos de color, o en medios tonos) se junten entre sí, dando la impresión óptica de que se agrandan. No son todas ventajas. El talón aquiliano se percibe venir. Hi-Fi, recuerden, la obsesión de la calidad. FM deja ver un graneado regular en medios tonos, llamado worming, o agusanado, razón para mejorar.

Tramas híbridas y PMR En el tren de la modernización tecnológica, que seguramente dejará obsoletas estas palabras en poco tiempo, de muchas empresas de gráfica utilizan una trama híbrida, con las ventajas de las AM sumadas a las ventajas de las FM, a partir de un ripiado ‘inteligente’ que detectará zonas donde convienen unas y zonas donde son mejores las otras. Estas tramas se llaman tramas “XM” o de modulación cruzada. El calificativo ‘inteligente’ es bastante acertado, sobre todo comparado con ciertos seres humanos. Las tareas de estas nuevas tramas son varias y muy exigentes. Primero, detectar dónde conviene un tramado estocástico y dónde uno tradicional. Luego de descubrir estas zonas, tiene que lograr una transición dócil, pareja entre los dos recursos, sin producir ‘banding’ (franjas tonales visiblemente separadas). Debe angular las zonas con tramado AM y hacer ‘dithering’ en las partes de trama estocástica. Recurre a las virtudes en los plenos y grisados medios de la trama AM y a la FM para los detalles en altas luces y sombras. Y por si esto no fuera poco, hace unos años, se ha introducido un concepto revolucionario: el concepto PMR. ¡Una pandilla de siglas nos persigue! PMR: Punto Mínimo Reproducible. Vale la pena. Se determina cuál es el menor punto de reproducción óptima de cierto sistema de impresión. Por ejemplo: tal impresora offset imprime sin inconvenientes hasta un punto de trama del 3% trabajando a 150 lpi. Entonces, la trama utiliza como menor módulo de reproducción el tamaño de ese punto PMR. A partir de allí construye toda la gama tonal. Se asegura de que no haya información sin imprimir, y evita lo que en producción sería una ‘pérdida de puntos’ en la imagen tramada. Selecciona puntos por debajo del PMR, los elimina y los reemplaza por puntos PMR más distanciados. Esta solución es una gran ventaja en sistemas de impresión en los que los detalles eran muy difíciles de obtener por cuestiones de soporte y/o velocidad… exacto, los diarios pueden aprovechar al máximo las tramas XM. Así como existen las marcas automotrices, y a pesar de que todos los autos tienen cuatro ruedas y opcionales, en gráfica también se observa que según la empresa gráfica que ingenie productos digitales para preprensa, las tramas también sufren pequeñas variaciones y opcionales, tramas con AirBags.

25

Ganancia de punto Existen en artes gráficas varios conceptos que son utilizados una y otra vez en distintos marcos de referencia. La misiva ‘imprimir bien es tan simple como controlar la ganancia de punto’ es más que cierta. Veremos ahora el concepto de ganancia de punto o gain dot. El punto al que se refiere la expresión “ganancia de punto” es el de trama. La teoría, nuevamente aquí, nos echa una finta. Cuando decíamos que un gris medio se representa con el 50% de una trama, estábamos diciendo que la superficie a imprimir está exactamente cubierta con tinta en forma de tablero de ajedrez. Es decir, 50% cubierto con tinta y 50% del color del soporte, en general, blanco. La ganancia de punto vendrá a denominar las variaciones de tamaño en el punto impreso. Si el punto es más grande de lo teorizado, se llamará ganancia de punto positiva. Si el punto es menor a esta pauta, se llamará ganancia de punto negativa. Nuestro gris se verá más oscuro o más claro, respectivamente. Este es un error: 50% debería ser 50%. Si encontramos variaciones de este tipo con un espectro-fotómetro, ya sea en películas gráficas o planchas, midiendo sobre las cuñas de control, entonces ha habido errores en la parte de procesos fotográficos o en la parte de rasterización (escaneados). La fatiga química del revelador, temperaturas de proceso incorrectas, fuera de fecha, materiales vencidos o de mala calidad pueden dar variaciones de densidad y estas, a su vez, variaciones del tamaño del punto de trama. Las lámparas de uso en laboratorio, conforme el paso del tiempo, se agotan. Estas oscilaciones en el color de un lámpara, medidas en grados Kelvin (Kº), también generan las mutaciones de valor antes descriptas. Diferentes tipos de planchas de impresión, con distintas formas de copiado o materiales fotosensibles, también podrían provocar este efecto. Coronando todo esto, también podemos nombrar la ganancia de punto óptica, que tiene que ver con la percepción y siempre está funcionando. Simplemente, se dice que es un efecto visual en el que el ojo genera un “halo” oscuro alrededor de una forma clara o un halo claro alrededor de una oscura, dependiendo de la fuente de luz y el material impreso. Las causas de la ganancia de punto en un impreso son unas cuantas más, causas del proceso de impresión, selección de soportes y terminaciones o acabados, pero en este capítulo solo aspiraremos alcanzar el mundillo de la preimpresión.

26

El color en pre-prensa Luego de tantísimas aproximaciones a las diferentes teorías del color y la luz, pasaremos a un campo más pragmático. Para no atiborrar de discusiones y anatemas infructuosos sobre si un verde es verde o “ese” verde que buscábamos, desde hace casi 100 años se está pensando en el tema del color industrial. Consideren que tras la linearización de la producción industrial de productos (Fordismo), cada pieza, una tras otra, debería se idéntica. No solamente existen codificaciones en productos manufacturados, hay estándares de color para exportaciones de vegetales, como tomates o bananas, en los cuales el color debe estar dentro de una escala (Munsell) para poder ser vendidos. Imaginen la problemática del color en la producción industrial gráfica.

WYSIWYG o what you see is what you get. Lo que ves es lo que obtenés. En gráfica es un sueño tan real como la peor de las pesadillas, diría don Pedro Calderón de la Barca si mirara una impresión inkjet. Así como el arte de imprimir era el de controlar la ganancia de punto, el deseado Grial de la preprensa es mantener la consistencia del color a lo largo de todas las operaciones y procesos digitales en toda la secuencia de tareas de esta etapa. ¿Dónde empieza el estímulo del color? En nuestro cerebro. Con este lamentable comienzo, el resto es una obviedad. Cada cual ve como lo ordena su percepción, es imposible probar que todos los seres humanos ven lo mismo. La empresa Pantone fue fundada en 1962 por Lawrence Herbert, hoy aún es su presidente. Al comienzo, Pantone era un pequeño negocio que comerciaba tarjetas de colores para compañías de cosméticos. Una parte estaba solucionada, tenemos una estandarización cromática, impresa, con la que nos manejamos para poder ponernos de acuerdo sobre un matiz: el catálogo Pantone. Una herramienta básica para la industria gráfica y textil.

27

La clasificación Pantone separa tintas Spot, tintas Proceso y tintas Especiales. Las tintas Spot, por definición, se producen fuera de prensa, es decir, se componen en la mesa de trabajo del colorista, que produce la cantidad necesaria, en kilos, para cada trabajo. En la estandarización Pantone, que dura hasta nuestros días, existen 14 colores primarios, de la combinación de estos en proporciones exactas expresadas en partes en los catálogos de colores spot, se generan más de 800 tintas de colores diferentes. Algo muy parecido a una receta de trago largo. El catálogo de tintas proceso incluye el viejo estándar cyan, magenta, amarillo y negro (CMYK) en combinaciones que, por estar tramadas, aparecen en porcentajes, por ejemplo, un rojo será C:0% M:100% Y:100% K:0%, un verde esmeralda C:100% M:0% Y: 45% K: 35%. Hablamos de viejo estándar ya que hace unos años, la misma empresa desarrolló, tras rigurosas investigaciones óptico-mecánicas, el sistema de color Hi-Fi Hexacrome. Este sistema incluye CMYK más dos tintas adicionales, el naranja (O) y el verde (G). Los resultados fueron formidables. Además de incluir el obvio incremento en la cantidad de colores por simple combinatoria, el componente flúo de estas 2 nuevas tintas realzaba los colores. A estas tintas también las llamamos proceso. Los procesos Hi-Fi pueden ser también combinaciones de entre CMYK y dos tintas agregadas a voluntad por el impresor, como ejemplo, CMYK + Pantone 485 C + Blanco iridiscente, o CMYK + Gris Perlado + Plata. Por último, los colores especiales, que para Pantone son los metalizados y los fluorescentes. Actualmente la empresa está por sacar una nueva codificación. Pero suponiendo que nos ponemos de acuerdo sobre que la tapa de un libro debe ser “azul Francia”, el primer problema es ponernos de acuerdo sobre qué es ser azul Francia. Ahora, ese color debería ser exactamente igual al de la cartilla de colores, tanto en el monitor, como en las pruebas de color para la industria gráfica y por último en el impreso. ¿Es posible esto? Peor aún. Cuando tenemos una imagen policromática, debe haber una conjunción de puntos de colores básicos CMYK en perfecta sincronía. La información perceptual luego pasa a ser estímulo visual en un monitor -aunque todo es una teatralización que esconde ceros y unos- imagen que quizás provino de un scanner... y el scanner ¿ve como un ojo humano? Seguramente voy a querer imprimir, y desde ya, la impresión con tintas es completamente distinta a la generación de una imagen luminiscente en el monitor, de manera que no va a ser igual. Entonces, un diseñador arma un boceto y el cliente aprueba una prueba de color de alta calidad, ese compromiso intangible es bastante precario. La tecnología actual nos ofrece un par de soluciones a estos problemas. Se llaman calibración y generación de perfiles de color.

Los perfiles de estandarización para color digital Podemos definir dentro de los procesos de preprensa varias maneras de trabajo, o workflows, que más adelante explicaremos. A pesar de ello, hay ítems que se pueden definir sin la necesidad de ahondar en detalles.

28

• OEG • Certificación de PDF • Ripeado • Pruebas de color • Procesos para la generación de la forma impresora Lo cierto es que esta es una simplificación en la que lo más miserable es la perversión implícita en el deseo de que lo que uno imagina para un impreso sea como debiera. En el primer capítulo habíamos planteado el tema de la calidad total y de cómo cada paso conlleva un porcentaje de error. Desde la imagen en pantalla de un diseño hasta la entrega al usuario final de una pieza impresa hay infinidad de procesos –electrónicos, eléctricos y/o mecánicos–. Y cada proceso atenta contra la calidad. Entonces, ¿es imposible imprimir bien? En física no hay coincidencias ni simultaneidad, es decir, no es imposible imprimir bien; sí, difícil. Sobre todo con bajos presupuestos y personal no capacitado. Este tormento nos acompaña desde la cuna de la impresión, y muchos esfuerzos y dinero se han invertido de manera de asegurarnos que el deseo de la calidad en impresos sea satisfecho en gran medida. Veamos algunas causas del fracaso. Nuestros órganos perceptivos son falibles, escuelas de psicología han trabajado fuertemente sobre esto, las ondas electromagnéticas se hacen visibles en cierto rango de frecuencia. Hay ondas infrarrojas (IR) por debajo de nuestro umbral de visión, que pueden ser percibidas por los órganos del tacto –calor, frío–. Ciertas ondas ultravioletas (UV) se asoman a nuestros ojos en los colores fluorescentes, el límite por encima de nuestra visión. Con esto, en la realidad, hay emisiones que no podemos ver. De hecho, hay materiales sensibles que sí las pueden ‘ver’, por ejemplo, las emulsiones que responden a los IR, que sirven para ver o tomar fotografías nocturnas, o las lacas de terminación superficial para impresos y fotopolímeros que ‘secan’ con radiación UV. De las radiaciones de onda que podemos ver, hay menos que podemos fotografiar (fotografía pancromática): muchos colores quedarán fuera de esa fotografía y pasarán a ser reemplazados por otros. Lo podemos comprobar cuando nos sorprendemos porque una foto muestra los colores tal como son… Luego podríamos escanear esa foto: nuevamente la desidia. ¿Qué ocurre? ¿Por qué en pantalla venos menos colores o colores que no estaban en la foto? ¿Y cuándo imprimimos? La explicación tiene que ver con los diferentes ‘espacios de color’. El Gamut, o espacio colorimétrico, es un atributo particular de cada componente de la línea de producción: monitores, escáneres, impresoras color ink-jet, impresoras de película gráfica, en preprensa o impresoras offset, flexográficas, etcétera, en producción, sirven de ejemplo. La administración del color para todo el proceso (CMS: Color Management System) va a estar a cargo de coordinar las distintas ‘personalidades’ para que cada device

29

(dispositivo) conozca en qué idioma ‘hablan’ los demás componentes del sistema. El CMS maneja el color de una manera cuantitativa: el color es representado numéricamente o por coordenadas matemáticas. La idea es mantener la consistencia del color a pesar de que las imágenes hayan sido escaneadas en otro momento o lugar, de que el monitor tenga 5 años de uso o que nuestro proveedor de pruebas color inkjet use cartuchos no-originales. Entonces, ¿se puede obtener color consistente? Sí, si se aplica administración del color correctamente. Existen, nuevamente simplificando, dos espacios de color utilizados en gráfica: RGB y CMYK, pero por no ser matemáticamente consistentes, fue creado el sistema Cie Lab. Este sistema especifica los colores ubicándolos en un espacio 3D de coordenadas, en el que las variables son ‘L’, luminosidad, ‘a’ un eje que va del rojo al verde y el ‘b’, el tercer eje variable que va del azul al amarillo. Para verificar estos estándares y los perfiles internacionales de las distintas marcas de dispositivos se creó el ICC (Internacional Color Consortium), que tiene tam-

30

31

bién la ardua y muchas veces ignorada tarea de proveer información sobre CMS entre distintos proveedores de software, hardware y usuarios finales. La administración de color funciona, ayuda a controlar el color dentro de un proceso de producción gráfica. Pero su implementación es compleja. Cambia el estado de las cosas, muda de aires los viejos paradigmas típicos de los talleres gráficos promedio. Para colmo, es más fácil usarla mal que bien, se necesita orden y una buena planificación.

La separación del color Para trabajar el concepto de separación de color en preimpresión, retomaremos nuevamente la diferencia entre tinta y color, y, también, la clasificación de tintas que la empresa Pantone desarrolló hace más de cuatro décadas. Lo más importante, entonces, es conocer la diferencia conceptual entre los colores que formamos por la mezcla de pigmentos y los que se forman por una concurrencia óptica: la gran simulación de los puntos de trama. Una imagen multicolor, la realidad, una fotografía, es una amalgama de colores (HSL: Tinte, Saturación y Brillo) que de modo análogo se muestra a sí misma. Debemos separar lo que está unido para luego volver a unirlo. Diferenciaremos ahora las impresiones monocromas de las policromas. En impresiones monocromas, una sola tinta, no tiene ningún sentido hablar de separación de color pues se elige el color de la tinta, se trama y luego se imprime. Ahora bien, dentro de las policromas encontraremos producciones a dos o más tintas, entre las cuales se hallan policromías spot y policromías proceso: la impresión de fotocromos, el alma máter de la impresión. Recuerden que ya hemos explicado que ningún sistema de impresión puede imprimir imágenes de medios tonos. Es decir, imágenes que tengan pasajes entre colores o valores de color; una fotografía familiar en papel fotográfico es una reproducción mediotonal (sin considerar la delicadeza de que los granos moleculares de la emulsión son, de alguna manera, una trama). Siguiendo con la necesidad de imprimir colores por separado, es decir, secuencialmente, uno detrás de otro, deberemos preparar nuestros originales de manera que a la impresora llegue la información procesada, o sea, separada. En colores spot y en original papel, los colores podrían estar separados manualmente o, con alguna pericia, incluir la información entreverada en el mismo original. La regla era: para cada tinta una forma y para cada forma al menos, un original. Cuando se debía incluir un diseño que incluyera medios tonos debíamos preparar todo para hacer una autotipía (un tramado) o una fotocromía manual. Utilizando los conocimientos de la teoría del color se separaba un original opaco de medios tonos a una serie de cuatro películas grabadas en película gráfica a través de una serie de filtros. Cada película llevaría la información de cyan, magenta, amarillo y negro.

32

La separación en sistemas digitales se produce en el ordenador que envía la información al RIP (raster image process), donde la imagen es tramada. Hablaremos de este proceso más adelante. Los esquemas son muy parecidos, sólo que digitalizados. En ambos sistemas, atómicos o digitales, existen dos conceptos que es necesario aclarar, el de overprint y el de trapping.

Trapping y overprint Overprint significa, en inglés, sobreimpresión. Y de esto se trata. Cuando se imprime por tintas separadas, se espera que, al recomponerse la imagen, cada color esté en su lugar. Esto se llama registrar. Un color oscuro u opaco, por lo general, puede ser impreso sobre otro sin modificar su color. Entonces, aprovechando esta peculiaridad, cuando tenemos una tinta, por ejemplo y en la mayoría de los casos para texto, negra, sobreimprimiremos esta sin necesidad de recortar el fondo de color y previniendo el posible fuera de registro entre el texto, se dirá entonces que el texto está overprint. Un ejemplo muy típico, que hasta es considerado un default, por defecto, en programas de armado de páginas. Aclaremos que no sólo se puede aplicar al texto y no sólo a la tinta negra, muchas veces por cuestiones de diseño se determina deliberadamente que cierta tinta sobreimprima sobre otra. Cuando la realidad indica que la tinta sobreimpresa cambia su color (y no debería), la solución a problemas de registro es el trapping, que aparece como “abundancia” en textos españoles. Este recurso consiste en agrandar el área de color de una de las tintas participantes para que “pise”, a manera de filete, un color a otro. El tamaño de la zona de trapping se puede controlar con los programas adecuados de separación de color, los estándares oscilan entre 0,1 y 0,35 mm, dependiendo en cada caso del sistema de impresión escogido.



33

ESCÁNERES De esta desgarrada clasificación del universo visible nos queda abordar qué acontece con las imágenes icónicas. La realidad tal como la vemos es análoga. Es decir, no hay sobresaltos, interrupciones perceptuales, es continua. Una sombra se desvanece. Un amanecer aclara suavemente. La imagen es un tono continuo. Cabe repetir una de las máximas de la tecnología gráfica: “No hay manera de reproducir o imprimir tonos continuos de manera seriada o industrial.” Si bien existían a principios del siglo XX maneras semiartísticas de reproducción de medios tonos, como la litografía, cuando la fotografía se convirtió en una pieza fundamental del lenguaje periodístico, se tornó indispensable la reproducción de tonos continuos, en este caso, fotos blanco y negro. Si se podían imprimir de manera confiable planos de color pues, entonces, la solución se hallaría en poder descomponer esa imagen análoga en una imagen fragmentada, descompuesta en miles de “puntos” que más tarde se llamarían trama. En este lugar nos preocupa cómo hacer para que una imagen análoga, como una fotografía o un arte, pueda ser manipulada en una esfera digital. Los dispositivos de entrada en el universo de la gráfica son los escáneres. La función esencial de un escáner es convertir la información análoga de una imagen en información digital. Digitalizar. Este concepto es el mismo que se aplica cuando se graba sonido o movimiento en una computadora. Átomos en bits. Lo que procesemos en un escáner se verá luego en la pantalla de nuestro monitor, en general preparado para ser editado. Los escáneres profesionales suelen venir acompañados con softwares asociados que permiten controlar el proceso de digitalización, desde el tamaño y la posición hasta la resolución de la imagen destino. Cada proceso en una línea de producción tiene un objetivo y debe cumplir con ciertos parámetros. Entonces, ¿con qué parámetros deberíamos escanear? Ya conocemos las variables que definen una imagen digital: tamaño, resolución y modo. Obviemos el modo, que vamos a establecer como una constante, RGB. La resolución de una imagen pixelar se establece como una relación entre los dispositivos de entrada y salida. Entonces, enunciaremos una de las grandes fórmulas de la preprensa para resolver la incógnita acerca de la resolución con la que escanear para obtener una buena impresión:

Dpi = Lpi x 2 x C donde Dpi es la resolución a la que setearemos el escáner; Lpi es la frecuencia de trama que se utilizará más adelante en la etapa de impresión y que está definida por el sistema a utilizar; 2 no es un número arbitrario, sino un término que se discutió en convenciones y que se declaró como estándar, y por último C, que

34

es un coeficiente de ampliación o reducción, que tiene que ver con el tamaño de la imagen origen y el tamaño de la imagen destino, si dividimos el tamaño original sobre el final, obtenemos un número (la relación entre los dos tamaños), ese es el coeficiente C. Si se escanea al mismo tamaño del que se va a imprimir, este coeficiente es 1. Por lo general, ante un pedido de digitalización con un escáner de alta resolución, estos cálculos los hará el operador de digitalización por medio del software de soporte y nosotros nunca nos enteraremos, sólo tendremos que informar en que lineatura se imprimirá la imagen destino en circunstancias de producción en imprenta. Por ejemplo: el sistema offset utiliza tramas promedio de 150 lpi; a un tamaño 1 a 1, la cuenta será: 150x2x1=300 dpi, que es la resolución a la que escanear la imagen.

Tipos de escáneres Los escáneres para objetos bidimensionales se pueden clasificar en tres: escáneres de mano, escáneres de cama plana y escáneres rotativos. Los escáneres de mano están prácticamente en desuso y servían para previsualizar imágenes de alto contraste con el fin de redibujarlas en cualquier software de edición vectorial. Ahora, los escáneres utilizados para producción gráfica son esencialmente los de cama plana y los rotativos. Comencemos con los planos. Así como una fotocopiadora ‘lee’ una imagen a medida que el carro de iluminación va explorando el original, un escáner plano explora (en inglés scan) la superficie de cualquier superficie lo suficientemente plana como para ser alcanzada en orden por una luz muy intensa. Las fotocopiadoras comunes trabajan con un sistema de reflexión que proyecta la imagen ‘rebotada’ en cilindros que, por una diferencia de potencial electromagnético, toman el tóner o tinta sólida y lo transfieren al papel, al que se fijan por calor… vaya resumen! Es decir, la imagen del original es leída y reflejada hacia la forma impresora. En un escáner no pasa esto. El módulo lector es una célula fotoeléctrica muy pequeña llamada CCD (Charge-coupled device). Los materiales fotoeléctricos son sustancias que reaccionan ante la presencia de un estímulo luminoso devolviendo una corriente eléctrica. Si este flujo es reconvertido, puede ser muy útil para, por ejemplo, prender y apagar las luces de las calles, o mantener abierta la puerta de un ascensor mientras sube la abuela, entre otros muchísimos usos. Un escáner, entonces, consta de un módulo lector y un módulo codificador. Las calidades y sistemas de estos módulos van a hacer variar, en algunos casos, hasta 100 veces el valor de unos sobre otros. El módulo lector de un escáner plano funciona casi como el de una fotocopiadora, es decir, una luz potente ilumina el original. El reflejo de esa imagen es recogido una serie de espejuelos y concentradores que lo dirigen hacia un dispositivo con CCD en línea o en forma de grilla, CCD lineales o CCD de área, respectivamente. Una de las características fundamentales que deciden la compra de un escáner es la calidad con la que explora. Esta calidad depende también del tamaño y cantidad de CCD del módulo lector. Cada CCD ‘verá’ una porción de la imagen total

35

que será reconstruida luego por software. Cuando nos dicen “este escáner es de 600x300 dpi reales” nos están diciendo que la pastilla de CCD de ese escáner tiene un área de 600 x 300 ‘ojitos electrónicos’ o sea unos 180.000 CCD por pulgada cuadrada. Esta es la medida de resolución de entrada de la que hablábamos anteriormente, DPI, en este caso, CCD por pulgada. Se deduce, entonces, que cuanto más grande sea la densidad de CCD por pulgada, mejor será la resolución de la imagen que entregue el escáner. También como característica básica de un escáner encontramos la profundidad de color de los CCD. Esto es más difícil de entender pero aquí vamos. De un CCD que ‘solamente’ pueda discernir entre blanco y negro, se dice que tiene la profundidad de 1 bit. Aquí caben varias aclaraciones. Blanco y negro es presencia o ausencia de luz reflejada. Cuando manejamos 1 bit de información podemos saber si SI o NO, o si uno o cero. Unos y ceros es, ni más ni menos, código binario. Avancemos, los CCD de los viejos escáneres de mano eran de 1 bit, pero hoy encontramos profundidades de hasta 48 bits. Con 2 bits tenemos esta secuencia 00, 01,10, 11: blanco, gris claro, gris oscuro y negro, respectivamente. Imagínense la secuencia para 24 bits, que es la profundidad de color de los escáneres más vendidos, resalto, profundidad de color, 24 bits es 8 bits por color de lectura, RGB, o sea 8 x 3 = 24, algo más de 16 millones de colores. Una imagen pixelar a color es la suma de tres canales de escala de grises cada uno con información R, G y B. Para que un escáner ‘explore a color’, el módulo lector separa por medio de filtros la información que recibe que luego es recompuesta por software y enviada al disco de la computadora. Nuestros escáneres de escritorio son escáneres de cama plana, de baja resolución, muy útiles pero poco precisos. A veces nos comentan acerca de la ‘interpolación’ de los escáneres de escritorio, que eleva su definición a 2.400 o más DPI. Esta interpolación es una ‘cuenta’, un algoritmo que realiza un procesador que inventa píxeles para simular mejor calidad de imagen, un artilugio de venta más. El consejo será saber diferenciar la definición óptica de la interpolada. Otra de las características para observar en la compra es tener en cuenta si están preparados para explorar sólo materiales opacos o tanto opacos como transparencias. Dentro de los escáneres de cama plana también encontramos un abismo de calidad y precio entre los de uso domiciliario, o desktop publishing, y los de uso profesional para artes gráficas. Los escáneres de cama plana de alta definición tienen como función fundamental el escaneo de materiales que ameriten un alto grado de definición, una obra de arte o una película gráfica ya procesada. El funcionamiento de estos es, en términos generales, similar, es decir, existe un original para leer, un módulo lector y un sistema de procesamiento. ¿Dónde radica la diferencia?, en el módulo lector. Comenzada la década de los 90 se aplicó, para beneficio de la gráfica en general, una propiedad que descubrió la física óptica: la excitación del fotón por arcos fotovoltaicos. Para aclarar, cuando un CCD es excitado por un fotón, puede o no

36

responder con una corriente eléctrica y esto depende de la intensidad de energía que provea el fotón, la carga del fotón. De manera que los CCD ‘solo’ pueden registrar una parte de la totalidad de tonos de la imagen original, fallan en las sutiles variaciones de altas luces y en los delicados detalles de sombras. Para solucionar este inconveniente, se han utilizado los ‘fotomultiplicadores’. Un fotomultiplicador aumenta la carga de los fotones más débiles haciéndolos perceptibles por el CCD, esto da como resultado que el procesador incluya información de los detalles de luces y las variaciones tonales de las sombras. Esta capacidad suprema de los fotomultiplicadores se adiciona en estos escáneres a la presencia de un lector láser. La lectura de un láser azul comparada con la de una luz intensa, como en los escáneres de escritorio, es como contrastar un grano de arena con la masa terrestre. Hay modelos que contemplan incluso la posibilidad de una pequeña tridimensión (eje z), consideren el caso de necesitar escanear una obra de arte al óleo con pinceladas de varios milímetros de diferencia, esto se logra por medio de ópticas que aumentan la profundidad de campo del módulo lector.

El otro gran universo de los escáneres consiste en los rotativos o cilíndricos. Estos, nacidos con anterioridad a los de cama plana de alta resolución, ya contaban con la tecnología del fotomultiplicador. Su funcionamiento es sencillo. En contraposición con los que acabamos de ver, en los que el lector se desplaza a lo largo del original explorando su superficie, en los rotativos el original también se moverá. Imaginen un cilindro de vidrio, sin base ni techo, con un eje central. Sobre este cilindro se montarán las transparencias a escanear. Este cilindro gira velozmente mientras el módulo lector avanza, de manera mucho más lenta, sobre el eje del cilindro.

37

Si sumamos los dos movimientos, el de avance del lector y el de giro del cilindro, obtendremos una línea de exploración de forma helicoidal. El módulo lector se encuentra dividido en dos. Por fuera del cilindro, un emisor láser. Por dentro, un receptor CCD ultrasensible a la luz conectado a un fotomultiplicador. El gran adelanto de estos escáneres fue conseguir una lectura lineal; por cada giro del cilindro, una porción de la imagen es leída por un delgadísimo haz láser. La definición de estos periféricos será entonces altísima, consideren que los escáneres de 14.000 dpi en teoría pueden pasar 14.000 veces en el ancho de una pulgada. Hagan la cuenta del espesor del láser… Las imágenes para producción gráfica pueden ser solicitadas o provistas de dos maneras: digital o analógica. La primera de gran expansión en los últimos tiempos tiene que ver con la fotografía digital de alta calidad y con la producción de imágenes virtuales en las que la herramienta principal es una computadora. La segunda manera tiene que ver con la producción fotográfica o artística de imágenes, y pueden ser materializadas como “opacas” (un dibujo, una acuarela o una foto en papel pueden ser ejemplos de esto) o “transparencias”, estas a su vez pueden ser presentados como negativos o slides (diapositivas). Si observamos la disposición mecánica de los lectores, nos damos cuenta de que las transparencias, en general, son mejor aceptadas por los escáneres con fotomultiplicadores, pero para una buena lectura, son preferibles las transparencias, porque evitan un paso, el rebote o reflejo de la luz. La situación ante la presencia de estas tecnologías, cama plana con CCD, cama plana con fotomultiplicadores y rotativos, será la adecuada elección entre alguna de ellas. Es claro que unos tienen muchísima más resolución óptica, tanto como que su costo en relación es elevadísimo, y que otros son sumamente accesibles, pero sin la respuesta de calidad necesaria para la producción gráfica. Pero el objetivo es el que manda: todas las tecnologías nos sirven. Supongan el caso de una publicación digital para la Web, donde los requerimientos de definición de una imagen dependen de la velocidad de conexión, un escáner plano de CCD será lo óptimo ya que estas imágenes deben estar a tamaño en una resolución de 72 dpi. Por otro lado, si debemos serle fiel a una imagen para una reproducción de una obra de arte, o una fotografía, la elección no podría ser otra que un escáner rotativo: la recolección de datos en altas luces y sombras profundas solamente es posible con un lector láser. Una situación bastante común es que el diseñador imponga las imágenes tomadas en su escáner de mesa, y que luego, en el momento de producir el archivo para realizar cualquier paso siguiente en preprensa, se reemplacen por imágenes de alta resolución tomadas de escáneres rotativos. Otro caso mucho más común es que el diseñador utilice su escáner y, con cierta pericia en el retoque de imágenes, logre archivos de una calidad media y ahorre plata, sabiendo (o no) ambas partes que el resultado podría no ser el óptimo. La evolución en la calidad de respaldos digitales en fotografía comercial ha estado desplazando el uso y el oficio que tiene que ver con la digitalización de elementos

38

materiales. El escáner —como otros elementos de este proceso— está pidiendo pista en los museos de las “artes gráficas”.

Flujos de Trabajo

En el devenir hacia la forma podemos encontramos con algunas bifurcaciones. Estos puntos de desvío no son opciones que uno puede tomar ni deliberadamente, ni libremente. Hace algunos años, unas tres décadas, con la aparición de la autoedición como concepto y como realidad, las maneras de trabajo cambiaron radicalmente. Rápidamente los oficios cambiaron y las necesidades de velocidad de procesos y de producción se consolidaron. La mudanza de la fotomecánica tradicional al estigma del bit fue una constante, terreno donde el lenguaje Postscript iría a reinar hasta nuestros días. Los procesos se digitalizaron y reemplazaron a los productos que se realizaban en fotomecánica: fotolitos, películas, separación de color manual y tramados en autotipías. Estos modos de trabajo en preprensa siguen avanzando en busca de la calidad total a través de algún sistema de consistencia del color, o inter-parametrización y etiquetado de periféricos (ver: CMS: Color Management System). Actualmente existen varios modos o flujos de trabajo (Workflows) a saber: • CTF • CTP • DI Esta clasificación inquieta es el cuerpo medular de la producción gráfica. La sensación de que el tiempo se achata y de que las cosas acontecen rápidamente también modifica este apunte, incluso, en el momento en que se escribe.

CTF (Computer to Film). De la computadora a la película Es el llamado sistema “tradicional” ya que se utiliza desde hace casi 30 años. El esquema general es el siguiente:

39

OE >>> PREVISUALIZACIÓN >>> PRUEBA COLOR HIFI >>> RIPEADO >>> FILMADO y REVELADO DE PELÍCULAS >>> PRUEBA DE COLOR DE PELICULADO Si se considera realizar todo el proceso (ya que muchas veces no es así por cuestiones de costo o planificación de calidad) los objetos resultantes son: • Pruebas color digitales • Películas gráficas • Pruebas de peliculado

1- Previsualización de los OE Así como los oficios en gráfica —que de alguna manera se declaran extintos— merecían una experticia para hacer copias fotográficas de contacto, hacer fotograbados, separar en colores fotocromo, armar a mano la imposición peliculada con papel vegetal de todas las páginas de un libro, etcétera, realizar un original electrónico (OE) en perfectas condiciones requiere muchísimas habilidades. Recuerden de párrafos anteriores que una encuesta había arrojado que sólo el 42% de los OE recibidos por bureaus de gráfica estaban en condiciones de ser tratados electrónicamente como punto de partida para la producción gráfica. Hoy en día, basados en la plataforma PDF se nos ahorran varias preocupaciones, pero el caso es que hay que generarlo sabiendo cómo y cuáles son las características de los procesos que le seguirán, tipos de maquinarias y calidades de mínima y máxima, para un buen control de los procesos. Como siempre, es recomendable concertar una entrevista con el encargado de planta de la empresa en la cual vamos a imprimir para saber qué tecnologías implementarán y acordar ciertos parámetros, como perfiles de color y tipos de tintas. Con la certeza de un OE bien confeccionado que genere un PDF correctamente parametrizado, sólo nos queda enviar el archivo digital grabado en algún medio y/o aprovechar las herramientas de conectividad que ofrece internet para que el servicio de preimpresión o bien el área de preprensa de la imprenta se haga cargo del comienzo del proceso. Es altamente recomendable enviar un impreso junto a los archivos, no importa la calidad de tal, ya que la función de este impreso es mostrar el trabajo en su forma general. El primer paso es previsualizar el trabajo, ya sea en PDF o en el software seleccionado para tal caso. Se chequearán los archivos en busca de errores y/o incompatibilidades. Cabe destacar que las cosas pueden salir mal, y alguna vez no es nuestra culpa. Sólo alguna vez. Dependiendo de la empresa, de su servicio al cliente y de su experticia, pueden acontecer al menos estas posibilidades: 1. No hay errores, se continúa el proceso. 2. Hay errores de poca importancia, se arreglan y se continúa el proceso. 3. Hay errores de gravedad, se avisa, se arreglan y se continúa el proceso. 4. Hay errores de gravedad, no se avisa, se detiene el proceso.

40

5. Hay errores de gravedad, sobrepasan los controles, nadie se percata de ellos y se continúa el proceso. Obviamente, todos los actores que formamos parte de este circo gráfico queremos que las cosas salgan bien. Pero la optimización de los procesos requiere que las cosas salgan bien. En los casos 1 y 2 todo fluye, podríamos decir que el caso b es mucho más común que el a y que la buena predisposición de la empresa de servicios es fundamental. El caso 3 es más complicado, hay errores graves, que pueden ser resueltos por la empresa o por la persona que armó el OE. Si los resuelve la empresa, puede haber un costo por hora/máquina que incrementaría el costo de producción, claramente dependiendo del tipo de error. El caso 4 es bastante común también. En nuestra querida área gráfica, siempre hay poco tiempo, y si algo complica las cosas, nos tienta dejarlo para el final: se ‘cajonea’. Uno se entera que nada avanzó porque hubo un problema cuando después de 2 o 3 días se llama para saber si está listo el trabajo de preprensa (horror). Pero sin lugar a dudas, el caso e es el más terrible, hubo errores y nadie se ha dado cuenta (esto podría ser el camino directo al purgatorio del Dante). Existen, como veremos, instancias de pruebas de color o de control de calidad, en las que los errores podrían hacerse observables y que subsanan los inconvenientes dantescos del caso 5.

2- Pruebas de Color (de contrato) ¿Qué prueba una prueba de color? La respuesta, aunque trivial, es: depende. Preguntemos entonces cómo se resuelve el problema del control de calidad de los procesos intervinientes. La necesidad de ‘ver’ el trabajo antes de ser impreso, toma muchas formas, pero lo que realmente define que las pruebas existan es una cuestión económica: optimización de recursos tal que el trabajo quede en condiciones ‘óptimas’. Quizás las únicas pruebas de color que abordaban los aspectos esenciales de la impresión ya hayan desaparecido, no por inútiles sino por poco rentables. Se llamaban ‘Pruebas Progresivas de Color’ y se realizaban en una máquina ad-hoc, llamada ‘Sacaprueba’, con el mismo soporte impresor, las mismas tintas y las formas impresoras que se iban a utilizar luego en la producción industrial del objeto (estas características sólo vuelven a aparecer en las pruebas para máquinas de impresión digital). Asimismo, estas pruebas eran presentadas con la combinatoria de tintas necesaria para controlar cada cuerpo impresor; en impresión de fotocromos, podíamos controlar el cyan, amarillo, magenta y negro por separado, el cyan más el amarillo, el cyan-amarillo-magenta y por supuesto la cuatricromía CMYK; u otras combinaciones que se creyeran necesarias. La velocidad de los requerimientos industriales y comerciales las hicieron obsoletas e improductivas a pesar de ser excelentes herramientas de control de calidad, hoy tenemos otro tipo de pruebas, que veremos más adelante. En nuestro país, la expresión prueba de contrato carece de significado legal, sí de palabra y gestión. La idea de una instancia de acuerdo sobre cómo va a quedar impreso un objeto es realmente necesaria, y los actores son el diseñador gráfico, el impresor (o el encargado de producción) y el interesado final o cliente. Con el acuerdo de los tres (como mínimo, puede haber más responsables, lógicamente) y las firmas según el caso y el compromiso, se decide comenzar o proseguir una encomienda. Esta prueba firmada seguirá siempre a la vista para las comparaciones de pliego en manos de los maquinistas impresores.

41

Las pruebas de color, entonces, nos servirán a su medida para controlar algunos de los aspectos de la producción gráfica, como las propiedades del color (matiz, saturación y brillo), la separación del color en todo su significado y las tramas.

Pruebas color digitales HI-FI Si tuviésemos que ser rigurosos en una línea de tiempo histórico, estas pruebas son más recientes que las pruebas de contrato de peliculado. Para mantener una coherencia interna las veremos ahora. Importante: también se usan en los otros flujos de trabajo, CTP o DI. Tomemos como idea que la impresión de una prueba de color, es una impresión a color, igual, en otra escala, a una impresión casera. Es decir, tenemos un archivo y se manda a imprimir. ¿Qué archivo mandan a imprimir en preprensa para realizar una prueba de color consistente, apta para el control de calidad? Por lógica, debería ser exactamente el mismo archivo con el cual se proseguirá adelante en los procesos subsiguientes. En la práctica cotidiana se manda a imprimir el OE luego de ser previsualizado y controlado. Las máquinas de impresión de pruebas a color que se usan en preprensa pueden estar equipadas con tecnologías de inyección de tinta, láser, sublimación o de transferencia térmica. Hay diferentes tecnologías en el proceso de la inyección de tinta. Las aspiradas y las de materiales piezo-eléctricos. La tecnología por aspiración es antigua y de poca resolución, los vibratorios electro-asistidos o piezo-eléctricos se encuentran en diferentes calidades, que varían su resolución, y realizan la inyección de microgotas de tinta a través de pipetas dispuestas en cabezales monocromáticos que pueden imprimir monotonos, a 4 tintas (CMYK) o HiFiColors con más de 6 cabezales; por ejemplo, máquinas CMYK más Light Cyan y Light Magenta. La sublimación y la transferencia térmica de tinta en cera son hoy en día sólo aplicables económicamente a la impresión en alta calidad, ya que producen buena reproducción de color y son muy ‘amigables’ con los soportes que imprimen. Tienen algunas ventajas: • muy fáciles de manejar, ya que es simple como imprimir en cualquier sistema operativo • muy buena respuesta a los sistemas de calibración de color • rapidez • muchas opciones de calidad y prestación en el mercado • lenguaje Postscript • soporte para flujos PDF • fácil sharing en red (como dispositivo compartido) • el costo relativo es bajo • soporte mate o brillante • aptas, aunque caras, para corrección de texto y control de la presencia de imágenes y algunas desventajas:

42

• son poco confiables en sistemas no calibrados • no pueden controlar la calidad ni el tipo de trama • no pueden controlar la separación de los colores, ni trapping ni overprint • no pueden controlar el peliculado ni las películas (sólo CTF) • no controlan la calidad de la forma (sólo CTP) • en general, el brillo de los colores es diferente a una impresión con tintas de impresión industrial En sistemas de control, los mejores tienen una eficacia de entre el 85% y el 95%, donde la eficacia es la relación entre la prueba y el original impreso, con calidades cercanas a los 9600 dpi. (WYSIWYG)

Pruebas en plotters a chorro de tinta Conocidas en la jerga como ‘InkProof’ o ‘ploter’, son pruebas color de baja calidad que tienen diferentes usos. Las impresoras son como grandes ‘chorro de tinta’ de anchos de hasta 180 cm en producción editorial; en el ámbito de la gigantografía o la arquigráfica, hay anchos de carro de hasta 6 metros. La impresión no sobrepasa los 1200 dpi en los mejores casos. Se utiliza especialmente como ‘prueba de pliego’ ya que debido a su área imprimible se puede visualizar el tamaño de pliego de impresión con todas las marcas accesorias y la imposición de las páginas. ¡Demasiado útil! Aunque no aplicable a control de color. En general, se utilizan como última prueba antes del peliculado (CTF) o antes de la impresión de la forma (CTP). Pruebas de color de peliculado Las pruebas de peliculado se utilizan para comprobar el proceso completo de preprensa en CTF. Ya que se necesitan las películas, optaré por que veamos primero el ripiado y el peliculado. Ampliaremos este párrafo más adelante.

3- Rasterización El proceso de rasterizado de imagen (RIP) o ripiado es un proceso digital que se produce dentro de un ordenador. Básicamente traduce los datos incrustados en el OE a formatos reconocibles por los dispositivos que se utilizan en preprensa, como las filmadoras, pruebas de color e impresión de planchas CTP o fotopolímeros. Los RIP se clasifican en dos: de hardware y de software. Los RIP más viejos son los de hardware, en los cuales el proceso de ripiado era ejecutado en una máquina con procesadores exclusivamente dedicados a esta tarea. Cuando uno quería comprar un RIP, simplemente compraba una computadora dedicada, incluso con un sistema operativo dedicado. Recibían los datos de otra máquina, archivos en general .eps o .tif y los convertían a lenguaje postscript puro, creaban un documento .ps. También tienen la tarea de ‘separar los colores’, es decir, separar en la cantidad de canales que correspondan a cada trabajo, en general, un canal por tinta de color. Cuando se separa una citocromía (también se llama así

43

al fotocromo), se obtienen 4 archivos .ps, para el cyan, el magenta, el amarillo y el negro. Con estos archivos se continúa el proceso de preprensa. Actualmente existe el ripiado de software. Para nosotros es más común, un sistema o grupo de programas corriendo en una Mac o PC. Programas con muchísimas utilidades de control del flujo de trabajo. Se utilizan plataformas PDF o JDF de alta calidad; entonces, los archivos que se obtienen son basados en este lenguaje creado por Adobe Inc. Este formato incluye tipografías e imágenes y comprime, de ser necesario, la calidad de reproducción. Desde el OE, se generan los PDF y se impone el pliego de impresión, lo que luego se usa en los plotters de control de pliego. Así como en los RIP de hardware, separan colores y traman la imagen a medida de los requerimientos introducidos en el programa de ripiado, tipo de trama, resolución, angulatura, etcétera. Como los procesos son todos matemáticos, se puede esperar precisión, aunque muchas veces aparecen errores en el procesamiento de los datos a nivel binario; como cualquier otra cosa, puede fallar y tener que repetir el procedimiento. No es una tarea fácil incluso hasta para las computadoras más modernas, consumen recursos y levantan temperatura.

4- Filmado y revelado de películas gráficas Las películas gráficas nos servirán para realizar por copia de contacto el fotograbado de la forma. Cuanto más definición, cuanto mejor sea la optimización de densidad, mejores van a ser los resultados. La versión no oficial –ya que no es una película gráfica y se usa con el mismo objetivo– utilizada por cuestiones de costo y rapidez, es la impresión láser sobre papel vegetal. Con esto se consigue pelicular interiores de libros de texto ya que (aparentemente) para tipografía de lectura, a una tinta de impresión y con la necesidad de abaratar los costos, el rinde es aceptable. Nunca jamás utilizaremos papel vegetal para cuestiones donde la calidad sea notoria: su densidad es pésima y su definición mediocre. El ‘peliculado’ de calidad se realiza por medio de láser sobre material fotosensible en película ortocromática de alto contraste con máquinas filmadoras especialmente diseñadas para ello. Las filmadoras pueden ser de tambor interno o externo. Esto depende de la marca comercial y no genera demasiadas mejoras diferenciales. La cuestión importante es la resolución y la calidad del láser. La concepción general de una filmadora de películas gráficas es como la de un plotter. En este caso, el láser ‘dibujará’ sobre el material fotosensible lo que el archivo ya ripeado le indique. En una suma de precisiones micrométricas, el láser (que puede variar en calidad según su ancho o como comercialmente se lo conoce, según su color) excita la emulsión fotosensible de la película, a modo de barrido, y las últimas maquinarias son de hasta 14.000 dpi de resolución. Esto, como en todo sistema fotográfico, generará una imagen latente, que luego en la etapa de revelado hará que el diseño sea visible de manera positiva o negativa, siempre negro y transparente. El control de calidad de esta etapa tiene que ver con los resultados de este proceso, el filmado y revelado fotográfico. Sobre pequeñas cuñas de control se podrá medir el valor de la densidad de la emulsión revelada. Luego se verá si el orien-

44

tado de la película es el correcto, es decir, si la emulsión quedo UP o DOWN (en espejo) y si la lineatura de trama es la correcta.

5- Pruebas de color de peliculado Aunque ya casi en desuso, las PCP (pruebas color de peliculado) son las pruebas de preimpresión más confiables ya que para realizarlas se utilizan las películas y de esta manera uno puede comprobar todo el proceso de preprensa. Si utilizamos pruebas digitales solamente, no podremos controlar la calidad de las películas, ni la separación de color, ni las tramas, ni el overprint, ni el trapping, ni colores especiales... pero a pesar de estos ítems (que pueden verlos en las desventajas de las pruebas digitales) son casi historia, sobre todo con la atropellada del CTP, en el que no se utilizan películas. Lo recomendable en CTF sería utilizar todas las instancias de prueba que nos ofrece la tecnología. Las pruebas digitales nos darían muchas seguridades acerca de la correcta implementación del original electrónico y el ripeado, las PCP sobre todo el proceso. Vamos a encontrar dos tipos de PCP: las de tóner y las de filminas de color. Las PCP de tóner son las archiconocidas pruebas que incluso dieron el nombre genérico al proceso y que es una marca comercial: el CROMALIN. Para realizar esta prueba es necesario tener todas las películas, es decir, la separación de lo que va a ser el fotocromo impreso, en general 4, una para cada color proceso, CMYK. Esta prueba permite componer colores especiales del tipo PANTONE, de manera que será una película por tinta a imprimir, y esto es una característica diferencial: ninguna otra prueba puede hacerlo. Con las películas y un papel especial emulsionado, secuencialmente expuesto en una insoladora, van depositándose los tóners de color, que por ser un polvillo muy finito queda adherido al papel donde corresponda. Esto ocurre porque este soporte pierde en superficie su estado virgen, que es ‘pegajoso’ y donde la luz no llega (justamente donde la película es negra y corresponde a lo que será la tinta en impresión) retiene el tóner de color. Las PCP de filminas funcionan de una manera parecida, aunque no pueden dar la posibilidad de probar un color especial. Se expone un papel emulsionado con las películas correspondientes a cada color. Las filminas se adhieren al papel donde corresponde. De esta manera, por la combinación de los CMYK se obtiene la imagen resultante de altísima calidad con el resultado del diseño tal y como será impreso con las diferencias del caso: no son las tintas de impresión ni el papel que se utilizará para el producto final. De cualquier manera, en un sistema calibrado, estas pruebas, las digitales o las de peliculado, son asombrosamente útiles ya que tenemos la previsualización del trabajo final con poco margen de error.

45

46

47