Tras dos años de restricciones y confinamientos, la libertad temporal vuelve a ser una herramienta accesible al usuario común. Como era de esperar, las personas nos hemos apresurado a restaurar a la vida anterior a la pandemia, con más ansia aún, y dispuestos a embarcarnos en los priemeros vuelos disponibles.
Durante el tiempo que duró nuestra hibernación, hemos dedicado el tiempo a rescatar las doradas fotografías que la fotógrafa Akila Berjaoui, nacida en Australia y radicada en París, ha tomado durante los últimos años. Rodada en película analógica, su obra captura la esencia de un idílico verano junto al mar que, estilísticamente, podría haber sido tomado en los años 60 u 80 pero son actuales. Es así de atemporal y estético
Akila tiene una obsesión confesa por las playas, ya que viajó por Australia, Italia, Francia y Brasil para capturar algunos de los ejemplos más impresionantes del mundo. Todo comenzó cuando, en su primera infancia, se mudó de un pueblo costero en Australia a Beirut, de donde es su padre. “En ese entonces, la ciudad era conocida como la ‘París del Medio Oriente’ porque era muy cosmopolita. Y la costa era impresionante“, dice la fotógrafa. “Vivíamos muy cerca de lo que llamarían ‘la Riviera libanesa’, así que definitivamente siento que el estilo de vida mediterráneo moldeó y condimentó mi estética desde una edad temprana.“
A partir de entonces, las playas y las costas se convirtieron en una especie de hilo conductor a lo largo de su vida. “Pasé muchos veranos de mi niñez en la casa de mi abuela en el norte de Australia, y créanme, Queensland era salvaje y sin ley en ese entonces. ¡Fue maravilloso! Las mamás y las tías estaban en topless en la playa, al igual que los adolescentes: había tantísima libertad”
“Antes de las redes sociales, vivíamos con más libertad, un poco más imprudentemente. Había concursos de surf que se realizaban casi a diario y concursos de chicas playeras. ¡Me encantaban! Chicas desfilando con atuendos playeros perfectos de los años 80 en pasarelas improvisadas. escena sacada directamente de una foto de Rennie Ellis de la cultura playera australiana de la década de 1980”.
Esos primeros años le proporcionaron algunos de sus recuerdos playeros favoritos. “Mi madre nos permitió tanta independencia, fue hermoso. Estuvimos muy profundo en el agua hasta que se puso el sol, nuestros dedos completamente arrugados por tanto tiempo en el océano y nuestros cuerpos quemados por el abrasador sol australiano, a pesar de cómo mamá nos ahogó con tanta protección solar. Literalmente tuvo que sacarnos del agua”.
Sin duda, todo ha influido en su estilo de fotografía. Luz solar oscura, piel bronceada, reflejos de agua salpicada: estos son los ingredientes clave que componen el trabajo de Akila. Las fotos oscilan entre paisajes, tomas distantes de sujetos aparentemente desprevenidos y retratos más clásicos. Siguiendo la tradición de fotógrafos consagrados como Slim Aarons y Claude Nori, el objetivo de Akila se centra en personas corrientes pero glamurosas y en lugares hermosos. Su mirada femenina, sin embargo, proporciona un cierto sentido de parentesco con sus sujetos, uno que se siente menos voyeurista. “La naturaleza y la belleza de la mujer, de adentro hacia afuera, es lo que me inspira”, dice. “Los reflejos en el agua y las sombras en la piel, me encanta”.
A pesar de vivir actualmente en París, Akila pasó gran parte de la pandemia en Australia. “Estaba visitando a mi familia y tenía que volar a casa el día que Francia decretó confinamiento”, dice. “Teníamos una cantidad relativa de libertad ya que estábamos rodeados de naturaleza. Caminé cada dos días a diferentes playas vírgenes. Tomé un montón de fotos, pero aún no he mirado los escaneos. No he tenido tiempo pero estoy tan emocionada de verlos porque no había nadie en las playas y la luz era simplemente magnífica”.
¿A veces sientes como si de la idea de tu cabeza hasta lo que muestras en pantalla se pierden detalles?. Componer y mostrar una imagen de forma visual, puede ser en ocasiones una ardua tarea. Para desarrollar esta empresa con éxito, uno debe de disponer de un amplio arsenal de ángulos y movimientos de cámara. Aquí te explicamos los más esenciales y efectivos.
Los movimientos de cámara no son solo una manera de embellecer un cuadro, sino que estos son estratégicos acercamientos al mensaje que tu guión quiere expresar. La dirección de de cámara y fotografía, ayuda a potenciar los sentimientos y el ambiente de una escena. Son este tipo de detalles los que diferencia el estilo cinematográfico de un video común al uso.
Quizás el movimiento más conocido. El zoom genera la impresión de como si te acercaras o alejaras del sujeto. Puede ser efectivo para acrecentar un momento concreto o recomponer el plano en un rodaje documental. Para movimientos lentos de acercamiento o lejanía, es mucho más aconsejable el Dolly.
Panear es el acto de mover la cámara horizontalmente sobre su eje, lo que comúnmente se conoce como girar. En este movimiento de rotación, la cámara mantiene su misma ubicación, pero cambia la dirección hacia donde la lente apunta. Puede ser utilizado para acompañar el movimiento de un actor o para descubrir el paisaje en algún tipo de plano angular.
El tilt es similar al paneo, solo que en lugar de mover la cámara de forma horizontal, esta vez lo hacemos de manera vertical. la cámara se inclina de arriba abajo o de abajo arriba. Suele utilizarse para añadir elementos al encuadre.
El famoso Dolly, Dolly in (acercarse a ) Dolly out (alejarse de). Este movimiento se aproxima o se retira del sujeto al igual que el zoom, sin embargo, el primero lo hacía estático desde su posición, con la ayuda de la lente u objetivo. Con el Dolly se trata de deslizar la cámara por el terreno, para adelante o para atrás. Esto genera una perspectiva muchísimo más cinematográfica y ayuda al espectador a introducirse mucho más en la escena.
Este movimiento también desliza la cámara, pero de forma lateral, es un movimiento muy fluido que te ayudará avanzar. Puede utilizarse para acompañar la caminata de un actor o un coche entre otros. Si a la vez que serpentean de un lado a otro, superpones elementos que pasan por detrás de la cámara, conseguirás un efecto altamente orgánico
Pedestal, Boom up/down, Jib Up/down, crane. Esta técnica posee varios nombres, era un movimiento básico en el cine, que a sido popularizado y democratizado por los gimbals al poder usarse en la videografía semi-profesional. Aquí la cámara sube o baja en relación al sujeto o punto de referencia. La cámara asciende o desciende, no se inclina como en el tilt.
Una vez se conocen los movimientos básicos, se ha de saber CUÁNDO y CÓMO han de utilizarse, además la técnica no se detiene aquí, los verdaderos beneficios viene cuando aprendes a combinar los diferentes movimientos entre sí. En el siguiente video te lo explicamos todo detalladamente u con ejemplo gráficos
Una cámara de vídeo es el artilugio que posibilita el almacenamiento de imágenes en movimiento y sonidos sincronizados, utilizando o bien procedimientos magnéticos o bien digitales. A diferencia de la clásica cámara de cine, no utiliza celuloide ni procesos fotoquímicos orgánicos. La potencia de esta tecnología es tal, que cada vez se hace más frecuente el desarrollo de películas y grandes producciones mediante cámaras digitales y no con la clásica emulsión de 35mm. Básicamente, los elementos que componen una cámara de video son:
(1) La lente o sistema óptico ➡️ (2) el Sensor ➡️ (3) el monitor de imágen ➡️ (4) y el sistema de almacenamiento
1 – LA LENTE
Las lentes u objetivos, son dispositivos ópticos que sirven para formar imágenes de objetos a través de la refracción de la luz mediante su arquitectura. A grandes rasgos podríamos decir que existen lentes angulares y lentes teleobjetivo, cada una con sus características y función. Si una cámara apunta a un objeto sin lente, se obtiene una imagen que se asemejaría a una mancha borrosa.
El diafragma de una lente permite regular la intensidad de luz que pasa por el objetivo hacia el target o mosaico fotosensible (el sensor). Se trata de un mecanismo similar al iris de ojo humano, un músculo que se dilata o se contrae según la intensidad de la luz para regular el diámetro de la pupila, ajustado al tiempo y la intensidad de la luz que llega. El diafragmado ayuda a mejorar la nitidez de la imágen además de regular el torrente lumínico. Mediante su manipulación alteramos la percepción que otorga a la escena la profundidad de campo. Pues según la convergencia que aporten los cristales de luz y la apertura, podremos mantener mayor o menos espacio nítido dentro de un mismo plano focal.
Tradicionalmente los sistemas de almacenamiento de las cámaras de video, capturaban el material a través de cintas magnéticas tales como MiniDV, VHS o Betacam, y del mismo modo, las emisiones en televisión a través de la información electromagnética distribuida mediante satélites y herramientas analógicas. Hoy día, el intercambio de información entre emisor y receptor, se desarrolla casi-íntegramente de manera digital, y las cámara almacenan el contenido mediante tarjetas de memoria que pueden ser conectadas a su arquitectura.
2 – EL SENSOR
Una vez la luz pasa por el objetivo, esta llega y se impregna al sensor, ya sea un clásico CCD o los modernos CMOS. Ambos, consisten en una matriz de superficie formada por diodos de silicio.
Cada fotodiodo carga un pequeño condensador que almacena la carga durante un tiempo de exposición. Un reloj y un sistema de codificación, activan secuencialmente la transferencia de carga.
Tanto los CCD como los CMOS, son únicamente sensibles a la cantidad de fotones recibidos, es decir, por sí mismos no son capaces de identificar colores. Normalmente, las cámara profesionales de gran tamaño tienen 3 sensores, emplean un prisma que separa la imagen en sus tres componente RGB, cada uno de los cuales será digitalizado individualmente por cada sensor para ser perfectamente alineados a posteriori, las cámara de video domésticas o SLR, solo disponen de un CCD o CMOS, por lo tanto, estos a su vez disponen de tres láminas encima de su superficie, cada una de las cuales, destinada a filtrar un color de la triada específica.
* Cabe decir que el funcionamiento de está tecnología de cámara con un único sensor, está evolucionando a pasos agigantados, y hoy comienzan a fabricarse cámara profesionales de alto perfil, con un único mosaico fotosensible.
El funcionamiento del sensor CCD, necesita de un chip externo denominado analog digital converter o ADC, que es el que se encarga de convertir los datos de cada píxel en datos digitales binarios, para que nuestra computadora (ordenador) los pueda leer. Mientras que el sensor CMOS (Complementary Metal Oxide) Semiconductors de óxido de metal. puede integrar muchas funciones y procesos, tales como comprimir fotografías, cambio de datos analógicos a digitales, consumiendo mucha menos energía y consiguiendo u mayor rango dinámico. Puede realizar tales funciones en sí mismo, sin necesidad de chips adicionales, esto además de abaratar costes, le otorga mayor durabilidad.
Cuanto mayor es el tamaños del target o sensor, más luz es capaz de captar, por lo tanto generará menos ruido digital y la imagen obtenida tendrá mayor “calidad”, especialmente en condiciones de baja luminosidad, sin embargo, esto, además de aumentar el tamaño total de la cámara de vídeo, disminuye significativamente la distancia focal. El equilibrio para encontrar el mejor tamaño de sensor o el que más se adecue a cada situación, es un tema recurrente entre los distintos fabricantes, y que tratamos profundamente en este otros post.
3 – El monitor de imágen
Permite la visualización de la imágen captada por el sensor a través de la lente, a tiempo real. casi la totalidad de las cámaras domésticas, industriales y semi profesionales, llevan ancladas un mecanismo LCD extensive que facilita la visibilidad. Las cámara de TV y cine, suelen ser utilizadas a través visor, y el monitor de imagen es un mecanismo externo e independiente que se conecta a través del cableado. En cualquier caso, existen multitud de tecnologías de visor, viables de ayudarnos a encuadrar la imagen y mantener la continuidad.
4 – El sistema de almacenamiento
Los sistemas de grabación tienen que ser capaces de soportar los flujos de transferencia del códec que estemos utilizando. El módulo de grabación puede estar integrado en la cámara o ser un grabador independiente, externo a la cámara conectado mediante cables, algunas cámara de rango medio, permiten obtener una sustancial mejora de la imágen si esta se captura de forma externa, ya que en tal caso, la cámara se ocuparía únicamente de registrar. Las cámaras de primera gama de cine y TV, son capaces de mantener y almacenar ellas mismas a la máxima calidad.
Todos los sistemas de grabación utilizan memoria de estado sólido, ya sean tarjetas o discos. Las diferencias entre unas tarjetas de memoria y otras son: capacidad y tasa de transferencia. Es decir, la cantidad de material que puedo grabar y la calidad del códec que puedo utilizar.
Algunos fabricantes de cámaras están ofreciendo la posibilidad de grabar internamente con dos códecs simultáneamente en dos tarjetas diferentes. El de alta calidad en una tarjeta de estado sólido y en una tarjeta SD unos proxys que se pueden utilizar para visionado y montaje offline. Éste es uno los usos que se da a los grabadores externos. Se utilizan para grabar el material de alta calidad del online o bien para grabar proxys de la edición offline.
Los grabadores externos son dispositivos que se pueden utilizar para cualquier necesidad de grabación o reproducción tanto en rodaje como en postproducción, permite tener una copia de seguridad del material y ayuda a disminuir la temperatura de la cámara, característica necesaria para rodajes en exteriores es día muy calurosos.
En la retina existen dos tipos de células sensibles a la luz: los conos y los bastones. Los bastones se encargan de registrar la cantidad de luz, mientras que los conos son sensibles a las diferentes longitudes de ondas que forman el color. De estos conos se distinguen tres tipos, los cuales, son sensibles a diferentes matices: aquellos que se excitan cuando reciben radiaciones de onda correspondiente al color rojo, los que lo hacen con el verde y a los que le sucede con el color azul. Los colores activan un tipo de conos u otros según su propio componente cromático. Así un color magenta ( compuesto de rojo y azul) excitaría dos tipos de conos: los sensibles al rojo y los sensibles al azul. Por tanto, a partir del estudio del comportamiento de la visión humana, se pudo conocer y afirmar la denominación de los colores primarios como Red, Green and Blue, a partir de los cuales nacen todos los demás.
RGB: Rojo, verde y azul por sus siglas en inglés son por tanto los colores primarios, todos los demás son los llamados colores secundarios. Si sumamos todos los colores, obtenemos el blanco, mientras que la ausencia de ellos es el negro, la oscuridad.
CUALIDADES DEL COLOR
Un color está compuesto por su Tono, Saturación y Brillo. de ellos dependen sus atributos y características. La combinación de los tres elementos en infinitud de cantidades y combinaciones crea el amplio espectro de colores presentes en nuestras vidas.
El Tono podría denominarse como color en sí, es la sensación que nos produce un color. Debido a sus longitudes de onda obtiene los atributos que nos permiten nombrarlo rojo, cian, verde etc. Se refiere a la propiedad en los aspectos cualitativamente diferentes de la experiencia de color que tienen relación con diferencias de longitudes de onda o con mezclas de diferentes longitudes de onda.
La Saturación define la cantidad yacente del tono en sí. Un color es saturado o puro si no está mezclado con luz blanca. La saturación es el grado de pureza de un color. Un color verde, por ejemplo, puede ser verde intenso o verde pálido. En ambos casos su tono sería el correspondiente al verde. Desaturado al máximo se convertiría en un tipo de gris
El Brillo o luminosidad de un color es la cantidad de luz que el ojo percibe al observar ese color color, da una indicación sobre el aspecto luminoso del color estudiado: cuanto más oscuro es el color, la luminosidad es más débil. Este término se asocia a veces con el concepto de valor, luminancia, brillo, luz… el vocabulario utilizado en esta área es muy rico.
SISTEMAS DE OBTENCIÓN DE COLORES
Siguiendo con nuestro modelo a estudio, el color audiovisual, entenderemos que existen dos métodos para la obtención de las distintas tonalidades. El método aditivo y el método sustractivo.
El sistema aditivo consiste en la obtención de luces de color a partir de las sumas (adiciones) de los colores primarios RGB.
Como bien expresa el siguiente gráfico, partiendo de una luz roja, verde y azul. Podemos obtener cualquier color del espectro visible, jugando con la mezcla de cantidades y variaciones obtenemos los diferente matices, si enfocamos las tres luces al mismo punto, obtendremos la luz blanca, pues la luz blanca es el resultante de la unión de los tres colores primarios.
Este es el método mediante el cual funcionan las pantallas digitales, ya sea de un televisor o de nuestro smartphone, también de las linternas de colores. Cada uno de los diminutos píxeles de una pantalla, contiene tres micro-bombillas led: una roja, una verde y una azul, las cuales en sus diferentes combinaciones nos proporcionarán toda la gama de colores. Todo el espacio en blanco que estas viendo ahora en esta página o en la cabecera de google, son muchos de esos tres leds, emitiendo luz a la vez y por lo tanto, fusionándose en luz blanca.
Cabe decir que hoy día, existen nuevas tecnologías que incorporan un cuarto led que emite luz blanca directamente, aumentando de esta forma el brillo y la eficiencia. Lo mismo ocurre con el negro en las tecnologías más modernas.
El sistema sustractivo. Si la suma de todos los colores es el blanco, significa que a la luz blanca le podemos sustraer cualquiera de los colores que la componen, así es precisamente como se produce el fenómeno de arcoiris. Los rayos de luz blanca del solar, atraviesan las partículas de agua suspendidas en el aire, descomponiéndose en sus correspondientes variable lumínicas, mediante lo que se conoce como dispersión refractiva, este mismo efecto puede lograrse a través de un prisma u objetos similares.
Hoy día tenemos muchas y mejores soluciones tecnológicas, pero durante mucho tiempo se utilizaron también en platós y filmaciones, radiaciones de luz blanca para disponer de cualquier color, restando matices al superponer anillos en el torrente de luz. Por tanto, si estás rodando un cortometraje o una producción de poco presupuesto y solo dispones de un foco blanco, debes saber que que puedes obtener cualquier color, si le interpones papeles de colores o materiales que resten los matices deseados
Todo lo anterior es aplicable a la tecnología audiovisual, pues en los objetos orgánicos y artes plásticas funciona de forma diferente. Una televisión, un smartphone o unas luces de navidad, emiten luz, cosa que no sucede con un dibujo o una camiseta, de lo contrario podríamos verlos en la oscuridad. Estos objetos solo reflejan la luz del ambiente proporcionada por el sol, el fuego o la iluminación eléctrica, de todos es sabido que en ausencia de luz no es posible ver nada. Las distintas superficies, pigmentos y materiales reflejan la luz de forma diferente y con ello obtienen sus variados matices, una hoja en blanco rebota todos los colores, por ello puede ser incómodo mirarla si hay mucha luz, mientras que una superficie negra se crea cuando un material absorbe todos los colores, por ello un dibujo infantil garabateado múltiples veces con multitud de ceras, acaba volviéndose negro. Es decir, al contrario que en el sistemas audiovisual RGB, en este caso, la suma de todos los colores no es el blanco sino el negro, y por lo tanto la ausencia de todos ellos si lo es. Las variaciones y cantidades de reflexión, crean la diversidad de colores que vemos, este sería el modelo CMYK. Este pues siempre un modelo sustractivo, restando colores mediante la reflexión de la luz recibida.
ESPECTRO VISIBLE
¿Te has preguntado alguna vez, porque no podemos ver las ondas de radio que rebotan de un repetido a otro? ¿O las que calientan nuestra comida dentro del microondas?
Todas las radiaciones conocidas pueden ser ordenadas según su frecuencia y longitud de onda. A la representación gráfica de las ondas electromagnéticas ordenadas según su longitud de onda la denominamos Espectro electromagnético.
La figura anterior, representa las ondas hertzianas de un extremo a otro, las visibles y las que no lo son. La luz es una radiación electromagnética de las misma naturaleza que las ondas de radio, con la particularidad, que desde el punto de vista humano, esta puede ser captada e interpretada mediante la visión. Según la longitud de onda de la radiación emitida, nuestro cerebro percibirá una sensación variable que denominamos color.
El Sol emite prácticamente todas las ondas que componen el espectro electromagnético y nuestro planeta recoge todas las radiaciones emitidas por el astro. La atmósfera filtra los rayos cósmicos, gamma y X, que son perjudiciales e incluso mortales para nuestra especie, como bien observamos en el gráfico, estos rayos no son visibles debido a su longitud de onda, pero están ahí. Se debe llevar mucho cuidado cuando se replica su uso mediante la tecnología. El azul y parte del verde, que son los colores con una longitud de onda mas corta, no atraviesan intactos la atmósfera, sino que son reflejado en todas las direcciones. A esta dispersión contras las partículas de aire atmosférico debe el cielo su color azulado/cian (El cian proviene de la suma del verde y el azul).
PSICOLOGIA DEL COLOR
Variedad de probados estudios demuestran que diferentes colores, proyectan diferentes sensaciones. Ello depende de nuestros factores geográficos y culturales, así como estado de ánimo y vivencias. En nuestra sociedad occidental además, se nos educa desde bien pequeños con la utilización de colores: El rojo es el color de la prohibición, el rosa se usa para lo femenino, el verde es la naturaleza y rara vez, verás envases de comida de color negro, pues es el color del miedo y la muerte.
ROJO
El color de la sangre, el más energético y excitante debido a su longitud de onda. No todos los animales son sensibles a este color, pero nuestra especie se vio favorecida por la evolución y aprendió que es el color de muchos frutos maduros. Según un estudio, el vestirnos de rojo puede ayudar a parecer más atractivos, debido a que es un color también relacionado con la sexualidad.
Utilizado en áreas grandes, puede resultar violento.
AMARILLO
El color de la luz y el calor. Tiene gran potencial energético, por ello muchas empresas de comida rápida nos abren el apetito con él y nos invitan a comer rápido. Es también el color de la amabilidad y el optimismo, pero también de la avaricia y envidia, ya que a los herejes se les asesinaba en la horca con una cruz amarilla. Combinado con el negro, crea uno de los mayores contrastes visuales, por ello se utiliza en señales que pretenden mostrar la presencia de sustancias tóxica o explosivas, de la misma manera que las abejas nos invitan a mantenernos alejadas de ellas. Algunos tonos dorados de este color se relacionan con el lujo y la opulencia.
NARANJA
Mezcla de rojo y amarillo, considerado el color de la alegría y la juventud, ejemplo: Nickelodeon o Fanta. Es el color del atardecer, destaca frente al azul, por ello es muy utilizado en el cine o para pintar chalecos salvavidas u objetos que deber ser apreciados en el mar.
AZUL
El frío por excelencia, también de la noche y la calma. En la antigüedad era muy muy difícil encontrar o crear pigmentos de este color, por ello se utilizaba de forma selectiva, con él, en el antiguo egipto se adornaban los escarabajos sagrados y fue el color elegido para decorar el manto de jesucristo en la mitología cristiana. Lo vinculamos a la seriedad y el conocimiento, también a la seguridad, por ello podemos encontrarlo fácilmente en empresas de seguros, hospitales u oficinas bancarias.
VIOLETA
Evoca tristeza, pero también misterio, es algo místico y por ello se utiliza en las vestimentas de los altos clérigos. En la antigua roma, sólo podía llevar túnica púrpura el emperador y sus herederos. Si bien es cierto que esta norma cambió con los distintos mandatarios
VERDE
Mezcla del amarillo y azul donde los dos opuestos se equilibran. Es el color de la naturaleza, de la vegetación y la frescura. Por su longitud de onda, es un color que tiende a relajarnos, expele tranquilidad y por ello se viste en los quirófanos. En los teatros ingleses los camerinos de los actores son siempre de color verde y por eso se llaman ‘green rooms’. En ellos los ojos de los actores pueden descansar de los focos del escenario. El color identificativo de la famosa Aspirina es un verde azulado, y su acorde quiere sugerir un estado de tranquilidad sin cansancio. Azul-verde es el acorde de la relajación. Todo lo sano y natural se asocia con él y es precisamente por esto que se emplea como símbolo de la naturaleza desde la perspectiva de la civilización. Esto se manifiesta en expresiones como pulmón verde o espacios verdes que empleamos para referirnos a las zonas sanas y naturales que existen dentro de las ciudades. El verde también es el símbolo de la vida en un sentido amplio, es decir, no solo en lo que se refiere al ser humano, sino también a todo lo que crece y se desarrolla. Es incluso un estilo de vida, una ideología basada en la conciencia medioambiental y el amor a la naturaleza en rechazo a una sociedad dominada por la tecnología.
BLANCO
Mezcla de todos los colores, símbolo de la inocencia, la pureza y la bondad. Nuestro alimento básico en la niñez, la leche es blanca. El origen del universo surgió con la luz. Es el color del duelo en Asia, más próximo a una idea de reencarnación. Una paloma blanca representa la paz y los ángeles en el paraíso suelen ser representados con tonos muy blanquecinos por los pintores clásicos.
NEGRO
La ausencia de color y vida, se asocia con la muerte. Durante la noche y sin apenas capacidad de visión, surgían los grande problemas para los hombre primitivos, más vulnerables entonces a los ataques de los depredadores, también a peligrosos tropiezos y caídas, a partir de ahí, nuestra especie desarrolló sentimientos negativos hacia el. Sin embargo, es también el color de la elegancia y el poder, debido a que sus características para absorber la luz, nos hacen vernos más delgados y estilizados.
Imagina que realizas una fotografía con una cámara full frame y un objetivo de 35mm (Recuadro Rojo) . Sí fotografías desde el mismo punto con una cámara con un sensor de menor tamaño y el mismo objetivo, la imagen que obtenemos, habrá capturado una amplitud menor, (Recuadro azul) / Este concepto es totalmente aplicable tanto a foto como vídeo.
En fotografía digital, el factor de recorte, es la relación de las dimensiones del área de imagen de una cámara en comparación con un formato de referencia; la mayoría de las veces, este término se aplica a las cámaras digitales, en relación con el formato de película de 35 mm como estándar. En el caso de las cámaras digitales, el dispositivo de imagen sería un sensor digital. A mayor tamaño del sensor, mayor tamaño de los fotodiodos encargados de capturar la luz, por lo tanto mayor nitidez de imagen y menor pérdida de calidad en tomas oscuras, pero también menor profundidad de campo y mayor dificultad para enfocar. Una cámara de televisión para un magazine o noticiero, trabajará normalmente con un sensor menor al full frame, pues se pretende que la imagen se vea nítida y casi enfocada en tu totalidad. Mientras que una una producción cinematográfica un full frame, ayuda a desenfocar fácilmente los fondos con intenciones artísticas.
Los nuevos profesionales del sector opinan en unanimidad, que cada proyecto es diferente y por lo tanto, cada cual, necesitará una cámara con unas característica determinadas.
El factor de recorte se utiliza para comparar el campo de visión y la calidad de imagen de diferentes cámaras con la misma lente. Al multiplicar la longitud focal de una lente por el factor de recorte se obtiene la distancia focal de una lente que produciría el mismo campo de visión si se usara en el formato de referencia.
Los términos factor de recorte y multiplicador de distancia focal se acuñaron para ayudar a los retratistas SL de formato de película de 35 mm a comprender cómo se desempeñaría su rango actual de lentes en cámaras DSLR recién introducidas que tenían sensores más pequeños que el formato de película de 35 mm, pero a menudo utilizaban el formato de película SLR de 35 mm existente. monturas de lentes. Al usar un FLM de 1.5, por ejemplo, un fotógrafo podría decir que una lente de 50 mm en una réflex digital “actúa como” su distancia focal se ha multiplicado por 1.5, lo que significa que tiene el mismo campo de visión que una lente de 75 mm. La cámara de cine con la que están más familiarizados. Por supuesto, la distancia focal real de una lente fotográfica está determinada por su construcción óptica, y no cambia con el formato del sensor que se coloca detrás de ella.
La mayoría de las cámaras DSLR en el mercado tienen sensores de imagen de tamaño APS-C, más pequeños que el fotograma de película estándar de 36 × 24 mm (35 mm). El resultado es que el sensor de imagen captura datos de imagen de un área más pequeña que una cámara SLR de película de 35 mm, recortando efectivamente los bordes de la imagen que serían capturados por el marco de película de tamaño completo de 36 mm × 24 mm.
Debido a este cultivo, el campo de visión efectivo (FOV) se reduce en un factor proporcional a la relación entre el tamaño del sensor más pequeño y el tamaño del formato de película (referencia) de 35 mm.
Para la mayoría de las cámaras DSLR, este factor es 1.3–2.0 ×. Por ejemplo, un objetivo de 28 mm ofrece un FOV de gran angular moderado en una cámara de fotograma completo en formato de 35 mm, pero en una cámara con un factor de recorte de 1,6, una imagen hecha con el mismo objetivo tendrá el mismo campo de visión que un La cámara de fotograma completo se fabricaría con una lente de ~ 45 mm (28 × 1.6 = 44.8). Este estrechamiento del FOV es una desventaja para los fotógrafos cuando se desea un FOV amplio. Los diseños de lentes ultra anchos se vuelven simplemente anchos Las lentes de gran angular se vuelven “normales”. Sin embargo, el factor de recorte puede ser una ventaja para los fotógrafos cuando se desea un FOV estrecho. Permite a los fotógrafos con lentes de larga distancia focal rellenar el cuadro más fácilmente cuando el sujeto está lejos. Una lente de 300 mm en una cámara con un factor de recorte de 1.6 entrega imágenes con el mismo FOV que una cámara con formato de película de 35 mm requeriría una lente de enfoque de 480 mm para capturar.
Para una exposición determinada, por ejemplo, para una iluminación fija en el plano focal y un tiempo de exposición, los sensores de imágenes más grandes capturan más fotones y, por lo tanto, producen imágenes con menos ruido de imagen y mayor rango dinámico que los sensores más pequeños. Debido a las estadísticas de ruido de disparo de fotones, las propiedades deseables de la relación señal-ruido (SNR) y la unidad del sensor ganan ambas escalas con la raíz cuadrada del área de píxeles. [2]
Dado que el factor de recorte es inversamente proporcional a la raíz cuadrada del área del sensor (dentro de un pequeño factor dependiente de la relación de aspecto), es útil para estimar el rendimiento del sensor de imagen. Por ejemplo, si dos sensores de imágenes de diferentes tamaños tienen la misma relación de aspecto y una resolución de 10 megapíxeles, y se fabrican con tecnología similar, el sensor más grande tendrá una mejor relación de señal a ruido en un factor igual a la relación de Factores de cultivo de dos sensores. El sensor más grande tiene el factor de recorte más pequeño y la mayor relación señal-ruido.
El factor de recorte a veces se denomina “factor de aumento”, [5] “factor de distancia focal” o “multiplicador de distancia focal”. [6] Este uso refleja la observación de que las lentes de una distancia focal determinada parecen producir un aumento mayor en las cámaras de factor de recorte que en las cámaras de fotograma completo. Esta es una ventaja, por ejemplo, en la fotografía de aves, donde los fotógrafos a menudo se esfuerzan por obtener el máximo “alcance”. Una cámara con un sensor más pequeño puede ser preferible al uso de un teleconvertidor, ya que este último afecta el número f de la lente y, por lo tanto, puede degradar el rendimiento del enfoque automático.
Una lente dada proyecta la misma imagen sin importar a qué cámara esté conectada. La “ampliación” adicional se produce cuando la imagen se amplía más para producir una salida (impresión o pantalla) que coincida con un tamaño de salida estándar. Es decir, el aumento, tal como se define generalmente desde el sujeto al plano focal, no cambia, pero el aumento del sistema desde el sujeto hasta la salida final aumenta.
Cuando una lente diseñada para el formato de 35 mm se usa en una réflex digital de formato más pequeño, además de la obvia reducción en el campo de visión, puede haber efectos secundarios en la profundidad de campo, la perspectiva, el desenfoque de movimiento de la cámara y otros parámetros fotográficos.
La profundidad de campo puede cambiar, dependiendo de qué condiciones se comparan. Disparar desde la misma posición, con la misma lente y el mismo número f que una cámara de 35 mm sin recorte (fotograma completo), pero al ampliar la imagen a un tamaño de referencia dado, se obtendrá una profundidad de campo reducida. Por otro lado, al usar un lente diferente con el mismo campo de visión que la cámara no recortada (que coincide con la distancia focal equivalente a 35 mm), en el mismo número f, la profundidad de campo de la cámara más pequeña es mayor.
La perspectiva es una propiedad que depende solo del punto de vista (posición de la cámara). Pero si mover una lente a una cámara de formato más pequeño hace que un fotógrafo se mueva más lejos del sujeto, la perspectiva se verá afectada.
La cantidad adicional de ampliación requerida con cámaras de formato más pequeño aumenta el desenfoque debido al desenfoque, y también aumenta el desenfoque debido al movimiento de la cámara (sacudidas). Como resultado, el factor de recorte reduce la distancia focal que se puede sostener de manera confiable a una velocidad de obturación determinada para una imagen nítida. La vieja regla general de que la velocidad del obturador debe ser al menos igual a la distancia focal (en milímetros) para el agarre manual, funcionará de manera equivalente si la longitud focal real se multiplica por el FLM antes de aplicar la regla.
Muchas lentes fotográficas producen una imagen más superior en el centro del marco que alrededor de los bordes. Cuando se usa una lente diseñada para exponer un cuadro de película de 35 mm con un sensor de formato más pequeño, solo se utiliza el “punto dulce” central de la imagen; una lente que es inaceptablemente suave u oscura alrededor de los bordes puede dar mejores resultados en un sensor más pequeño. [7] Sin embargo, dado que la imagen proyectada en el sensor debe ampliarse más para hacer una impresión con un sensor más pequeño, las lentes utilizadas en formatos más pequeños deben entregar una imagen de mayor resolución al sensor para obtener una calidad aceptable.
Las cifras del factor de cultivo son útiles para calcular una distancia focal equivalente a 35 mm y una ampliación equivalente a 35 mm. Algunos factores comunes de los cultivos son:
Type | Height (mm) | Crop factor[8] |
---|---|---|
1/2.5″ (many superzoom and point-and-shoot cameras) | 4.29 | 6.0 |
1/2.3″ (compacts and compact superzooms, earlier Pentax Q) | 4.55 | 5.6 |
1/1.8″ (high-end compacts like Canon Powershot G1 – G7/S90) | 5.32 | 4.8 |
1/1.7″ (high-end compacts, later Pentax Q) | 5.70 | 4.5 |
2/3″ (Fujifilm X10, Fujifilm X20, Sony F828, Sony F717) | 6.60 | 3.9 |
1″ (Nikon 1/CX / Sony RX100-series / Sony RX10 / Canon Powershot G7 X) | 8.80 | 2.7 |
4/3″ / Four Thirds (used by Olympus and Panasonic for DSLR and MILC respectively) | 13 | 1.84–2[9] |
Sigma Foveon X3 (prior to Merrill cameras) | 13.80 | 1.7 |
Canon APS-C | 14.80 | 1.6 |
General APS-C (Sigma Foveon X3, Fujifilm X-mount, Nikon DX, Pentax K, Ricoh GXR, & Ricoh GR, Samsung NX, Minolta/Sony α DT & E-Mount (NEX)) | 15.60 | 1.5 |
APS-H (Canon, Leica M8) | 18.60 | 1.3 |
35mm full frame (Canon EF, Leica M9, Nikon FX, Pentax K-1, Sony α, FE-Mount, Sony RX1) | 24.00 | 1.0 |
Medium format (Hasselblad, Leaf, Phase One, Pentax 645D, Fujifilm GFX) | 33.00 | 0.79 |
Medium format (Hasselblad, Leaf, Phase One) | 40.40 | 0.64 |
Para lentes que proyectan imágenes rectilíneas (no distorsionadas en el espacio) de objetos distantes, la longitud focal efectiva y las dimensiones del formato de imagen definen completamente el ángulo de visión. Los cálculos para lentes que producen imágenes no rectilíneas son mucho más complejos y, al final, no son muy útiles en la mayoría de las aplicaciones prácticas. (En el caso de una lente con distorsión, por ejemplo, una lente ojo de pez, una lente más larga con distorsión puede tener un ángulo de visión más amplio que una lente más corta con baja distorsión). El ángulo de visión se puede medir horizontalmente (desde la izquierda). al borde derecho del marco), verticalmente (desde la parte superior a la parte inferior del marco) o en diagonal (desde una esquina del marco hasta su esquina opuesta).
Para una lente que proyecta una imagen rectilínea (enfocada al infinito, vea la derivación), el ángulo de visión (α) se puede calcular a partir de la dimensión elegida (d), y la distancia focal efectiva (f) de la siguiente manera:
α=2arctanS2f(m+1)α=2arctanS2f(m+1)
donde α es el ángulo de visión, S el tamaño del sensor, f la distancia focal y m el factor de magnificación. Para distancias de enfoque grandes (m≈0), queda:
α=2arctanS2f
La imagen detectada, que incluye el objetivo, se muestra en un monitor, donde se puede medir. Las dimensiones de la visualización de la imagen completa y de la porción de la imagen que es el objetivo se determinan mediante inspección (las mediciones suelen ser en píxeles, pero también pueden ser pulgadas o cm).
Para una distancia dada entre la cámara y el sujeto, los lentes más largos amplían más el sujeto. Para un aumento dado del sujeto (y, por lo tanto, diferentes distancias entre la cámara y el sujeto), los lentes más largos parecen comprimir la distancia; Las lentes más anchas parecen expandir la distancia entre los objetos.
Otro resultado del uso de una lente gran angular es una mayor distorsión de la perspectiva aparente cuando la cámara no está alineada perpendicularmente al sujeto: las líneas paralelas convergen a la misma velocidad que una lente normal, pero convergen más debido al campo total más amplio. Por ejemplo, los edificios parecen estar cayendo hacia atrás mucho más severamente cuando la cámara apunta hacia arriba desde el nivel del suelo de lo que lo harían si se fotografiaran con una lente normal a la misma distancia del sujeto, ya que la mayor parte del edificio del sujeto es visible en la imagen panorámica. ángulo de disparo.
Debido a que las lentes diferentes generalmente requieren una distancia diferente entre la cámara y el sujeto para preservar el tamaño del sujeto, el cambio del ángulo de visión puede distorsionar indirectamente la perspectiva, cambiando el tamaño relativo aparente del sujeto y el primer plano.
Si el tamaño de la imagen del sujeto sigue siendo el mismo, entonces, en cualquier apertura dada, todas las lentes, las lentes de gran angular y largas, proporcionarán la misma profundidad de campo.
Diferentes lentes afectan al ángulo:
Esta tabla muestra los ángulos de visión diagonales, horizontales y verticales, en grados, para lentes que producen imágenes rectilíneas, cuando se utilizan con formato de 36 mm x 24 mm (es decir, película 135 o digital de fotograma completo de 35 mm con ancho de 36 mm, altura 24 mm y diagonal 43.3 mm para d en la fórmula anterior). Las cámaras digitales compactas a veces establecen la distancia focal de sus lentes en equivalentes de 35 mm, que se pueden usar en esta tabla.
Para comparación, el sistema visual humano percibe un ángulo de visión de aproximadamente 140 ° por 80 °.
Focal Length (mm) | Diagonal (°) | Vertical (°) | Horizontal (°) |
---|---|---|---|
0 | 180.0 | 180.0 | 180.0 |
2 | 169.4 | 161.1 | 166.9 |
12 | 122.0 | 90.0 | 111.1 |
14 | 114.2 | 81.2 | 102.7 |
16 | 107.1 | 73.9 | 95.1 |
20 | 94.5 | 61.9 | 82.4 |
24 | 84.1 | 53.1 | 73.7 |
35 | 63.4 | 37.8 | 54.4 |
50 | 46.8 | 27.0 | 39.6 |
70 | 34.4 | 19.5 | 28.8 |
85 | 28.6 | 16.1 | 23.9 |
105 | 23.3 | 13.0 | 19.5 |
200 | 12.3 | 6.87 | 10.3 |
300 | 8.25 | 4.58 | 6.87 |
400 | 6.19 | 3.44 | 5.15 |
500 | 4.96 | 2.75 | 4.12 |
600 | 4.13 | 2.29 | 3.44 |
700 | 3.54 | 1.96 | 2.95 |
800 | 3.10 | 1.72 | 2.58 |
1200 | 2.07 | 1.15 | 1.72 |
Como se señaló anteriormente, el ángulo de visión de una cámara depende no solo de la lente, sino también del sensor utilizado. Los sensores digitales suelen ser más pequeños que una película de 35 mm, lo que hace que la lente se comporte como lo haría una lente de mayor distancia focal, y tiene un ángulo de visión más estrecho que con una película de 35 mm, por un factor constante para cada sensor (denominado factor de recorte). En las cámaras digitales de uso diario, el factor de recorte puede variar desde aproximadamente 1 (réflex digital profesional), a 1,6 (réflex del mercado medio), hasta aproximadamente 3 a 6 para cámaras compactas. Por lo tanto, una lente estándar de 50 mm para fotografía de 35 mm actúa como una lente de “película” estándar de 50 mm, incluso en una cámara réflex digital profesional, pero actuaría más cerca de una lente de 75 mm (1,5 x 50 mm Nikon) o de 80 mm (1,6 x 50 mm Canon) en muchos medios las réflex digitales de mercado, y el ángulo de visión de 40 grados de una lente estándar de 50 mm en una cámara de cine es equivalente a una lente de 28-35 mm en muchas cámaras réflex digitales.
La siguiente tabla muestra los ángulos de visión horizontales, verticales y diagonales, en grados, cuando se usa con el formato de 22,2 mm x 14,8 mm (es decir, el tamaño de marco DSLR APS-C de Canon) y una diagonal de 26,7 mm.
Focal Length (mm) | Diagonal (°) | Vertical (°) | Horizontal (°) |
---|---|---|---|
2 | 162.9 | 149.8 | 159.6 |
4 | 146.6 | 123.2 | 140.4 |
7 | 124.6 | 93.2 | 115.5 |
9 | 112.0 | 78.9 | 101.9 |
12 | 96.1 | 63.3 | 85.5 |
14 | 87.2 | 55.7 | 76.8 |
16 | 79.6 | 49.6 | 69.5 |
17 | 76.2 | 47.0 | 66.3 |
18 | 73.1 | 44.7 | 63.3 |
20 | 67.4 | 40.6 | 58.1 |
24 | 58.1 | 34.3 | 49.6 |
35 | 41.7 | 23.9 | 35.2 |
50 | 29.9 | 16.8 | 25.0 |
70 | 21.6 | 12.1 | 18.0 |
85 | 17.8 | 10.0 | 14.9 |
105 | 14.5 | 8.1 | 12.1 |
200 | 7.6 | 4.2 | 6.4 |
210 | 7.3 | 4.0 | 6.1 |
300 | 5.1 | 2.8 | 4.2 |
400 | 3.8 | 2.1 | 3.2 |
500 | 3.1 | 1.7 | 2.5 |
600 | 2.5 | 1.4 | 2.1 |
700 | 2.2 | 1.2 | 1.8 |
800 | 1.9 | 1.1 | 1.6 |
Ratio | 1080p resolution | common name | Video format / Lens |
---|---|---|---|
32:27 | 1280x1080p | DVCPRO HD | |
4:3 | 1440x1080p | ||
16:9 | 1920x1080p | Widescreen | |
2:1 | 2160×1080 | 18:9 | Univisium |
64:27 | 2560x1080p | Ultra-Widescreen | Cinemascope / Anamorphic |
32:9 | 3840x1080p | Super Ultra-Widescreen | Ultra-Widescreen 3.6 / Anamorphic 3.6 |
Modificar el ángulo de visión a lo largo del tiempo (conocido como zoom), es una técnica cinemática de uso frecuente, que a menudo se combina con el movimiento de la cámara para producir un efecto de “dolly zoom”, hecho famoso por la película Vértigo. El uso de un gran ángulo de visión puede exagerar la velocidad percibida de la cámara, y es una técnica común en el seguimiento de disparos, viajes fantasma y videojuegos de carreras. Véase también Campo de visión en videojuegos.
¿Que és el 4K? La resolución espacial indica las dimensiones en píxeles de una imagen, es decir, el número de píxeles que constituyen la altura y la anchura de una imagen. El término 4K, inicialmente utilizado en la industria del cine digital, se emplea ahora para los formatos de cine, televisión o de difusión por internet que utilizan resoluciones espaciales de aproximadamente 4.000 píxeles en sentido horizontal
Un píxel es una la unidad mínima de color que forma una imagen digital, como puede ser una fotografía, un gráfico o una fotograma de vídeo. Los píxeles son pequeñas unidades en las que se divide una imagen. Para entender fácilmente este concepto de informática, podemos observar la imagen del post, la cual está divida complemente en una serie de cuadrados iguales. Cada uno de esos cuadrados pequeños de color es un píxel. Por esta razón cuantos más píxeles posea una imagen, mayor calidad tendrá porque no se apreciará la diferencia entre los píxeles. Cuando una imagen posee pocos píxeles, y se ve como esta, se dice que está pixelada. Un píxel no tiene una medida fija, es decir, 1 píxel no mide X cm siempre, sino que depende de la resolución. Por ejemplo, si una imagen posee 500×200 píxeles sabemos que está divida en 100.000 píxeles. Sin embargo, no sabemos cuánto mide cada píxel. Todo cambia cuando sabemos la resolución por pulgada. La resolución indica la cantidad de píxeles por pulgada que posee una imagen. Si decimos que una imagen tiene 100 píxeles por pulgada podemos deducir que cada píxel equivale 2,54 milímetros, ya que cada pulgada que son 2,54 centímetros está dividida en 100 píxeles.
Cuanto mayor sea el número de píxeles de una imagen, mayor será su definición, su dibujado. En un principio los pixeles podían observarse a simple vista. Hoy día son tan numerosos y pequeños que prácticamente parecen invisibles. Ofreciendo una calidad de imagen abrumadora. ¿Fácil verdad? 👇👇
En sí mismo 4K no significa mucho. Consiste solamente en aumentar el número de píxeles que componen el fotograma. También se puede decir que es un aumento de la densidad de píxeles en un fotograma. Pero hay una serie de factores relacionados que intervienen en la cinematografía digital y que serán determinantes para comprender como, en torno al concepto de 4K, se están implantando sistemas que incrementan significativamente la calidad técnica de la imagen. Cuando los fabricantes de teléfonos móviles ofertan dispositivos que graban vídeo en 4K, es obvio que no responden a las mismas especificaciones técnicas que las cámaras de alta gama para producción de cine. ¿Dónde está la diferencia?
El salto hacia una imagen digital de mayor calidad se sustenta en cinco pilares:
– Aumentar la resolución especial: más píxeles en cada imagen (4K u 8K).
– Aumentar de la resolución temporal: más fotogramas por segundo (48, 50, 60, 100 o 120 fps).
– Aumentar del rango dinámico: mayor capacidad para captar y reproducir niveles de brillo y matices de color.
– Aumentar la cuantificación (profundidad de color): número de bits que se emplean para codificar cada uno de los píxeles (10, 12, 16 bits).
– Aumentar el espacio de color: un gamut de color más amplio.
Para que se produzca el salto cualitativo se tienen que dar estos cinco factores conjuntamente.
RELACIÓN DE ASPECTO
La relación de aspecto expresa la proporción entre el alto y el ancho de la imagen. La televisión en sus inicios adoptó una relación de aspecto de 4:3 (1,33:1) siguiendo la tradición del formato académico del cine. Pero en los años 50 para la producción y exhibición cinematográfica se desarrollaron los formatos panorámicos consiguiendo así un elemento diferenciador y aumentando la espectacularidad del formato. En los años 2000, en televisión, aprovechando la migración digital, se implantó en todo el mundo el formato de pantalla ancha 16:9 (1,77:1). En cine y televisión se han utilizado dos formas distintas para indicar la relación de aspecto: en televisión se usa un quebrado, por ejemplo 4:3 o 16:9, mientras que en cine se emplea un decimal en relación a 1, por ejemplo 1,33:1 o 1,77:1. La normalización establecida para el cine digital DCI es 1,85:1 y 2,39:1 para formatos panorámicos. En televisión, el estándar es el formato 16:9. A efectos prácticos conviene destacar que el formato 1,85:1 del cine es prácticamente igual que el 16:9 de la televisión. Hay solo un ligero recorte. Por lo tanto es una relación de aspecto que funcionará correctamente tanto en televisión como en cine. Simplemente se tiene que aplicar un ligero recorte.
Otro indicador fundamental de la calidad de una imagen digital es la profundidad de color (color depth) o profundidad de bits (bit depth) que indica la cuantificación de la señal. Es decir, cuántos bits se utilizan para describir cada píxel. Con este dato se expresa cuantos valores distintos de brillo y color están disponibles para codificar la imagen.
RESOLUCIÓN TEMPORAL (FRAMES)
Los sistemas de edición de vídeo que se utilizan hoy en día ofrecen cierta flexibilidad a la hora de definir la frecuencia de fotogramas o frames por segundo (fps) de una secuencia o un proyecto. En cine tradicionalmente se ha rodado a 24 fps, en la televisión europea a 25 fps y en Estados Unidos a 30 fps o a 29,97 fps. Las cámaras digitales pueden grabar con cualquiera de estos valores de frecuencia y los sistemas de postproducción ofrecen herramientas para hacer las conversiones que puedan ser necesarias.
Cuantos más fotogramas se tomen de una acción, más información se registrará sobre el movimiento que produce. Por ello la frecuencia de fotogramas por segundo (frame rate) de una secuencia se denomina ‘resolución temporal’ (temporal resolution).
La resolución temporal en la grabación también afectará a la definición de los bordes de los objetos en movimiento y al efecto de desenfoque de movimiento (motion blur). Un aumento en la frecuencia de captación implica también un aumento de la velocidad de obturación en la cámara generando así imágenes más nítidas con un efecto de desenfoque de movimiento reducido.
Efecto de desenfoque reducido
PROFUNDIDAD DE COLOR
Otro indicador fundamental de la calidad de una imagen digital es la profundidad de color (color depth) o profundidad de bits (bit depth) que indica la cuantificación de la señal. Es decir, cuántos bits se utilizan para describir cada píxel. Con este dato se expresa cuantos valores distintos de brillo y color están disponibles para codificar la imagen. La profundidad de color mínima en los equipos profesionales es de 8 bits por cada componente RGB. Pero actualmente, ya sea en fotografía, en vídeo o en cine digital, se pueden utilizar 10, 12 o incluso 16 bits para cada canal RGB.
Estos valores permiten aumentar la gama de colores hasta niveles iguales o superiores a los que puede percibir el ojo humano y superiores también a los sistemas de monitorización de los que disponemos en los ordenadores. Este incremento de la capacidad de codificación de los matices de brillo y color se aprecia en la representación de degradados evitando los artefactos conocidos como ‘color banding’.
RANGO DINÁMICO Y CURVAS
El rango dinámico de una imagen digital es la capacidad que tiene de representar correctamente el contraste, las altas luces y las sombras profundas.
Hablando en términos generales, y simplificando un poco, podemos decir que la película negativa que se utilizaba para cine tenía capacidad para registrar en torno a 12 f-stops de rango dinámico. Sin embargo los sistemas tradicionales de vídeo y televisión estaban limitados a unos 6 f-stops. Las nuevas cámaras que se utilizan en cine digital ya registran hasta 14 f-stops. Generan imágenes compuestas con una gama más amplia de niveles de gris y matices de color alcanzando valores equivalentes o incluso superiores a los del cine fotoquímico.
FLUJO DE TRANSFERENCIA Y ANCHO DE BANDA
El flujo de transferencia binaria o tasa de transferencia (bit rate) indica el número de bits que se transmiten por segundo. Se puede expresar en bits por segundo (bits per second; bit/s) o en Bytes por segundo (B/s). Un bit es la unidad mínima de información digital. Un Byte son ocho bits. Se suele utilizar la unidad bit cuando la transmisión se produce en serie, es decir, en fila uno detrás de otro, y Bytes cuando la transmisión de hace con ocho bits en paralelo. Cuanto mayor sea la resolución espacial, la profundidad de color y la resolución temporal, mayor será la cantidad de información (bits) a transmitir para poder reproducir el vídeo en tiempo real. Es decir, cuanta más calidad tenga el formato de vídeo, mayor será el flujo de transferencia que genera.
Una de las mayores complicaciones del 4K está en el tamaño de los archivos y el flujo de transferencia que genera su reproducción. Anecdóticamente podemos señalar que un disco duro externo conectado por USB 2.0 encuentra su límite de capacidad en los 280 Mbit/s. Solo es capaz de reproducir un vídeo 4K con los códecs más bajos de ProRes o DNxHR, los que se utilizan para edición offline: ProRes Proxy y DNxHR LB. Los códecs más altos requieren un equipo con mucha capacidad, discos duros muy rápidos y el conexionado adecuado para soportar esas tasas de transferencia. Las cámaras ligeras 4K de la electrónica de consumo utilizan todos los recursos posibles para reducir estos valores: profundidad de color a 8 bits, submuestreo de color 4:2:0 y agresivas técnicas de compresión con pérdidas que afectan gravemente a la calidad de las imágenes. De esta forma se consigue que el material se pueda almacenar en tarjetas SD de bajo costo que no soportarían flujos de transferencia superiores. También en el ámbito profesional se intentan optimizar las tasas de transferencia. Se trabaja con códecs de alta calidad pero con una ligera compresión, como DNxHR o XAVC de Sony, porque si no, el volumen de datos sería inabarcable.
SENSORES 4K
Los sensores están en el plano focal de las cámaras digitales. Es el plano donde convergen los haces de luz que atraviesan el objetivo. Está compuesto por una matriz de millones de cavidades captadoras de luz llamadas ‘fotodiodos’. Durante la exposición los fotodiodos quedan al descubierto para recoger y almacenar la información de brillo y color de cada pixel.
Para captar el color se colocan unos filtros cromáticos delante de cada uno de estos fotodiodos. La tecnología más extendida para esta función es la máscara de Bayer que está formada por un 50% de filtros verdes, un 25% de rojos y un 25% de azules. Interpolando dos muestras verdes, una roja y una azul se obtiene un pixel de color. En los archivos RAW se guarda la información del patrón de Bayer de forma directa, sin interpolaciones. Por ello, al proceso de ‘relevado RAW’ también se le conoce como ‘debayerización’ (debayering).
Al aumentar el tamaño de los fotodiodos, es decir con sensores grandes con menos megapíxeles, llega más cantidad de luz y por lo tanto se incrementa potencialmente el rango dinámico.
El tamaño del sensor determina el tipo de objetivo que se necesita. Las cámaras de cine tradicionales utilizaban película de 35 mm y la denominación de los tamaños de los sensores digitales sigue utilizando esta referencia, indicando así que los objetivos que se utilizaban en cine y en fotografía siguen siendo válidos para estas nuevas cámaras.
Pero los términos 35 mm, super 35 mm, full frame, etc. no son muy precisos puesto que el número 35 hace referencia al ancho en milímetros de una película fotoquímica considerando también la zona de las perforaciones y sin tener en cuenta la relación de aspecto. En la siguiente imagen se puede apreciar la correlación de tamaño de la película fotoquímica y los sensores digitales de Super 35 mm.
El tamaño del sensor tiene también una influencia directa en la profundidad de campo. Las cámaras con sensores más grandes, por las características de la óptica que utilizan, dan menos profundidad de campo. Por este motivo, en televisión, se han utilizado habitualmente sensores pequeños con los cuales es más sencillo ajustar el foco porque dan mucha profundidad de campo. Es una característica muy conveniente y efectiva para grabaciones rápidas realizadas por un solo operador. En cine, con película de 35 mm, el foco era más crítico dando lugar a bellas imágenes que utilizan el enfoque selectivo. Las cámaras digitales de cine han heredado esa característica porque utilizan sensores grandes.
En cine, para aumentar la espectacularidad y la calidad de la imagen, se utilizó en algunas ocasiones la película de 70 mm. Recientemente Arri ha lanzado una nueva cámara con un sensor de 65 mm, la Arri Alexa 65. Lógicamente este nuevo sensor demanda nuevos objetivos fabricados específicamente para este tamaño.
En la siguiente figura se pueden comparar los tamaños de sensores más habituales en las cámaras profesionales 4K.
La mayoría de las cámaras de cine digital utilizan el sensor de Super 35-3 perforaciones: las Arri Amira y Alexa Classic, las de Red, las de Sony, las de Panasonic, etc.
El sensor de las Arri Alexa XTS está más cercano al super 35-4 perforaciones con una proporción de 1,55:1 (modo llamado en las Alexa Open Gate 4:3). Esta relación de aspecto se utiliza en muchas ocasiones con lentes anamórficas 2x para hacer los formatos panorámicos scope 2,39:1. El formato Full Frame se utiliza más en fotografía que para cine o televisión. Hay cámaras fotográficas DSLR, como la Canon 5D, que graban vídeo con un sensor Full Frame. La Sony A7 graba en 4K con sensor Full Frame y consigue unos resultados espectaculares en condiciones de baja luz y en cuanto a rango dinámico. La única cámara digital que tiene un sensor de 65 mm es la Arri Alexa 65. El sensor de 2/3’’ se utiliza más en cámaras de televisión.
PROGRAMAS DE EDICIÓN DE VIDEO
Los programas de edición permiten generar un proyecto en 4K e internamente pueden trabajar o bien con el material en alta calidad o con proxys, códecs de intermediación a tamaños inferiores.
Los sistemas de edición más extendidos son Premiere, Avid y FinalCutPro.
La política de Adobe con Premiere ha sido siempre la de vincularse al material original, como los programas de edición online. Pero ahora está cambiando por dos cosas: primero porque han cogido como códec de intermediación el Cineform y segundo, porque han empezado a colaborar con Avid. A partir de ahora la plataforma de Adobe va a utilizar los sistemas de almacenamiento compartido de Avid, famosos por su estabilidad14. Con este acuerdo, Avid podrá incrementar sus ventas de hardware y Adobe gana en prestaciones profesionales para grandes instalaciones. Actualmente el modelo de negocio de Adobe está centrado en su estrategia de comercialización por suscripción de su paquete ‘Creative Cloud’. De esta forma, es un buen acuerdo para ambas partes: Avid incrementará sus ventas de hardware y Premiere podrá utilizar los códecs de intermediación de Avid para 4K, los DNxHR. Premiere tiene una interfaz de usuario muy buena, mucha implantación en el mercado y está integrada en un paquete de aplicaciones que cubre todas las tareas de la postproducción: gráfica, sonido, composición etc.
Final Cut Pro es de Apple e intermedia en ProRes. Ésta es su ventaja competitiva aunque los DNxHR de Avid son tan buenos o mejores que los ProRes. Una limitación de Final Cut es que no se puede instalar en un PC y no soporta muchos de los códecs de cámara: ni Sonyraw, ni Canonraw, ni CinemaDNG, etc. El cambio de interfaz que hicieron hace años con la versión 10, no resultó muy popular y les hizo perder cierto volumen de usuarios, a pesar de ser una buena interfaz para ciertos usos.
Avid Sigue siendo líder en el sector profesional con su Media Composer. Su fuerte está más en los sistemas de almacenamiento y los códecs de intermediación que en la interfaz de usuario, poco popular hoy en día.
CONCLUSIONES
La migración a la televisión de ultra alta definición y al cine digital 4K no es solo una cuestión de aumentar la resolución espacial. Debe traer también un espacio de color más amplio, un aumento del rango dinámico (HDR) y de la frecuencia de fotogramas (HFR). Todos estos avances tienen que estar dirigidos a que aumente la sensación de calidad y a potenciar el componente artístico de las obras.
Desde el punto de vista técnico el espacio de color que se ha implantado para el cine digital, el DCI-P3, no es suficiente. Tiene un gamut muy reducido, parecido al BT-709 de la televisión HD, y muy inferior al del cine fotoquímico. En ese sentido el paso de la película al digital ha sido un retroceso. Aún es necesario un nuevo desarrollo tecnológico con un gamut más amplio y una relación de contraste mayor para superar al positivo cinematográfico. Ya se está hablando de hacer una nueva norma DCI 2.0. La actual, la 1.0, tiene limitaciones muy grandes de relaciones de aspecto y frecuencias de fotogramas. Por ejemplo, no está contemplado el formato 4:3. Tampoco la proyección a 16 fps. Las filmotecas tienen muchísimo material de estas características y la norma no las contempla. Estas incorporaciones a la norma se pueden sumar a las cuestiones del rango dinámico y el espacio de color.
Para la radiodifusión televisiva está definido el espacio de color BT-2020 que supone un importante avance. Pero las pantallas 4K que se están comercializando no lo han implementado todavía y aún está pendiente la normalización del rango dinámico.
El salto tecnológico también implica un aumento de la frecuencia de fotogramas por segundo. Con las frecuencias más altas se obtienen imágenes más nítidas y un movimiento más suave. Esto es especialmente relevante teniendo en cuenta que el incremento de resolución espacial permite ampliar el tamaño de las pantallas y reducir la distancia de visionado.
Un estudio reciente de la BBC sobre las condiciones de visionado de la televisión en el Reino Unido (Noland & Truong, 2015) analiza la sensación de calidad en relación con el tamaño de la pantalla y con la distancia a la que se sitúa en el espectador. A una distancia de 2 o 3 metros con un televisor de 40’’ o 50’’ la diferencia de resolución espacial entre HD y Ultra HD no es muy apreciable por una cuestión fisiológica de agudeza visual. El 4K será muy notorio en pantallas gigantes cuando el espectador se sitúe muy cerca, como por ejemplo con una pantalla de 100 pulgadas observada a una distancia de 2 metros. Pero ésta no es una situación habitual en los hogares. Y no es solo cuestión de tamaño y resolución. También es preciso una nueva generación de pantallas más brillantes, con capacidad para representar el contraste y el color con mayor fidelidad.
No obstante, la implantación de la televisión de ultra alta definición y el cine 4K está en marcha con paso firme:
– La parte de la producción está muy avanzada como hemos visto con las características de las nuevas cámaras, los procesadores y los grabadores digitales.
– Para la difusión existe la norma HEVC que funciona correctamente para televisión vía satélite o cable y para la difusión por internet.
– Ya se está comercializando una primera generación de televisores 4K para los hogares.
Este último aspecto, el de las pantallas, es el más crítico. Para que los usuarios se decidan a invertir en un televisor nuevo, la industria tiene que ofrecer un valor añadido claro. No parece que la Ultra HD a 4:2:0, 8 bits con el espacio de color de la norma BT-709 cumpla este requisito. Las estrategias de marketing de los fabricantes de pantallas macarán los ritmos de implantación de las nuevas prestaciones técnicas.
El proceso de migración se puede alargar muchos años. Las experiencias de las transiciones anteriores así lo indican. La definición de las normas de televisión digital se gestaron a principios de los años 90 y la sustitución se completó en Europa en 2012, es decir, 20 años después. Y el paso de la televisión analógica a la digital contó con una fuerte mediación de los Estados que necesitaban completar el cambio para liberar espectro de radiodifusión.
También identificamos una dificultad con los catálogos de contenidos. Todo el material que se difunde hoy en día está producido en el espacio de color BT-709 y DCI-P3. Cuando se empiece con el espacio de color de BT-2020 y se definan los valores para el alto rango dinámico, no habrá contenidos preparados con estas características. Estas conversiones también requieren periodos de tiempo muy largos porque implican fuertes inversiones de los proveedores de contenido. Será necesario recurrir a los originales en soporte fotoquímico o generar nuevos materiales para aprovechar todo el potencial de calidad de la nueva tecnología. La creación audiovisual siempre ha estado vinculada al desarrollo tecnológico. Desde los primeros pasos de la fotografía y el cine hasta hoy. Los profesionales tienen que utilizar las nuevas herramientas y los nuevos formatos para sus creaciones en una lógica de innovación continua marcada por la industria y la comercialización de las obras. Forma parte del trabajo y está implícito en las profesiones del audiovisual. Siempre ha sido así: con la incorporación del sonido y el color en el cine, con la aparición de los distintos formatos de película o con la llegada de la imagen electrónica y digital. Cada uno de estos cambios ha supuesto un reto para los artistas que han explotado las nuevas posibilidades que ofrece la tecnología. La cuestión es aprovechar estas innovaciones para la creación artística, para hacer nuevas obras y mejores.
La tendencia está marcada. Con esta guía hemos intentado entender dónde están las claves de este desarrollo tecnológico, en qué momento estamos y cuáles son las perspectivas que se generan bajo la etiqueta que los profesionales del marketing han definido como 4K.