You are on page 1of 108

Departamento de Humanidades y

Arte
Carrera Artes Audiovisuales

Asignatura: Fotografía y cámara 1


Cuatrimestre: 1 / 2018

Material de lectura
Equipo Docente:
Eduardo Kearney
Selección organizada por:
Eduardo Kearney
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 1

Nota:
Quedan reservados todos los
derechos de autor según dicta la
ley de protección a la propiedad
intelectual.
La versión de las diferentes
publicaciones incluidas en el
presente apunte solo puede ser
distribuida dentro del marco de
estudio en el ámbito universitario,
ya que se trata de reproducciones
parciales de carácter impreso y
personal del alumno, quien no
pueden a su vez distribuirlas o
copiarlas con otros fines.
Ninguna parte de esta publicación,
puede ser copiada separadamente,
modificada, ni distribuida por si sola
de manera que se obtenga una
contraprestación fuera de la del
objeto de estudio establecido, sin
permiso de cada uno de los autores
citados y sus correspondientes
editoriales
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 2

Índice:
1. Apunte: “Teoría básica de
Fotografía y cámara 1 / 2018”, autor
Eduardo Kearney
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 3

Eduardo Kearney

Teoría básica de

Fotografía y
cámara I
2018

 Eduardo Kearney 2018


Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 4

Las imágenes fotográficas

El término fotografía, etimológicamente, proviene del griego photos, „luz‟, y graphein, „escritura‟,
„dibujo‟, „pintura‟, o sea que se puede decir que fotografiar es dibujar con luz. Cuando dibujamos, el lápiz
deja un trazo sobre la superficie del papel. Para realizar una fotografía, entonces, se necesita un material
sobre el que la luz pueda dejar su trazo, un material que se pueda modificar por acción de la luz, un
material fotosensible. Para obtener una fotografía sobre estos materiales, se debe proyectar sobre su
superficie una imagen de lo que se desee reproducir para que éste registre en cada punto qué tan claro o
qué tan oscuro es el motivo en cuestión. Aquí es donde surge la necesidad de emplear una cámara, que
no es otra cosa que una cámara oscura, anterior a la invención de la fotografía. Originalmente, la cámara
oscura consistía en una habitación (una „cámara‟), en la que un orificio practicado en uno de los muros
dirige la luz y proyecta una imagen del exterior sobre la pared opuesta. Esta imagen está invertida tanto
horizontal como verticalmente con respecto a la realidad. Este es el principio de la cámara estenopéica,
del griego steno, „estrecho‟ y ope, ‘abertura, agujero‟. Descripta en el siglo IV a. C. por el filósofo chino
Mo Tzu y mencionada también por Aristóteles, la cámara oscura fue estudiada, en el Renacimiento, por
Leonardo da Vinci. Posteriormente, como modo de „copia‟ de la realidad, fue empleada por algunos
pintores para calcar, sobre un papel translúcido, el motivo a representar para luego transferirlo a la tela.
En el siglo XVI, se agrega a este dispositivo una lente biconvexa, reemplazando el orificio, para mejorar
la calidad de la imagen. Las pinturas de Jan Vermeer son un buen ejemplo del uso de la cámara oscura.
Recién en el siglo XIX surge la posibilidad de, en lugar de calcar a mano, registrar directamente la
imagen proyectada sobre un material fotosensible. La primera imagen estable registrada sobre un material
fotosensible, luego de ocho horas de exposición, fue obtenida por Joseph Nicéphore Niepce en 1826,
marcando el nacimiento de la fotografía.

En la figura 1 podemos observar el esquema de una cámara (evolución de la cámara oscura) en la cual
una lente dirige los rayos de luz reflejados por el sujeto hacia un material fotosensible proyectando así
sobre éste una imagen del mismo. En algunas cámaras, un obturador impedirá la entrada de luz, hasta el
momento de la toma, en que permitirá que la luz actúe sobre el material fotosensible durante un tiempo
determinado1.

Fig. 1

En la actualidad, los materiales fotosensibles se pueden dividir en dos grupos, dependiendo del
mecanismo que emplean para registrar las imágenes: argénticos o fotoquímicos y electrónicos2.

1
Esquemáticamente, la cámara fotográfica y la cinematográfica son iguales, solo diferirán, en el caso de la
fotografía argéntica, en el sistema de arrastre de la película.
2
Para evitar confusiones preferimos emplear los términos argéntico y electrónico en lugar de analógico y digital ya
que existen sistemas electrónicos que funcionan analógicamente.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 5

Captura y visualización de las imágenes argénticas o fotoquímicas

La fotografía argéntica, tal como la conocemos hoy, emplea como material fotosensible sales de plata,
para ser precisos, halogenuros de plata o haluros de plata. Los haluros de plata surgen de la
combinación de un halógeno (bromo, cloro, yodo y flúor) con plata. De las cuatro combinaciones
posibles, sólo tres son sensibles a la luz, a saber: bromuro de plata, cloruro de plata y yoduro de plata.
El cuarto haluro, fluoruro de plata, no es sensible a la luz.
Estos haluros de plata se presentan bajo la forma de pequeñísimos cristales hexagonales. Para su uso
en la fotografía, estos cristales se emulsionan en una gelatina, que los mantiene uniformemente
distribuidos para su exposición a la luz y el procesado posterior (Fig. 2). Esta frágil emulsión, a su vez,
está adherida, por el sustrato, a un soporte, que le da estabilidad dimensional y permite su
manipulación3.
Los soportes pueden ser transparentes u opacos, dependiendo del uso para el que esté destinado el
material fotográfico. Los soportes transparentes se emplean en los materiales destinados a negativos,
diapositivas o copias positivas para proyección cinematográfica. Los soportes opacos, en cambio, se
utilizan en el caso de las copias positivas sobre papel.

Fig. 2

Esta es la estructura básica de todos los materiales fotográficos argénticos. Es importante recalcar que,
de todo este conjunto, sólo los haluros de plata son sensibles a la luz y que gelatina y soporte sólo
cumplen funciones mecánicas.

El negativo

Pasemos ahora a ver qué ocurre cuando se expone un material fotosensible a la luz. Para la exposición
se coloca el material sensible en una cámara fotográfica. Para efectuar esta prueba, el sujeto a fotografiar
será muy simple, una superficie mitad blanca y mitad negra (Fig.3). Analicemos primero qué significa
blanco y qué significa negro.
Algo es blanco, o claro, cuando su superficie refleja un gran porcentaje de la luz que recibe hacia
nuestro ojo o nuestra cámara fotográfica. Un blanco perfecto debería reflejar el 100% de la luz que recibe.
Algo es negro, u oscuro, cuando su superficie absorbe un gran porcentaje de la luz que recibe, reflejando
hacia nuestro ojo o cámara fotográfica poca o ninguna luz. Un negro perfecto absorbería el 100% de la
luz que recibe. Por lo tanto podemos decir que nuestro sujeto posee una zona que refleja mucha luz hacia
la cámara y otra que no refleja luz.

3
Este sistema se conoce también como gelatinobromuro.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 6

En el momento de la exposición, entonces, la imagen que se proyecte sobre el material fotosensible


estará formada por una zona que recibe luz y otra que no (Fig. 3 Etapa 1). Es en este momento cuando, de
acuerdo a la teoría de Gurney-Mott4, se producirá el primer cambio en el material fotosensible. En los
haluros de plata que reciben luz, algunos átomos de plata se separarán del bromo, yodo o cloro con el que
están combinados y emigrarán hacia alguna falla en el cristal, formando una pequeña concentración de
plata. Estas pequeñas concentraciones, que llamaremos trazas, son la huella que deja la luz en el material
fotosensible. Si pudiéramos observar en este momento la superficie de la emulsión, no notaríamos ningún
cambio; sin embargo el conjunto de trazas está dibujando en la emulsión la imagen del sujeto
fotografiado. Esta imagen, aún invisible, se denomina imagen latente (Fig. 3 Etapa 2).
Para hacer visible esta imagen latente se tendrá que revelar el material. Durante el revelado, se
multiplica la transformación que inició la luz en el momento de la exposición. Actuando sobre aquellos
cristales que poseen una traza, es decir
sobre aquellos que recibieron luz, el
revelador reduce el haluro de plata a plata
metálica. La acción del revelador debería
ser por lo tanto selectiva, actuando
únicamente sobre los cristales expuestos
(Fig. 3 Etapa 3)5. Para tener una idea del
factor de multiplicación de plata que
produce el revelado, podemos decir que
entre la cantidad de plata que forma la
imagen latente y la que tenemos luego del
revelado hay una relación de uno en más
de mil millones.
A esta altura del proceso, la imagen
sobre el material es ya visible, pero aún no
podemos observarla a la luz porque
todavía restan haluros de plata que no han
sido reducidos y que continúan siendo
sensibles a la luz. Esto nos obliga a un
segundo paso, el fijado. La función del
fijador es la de hacer solubles los haluros
de plata para que puedan ser eliminados
en un lavado final.
Finalizada esta etapa, sólo queda plata
metálica, gelatina y soporte, siendo, todos
éstos, elementos estables a la luz (Fig. 3
Etapa 4).
Si observamos por transparencia la
imagen obtenida, notaremos que los tonos
están invertidos. Allí donde el sujeto era
negro tendremos una zona transparente,
clara, y donde era blanco, una opaca
densidad de plata metálica negra; es por
ello que esta imagen se denomina
negativa.

Fig. 3

4
Esta teoría fue planteada por R. W. Gurney y N. F. Mott en 1938.
5
Si dejáramos la emulsión sumergida en revelador un tiempo muy prolongado, todos los haluros se reducirían a
plata metálica. La traza, en realidad, actúa como un catalizador haciendo que el revelador reduzca el haluro que la
posee a plata metálica más rápidamente. Esta es la razón de que existan los tiempos de revelado.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 7

Las densidades de plata metálica formadas luego del revelado son proporcionales a la cantidad de luz
que recibió el material durante la exposición: a mayor exposición más densidad y viceversa. Estas
densidades no se deben imaginar como una superficie de plata metálica uniforme sino como la
acumulación de pequeños filamentos de plata que se entrecruzan. A mayor cantidad de filamentos, mayor
densidad. Por lo tanto la superficie estará cubierta por una estructura discontinua, más o menos abierta
dependiendo de la densidad. Esta discontinuidad se conoce
como grano de la emulsión. De ella dependerá la
resolución de la imagen que se puede obtener con dicha
emulsión: cuanto más pequeño sea el grano, mayor será la
resolución. En la Fig. 4 se puede observar,
esquemáticamente y muy ampliada, la estructura del grano
en el negativo, con sus filamentos de plata metálica y, en la
otra imagen, como se vería este grano en el positivo. En las
copias fotográficas, el grano toma el aspecto de pequeños
puntos que suelen percibirse, en algunos casos, a simple
vista.
Fig. 4

Visualización de las imágenes argénticas. El positivado

Para visualizar la imagen capturada se


deberán restituir los tonos originales de
nuestro sujeto, que están invertidos en el
negativo. Este procedimiento se denomina
positivado. Para ello haremos pasar luz a
través del negativo obtenido y lo
proyectaremos sobre un nuevo material
sensible (Fig. 5), cuya estructura será
básicamente igual a la del negativo, la única
diferencia podrá residir en el soporte. Al
igual que el primer material sensible, el
material positivo tiene una emulsión de
gelatina y haluros de plata.
Durante la exposición, nuevamente
tendremos una zona que recibe luz, que
corresponde a las zonas transparentes de
negativo, y otra que no recibe luz y que
corresponde a las zonas opacas del negativo.
Los haluros que reciben luz forman sus
trazas, los que no reciben luz no se
modifican. Tenemos una imagen latente
(Fig. 5 Etapa 2).
Para hacer visible esta imagen latente
procedemos a revelar el material. Durante el
revelado, los haluros de plata expuestos se
reducen a plata metálica (Fig. 5 Etapa 3). El
fijado se encarga de hacer solubles los
haluros de plata restantes para que sean
eliminados en el lavado final (Fig. 5 Etapa
4). La imagen obtenida es tonalmente
correcta, donde había blanco ahora hay
blanco, donde había negro ahora hay negro.
Esta imagen es llamada positiva.
Fig. 5
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 8

Como se ve, hay tres etapas que se repiten en todos los procesos, independientemente de si estamos
obteniendo una imagen positiva o negativa:

Exposición: en los haluros de plata que reciben luz se forma una pequeña concentración de plata
metálica que llamamos traza. El conjunto de trazas forma una imagen invisible que
denominamos imagen latente.

Revelado: durante el revelado los haluros de plata que poseen una traza son reducidos a plata
metálica. Esto hace visible la imagen latente.

Fijado: el fijador se encarga de hacer solubles los haluros de plata residuales, que aún son
sensibles a la luz, permitiendo que sean eliminados por el lavado final.

Lavado final: elimina los haluros de plata residuales, hechos solubles por el fijador permitiendo la
manipulación del material a la luz.

Cabe aclarar que en el presente ejemplo, para simplificar, el sujeto fotografiado es solo blanco y negro,
cuando, en la realidad, los motivos frente a cámara están constituidos por una gran cantidad de valores
entre el blanco y el negro, es podemos decir una escala de grises. En el material fotográfico argéntico, la
cantidad de trazas que se pueden formar depende de la cantidad de luz que actúa sobre los haluros, por lo
tanto las densidades de plata obtenidas serán proporcionales a la cantidad de luz incidente.

Captura y visualización de las imágenes electrónicas

El sistema de reproducción de imágenes electrónico sólo se diferencia del sistema fotoquímico, o


argéntico, en el material sensible. Podemos decir que las cámaras serán casi iguales. Reemplazaremos la
película fotográfica por un componente electrónico, un circuito integrado que se encargará de registrar la
imagen: el dispositivo de captura de imagen. Además se incluyen, en la cámara, los circuitos que lo
controlan y permiten procesar y almacenar la imagen obtenida. Estos dispositivos de captura tienen
dividida su superficie sensible a la luz en sensores individuales, llamados fotositos, ordenados en líneas y
columnas (Fig. 6). Se puede decir entonces que cada sensor representa la unidad mínima de información
en la que está dividida la imagen, el punto más pequeño que se tiene para componerla. Este punto se
denomina píxel, acrónimo del inglés picture element, „elemento de imagen‟.

Fig. 6

En la cámara, la imagen generada por el objetivo se proyecta sobre el dispositivo de captura y cada
uno de los sensores registra qué tan luminosa es la imagen en ese punto (Fig. 7) y transforma esta
información en una señal eléctrica.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 9

Fig. 7

En la Fig. 8 podemos observar la fragmentación de la imagen generada por la estructura de


píxels del dispositivo de captura.

Fotografía original

Ampliación de la zona recuadrada en la


fotografía original

Fig. 8
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 10

La calidad de la imagen, en cuanto a resolución, dependerá directamente de la cantidad de


sensores individuales o píxels disponibles en el dispositivo para la captura de la imagen. La
unidad que se emplea para medir la cantidad de píxels en un dispositivo de captura es el
megapíxel:

1 megapíxel = 1.000.000 de píxels

.....En todos los casos nos referiremos al número de píxels efectivos del dispositivo de captura y no al de
píxels totales, que puede ser mayor6.

En fotografía, dado que las imágenes son individuales y por lo tanto no importa la cantidad de
memoria que emplean, las resoluciones superan actualmente los 20 megapíxels y la cifra
continúa en aumento. Para la imagen en movimiento (cine y televisión), dada la cantidad de
imágenes por segundo que se requieren (24 imágenes por segundo como mínimo en cine), y la
necesidad de estandarizar su tamaño para que puedan ser proyectadas en todas las salas de cine y
recibidas correctamente en todos los televisores, se establecieron estándares de resolución, a
saber:

 SDTV (Standard definition TV)

Incluye los sistemas actualmente utilizados por la televisión de aire:

PAL: 720 x 576 píxels (0,41 megapíxels) 25 fps

NTSC: 720 x 480 píxels (0,34 megapíxels) 30 fps

Estos sistemas poseen una relación de aspecto de 4 x 3 (1 : 1,33)

 HDTV ( High definition TV )

Este estándar es el empleado para las emisiones de televisión en alta definición por aire y para algunas
cámaras destinadas a obtener imágenes que serán transferidas a material cinematográfico negativo para su
posterior copiado y exhibición.

HDTV: 1920 x 1080 píxels (2,07 megapíxels)

El sistema HDTV posee una relación de aspecto de 16 x 9 (1 : 1,77)

 Cinematografía electrónica

En cinematografía electrónica incluimos las cámaras destinadas a obtener imágenes cuya definición
sea suficiente como para poder proyectarse en una pantalla cinematográfica con calidad comparable a la
obtenida con negativos cinematográficos 35 mm. Para definir el tamaño de estas imágenes se emplea
como unidad el K:

1 K = 1024 píxels

Esta medida indica la cantidad de píxels en la base del fotograma. La altura estará determinada por la
relación de aspecto que se emplee, por ejemplo: 1 :1,33, 1:1,85, 1: 2, etc.

6
En todos los dispositivos de captura existe un cierto número de píxels que están obturados a la acción de la luz, o
sea que no capturan imagen, y se emplean, entre otras cosas, para que el sistema pueda establecer el valor del negro
de referencia. Estos píxels siempre están en los bordes del cuadro.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 11

Existen actualmente cámaras, y proyectores, que trabajan en estas dos resoluciones:

2 K: 2048 píxels
4 K: 4096 píxels

 UHD (Ultra high definition)

Estos estándares son los más recientes en televisión. Sus medidas son:

4K UHD 3840 x 2160 píxels

8K UHD 7680 x 4320 píxels

Estos tienen una relación de aspecto de 16 x 9. Por el momento las transmisiones en 4K UHD solo se
están realizando a manera de prueba.

El efecto fotoeléctrico

El efecto fotoeléctrico ocurre cuando la luz, al incidir sobre ciertos materiales, libera
electrones de éstos para generar una carga o una corriente eléctrica. A los electrones liberados se
los llama fotoelectrones.

Existen dos tipos de efecto fotoeléctrico:

 Efecto fotoeléctrico superficial: se produce cuando la luz incide sobre la superficie de


un material y genera que ésta libere fotoelectrones. Estos se pueden extraer mediante una
capa conductora generando así una corriente eléctrica. Este es el efecto fotovoltaico. Los
casos típicos son las celdas solares empleadas en el campo para cargar baterías y poder
disponer de corriente eléctrica y, en el caso de la fotografía, los fotómetros de selenio que
no requieren baterías.

 Efecto fotoeléctrico interno: se produce cuando la luz libera fotoelectrones en el interior


de un material semiconductor, este fenómeno es sumamente importante para la
fotografía electrónica ya que es el que permite transformar la luz que incide sobre
un dispositivo de captura en una señal eléctrica.

Estructura de los dispositivos de captura de imagen

Existen actualmente dos tipos de dispositivos de captura:

CCD (Charge Coupled Device, „dispositivo de carga acoplada‟)

CMOS (Complementary Metal-Oxide Semiconductor, „semiconductor de óxido de metal


complementario‟)
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 12

Estructura básica de un CCD

Todos los dispositivos de captura tienen dividida su superficie en zonas que cumplen diferentes
funciones. Esquemáticamente se puede decir que los sensores del CCD tienen en su estructura tres zonas7:

Primera zona: Es la zona sensible a la luz, el fotosito. En ésta se genera una carga eléctrica, por
efecto fotoeléctrico, proporcional a la cantidad de luz que recibe.

Segunda zona: Es la que almacena la carga eléctrica que genera la primera. Se trata de un pozo
de potencial (potential well en inglés) donde se acumulan los fotoelectrones
liberados por la primera zona durante el tiempo de exposición.

Tercera zona: Se denomina registro de transferencia. Se ocupa de transportar la información


generada fuera del dispositivo de captura para su posterior procesado y
almacenamiento.

Veamos ahora esquemáticamente cómo funciona este sistema (Fig. 9). Tomemos, como sujeto a
fotografiar, una superficie con una mitad blanca y otra negra, o sea una zona que refleja luz hacia cámara
y otra que no. Durante la exposición, podemos observar que en la parte correspondiente a la zona negra
del original no llega luz a los sensores del CCD, en cambio en la que corresponde al blanco sí hay luz
actuando sobre éstos. En este caso hemos dibujado sólo cuatro sensores con el fin de simplificar el
ejemplo. Recordemos que la cantidad de sensores que normalmente podemos encontrar en un CCD es
muy superior.

Fig. 9

La acción de la luz sobre los fotositos iluminados, por efecto fotoeléctrico, produce la liberación de
algunos electrones (fotoelectrones), o sea una carga eléctrica. La cantidad de electrones liberados será

7
En la práctica estas zonas pueden ser adyacentes o estar superpuesta, dependiendo del diseño del dispositivo.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 13

proporcional a la cantidad de luz recibida. A los fotositos correspondientes a la porción negra del original
no llega luz, no habrá liberación de electrones y por lo tanto no se generará ninguna carga eléctrica. Los
electrones liberados son atraídos entonces a la segunda zona, el pozo de potencial, donde se acumulan
durante el tiempo de exposición, que en el caso de la imagen electrónica se denomina tiempo de
integración. Concluido el tiempo de exposición, la carga acumulada pasa a la tercera zona, el registro de
transferencia, que se encarga de transportarla fuera del CCD. En la estructura de un dispositivo de
captura CCD hay dos registros de transferencia uno vertical y otro horizontal (Fig. 10). El registro de
transferencia vertical baja la información de las líneas de la imagen hacia el registro de transferencia
horizontal que se encarga de encaminarla hacia afuera del CCD. Los registros de transferencia están
cubiertos para evitar la acción de la luz sobre ellos y minimizar la posibilidad de la aparición del smear
(ver más adelante). Los CCD que trabajan con este sistema se denominan CCD-IT (interline transfer
„transferencia interlinea‟).

Fig. 10

La información tendrá que salir ordenadamente del CCD empezando por la línea 1 píxels 1, 2, 3, 4, 5,
etc. luego la línea 2 píxels 1, 2, 3, 4, 5, etc., hasta completar la totalidad de la imagen.

Fig. 11
Es muy importante que la información salga ordenadamente ya que ésta deberá ser, a posteriori,
ubicada en su lugar original para poder visualizar la imagen capturada durante la exposición.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 14

Por ejemplo, en el registro de transferencia horizontal (Fig. 11), las cargas de cada píxel se encaminan
hacia la salida del CCD saltando una posición en cada etapa de la descarga. Este procedimiento se llama
transferencia de carga. Recordemos que la carga del píxel es la información de luminancia de ese
punto de la imagen. Al salir las cargas, se transforman en una corriente eléctrica modulada en tensión
(milivolts). El voltaje será proporcional a la cantidad de luz que recibió el píxel.

La señal de salida es amplificada para luego ser enviada al conversor analógico-digital.

Estructura básica de un CMOS

La estructura de los CMOS, en sus primeras dos zonas, es prácticamente idéntica a la de los CCD: la
acción de la luz, al actuar sobre un sensor, libera electrones que luego son acumulados como una carga
eléctrica proporcional a la cantidad de luz recibida durante el tiempo de exposición. Es a partir de esta
etapa, o sea en la extracción de la información, que comienzan las diferencias, a saber:

 Cada sensor posee su propio amplificador, uno o más transistores.


 La información del píxel se lee en la posición de éste, como en una memoria RAM, sin necesidad
de realizar la transferencia de carga, esto acorta el tiempo de lectura y ahorra una cantidad
apreciable energía.
 Al extraerse la información píxel por píxel (lo cual permite elegir cuáles se leen y cuáles no), es
posible utilizar sólo un área del dispositivo de captura, por ejemplo para modificar la relación de
aspecto de la imagen.
 En el mismo circuito integrado se encuentra el conversor analógico-digital, lo cual reduce la
electrónica de la cámara.
 Los CMOS tienen un consumo de energía más bajo que los CCD.
 En la actualidad, los CMOS poseen un nivel de ruido superior al de los CCD, aunque esto se
mejora día a día.

Los CMOS que trabajan con este sistema se denominan CMOS-APS (active pixel sensor ‘sensor de píxel
activo‟).

Factor de ocupación

Por lo expuesto, sabemos que la superficie del dispositivo de captura de imagen está dividida en
sensores individuales; por lo tanto, si quisiéramos saber cuál es la superficie disponible para cada sensor,
sólo tendríamos que dividir el área total del dispositivo por el número de píxels. Idealmente esta
superficie debería estar dedicada a recolectar la luz que llega al sensor, o sea la luz de exposición; pero,
en la práctica, esta superficie deberá contener, además del fotosito, la electrónica del sistema, registros de
transferencia, transistores en el caso de los CMOS, etc. Por consiguiente, el área del píxel realmente
sensible a la luz, el fotosito, se ve reducida considerablemente. Esto significa que un alto porcentaje de la
luz disponible para la exposición llega a zonas que no son sensibles a la luz y por lo tanto se pierde,
dando como resultando un dispositivo de baja sensibilidad. Esta relación superficie sensible/superficie
no sensible se denomina factor de ocupación.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 15

Fig. 12

Fig. 13

En la Fig. 12 podemos ver esquemáticamente el corte de un dispositivo de captura con sus sensores,
fotositos, la única zona realmente sensible a la luz, y los registros de transferencia, que no son sensibles a
la luz. Se puede apreciar que las zonas no sensibles a la luz son mayores que las sensibles. Para solucionar
este problema y aumentar la eficiencia de captación de luz, Sony propuso, en 1991, incorporar una
microlentilla sobre cada sensor para redireccionar la luz que incidiría en las zonas no sensibles hacia las
zonas sensibles. En la Fig. 13 se puede observar el efecto de las microlentillas y cómo disminuye la
pérdida de luz durante la exposición. Con este sistema se logra incrementar la sensibilidad del dispositivo
de captura

Problemas asociados a los dispositivos de captura

Por sus mecanismos de funcionamiento existen algunos problemas típicos.

 Ruido: Como hemos visto, durante la exposición en un dispositivo de captura los fotoelectrones
liberados por la llegada de fotones son almacenados en el pozo de potencial. Estos electrones
constituyen la carga útil, es decir la carga que representa la información de luminancia del pixel,
ahora, si medimos esta carga en la salida del dispositivo de captura notaremos que se le han
agregado algunos electrones más que no son producto de la acción de la luz, estos forman lo que
se denomina ruido y deterioran la pureza de la señal útil. La carga total del pixel, medida en
volts, será por lo tanto:

𝐕 carga total = 𝐕 carga útil + 𝐕 ruido


Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 16

Para graficar el efecto del ruido sobre una imagen veamos el siguiente ejemplo: si tomamos una
fotografía con la tapa del objetivo puesta, es decir que no puede llegar luz al dispositivo de
captura, o sea que todos los pozos de potencial deberían esta vacios, notaremos, cuando la
visualizamos, que el negro no es perfectamente uniforme sino que está constituido por puntos de
diversas luminancias muy bajas pero no iguales a cero. La presencia de ruido siempre es más
notable en las bajas luces de la imagen, zonas oscuras, ya que hay muy poca información para
ocultarlo.
El ruido está siempre presente en todos los sistemas electrónicos y su incidencia sobre el deterioro
del resultado final se expresa por la relación señal-ruido (RSR) (signal to noise ratio (SNR) en
inglés), que se expresa en decibeles (dB) y surge de la siguiente fórmula:

V max .
RSR (dB) = 20 log10
V ruido
Dónde:

RSR= relación señal-ruido, en decibeles

V max.= voltaje máximo de la carga del pixel, o sea la capacidad completa del pozo de potencial

V ruido= voltaje del ruido promedio de todos los píxels

Cuanto menor es el valor de esta relación, o sea que hay poca diferencia entre el voltaje de la
señal con respecto al del ruido, más posibilidades hay de que se deteriore la imagen por
contaminación de ruido.

El ruido puede tener diferentes causas, a saber:

Ruido o corriente de oscuridad: es producto del calor, todos los circuitos se calientan al circular
corriente por ellos, al elevarse la temperatura del dispositivo de captura algunos electrones son
liberados y se dirigen al pozo de potencial para acumularse junto a la carga útil. A mayor
temperatura mayor nivel de ruido, se estima que el nivel de ruido de oscuridad se duplica cada 6 a
8ºC de incremento de la temperatura de operación del dispositivo de captura.

Ruido de lectura: se trata del ruido que se puede producir al procesar la señal luego de extraerla
del dispositivo de captura. Uno de los principales factores para generarlo es la amplificación a la
que se somete a la señal, por ejemplo al aumentar la sensibilidad o la ganancia de la cámara, a
mayor amplificación mayor nivel de ruido.

Ruido fotónico: es producto de la naturaleza cuántica de la luz, ninguna fuente emite luz de
manera homogénea, por lo tanto aunque una superficie sea uniforme, perfectamente reflectante y
esté iluminada en forma pareja, la cantidad de fotones que estarán reflejando cada uno de sus
puntos no será idéntica. La consecuencia es que a los fotositos llegarán diferentes cantidades de
fotones durante la exposición. Es inevitable y se considera parte de la carga útil del pixel.

Ruido estructural: se debe a que hay diferencias en la sensibilidad de los fotositos de un


dispositivo de captura (photo response non uniformity, „no uniformidad de la foto respuesta‟).
Este problema es más frecuente en los CMOS que en los CCD. Se puede eliminar por un proceso
de doble muestreo en el cual primero se lee el valor del sensor vacio y luego el valor con la carga
de exposición. Con estos dos valores se realiza una operación, sea en la etapa de amplificación o
en la de conversión analógica-digital, en la cual se le atribuye el valor final al pixel.

Estos tipos de ruido siempre se presentan combinados.


Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 17

 Smear: el smear, palabra que no tiene traducción al castellano, es un problema exclusivo de los
CCD. Se manifiesta como una línea blanca, vertical en el caso del video y cine, que parte de las
altas luces, por ejemplo el sol en cuadro (Fig. 14), y atraviesa el cuadro. Esto ocurre porque en las
zonas en las que hay sobreexposición, o sea una gran cantidad de luz llegando, parte de esta luz
se filtra en el registro de transferencia vertical, contaminando la información de toda la columna.
Si bien es un problema prácticamente inevitable, los CCD actuales los tienen reducido al mínimo.

Fig. 14

 Rolling shutter: éste es un problema exclusivo de los CMOS y se produce por la forma en que se
realiza la lectura de la información de cada píxel. Como vimos anteriormente, en los CMOS se
toma la información del píxel uno por uno, esto significa que se empieza a leer desde el píxel 1 de
la fila, o línea, 1, luego el píxel 2 de la fila 1 y así sucesivamente. Al terminar con la fila 1
continúa con la fila 2, la fila 3, etc. hasta extraer toda la información del fotograma. Este
procedimiento implica que hay una diferencia
de tiempo entre el momento en que se lee el
píxel 1 de la fila 1 y, por ejemplo el píxel 1 de
la fila 30. Dado que lo que se lee es el estado
del píxel en el momento de la lectura se
pueden generar deformaciones en la imagen.
Para ejemplificarlo, muy exageradamente,
vayamos a la Fig. 15 I, supongamos que
durante el tiempo de exposición el
rectángulo gris se desplaza muy
rápidamente dentro del cuadro entre las
posiciones indicadas en el gráfico. En la Fig.
15 II podemos observar que al haber
diferencia de tiempo entre las lecturas, la fila o
línea A se lee con el rectángulo en la posición
1, la B cuando está en la posición 2, la C en la
posición 3 y la D en 4. Como podemos
observar, los puntos marcados, que
corresponden todos a un lado del rectángulo,
fueron ubicados, por la diferencia de tiempo
en su lectura, desplazados horizontalmente. En
la Fig. 15 III podemos ver el aspecto que
tendría el rectángulo en el fotograma
capturado.

Fig. 15
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 18

Este problema, presente en todas las tomas en las que haya movimientos muy rápidos dentro del
cuadro o panorámicas rápidas, no se puede solucionar, solo disminuir aumentando la velocidad de
lectura del CMOS. Los CCD no presentan este problema porque, como también vimos
anteriormente, todos los píxels almacenan la información simultáneamente para que sea extraída;
este procedimiento se denomina global shutter.
El rolling shutter también se puede presentar cuando se emplean fuentes de iluminación pulsantes
o que emitan destellos de muy corta duración, como por ejemplo los flashes. Al durar la
iluminación menos que el tiempo de lectura del CMOS, parte del cuadro puede quedar con un
nivel de exposición diferente que el resto.

Almacenamiento de las imágenes electrónicas en video

Existen dos maneras de guardar la información de cada fotograma de un video, a saber:

 Sistema entrelazado: este sistema fue desarrollado para la televisión debido a que ésta posee una
capacidad limitada de transmisión de datos. Para lidiar con este problema, se decidió separar la
imagen de cada fotograma en dos campos. En el primer campo se registran las líneas impares (1,
3, 5, 7, etc.) de la imagen, en el segundo las líneas pares (2, 4, 6, 8, etc.). De esta forma se reduce
la cantidad de información que se envía. En los televisores, se muestran primero las líneas
impares de cada fotograma y a continuación las pares. Un segundo, a 25 fps, está compuesto por
50 campos. Para poder hacer esto, la cámara realiza el proceso en dos tiempos: primero, captura
un fotograma y extrae las líneas impares; a continuación, captura otro y extrae las líneas pares.
Esto significa que hay una diferencia de tiempo entre la captura de cada campo lo cual representa
un problema. Supongamos el caso de registrar movimientos muy rápidos delante de cámara: el
sujeto puede haberse desplazado entre ambas capturas, lo cual significa que al juntar ambos
campos para reconstruir el fotograma las dos imágenes no coincidirán y sus contornos se verán
borrosos. Este problema es muy notable cuando se tiene que recortar una imagen en croma key en
postproducción. En la cámara, este sistema está indicado con la letra i, por interlaced,
„entrelazado‟ en inglés, por ejemplo 50i.

 Sistema progresivo: en este sistema. el fotograma se registra completo luego de la captura. No


tiene los problemas del entrelazado en cuanto a las diferencias de tiempo ya que la captura se
realiza en una sola exposición. En la cámara este sistema está indicado con la letra p, por
progressive, „progresivo‟ en inglés, por ejemplo 25p.

Dispositivos de almacenamiento

La información de las imágenes capturadas electrónicamente puede almacenarse, actualmente, en los


siguientes dispositivos:

Grabación magnética

La grabación magnética es uno de los métodos más empleados en la actualidad, incluye las cintas de
video y los discos rígidos.

 Cinta de video
La cinta se desplaza, a velocidad constante, ante una cabeza de grabación (Fig. 16). Esta recibe
la señal de video que genera un campo magnético, proporcional a esa señal, que queda retenido
en la emulsión de la cinta. La estructura de la cinta es parecida a la de los materiales fotográficos:
posee un soporte y una emulsión, que en lugar de haluros de plata tiene partículas metálicas. Estas
partículas son las encargadas de magnetizarse y retener el campo generado por la cabeza de
grabación. En el caso del video, la grabación es helicoidal, lo cual significa que se graba sobre la
cinta no longitudinalmente sino diagonalmente. Esto permite tener una alta velocidad de
grabación sin aumentar la velocidad de la cinta. Para la reproducción, la cinta pasa nuevamente
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 19

frente a una cabeza de lectura que lee los pequeños campos magnéticos almacenados en la cinta y
restituye la señal de video.

Fig. 16

Los campos magnéticos almacenados en la cinta son frágiles y con el tiempo pueden
desvanecerse. Las cintas grabadas nunca se deben colocar en la proximidad de artefactos que
posean campos magnéticos, por ejemplo parlantes de audio, ya que éstos pueden modificar, o
borrar, la información almacenada.

 Discos rígidos
Funcionan con el mismo principio: simplemente se reemplaza la cinta por un disco que gira y es
recorrido por la cabeza de grabación / lectura. Los discos rígidos tienen gran capacidad de
almacenamiento de datos y una gran velocidad de lectura.

Tarjetas de memoria

En las tarjetas, los datos se almacenan en celdas de memoria grabadas en un soporte de silicio y son no
volátiles, es decir que no necesitan de alimentación eléctrica para retener la información. A diferencia de
los sistemas de grabación de información magnéticos, que implican partes móviles (la cinta se desplaza o
el disco gira), las tarjetas de memoria no poseen partes móviles lo cual las hace menos frágiles. Por su
robustez y reducido tamaño son ideales para ser incorporadas en cámaras, tanto fotográficas como
cinematográficas. Se caracterizan además por tener un bajo consumo de energía.

Visualización de las imágenes electrónicas

Existen varios caminos para visualizar las imágenes electrónicas: pueden ser impresas sobre papel
fotográfico o papel común, ser visualizadas en un monitor de video o incluso ser transferidas a un
negativo para obtener copias de proyección cinematográfica.
Para visualizar una imagen almacenada, lo que se debe hacer es volver a colocar la información
obtenida en el momento de la captura en el lugar que le correspondía en la toma. Por ejemplo: la
información del píxel 1 fila 1 de la imagen capturada debe aparecer en esa posición del monitor para que
se reconstruya correctamente la imagen.
En video, así como en fotografía fija, lo más frecuente es visualizar las imágenes en monitores.
Actualmente existen varios tipos de monitores, a saber:
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 20

Monitores CRT:

Fig. 17

La sigla CRT significa Cathode Ray Tube, „tubo de rayos catódicos‟. En este sistema, la pantalla está
recubierta en su parte interna por una capa de fósforo que tiene la capacidad de brillar, por fluorescencia,
si se la toca con un haz de electrones (Fig. 17). Este haz, generado en el tubo por un electrodo y guiado
por electroimanes, recorrerá, barrerá, la pantalla línea por línea, empezando por el ángulo superior
izquierdo, volcando la información que tenemos de la imagen. Recordemos que esta información estaba
ordenada en líneas y píxels, línea 1 píxel 1, 2, 3, etc., línea 2 píxel 1, 2, 3, etc. Podemos decir que el haz
de electrones va “pintando” en la pantalla la imagen línea por línea.
Las desventajas de los CRT son su alto consumo de energía y la deformación de la imagen al ser la
pantalla ligeramente curva. En la actualidad ya no se emplean.

Monitores de Plasma:

En los monitores de plasma, cada píxel es un pequeño neón, una pequeña fuente de luz. Esto posibilita
obtener imágenes sumamente brillantes y con un buen contraste.
El principal inconveniente en este tipo de monitores es que, con el tiempo, el gas encerrado en cada
uno de los neones puede escapar, ocasionando que éstos no puedan encenderse. Esto origina puntos
negros en la pantalla que son permanentes, este problema no tiene solución y se debe cambiar la pantalla
completa. Por sus características, estos monitores son difíciles de fabricar en pequeño tamaño.
Estos monitores son muy delgados, ya que no requieren un tubo.

Monitores LCD:

La sigla LCD significa Liquid Crystal Display, „pantalla de cristal líquido‟. Estos monitores funcionan
en base a la capacidad de algunos materiales de girar el ángulo de polarización de la luz, en este caso los
cristales líquidos. En cada píxel, el cristal líquido está entre dos polarizadores cuyos ejes están a 90º uno
del otro. En condiciones normales, estos polarizadores cruzados no dejarían pasar la luz, pero el cristal
líquido entre ellos, gira el plano de polarización de la luz 90º y por lo tanto permite el paso de la luz (Fig.
18).
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 21

Fig. 18 Píxel LCD sin carga Fig. 19 Píxel LCD con carga

Aplicando una carga eléctrica al cristal líquido, mediante dos electrodos (Fig. 19), éste varía el ángulo en
que gira el plano de polarización modificando de esta forma la cantidad de luz que deja pasar. Los LCD
no generan luz, la imagen se ve sobre un fondo que debe ser iluminado artificialmente. Inicialmente, se
utilizaba un neón o un tubo fluorescente para iluminar este fondo; actualmente, éstos han sido
reemplazados por fuentes LED o QD-LED (ver Monitores LED, a continuación), que brindan una
iluminación más pareja, una mejor reproducción del color y un menor consumo de energía.
Como los monitores de plasma, los LCD son delgados, ya que no requieren un tubo.
Su principal desventaja es que el ángulo en que se observa la pantalla puede modificar la forma en que
se ve la imagen.

Monitores LED (Light emitting diode, „diodo emisor de luz‟)

El LED es un diodo que funciona en base al fenómeno de fotoluminiscencia. Por su estructura, emite
luz monocromática, de un solo color; esto representa un inconveniente en los casos en que se necesita luz
blanca, como por ejemplo el caso de la retroiluminación de las pantallas LCD. Una forma de conseguirlo
es recubrir un LED que emite azul con fósforo amarillo y de esta manera conseguir un espectro similar al
de la luz blanca (Phosphor based LED ´LED basado en fósforo´). Otra, la más reciente, es el empleo de
los QD-LED (quantum dot LED ´LED de punto cuántico´). Los puntos cuánticos son nanocristales que
introducidos en sándwich entre los materiales del diodo, y de acuerdo a su tamaño, emiten luz de un
determinado color; esto permite controlar con mucha exactitud las componentes de la luz. En la
actualidad se emplean en la retroiluminación de algunos televisores 4K y todos los 8K.
Los LED no se pueden fabricar, por ahora, en tamaño lo suficientemente pequeño para usarse como
píxel en pantallas chicas, por lo tanto su uso se limita a las grandes pantallas empleadas para publicidad
en las calles, como fondo de escenario en recitales de música o todas aquellas aplicaciones en las que la
pantalla será observada a una gran distancia. En estas pantallas, cada pixel será un LED, azul, verde o
rojo que se prenderá o apagará dependiendo de la señal que recibe y formará la imagen. Los LED tienen
un bajo consumo de energía.

Monitores OLED (Organic light emitting diode, „diodo emisor de luz orgánico‟)

Como en el caso de los LED y el Plasma, cada pixel en estos monitores será una fuente de luz
individual. La estructura de los OLED está formada por un polímero fotoluminiscente encerrado entre dos
contactos. Cuando pasa corriente entre ambos contactos, este polímero emite luz. Inicialmente este tipo de
monitor se empleó en las pantallas de los teléfonos celulares y actualmente su uso se expandió a pantallas
más grandes. Tiene la ventaja de la facilidad de fabricación y, por ejemplo, permitir fabricar pantallas
flexibles. Este tipo de monitor consume muy poca energía.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 22

Formatos de imagen, la relación de aspecto

Cuando hablamos de formatos de imagen nos referimos a las proporciones del fotograma, la relación
entre su ancho y su alto. Esta relación se denomina relación de aspecto 8.

Ancho del fotograma


Relación de aspecto =
Alto del fotograma

En el caso del material fotoquímico, está determinada por la apertura de la ventanilla de exposición.
Esta es la máscara que determina qué superficie del material sensible se deja libre para que la luz actúe
durante la exposición. Por tal motivo la relación de aspecto también puede llamarse apertura. Las
distintas aperturas se pueden obtener sobre los diferentes pasos (film gauge en inglés) de película. El
paso es el ancho de la película sobre la que se está fotografiando o filmando. Los existentes actualmente
son:

Fotografía

35 mm

En este sistema, también llamado 135, el ancho de la película es de 35 mm y posee perforaciones sobre
ambos bordes. El fotograma ocupa, en vertical, todo el ancho de la película entre las perforaciones, y en
horizontal el equivalente a ocho perforaciones. Sus medidas son 24 mm x 36 mm y su relación de aspecto
1, 5 : 1 (Fig. 20). Se corta en rollos que permiten un máximo de 36 exposiciones.

Fig. 20

Cinematografía

35 mm

En cinematografía la película 35 mm siempre circula verticalmente y de arriba hacia abajo. La apertura


original, que se estableció para el cine mudo, ocupa, transversalmente, todo el ancho de la película entre
perforaciones, tiene una altura de cuatro perforaciones y una relación de aspecto de 1,33 : 1 (Fig. 21). Se
la denomina ventanilla muda o súper 35.

Fig. 21

8
Relación de aspecto es una traducción literal del inglés aspect ratio.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 23

Fig. 22

Con la llegada del sonido, surgió la necesidad de dejar espacio en la película para la banda de sonido
por lo cual el fotograma se angostó y, al mantener prácticamente igual la relación de aspecto, se
disminuyó su altura. Esta disminución en la altura aumentó el espacio entre los fotogramas, el
entrecuadro, permitiendo efectuar los empalmes de distintos fragmentos de película en forma más
segura. Esta apertura se llama academia y su relación de aspecto es de 1,37 : 1 (Fig. 22)

Fig. 23

La cinematografía actual emplea relaciones de aspecto más rectangulares que el formato 1, 37 : 1.


Estas aperturas tienen menor altura pero siempre respetan el ancho del fotograma academia. En la figura
23 podemos observar algunas de las aperturas más usadas en la actualidad y su relación con el formato
academia.
En la cámara cinematográfica, para modificar el formato de filmación, se cambia la ventanilla de
exposición y se coloca una pantalla de enfoque con las indicaciones de ese formato.

16 mm

El 16 mm es un paso ideal para poder filmar a un costo menor que el 35 mm. Además el hecho de que
las cámaras sean mucho más pequeñas y livianas lo hace casi insubstituible para la realización de
documentales. La evolución de las emulsiones cinematográficas ha permitido que, a pesar de lo pequeño
que es el fotograma, la calidad de imagen sea muy buena, haciendo que se pueda emplear también para la
realización de comerciales y video clips.
La película 16 mm puede tener dos perforaciones, una a cada lado del fotograma (Fig. 24), o una sola
perforación (Fig. 25). La película con doble perforación es para cámaras con doble grifa, aunque
obviamente se puede emplear también en cámaras con una grifa simple. En la actualidad, es muy difícil
encontrar cámaras de este paso con doble grifa. En general son cámaras especiales para altísimas
cadencias. Si bien se puede filmar sobre material con doble perforación o simple perforación, el positivo
siempre tiene una sola perforación ya que se requiere uno de los bordes de la película para colocar la
banda de sonido.
El formato 16 mm estándar tiene una relación de cuadro de 1:1,37. Esta relación de cuadro lo hace
muy útil para las realizaciones para televisión 4 x 3 (1 : 1,33).
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 24

Fig. 24

Fig. 25

Fig. 26

Para postproducción electrónica, el formato que más se emplea es el Súper 16 (Fig. 26). En éste, el
fotograma se ensancha ocupando el espacio de la banda de sonido. Esto nos da una relación de cuadro de
1 : 1,66. El Súper 16 con su mayor superficie de negativo entrega una calidad de imagen superior a la del
16 mm estándar.

65 mm

El sistema 65 / 70 mm es el paso de mayor tamaño que se emplea en cinematografía. El negativo de


cámara tiene 65 mm de ancho y el positivo 70 mm, el ancho adicional de éste se emplea para la banda de
sonido. Este formato tiene el mismo tamaño y separación de las perforaciones (pitch) que el negativo de
35 mm. Si bien su empleo es cada vez menos frecuente, por su costo fundamentalmente, sigue siendo el
sistema que posibilita la mejor resolución de imagen en cine. La calidad de imagen de este formato es
excelente ya que no sólo la superficie del negativo es más de dos veces y media la de uno de 35 mm (con
una óptima relación imagen grano) sino que el factor de ampliación en proyección es sensiblemente
inferior.
En la actualidad existen dos aperturas posibles, a saber:
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 25

Apertura 5 / 70

En este sistema, la película se desplaza verticalmente, de arriba hacia abajo, como en 35 mm. El
fotograma ocupa cinco perforaciones. En la Fig. 27 podemos observar el negativo, con un ancho de 65
mm, y una relación de aspecto de 2,2 : 1.
El positivo, en cambio, tiene un ancho de 70 mm y el fotograma una relación de aspecto de 2.2 : 1, que
es el de proyección. En el gráfico, las bandas de sonido están indicadas en gris. Estas son magnéticas, no
ópticas como en 35 mm, y permiten 6 canales de audio.
En general, este formato se emplea con lentes anamórficos que permiten llegar a relaciones de aspecto
de 2,35 : 1 o más.

Fig. 27

Apertura 15 / 70

Fig. 28

Es el negativo de mayor tamaño que se emplea en cinematografía (Fig. 28). En este caso, la película
se desplaza horizontalmente, de derecha a izquierda viéndola desde el lado de la emulsión, y el fotograma
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 26

ocupa 15 perforaciones con una relación de aspecto de 1,33 : 1. En la actualidad, su uso está limitado al
sistema IMAX y a algunas tomas que requieran postproducción compleja.

Aperturas electrónicas

En electrónico, la relación de aspecto determina las proporciones del dispositivo de captura, en los
CCD, o del área que se toma en cuenta para extraer los datos en los CMOS.
Los pasos, que como hemos visto anteriormente, se reducían a 16, 35 y 65 mm en el negativo, no
existen en el sistema electrónico: en éste podemos tener toda una diversidad de tamaños de dispositivos
de captura. Cabe aclarar que el tamaño del dispositivo es independiente de su resolución. En la tabla 1 se
pueden apreciar algunos de los empleados en fotografía y cinematografía. Se debe tener en cuenta que las
medidas de la tabla sólo incluyen los píxels efectivos del dispositivo de captura.

Tamaño Diagonal Ancho Alto Relación de


mm mm mm aspecto
1 / 8” 2 1,6 1,2 4x3
1 / 6” 3 2,4 1,8 4x3
1 / 4” 4 3,2 2,4 4x3
1 / 3” 6 4,8 3,6 4x3
1 / 2” 8 6,4 4,8 4x3
2 / 3” 10,79 9,40 5,30 16 x 9
4 / 3” 21,6 17,3 13 4x3
9
APS C 26.7 22,2 14,8 1,5 : 1
APS H 34,5 27,8 19,1 1,5 ; 1
Súper 35 cine 31,09 24,892 18,669 1,33 : 1
35 mm foto 43,3 36 24 1,5 : 1
AX3 Alexa 65 ~ 60 54,12 25,59 2,1 : 1

Tabla 1

Formatos para televisión

En televisión actualmente conviven dos relaciones de aspecto:

4 x 3 (1,33 : 1): es el formato estándar de emisión actual en SDTV.

16 x 9 (1,77 : 1): es el formato estándar de HDTV

La forma de indicar la relación de aspecto que se emplea para televisión es:

Ancho del fotograma x altura del fotograma

En la figura 29 se puede ver una comparación entre ambas relaciones de aspecto

9
APS, Advanced photo system, „sistema de fotografía avanzado‟, es un sistema creado por Kodak, Fuji, Canon,
Nikon y Minolta en 1996, para negativos. El ancho de la película es de 24 mm y tiene 3 formatos:
 H High definition, “alta definición”, 30.2 x 16.7 mm, 16:9
 C Classic, “clásico”, 25.1 x 16.7 mm, 1,5 : 1
 P Panoramic, “panorámico”, 30.2 x 9.5 mm; 3 x 1
APS también significa active pixel sensor, que es el sistema que se emplea en la actualidad en los CMOS.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 27

Fig. 29

Cuando se graba para televisión, se debe tener en cuenta que la imagen que se podrá observar en las
pantallas de los televisores hogareños no será el 100% de la registrada. Dado que los televisores van a
recortar la imagen, en el visor de la cámara están indicadas las áreas de seguridad para el encuadre (Fig.
30):

Area de seguridad de acción: indica el área visible en un televisor estándar; dentro de ésta se debe
ubicar la acción principal del plano.

Area de seguridad de títulos: indica el área para la ubicación de textos garantizando que estarán
completos en la pantalla de cualquier televisor.

Fig. 30

Cuando se filma en material negativo destinado a televisión, estas marcas de área de seguridad, sobre
todo la de acción, están indicadas en la pantalla de enfoque de la cámara.
En la actualidad, las películas son vistas tanto en televisores como en computadoras, por lo cual se
debe tener en cuenta que, en éstas últimas, aparece en la pantalla la totalidad del fotograma.

Sistemas anamórficos

El término anamórfico, que proviene del prefijo ana, „volver‟ o „hacia atrás‟, y del griego morphé,
„forma‟, indica etimológicamente, deformar una imagen para luego volverla a su estado original. Este
mecanismo se utiliza en cine para conseguir relaciones de aspecto muy anchas, lo que suele denominarse
wide screen, „pantalla ancha‟. En filmación, se emplean lentes cilíndricos que comprimen la imagen
horizontalmente un cierto porcentaje. Esta imagen luego es proyectada a través de una lente, también
cilíndrica, que la descomprime horizontalmente el mismo porcentaje permitiendo se vea en formato
normal. La compresión horizontal de la imagen permite obtener, por ejemplo, con un fotograma academia
(1,37 : 1), en 35 mm, una imagen proyectada de formato 2,35 : 1 (Fig. 31).
Estos sistemas anamórficos se pueden emplear tanto en negativo como en electrónico.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 28

Fig. 31
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 29

Óptica. La luz

La luz está tan presente en nuestras vidas que tendemos a olvidar su existencia, a tomarla como algo
simple y natural; sin embargo posee una naturaleza muy compleja, tan compleja que ha llevado siglos
desentrañar casi todos sus misterios. Desde los griegos, que postulaban que nuestros ojos emitían
corpúsculos que luego de rebotar en los objetos volvían hacia nosotros permitiéndonos ver, hasta las
teorías actuales generó grandes discusiones. En la actualidad se considera la luz posee una doble
naturaleza10, una ondulatoria o electromagnética y otra cuántica. La primera postula, que la luz se
propaga en forma de ondas. La segunda, que la luz está formada por una corriente de partículas, fotones,
que son emitidos por las fuentes de luz. Cada una da una explicación correcta de alguno de los fenómenos
concernientes a la luz. Por ejemplo: la teoría ondulatoria explica perfectamente fenómenos como la
polarización y la interferencia pero no el efecto fotoeléctrico o el comportamiento del cuerpo negro que sí
se pueden entender a través de la teoría cuántica.
Este hecho pone incómoda a la física, ya que es difícil admitir que algo puede comportarse de forma
diferente según el caso.

Para nuestro análisis de los fenómenos que se relacionan con la luz y la fotografía, aplicaremos, según
los casos, la teoría que resulte más conveniente para hacerlos comprensibles: para explicar color,
transmisión, refracción, interferencia, difracción y polarización emplearemos la teoría ondulatoria, el
efecto fotoeléctrico se explicará mediante la teoría cuántica.

La teoría ondulatoria o electromagnética

La teoría ondulatoria, como ya se ha señalado, plantea que la luz se propaga en forma de ondas
electromagnéticas y que éstas están formadas por la propagación simultánea de un campo eléctrico y uno
magnético, normales a la dirección de propagación. Las ondas se propagan en forma rectilínea a una
velocidad, en el vacío, de 300.000 Km/s aproximadamente11.
Las ondas se grafican en función de sus variaciones de energía con respecto al tiempo. Sobre el eje
vertical, su ubican las cantidades de energía y, sobre el horizontal, el tiempo. La zona alta de la onda se
denomina cresta y la zona baja valle (Fig. 1).

Fig. 1

Lo que caracteriza, y diferencia, a las ondas entre sí es su longitud de onda (λ). La longitud de onda es
la distancia entre dos puntos de una onda cuando ésta ha cumplido un ciclo completo, L en la Fig. 2.

10
Existe actualmente una teoría unificada de la luz pero, dada su complejidad matemática, escapa a los alcances de
este trabajo.
11
El concepto de propagación rectilínea, así como la velocidad de propagación, son comunes tanto a la teoría
ondulatoria como a la cuántica.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 30

Fig. 2

Las unidades que se emplean para medir la longitud de onda son el nanómetro (nm) y el Angström (Å):

1 nanómetro (nm)= 1 / 1.000.000 mm.

1Angström (Å)= 1 / 10.000.000 mm

La amplitud de onda indica la cantidad de energía que porta la onda. Se mide desde la línea de
equilibrio hasta una cresta, A (Fig. 2). También se puede indicar la amplitud de onda pico a pico que
toma en cuenta la distancia entre una cresta y un valle, App en la Fig. 2.

También se puede caracterizar una onda por su frecuencia. El valor de la frecuencia surge de la
siguiente fórmula:
𝐜
𝐅𝐫𝐞𝐜𝐮𝐞𝐧𝐜𝐢𝐚 =
𝛌
Donde:

c = velocidad de la luz

λ = longitud de onda de la luz

La unidad que se emplea para las frecuencias es el Hertz (Hz)

1 Hz = 1 ciclo / segundo

El conjunto de ondas electromagnéticas de diferentes longitudes de onda se denomina espectro


electromagnético (Fig. 3).
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 31

Fig. 3

El espectro electromagnético incluye desde ondas tan largas como las de radio, que pueden alcanza
kilómetros de longitud de onda, hasta tan cortas como los rayos X de 1 Å de longitud de onda. De todas
estas radiaciones electromagnéticas, sólo una pequeña parte, al actuar sobre nuestro ojo, produce la
sensación de luz, es decir es visible. Esta porción, que recibe el nombre de espectro visible, está
comprendida entre los 400 nm y los 750 nm de longitud de onda12. El color no es más que la respuesta de
nuestro ojo ante una determinada longitud de onda: una onda no es roja, simplemente tiene una longitud
de onda que nuestra percepción interpreta como roja.
El blanco y el negro no forman parte del espectro visible. Para que nuestra percepción interprete
blanco es necesario que el rayo de luz que llega a nuestros ojos esté formado por todas las longitudes de
onda que componen el espectro visible. Así, el blanco es la suma de todos los colores del espectro. El
negro, en cambio, es la ausencia de luz. Por lo tanto blanco y negro no se pueden llamar „colores‟.
Cuando un haz de luz está formado por radiaciones de una sola longitud de onda se dice que es
monocromático.

Entonces a cada valor de longitud de onda del espectro visible, cuando actúe sobre nuestra retina, le
corresponderá una sensación de color. Por ejemplo:

400 nm = violeta
470 nm = azul
520 nm = verde
580 nm = amarillo
600 nm = naranja
680 nm = rojo

Pasando los límites del espectro visible, encontramos dos radiaciones que, si bien no son perceptibles
para el ojo, sí lo serán para los materiales fotográficos. Por debajo de los 400 nm encontramos las
radiaciones ultravioletas y por arriba de los 750 nm las radiaciones infrarrojas.
La radiación ultravioleta, aunque no es visible, tiene efectos sobre nuestro organismo, como por
ejemplo una quemadura en la piel luego de una larga exposición al sol. Para la fotografía argéntica,
también puede constituir un problema ya que los haluros de plata, naturalmente, reaccionan al ultravioleta
y al azul. Supongamos, por ejemplo, que encuadramos un paisaje desde la cumbre de una montaña:

12
Estos valores son para una visión promedio; pueden existir diferencias de una persona a otra y en casos
particulares, como el daltonismo, puede que haya zonas del espectro a las cuales el ojo no sea sensible.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 32

nuestros ojos alcanzan a ver hasta el horizonte, pero cuando sacamos una fotografía notamos que éste se
encuentra obstruido por una capa de niebla. Esto se debe a que la gran capa de aire que hay entre la
cámara y el horizonte está reflejando ultravioleta, invisible para nuestros ojos pero registrado por la
película fotográfica. Este fenómeno se designa como niebla aérea. Para solucionar el problema, se
absorbe ultravioleta mediante filtros UV o Skylight, para fotografía en color, o amarillos, para fotografía
en blanco y negro.
La radiación infrarroja, también llamada ´radiación térmica´, es percibida por nuestro cuerpo como
calor. Si aproximamos nuestra mano a una superficie caliente sentimos el calor en la piel aun antes de
entrar en contacto con ella: es la radiación infrarroja emitida por esa superficie la que nos da esa
sensación. El infrarrojo es un problema para la fotografía electrónica ya que tanto los CCD como los
CMOS son muy sensibles a esta franja del espectro. Como solución, las cámaras electrónicas traen
incorporado de fábrica un filtro infrarrojo que impide el paso de esta radiación hacia el dispositivo de
captura.

Volviendo al espectro visible, veremos que, dependiendo de su composición, puede tener:

 Espectro continuo: si interponemos un prisma en el camino de un rayo de luz del sol, y lo


proyectamos sobre una pared blanca, sobre ésta podremos ver un arco iris, es decir el espectro
visible desplegado. Esto se debe a que, al atravesar el prisma, cada longitud de onda toma un
camino diferente. Analizando este espectro, podremos notar que, entre el violeta de las ondas
cortas y el rojo de las ondas largas, los colores van pasando de uno a otro en forma continua y no
hay franjas negras. Podemos decir que en este espectro están presentes todas las longitudes de
onda posibles entre la máxima y la mínima. Estos espectros se designan como espectros
continuos. La luz que posee esta característica también se puede denominar luz blanca, ya que el
blanco es la suma de todos los colores. Las fuentes de luz que se emplean en fotografía y cine,
tales como el sol o las lámparas de incandescencia (tungsteno), poseen espectros de este tipo.

 Espectro discontinuo: repitamos la experiencia anterior con una lámpara, por ejemplo, de vapor
de mercurio, como las que se emplean en la iluminación de las calles. El espectro que
obtendremos, a diferencia del anterior, estará interrumpido en algunas zonas por franjas negras,
sobre todo, en este caso, en la zona del rojo. Esto significa que la lámpara no está emitiendo todas
las longitudes de onda posibles dentro del espectro visible. Estos espectros se conocen como
espectros discontinuos.

Dado que sólo nos interesa el uso de la luz en fotografía y cine, todos los análisis se referirán a luces
de espectro continuo o luces blancas.

La teoría cuántica

La teoría cuántica surge del análisis de los intercambios de energía entre la luz y la materia, o sea la
emisión y la absorción de luz. Max Planck, al analizar el comportamiento del cuerpo negro (Ver
Temperatura de color), descubrió que estos intercambios se realizaban de forma discontinua y la cantidad
de energía que se transfería era siempre un múltiplo entero de una cantidad determinada, un quantum13.
O sea que una fuente de luz monocromática sólo puede ceder su energía a la materia en „paquetes‟ de 1
quantum, 2 quantums, 3 quantums, etc. Esto nos lleva a pensar que en un rayo de luz la energía no está
distribuida uniformemente en la onda electromagnética, sino concentrada en partículas, los fotones14.
Albert Einstein, basándose en Planck, logra explicar el fenómeno fotoeléctrico y define el fotón como una
partícula sin masa que tiene una energía proporcional a su frecuencia.

13
De allí que esta teoría también se denomine cuántica.
14
Una definición muy gráfica de los fotones dice que son como „paquetes de ondas‟.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 33

Fenómenos de propagación de la luz

Reflexión

El fenómeno de la reflexión de la luz ocurre cuando ésta, propagándose en un medio, encuentra en su


camino otro medio, de densidad diferente al primero, y, en el límite entre ambos, es rechazada y desviada
hacia una nueva trayectoria. Estos medios que no dejan pasar la luz se denominan opacos. La reflexión
es, posiblemente, el fenómeno más común en la relación de la luz con la materia y también uno de los
más importantes. Si los objetos no reflejaran luz hacia nuestros ojos, no podríamos ver el mundo que nos
rodea.

Hay tres tipos de reflexión:

 Reflexión difusa: es el caso más común, un haz de luz, al incidir sobre una superficie, es
reflejado en todas direcciones, en forma difusa (Fig. 4).

Fig. 4

 Reflexión especular: el haz de luz, al incidir sobre una superficie perfectamente lisa es reflejado,
sin sufrir más modificación que el cambio de dirección. El ángulo de incidencia de la luz es
siempre igual al ángulo de reflexión, I = R (Fig. 5).

Fig. 5

El caso más conocido de reflexión especular es precisamente el de los espejos.

Reflexión selectiva: para que un material refleje luz, la separación entre las partículas que lo
componen debe ser inferior, o igual, a λ / 4, o sea, a la cuarta parte de la longitud de onda de la
luz incidente. Por lo tanto, según el material del que se trate, algunas longitudes de onda, pueden
ser reflejadas o pueden ser absorbidas dependiendo de la separación de las partículas que
componen dicho material. Este es el fenómeno por el cual el mundo tiene colores. Algo es rojo
porque, de la luz blanca que recibe, refleja sólo el rojo y absorbe todas las demás longitudes de
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 34

onda. Algo es blanco cuando refleja todas las longitudes de onda que recibe y es negro cuando
absorbe toda la luz que recibe. Este es el principio de funcionamiento de los pigmentos. Es por
esta relación, λ / 4, que en la naturaleza es más fácil encontrar algo rojo, una longitud de onda
larga, que azul, una longitud de onda corta, ya que hay más materiales con sus partículas muy
separadas que lo opuesto. Los metales son excelentes reflectores porque poseen una gran cantidad
de electrones libres llenando los espacios entre las partículas que los forman. También podemos
decir que, como éste es un proceso sustractivo, ya que en él sólo se absorben ciertas longitudes de
onda, si las longitudes de onda que componen el color de un objeto no están presentes en la luz
que lo ilumina, éste se verá negro, puesto que no tendrá luz para reflejar hacia nuestros ojos.
Dado que “nada se pierde, todo se transforma”, la luz absorbida durante este proceso se convierte
en otro tipo de energía, generalmente calor. Este calor es el que, con el tiempo, produce la
decoloración de los pigmentos. Si dejamos una copia fotográfica expuesta al sol durante
suficiente tiempo, veremos cómo los tintes que forman la imagen se decoloran; esto ocurre
también con las copias cinematográficas que están expuestas a la luz del proyector en las
sucesivas exhibiciones.

Por lo expuesto podemos afirmar que el color del mundo que nos rodea no es más que el juego de la
luz, la materia y nuestros ojos.

En la naturaleza es muy frecuente que estos casos de reflexión se encuentren combinados. Por
ejemplo, la reflexión de una superficie no es perfectamente especular sino que también produce algo de
difusión; esto da lugar a lo que denominamos aspecto “satinado” o “semimate”. Esta superficie satinada, a
su vez, puede trabajar selectivamente y por lo tanto parecer de determinado color.

Transmisión

El fenómeno de la transmisión de la luz ocurre cuando ésta, propagándose en un medio, encuentra en


su camino otro medio, de densidad diferente al primero, y consigue atravesar el límite entre ambos,
continuando su desplazamiento (Fig. 6). Los medios que son permeables a la luz se denominan
transparentes.

Fig. 6

 Transmisión difusa

En el caso de la transmisión difusa, la luz logra atravesar el nuevo medio pero en este proceso es
dispersada, difundida, en distintas direcciones. Es el caso de los materiales translúcidos.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 35

Fig. 7

 Transmisión selectiva
Es el caso de los vidrios coloreados, por ejemplo un vidrio azul. De la luz blanca que incide sobre
él, transmite las longitudes de onda correspondientes a su color (azul) y absorbe el resto
transformándolo en calor (Fig. 8). Como en el caso de la reflexión selectiva, este proceso es
sustractivo: el vidrio azul no agrega azul a la luz sino que sustrae toda luz que no sea azul.

Fig. 8

Refracción

Cuando un rayo de luz incide oblicuamente sobre un medio transparente de diferente densidad al que
transitaba, es transmitido pero, en el cambio de medio, sufre una desviación de su trayectoria. Este
fenómeno de cambio de trayectoria se denomina refracción. Si el rayo de luz incide perpendicularmente
al cambio de medio, se transmite sin modificar su trayectoria (Fig. 6).
Por ejemplo, un rayo de luz monocromático que se propaga a través del aire debe atravesar un vidrio
(Fig. 9). En la figura, se puede apreciar que el rayo de luz incidente (a) que se está propagando por el aire,
al encontrarse con el vidrio, que es de mayor densidad que el aire, se desvía (b) hacia la normal al punto
de incidencia (n1). Al pasar nuevamente al aire, que es de menor densidad que el vidrio, el rayo (c) se
desvía alejándose de la normal al nuevo punto de incidencia (n2).
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 36

Fig. 9

El ángulo de desviación está en relación directa con la diferencia de velocidad de la luz en los distintos
medios. Cuanto más denso sea el medio, más lentamente se desplazará la luz y viceversa. Esta relación se
denomina índice de refracción. De acuerdo a la ley de Snell15, el índice de refracción de un medio surge
de la siguiente fórmula:

𝐜
𝐧=
𝐯
donde:

n = índice de refracción del medio considerado


c = velocidad de la luz en el vacío
v = velocidad de la luz en el medio considerado

Fig. 10

15
Esta ley lleva su nombre por Willebrord Snell van Royen, llamado Snellius, quien la enunció en 1621. También se
la conoce como ley de Snell-Descartes, ya que René Descartes, desconociendo el trabajo de Snell, llegó a la misma
conclusión y la publicó en 1637 en su Discurso del método.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 37

Luego, también de acuerdo a la ley de Snell, la relación de desviación entre el rayo incidente y el
refractado (Fig. 10) surge de la siguiente fórmula:

𝐧𝟏 𝐬𝐞𝐧 𝛂 = 𝐧𝟐 𝐬𝐞𝐧 𝛃

Donde:

n1 = índice de refracción del primer medio

α = ángulo del rayo incidente con respecto a la normal

n2 = índice de refracción del segundo medio

β = ángulo del rayo refractado con respecto a la normal

La refracción es un fenómeno de la propagación de la luz sumamente importante para la fotografía y el


cine, ya que la mayoría de las lentes que se emplean en la captura de imagen funcionan en base a ésta.
Los objetivos que trabajan por refracción llevan el nombre de refractores.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 38

Temperatura de color

Hemos definido la luz blanca como aquella que posee todas las longitudes de onda posibles entre los
límites del espectro visible. Ahora veremos que puede haber diferencias entre la luz blanca proveniente de
distintas fuentes de iluminación.

Supongamos que caminamos por una calle en hora mágica16: nos parecerá que las luces que vemos a
través de las ventanas de las casas son cálidas, con un cierto tinte amarillo-rojizo. Si entráramos en una de
esas casas, el interior se seguiría viendo cálido durante algunos segundos y luego esta sensación
desaparecería y nuevamente la luz nos parecería neutra17. Si entonces, ya en el interior, miráramos por la
ventana, el exterior ahora nos parecería azulado. La pregunta es: ¿Por qué lo que antes veíamos cálido
ahora se ve neutro y lo que se veía neutro ahora se ve azulado? Lo que ha ocurrido es que nuestro cerebro
ha corregido las dominantes, operación inconsciente que realiza en algunos segundos, permitiéndonos
ver neutro en dos situaciones iluminadas por fuentes diferentes. Ambas luces, la del sol, luz día, y la de
las lámparas de filamento, luz artificial o de tungsteno, si bien son blancas, o sea de espectro continuo,
son distintas entre sí ya que tienen la energía repartida de forma diferente dentro de sus respectivos
espectros.
Por ejemplo, si midiéramos la cantidad de energía en cada zona del espectro de la luz día, notaríamos
que, si bien están presentes todos los colores, la zona del azul tiene más energía que la zona del rojo. En
cambio, si hiciéramos lo mismo con la luz de tungsteno, se invertiría la proporción y la zona
correspondiente al rojo tendría más energía que la del azul. En la Fig.18 se grafican, aproximadamente,
estas diferencias: sobre el eje horizontal tenemos las longitudes de onda y sobre el vertical la cantidad de
energía que les corresponde. La forma de hacer mensurables estas diferencias entre las distintas fuentes
de iluminación será la temperatura de color

Fig. 18

Para entender lo que es la temperatura de color hagamos el siguiente razonamiento: sabemos que si
calentamos un trozo de hierro, al llegar a cierta temperatura éste se pone incandescente. Primero “al

16
La hora mágica es la hora del crepúsculo, tanto matutino como vespertino, cuando el sol todavía no salió o ya se
ocultó, pero el cielo aún está iluminado.
17
El término neutro, con respecto a la luz y el color, nos indica que todos los colores están en la proporción
correcta; un gris es neutro porque no es ni rojizo, ni verdoso, ni azulado. Cuando tenemos un exceso de un color,
decimos que existe una dominante.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 39

rojo” y, luego, si continuamos elevando la temperatura, “al rojo blanco”. Este fenómeno se produce
porque los átomos del hierro, al calentarse, comienzan a emitir energía. Al principio, emiten radiaciones
infrarrojas que no podemos ver pero sí sentir como calor radiado. Luego, al aumentar la temperatura, el
hierro se pone al rojo, comienza a emitir ondas dentro del espectro visible, ondas largas que vemos como
rojas. Al continuar elevándose la temperatura, va emitiendo radiaciones de longitud de onda cada vez más
corta, hasta que emite el espectro completo y entonces vemos blanco. Es basándose en este fenómeno
como se establecerá la temperatura de color.
El procedimiento sería el siguiente: En primera instancia, obtengamos el espectro de, por ejemplo, la
luz del sol, que es la fuente cuya temperatura de color queremos establecer, y registremos las cantidades
de energía que tiene en cada una de sus zonas. Imaginemos ahora, una esfera hueca, que posee una
pequeña perforación. Toda luz que penetre en el interior de la esfera por el orificio será absorbida por las
múltiples reflexiones de la pared interna; por lo tanto podríamos decir que el interior es perfectamente
negro, de ahí su nombre: cuerpo negro18. Calentemos ahora este cuerpo negro. Al llegar a determinada
temperatura se pondrá incandescente y por el orificio comenzará a salir luz. Analicemos el espectro de
este haz de luz emitido y comparémoslo con el obtenido de la luz del sol. A cierta temperatura ambos
espectros serán iguales. Esta será la temperatura de color de la luz solar. Podemos decir entonces que:

La temperatura de color de una fuente es la temperatura a la que hay que elevar un cuerpo
negro para que emita luz de composición espectral idéntica a la de la fuente en cuestión.

La temperatura de color siempre se expresa en grados Kelvin (0 K = - 273 º C). En el caso de la luz
solar, la temperatura a la que habría que elevar el cuerpo negro sería de 5500 K. Para la luz de tungsteno
de uso fotográfico, en cambio, sería de 3200 K.

Las siguientes son las temperaturas de color de algunas fuentes de iluminación:

Estándar luz día: 5500 / 5600 K19


Estándar luz artificial: 3200 K
Lámpara doméstica de 200 w.: 2800 K, aproximadamente
Vela: 1900 K, aproximadamente

Considerando lo visto se puede decir que:

A mayor temperatura de color más energía azul en la luz


A menor temperatura de color más energía roja en la luz

El instrumento que se emplea para medir la temperatura de color es el termocolorímetro.

Balance cromático

Si bien nuestra percepción puede neutralizar las diferencias entre fuentes de distintas temperaturas de
color, no ocurre lo mismo con los materiales sensibles fotográficos. Por ejemplo, una emulsión negativa
color pensada para ser empleada en condiciones de luz día, o sea balanceada para luz día, nos dará una
dominante roja si la exponemos con luz artificial. Inversamente, una emulsión balanceada para
tungsteno nos dará una dominante azul si la utilizamos en luz día. Los materiales fotoquímicos negativos
color se fabrican en dos estándares de balances cromáticos:

Luz día: balanceado para 5500 K

Tungsteno: balanceado para 3200 K

18
También se lo puede llamar radiador perfecto o radiador planckiano.
19
5500 K es el estándar luz día para fotografía color argéntica, en fotografía color electrónica éste es 5600 K.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 40

De esta forma, el fotógrafo, o el director de fotografía, tendrán que elegir qué emulsión cargarán en su
cámara dependiendo de la situación de toma que enfrentan.

El caso de la fotografía electrónica es diferente ya que las cámaras tienen incorporado un solo
dispositivo de captura que tendrá que obtener imágenes neutras en las diversas situaciones de temperatura
de color que puedan presentarse. Para resolver este problema actualmente existen las siguientes
soluciones:

 Cámaras que tienen su balance cromático en 3200 K (tungsteno) y traen incorporados filtros de
conversión para corregir la respuesta de color en otras situaciones de temperatura de color.
Además permiten corregir la respuesta de color mediante un balance de blanco.

 Cámaras que tienen su balance cromático en un valor intermedio entre los 3200 K y los 5600 K y
que se ajustan a la temperatura de color de la toma mediante un balance de blanco.

El balance de blanco es una operación que se realiza con la cámara de la siguiente forma:

1. Se encuadra con la cámara una superficie blanca iluminada uniformemente por la luz de toma.

2. Se le pide a la cámara que realice el balance de blanco. Generalmente, en la cámara existe un


botón asignado para este pedido, usualmente indicado como WB (white balance). En esta
operación, la cámara analiza la señal y determina si las componentes de ese blanco están en la
proporción adecuada para una reproducción neutra. Si encuentra algún color dominante, o sea una
señal mayor que la esperada, corrige el defecto para así obtener una reproducción neutra del
color.

En general, todas las cámaras, además del balance de blanco, tienen opciones de balances preseteados
de fábrica.

Filtros de conversión de temperatura de color

Los filtros de conversión sirven para pasar de un estándar de temperatura de color a otro. Puede
ocurrir que tengamos que hacer una toma en exteriores, luz día, con un material sensible balanceado para
tungsteno. Por lo dicho antes, sabemos que, en esas condiciones, la toma tendrá una dominante azul. Para
evitar esta dominante, debemos colocar delante del objetivo de cámara un filtro de conversión que
transformará la temperatura de color de la luz día en la del tungsteno. De esta forma la toma quedará
neutra. En la tabla 1 tenemos las denominaciones 20 de los filtros conversores para usar en cámara.

Fuente de iluminación Balance cromático del material sensible Filtro

Luz día 5500 K Tungsteno 3200 K 85 B

Tungsteno 3200 K Luz día 5500 K 80 A

Tabla 1

Puede darse el caso, también, que tengamos que mezclar fuentes de iluminación de diferentes
temperaturas de color, por ejemplo, en un interior día iluminado por el sol, tener que emplear luces de
tungsteno para iluminar a los personajes. Sabemos que usando un material sensible con un balance
cromático luz día, los personajes, iluminados con tungsteno, tendrían una dominante roja y la zona

20
Para nombrar los filtros de cámara empleamos la denominación Wratten que es la más utilizada.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 41

iluminada por el sol se vería neutra. Inversamente, con un balance cromático tungsteno, los personajes se
verían neutros y las zonas iluminadas por el sol tendrían una dominante azul. En este caso, existen dos
posibilidades de corrección:

 Convertir luz día a tungsteno filtrando la luz del sol a través de las ventanas.

 Convertir el tungsteno en luz día filtrando la luz de los faroles.

En el caso de filtrar las fuentes de iluminación, los filtros de conversión se denominan como se indica
en la tabla 2

Fuente de iluminación Balance cromático del material sensible Filtro

Luz día 5500 K Tungsteno 3200 K CTO


Full

Tungsteno 3200 K Luz día 5500 K CTB


Full

Tabla 2
Estas denominaciones significan:

CTO = Color Temperature Orange

CTB =. Color Temperature Blue

Fotometría. Unidades de medición de la luz

Intensidad luminosa

La intensidad luminosa caracteriza a la fuente de luz, es la cantidad de energía que emite en una
dirección determinada, independientemente de lo que esté iluminando. La unidad que se emplea para
definirla es la candela (cd). Una candela equivale a la luz que emite en una dirección determinada una
fuente monocromática, con una longitud de onda de 550 nm, que tiene una energía radiante de 1 / 683
watts por estereorradián. Para tener una idea de la cantidad de luz de la que estamos hablando podemos
decir que es la luz que emite una vela de cera, de allí el nombre de la unidad.

Flujo luminoso

El flujo luminoso es la potencia de luz emitida, dentro del espectro visible, por una fuente dentro de un
determinado ángulo. La unidad que se emplea para mensurarlo se denomina lumen (lm). Un lumen es el
flujo luminoso producido por una fuente de una candela en un ángulo de un estereorradián.

Iluminancia

La iluminancia, que se podría definir como la intensidad de iluminación, se refiere la luz que actúa,
incide, sobre una superficie. Depende de la intensidad luminosa de la fuente, la distancia de ésta a la
superficie iluminada y el ángulo en que la luz incide sobre ésta. Su unidad es el lux o candela-metro. Un
lux es la iluminancia que produce una fuente de una candela sobre una superficie que dista 1 m de la
fuente en el punto en el que el rayo de luz es perpendicular a la superficie. En fotometría fotográfica se
emplea usualmente como unidad de iluminancia el foot-candle (fc), que es la iluminancia producida por
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 42

una fuente de una candela a un pie (1 pie = 0,3048 m) de distancia. La equivalencia entre lux y foot-
candle es la siguiente:

1 fc = 10,76 lux

La intensidad de iluminación tiene relación directa con la distancia que separa la fuente del punto a
iluminar. La ley el cuadrado inverso establece que la intensidad de iluminación es inversamente
proporcional al cuadrado de la distancia entre la fuente y la superficie.

𝐈
𝐈𝐥𝐮𝐦𝐢𝐧𝐚𝐧𝐜𝐢𝐚 =
𝐝𝟐
Donde:

I: intensidad luminosa de la fuente, en candelas

d: distancia entre la fuente y la superficie a iluminar, en metros.

Por ejemplo, una fuente de 100 candelas dará una intensidad de iluminación de 100 lux a un metro, de
25 lux a 2m, 11,1 lux a 3m, 6,25 lux a 4m (Fig. 19).

Fig. 19

El ángulo en que incide la luz modifica el valor de la iluminancia de acuerdo la siguiente fórmula (ley
de Beer-Lambert):

𝐈
𝐈𝐥𝐮𝐦𝐢𝐧𝐚𝐧𝐜𝐢𝐚 = 𝐜𝐨𝐬 𝛂
𝐝𝟐
donde:

I: intensidad luminosa de la fuente, en candelas

d: distancia entre la fuente y la superficie a iluminar, en metros

α : ángulo de incidencia de la luz sobre la superficie

Luminancia

La luminancia se define como la cantidad de luz que refleja una superficie. Depende de la cantidad de
luz incidente, la iluminancia, y del coeficiente de reflexión, que está dado por las características de
reflexión de dicha superficie. La unidad que se emplea para definirla es la candela por metro cuadrado
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 43

(cd / m2)21, ésta es la luminancia que produce una superficie, perfectamente reflectante y difusora, que
22
recibe una iluminancia de 1 lux. Otra unidad que se emplea es el foot-lambert (fL) , que corresponde a
la luminancia que produce una superficie, perfectamente reflectante y difusora, que recibe, en este caso,
una iluminancia de 1 foot-candle. La luminancia es sumamente importante desde el punto de vista de la
fotografía dado que el cálculo de la exposición se basará en las luminancias del sujeto frente a cámara.

21
También se puede llamar nits a la candela por metro cuadrado.
22
Esta unidad lleva su nombre en homenaje al físico Johann Heinrich Lambert (1728–1777).
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 44

Óptica. Formación de las imágenes

Dentro del sistema de reproducción fotográfica las lentes se encargan de proyectar una imagen, de lo
que está frente a la cámara, sobre el material fotosensible para que éste pueda capturarla. Si bien esto
parece una simple operación mecánica, tiene fundamental importancia sobre el resultado fotográfico,
tanto desde el punto de vista técnico como estético. Desde el punto de vista técnico, podemos decir que el
rol de las lentes es primordial: ningún material sensible puede capturar una imagen de calidad superior a
la que le proyecta el objetivo en el momento de la exposición. Así, el mejor material sensible y el mejor
cuerpo de cámara, con un mal objetivo, nos entregarán imágenes de calidad mediocre. Desde el punto de
vista estético, es fundamental considerar que el mismo plano realizado con diferentes lentes „contará‟ de
diferente manera lo que se pretende mostrar, ya que éstas relacionarán de forma diferente los elementos
integrantes del cuadro. Por lo tanto el tipo de lente que se emplee en la toma tendrá que ser tomado en
cuenta en el momento del diseño y construcción de las imágenes

Clasificación de las imágenes

Las imágenes se pueden clasificar de la siguiente forma:

 Imágenes reales: son todas aquellas que pueden ser recogidas por una pantalla. Un ejemplo es la
imagen que vemos proyectada sobre la pantalla en el cine. Evidentemente son las que más
interesan a la fotografía, ya que el objetivo de la cámara deberá proyectar una imagen sobre el
material sensible que actúa como “pantalla”. Las imágenes reales son producidas por los sistemas
ópticos convergentes, por ejemplo una lente biconvexa (Fig. 1).

Fig. 1

Como vemos en la figura los rayos de luz son desviados hacia el punto F, esto se denomina
convergencia. Todos los objetivos fotográficos son convergentes y generan imágenes reales.

 Imágenes virtuales: son todas aquellas imágenes que no pueden ser recogidas sobre una pantalla,
por ejemplo la imagen que vemos en un espejo plano. Estas imágenes son generadas por los
sistemas ópticos divergentes, por ejemplo una lente bicóncava (Fig. 2).

Fig. 2
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 45

En la figura vemos que los rayos de luz, al atravesar una lente bicóncava, modifican su trayectoria
separándose entre ellos; en este caso decimos que hay divergencia.

En el presente trabajo solo nos ocuparemos de las imágenes reales, y por lo tanto de los sistemas
convergentes, puesto que son las que atañen a la captura de imagen en fotografía y cine, y sólo
analizaremos su formación con lentes que trabajan por refracción, refractoras, sin ocuparnos de las
lentes catadióptricas 23.

Formación de las imágenes

Para comprender el mecanismo de formación de las imágenes reales recurriremos a la óptica


geométrica. Esta, si bien solo sirve para lentes delgadas, sin mucha curvatura, y no toma en cuenta
algunos problemas ópticos, como la difracción, permite trabajar en forma gráfica.

Supongamos una lente biconvexa (Fig. 3):

Fig. 3

Sobre ésta podemos reconocer:

E: Eje óptico.
o: Centro óptico.
F: Foco principal imagen.
F´: Foco principal objeto.
DF: Distancia focal.

Y tres rayos de luz cuyo recorrido es siempre predecible:

a: Todo rayo de luz paralelo al eje óptico se desvía hacia el foco principal imagen (F).
b: Todo rayo de luz que pase por el centro óptico (o) continúa su camino sin desviarse.
c: Todo rayo de luz que pase por el foco principal objeto (F´) se desvía en forma paralela al eje óptico.

En base a estos elementos analizaremos cómo se forma una imagen. Supongamos una lente biconvexa,
como en el caso anterior y un objeto O frente a ella (Fig. 4). Sabemos que cada uno de los puntos del

23
Las lentes catadióptricas trabajan combinando reflexión y refracción.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 46

objeto O está reflejando parte de la luz que recibe en forma difusa. De todos estos puntos, tomaremos uno
(PO), que denominaremos punto objeto, y, de todos los rayos de luz que éste refleja, elegiremos aquellos
cuyo recorrido ya conocemos. Como podemos apreciar, los tres rayos de luz convergen en el punto PI,
que llamaremos punto imagen. Si colocáramos en este punto una pantalla, o un material sensible,
podríamos recoger la imagen del objeto O. A cada uno de los puntos del objeto le va a corresponder un
punto imagen en este plano. Esta correspondencia punto objeto – punto imagen hace que la imagen sea
nítida, o como decimos habitualmente “está en foco”. La imagen obtenida estará invertida vertical y
horizontalmente. Este plano, donde la imagen se está formando en foco se denomina plano focal y la
distancia entre éste y el objeto enfocado, distancia de enfoque.

Fig. 4

Ahora, conservando el esquema de la Fig. 4, igual distancia focal e igual posición de la pantalla,
modifiquemos la posición del objeto O (Fig. 5).

Fig. 5

Podemos observar que al modificarse la posición del objeto con respecto a la lente el punto de
convergencia de los rayos de luz (PI) también ha cambiado de posición y se ubica por delante de la
pantalla. Los haces de luz continúan su camino y comienzan a separarse. Debemos aclarar que, si bien
hemos dibujado sólo tres rayos de luz, se trata en realidad de un cono de rayos, cuyo vértice es el punto
PI. Pasado este punto, el cono vuelve a abrirse y, cuando intercepta la pantalla, en lugar de un punto (el
vértice) obtenemos un círculo (una sección del cono). La imagen proyectada, entonces, estará formada
por círculos de imagen correspondiendo a puntos del objeto original. La imagen no será por lo tanto
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 47

nítida: estará “fuera de foco“. Para salvar este inconveniente, los objetivos poseen un sistema de enfoque
que permite modificar su distancia al material sensible (la pantalla), desplazándose hacia adelante o atrás
sobre el eje óptico, de acuerdo a la distancia a la que se encuentra el objeto a fotografiar, posibilitando así
obtener imágenes nítidas. Esta operación se denomina enfoque o puesta a foco 24. Los objetivos de
fotografía y cine poseen un anillo de enfoque en el que están indicadas las distancias de enfoque,
girándolo se elije a qué distancia se desea tener foco. Las distancias de enfoque se toman a partir del
símbolo ϕ que está grabado en el cuerpo de la cámara; éste indica la posición del plano focal.
La operación de enfoque, sobre todo en cine, implica tomar decisiones importantes, por ejemplo dónde
poner el foco en un encuadre en el que varios actores están ubicados a distintas distancias de la cámara;
generalmente el foco se pone en el que tenga más peso dramático en ese plano. Es por esta razón que se
emplea foco manual, operación que realiza el foquista, y no foco automático, ya que éste último no
25
podría discriminar quién, o qué, es más importante dentro del cuadro .

Profundidad de campo

Como hemos visto, desde el punto de vista de la óptica, sólo podemos obtener imágenes nítidas de los
objetos que se encuentren en un plano ubicado a la distancia a la que hemos enfocado el objetivo. Es decir
que si tenemos el foco puesto a 10 metros, los objetos que estén a 9,90 m y 10,10 m estarán desenfocados.
Entonces, ¿cómo puede ser que al fotografiar un paisaje podamos tener a foco el árbol que se encuentra a
10 m. de la cámara y las montañas del fondo que distan kilómetros?
Este fenómeno se denomina profundidad de campo y, como veremos, es posible no gracias a la
óptica sino a una particularidad de nuestra visión. Supongamos, por ejemplo, que dibujamos sobre una
superficie un círculo negro de 1 mm de diámetro. Un observador situado a 2 m. de distancia verá sobre la
superficie un punto, es decir que “confundirá” el circulo con un punto. Si ahora situamos al observador a
25 cm. de distancia, posiblemente verá un pequeño círculo. Esto se debe a que el poder resolutivo del ojo
humano promedio no puede diferenciar detalles que ocupen menos de un minuto de grado de su campo
visual. En el primer caso del ejemplo, el círculo ocupa menos de un minuto de grado del campo visual,
por lo tanto se ve como un punto; en el segundo caso, ocupa más que este ángulo y entonces se logra
diferenciar un círculo. Entonces: denominamos “círculo de confusión” al círculo, de diámetro
máximo, que un observador, en determinadas condiciones de observación, confunde con un punto.
Una imagen fuera de foco cuyos círculos imagen no superen el valor del círculo de confusión
aparecerá para un observador como nítida.

La profundidad de campo es la zona comprendida entre el punto más próximo a cámara y el


más alejado, entre los cuales los círculos imagen obtenidos no exceden el valor (diámetro) del
círculo de confusión (Fig. 6).

Fig. 6
24
En el ojo humano el enfoque se denomina acomodación y se realiza modificando la curvatura del cristalino.
25
Dado que profesionalmente casi siempre se emplea foco manual, no nos ocuparemos de los sistemas de foco
automático.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 48

La profundidad de campo depende de nuestra visión y de las condiciones finales de observación.


El tamaño final al cual está destinada la imagen tiene incidencia sobre la profundidad de campo. Por
ejemplo, un negativo copiado por contacto dará una imagen perfectamente nítida, ampliado a 18 x 24 cm.
comienzan a notarse algunas zonas desenfocadas y ampliado al tamaño de una pantalla de cine puede que
tenga foco solo en el plano en el que fue enfocado originalmente el objetivo en el momento de la toma. Al
aumentar la ampliación, también se están ampliando los círculos imagen y en determinado punto éstos
exceden el valor del círculo de confusión y la imagen se ve desenfocada.
Los factores que inciden sobre la profundidad de campo son los siguientes:

 Distancia focal:

A mayor distancia focal menor profundidad de campo.


A menor distancia focal mayor profundidad de campo.

 Apertura de diafragma (ver 6.1. 1.):

A mayor apertura de diafragma menor profundidad de campo.


A menor apertura de diafragma mayor profundidad de campo.

 Distancia de enfoque:

A menor distancia de enfoque menor profundidad de campo


A mayor distancia de enfoque mayor profundidad de campo.

 Tamaño del negativo o dispositivo de captura:

A mayor tamaño menor profundidad de campo.


A menor tamaño mayor profundidad de campo.

Con respecto a la distancia de enfoque, cabe aclarar que la profundidad de campo no es simétrica con
respecto al punto de enfoque: siempre es más corta desde el punto de enfoque hacia cámara que desde
éste alejándose de cámara.

Estos factores interactúan entre sí: una focal larga en enfoque próximo a un determinado diafragma
siempre entregará profundidades de campo menores que una focal corta en las mismas condiciones.

Distancia hiperfocal

La distancia hiperfocal se puede definir como el límite próximo a cámara, de la profundidad de campo,
cuando el objetivo está enfocado a infinito26.

Un objetivo enfocado a la distancia hiperfocal entregará una profundidad de campo cuyos


límites serán: la mitad de la distancia hiperfocal como límite próximo a cámara y el infinito como
límite alejado.

Por ejemplo, si la distancia hiperfocal de una lente de 50mm a un diafragma f 4 fuera de 3m y el


objetivo fuera enfocado a esta distancia, la profundidad de campo se extendería desde 1,5 m (la mitad de
la hiperfocal) hasta el infinito.
El valor de la distancia hiperfocal depende de la distancia focal del objetivo, el valor de diafragma y el del
círculo de confusión. Como vemos, para cada lente y cada diafragma tendremos un valor de hiperfocal.
Conocer este valor puede resultarnos muy útil en la práctica: en situaciones en las que no hay mucho

26
Algunos fabricantes consideran infinito a las distancias superiores a quinientas veces la distancia focal.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 49

tiempo para tomar focos (por ejemplo, el reportaje), enfocando el objetivo a la hiperfocal sabemos que
tenemos una nitidez aceptable desde la mitad de esta distancia hasta el infinito
En cine también se emplea mucho para no tener que seguir con el foco el desplazamiento de la acción.
Lamentablemente el valor de la hiperfocal no se indica siempre en las tablas de los objetivos, así que a
continuación damos la fórmula para poder calcularla.

𝐅𝟐
𝐇=
𝐟 𝐱 𝐂𝐜

donde:

H Distancia hiperfocal
F Distancia focal del objetivo
f Diafragma
Cc Valor del círculo de confusión

Los valores de círculo de confusión que se emplean normalmente son:

Cinematografía

16 mm: 1/1000 de pulgada (0,0254 mm) a 1/2000 de pulgada (0,0127 mm) para trabajos críticos, por
ejemplo ampliación a 35 mm.

35 mm: 1/500 de pulgada (0,0508 mm) a 1/700 de pulgada (0,0362 mm) para trabajos críticos.

Fotografía

35 mm (24 x 36 mm): 0,029 mm para ampliaciones hasta 20 x 25 cm.

Cálculo de la profundidad de campo

Para determinar la profundidad de campo basta con consultar las tablas que proveen los fabricantes de
los objetivos o en su defecto emplear las siguientes fórmulas para calcularla:

𝐇𝐱𝐃
𝐋𝐏 =
𝐇+(𝐃−𝐅)

𝐇𝐱𝐃
𝐋𝐀 =
𝐇−(𝐃−𝐅)

donde:

LP Límite próximo a cámara de la profundidad de campo


LA Límite alejado de cámara de la profundidad de campo
H Distancia hiperfocal
D Distancia de enfoque
F Distancia focal del objetivo
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 50

Tamaño del dispositivo de captura y profundidad de campo

Como veremos más adelante, se define a una lente normal como aquella que posee una distancia focal
igual a la diagonal del formato que cubre. Por ejemplo, los normales para los dos tamaños de dispositivo
de captura serán27:

Super 35  30 mm

2/3´  10 mm

Estos dos objetivos cubren el mismo ángulo de cobertura horizontal en su formato, aproximadamente
50º y, por lo tanto, nos permitirán hacer el mismo encuadre desde la misma posición de cámara. Ahora, si
bien los encuadres serán iguales, la profundidad de campo en cada caso será diferente. Se podría decir que
la profundidad de campo es inversamente proporcional al tamaño del dispositivo de captura, o del
negativo en el caso del fotoquímico. Cuanto más pequeño es el dispositivo, mayor la profundidad de
campo. Por ejemplo, en la tabla 1 podemos comparar las profundidades de campo de los dos normales
recién mencionados, en su formato, enfocados a 3 m. y con un f 4.

Tamaño del Distancia Distancia de Diafragma Límite Límite


dispositivo de focal enfoque próximo a alejado de
captura o cámara cámara
negativo
Super 35 30 mm 3m f4 2,58 m 4,62 m

2/3´ 10 mm 3m f4 1,59 m Infinito

Tabla 128
Se puede notar la gran diferencia que existe entre ambas profundidades de campo. Por consiguiente, si
bien ambos encuadres son iguales, no se puede decir que las imágenes obtenidas son iguales. La
profundidad de campo es una herramienta muy empleada dado que permite modificar la relación figura-
fondo dentro de la imagen.

El aspecto del fuera de foco puede variar entre diferentes objetivos como consecuencia de su diseño,
por ejemplo la cantidad de láminas que constituyen el diafragma, o al tratamiento de sus aberraciones.
Esta calidad estética de las áreas desenfocadas de la imagen suele denominarse bokeh, del japonés boke,
„desenfoque‟.

Debemos recordar siempre que la profundidad de campo es variable ya que depende de las
condiciones finales de ampliación y observación. Los límites que nos indican las tablas y los cálculos no
representan una caída abrupta en la nitidez sino el punto en el cual ésta deja de ser aceptable.

Clasificación de los objetivos.

De acuerdo a su distancia focal, los objetivos se pueden dividir en cuatro grandes grupos:

Normales: son aquellos objetivos cuya distancia focal es igual a la diagonal del material sensible que
cubren. Por ejemplo: en 35 mm (fotografía fija), el negativo mide 24 x 36 mm y su diagonal es de,
aproximadamente, 43 mm. El objetivo normal para este formato debería tener una distancia focal de 43
mm, en la práctica se utiliza uno de 50 mm. Poseen un ángulo de cobertura, diagonal, de unos 50º. En

27
Los valores de distancia focal se han redondeado a valores de lentes existentes. Los valores reales serían 31,3 mm
para Super 35 y 11,89 mm para 2/3´.
28
Los datos indicados fueron tomados de las tablas de profundidad de campo de los objetivos Ultra Prime para
Super 35 y Digi Prime para 2/3”, ambos de Carl Zeiss, en: www.zeiss.com .
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 51

cine, también se consideran normales los objetivos con una distancia focal igual al doble de la diagonal
del formato que cubren, aunque esto es motivo de controversias.

Angulares: son todos los objetivos de distancia focal más corta que los normales, se caracterizan por
su gran ángulo de cobertura (los denominados fish eye, por ejemplo, tienen 180º) y grandes
profundidades de campo. En general, entregan perspectivas importantes y, con distancias focales muy
cortas, pueden provocar distorsiones.

Teleobjetivos: son los objetivos de distancia focal más larga que los normales. Se caracterizan por su
pequeño ángulo de cobertura y su escasa profundidad de campo. Entregan imágenes con poca perspectiva
y carentes de distorsiones.

Zoom: son objetivos de distancia focal variable, por ejemplo de 25 mm a 250 mm; en este caso, se
dice que el zoom es 10x ya que la focal más larga es diez veces la menor. Sus características de
profundidad de campo y perspectiva son equivalentes a las de una lente fija de igual distancia focal.
Exceptuando los de mayor calidad y precio, no poseen una calidad de imagen equivalente a las lentes
fijas.
Los zooms, sobre todo los de menor calidad, pueden presentar dos problemas típicos:

Respiración: al enfocar, es decir al modificar a distancia de enfoque, puede cambiar levemente el


tamaño de la imagen, dando la sensación de que se está cambiando la distancia focal. Este
problema no es muy notable en fotografía pero sí es muy molesto en cinematografía. Cuando se
cambia el foco durante una escena, por ejemplo, porque el actor se acerca a cámara, dará la
sensación de que se está haciendo un pequeño zoom. Los buenos objetivos zoom tienen corregido
este problema.

Ramping: al modificar la distancia focal se modifica el valor del diafragma. Este problema lo
trataremos en el capítulo de Exposición.

Empleo de las lentes

En las siguientes fotografías podemos observar el efecto sobre la perspectiva de distintas distancias
focales de lentes:

Foto 1 Foto 2 Foto 3

Lente 28 mm Lente 50 mm Lente 200 mm


Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 52

Las tres fotografías, que fueron realizadas en 35 mm (24 x 36 mm), respetan los mismos límites de
encuadre en vertical: los bancos del paseo y la base de la plataforma de la primera grúa. La perspectiva
más natural es la que nos brinda la lente de 50 mm, porque se parece a la visón normal de nuestro ojo
(Foto 2). La lente de 28mm, en cambio, (Foto 1) exacerba la perspectiva dándonos una mayor sensación
de profundidad y también cambiando la relación entre los objetos que están en cuadro: es de notar como
los bancos del paseo en primer plano ganan presencia en el encuadre. Por el contrario, la lente de 200 mm
(Foto 3) aplana la perspectiva trayendo hacia el primer plano lo que en las otras fotos sólo era el fondo:
nótese como la segunda grúa, que prácticamente pasaba desapercibida en las otras imágenes ha tomado
protagonismo dentro del encuadre.

La conclusión que podemos sacar del análisis de estas imágenes es que si bien las tres “abarcan” lo
mismo en el primer plano todas son diferentes y una sola de ellas corresponderá a la foto, o el plano, que
queremos o necesitamos obtener. El empleo de las distancias focales de los objetivos forma parte del
lenguaje fotográfico y cinematográfico. Cada objetivo “contará” una imagen diferente; es el trabajo del
Fotógrafo o el Director de Fotografía seleccionar la lente que cuente la historia que se desea contar.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 53

Reproducción de las imágenes en color

Hemos definido el color como la respuesta de nuestra visión ante el estímulo que produce cada una de
las diferentes longitudes de onda del espectro visible. Desde este punto de vista, entonces, para obtener
una fotografía en color deberíamos reproducir cada una de las longitudes de onda que reflejó el sujeto
frente a la cámara. Esto implica una tarea enorme. Un solo sistema en la historia de la fotografía encaró el
problema desde éste ángulo: el sistema interferencial de Lippman (1890), que restituía los colores del
original por interferencia, pero que, dada su complejidad, nunca fue viable comercialmente y quedó como
una rareza. La verdadera posibilidad de reproducir los colores surgió no de la física sino del análisis del
funcionamiento de ojo humano. El principio de este mecanismo fue establecido en la primera mitad del
siglo XIX por T. Young y H. Helmholtz (Teoría de Young – Helmholtz), quienes postularon que el ojo
humano puede reproducir todos los colores en base a tres estímulos básicos: azul, verde y rojo,
fenómeno que también se conoce como teoría de la tricromía. En 1861 James Clerk Maxwell,
estudiando las mezclas de colores, realizó la siguiente experiencia:

Encuadró con su cámara un sujeto coloreado y, sin modificar este encuadre, lo fotografió tres veces, la
primera a través de un filtro azul, la segunda con un filtro verde y la tercera con uno rojo. Obtuvo así tres
negativos monocromos, que registraban los contenidos de azul, verde y rojo del sujeto frente a la cámara.

Positivó, sobre soporte transparente, los tres negativos.

Colocó cada positivo en un proyector, poniendo delante del objetivo de éste el filtro con el cual fue
obtenido el negativo correspondiente al positivo: el filtro azul en el proyector del positivo de separación
azul, verde en el del verde y rojo en el del rojo.

Proyectó simultáneamente las imágenes sobre una pantalla. Haciendo coincidir las tres proyecciones se
reconstruyeron los colores originales del sujeto fotografiado 29.

Con esto quedó demostrado que la teoría de la tricromía funcionaba y dejó abierto el camino para la
fotografía en color.

Como vemos, hay dos etapas en este procedimiento:

La selección de colores en la que se registran los contenidos de azul verde y rojo, es decir se obtienen los
tres negativos, que se llaman negativos de separación de color o negativos de selección de color.
La síntesis de color en la que se reconstruyen los colores.

Podemos decir entonces que para obtener una fotografía color bastará con conocer los contenidos de
azul, verde y rojo del sujeto.

29
El resultado que obtuvo Maxwell fue bastante pobre debido a que en esa época las emulsiones fotográficas eran
prácticamente solo sensibles al azul. No fue hasta 1873, cuando Voguel descubre los tintes sensibilizadores, que se
pudo extender la sensibilidad cromática de los haluros de plata (ver 2. 6. 1.).
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 54

Las síntesis de color

La síntesis aditiva

Fig. 1

La síntesis aditiva está compuesta por el azul, el verde y el rojo. Estos tres colores se denominan
primarios aditivos. Se los llama aditivos porque se puede decir que cada uno aporta (suma, adiciona)
un tercio del espectro; la prueba está en que si los proyectamos superpuestos sobre una pantalla, el
resultado es el blanco, es decir la totalidad del espectro (Fig.1).
Los filtros o tintes aditivos no se pueden superponer, se deben emplear por separado; es por eso que en
la experiencia de Maxwell se empleaban tres proyectores. Ocurre que cada uno de éstos solo transmite un
tercio del espectro y absorbe los dos tercios restantes. Supongamos que colocamos un filtro azul sobre
uno verde (Fig. 2). Como se puede observar, de la luz blanca (azul + verde + rojo) que está llegando al
filtro azul solo es transmitida la luz de su color, el azul, y absorbida la restante, rojo y verde. Como
consecuencia de esto, al filtro verde solo llega luz azul que es absorbida por el filtro, ya que éste
únicamente transmitiría luz verde. El resultado es que ninguna luz es transmitida. Lo mismo ocurriría si
combináramos el azul con el rojo o el verde con el rojo.

Fig. 2

La síntesis aditiva se emplea en los televisores color, en cuyas pantallas se distribuyen uniformemente
puntos azules, verdes y rojos, que no se superponen sino que son adyacentes.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 55

La síntesis sustractiva

La síntesis sustractiva se basa en tres colores: amarillo, magenta y cian30. Se los denomina
sustractivos porque se puede decir que cada uno resta (sustrae) un tercio del espectro y transmite los
dos tercios restantes. La combinación de los tres da como resultado el negro (Fig. 4. 4). Estos colores,
como hemos visto en la Fig. 3, surgen de la combinación de dos primarios aditivos:

Amarillo = verde + rojo.

Magenta = azul + rojo.

Cian = azul + verde.

Fig. 3

Podemos decir entonces que el amarillo absorbe, sustrae, resta, azul y transmite verde y rojo, el
magenta sustrae verde y transmite azul y rojo y finalmente el cian sustrae rojo y transmite azul y verde.
Por esta razón, los tintes sustractivos se pueden superponer; por ejemplo, si superponemos un filtro
amarillo a uno magenta (Fig. 4.), de la luz blanca que llega (azul + verde + rojo), el filtro amarillo sustrae
el azul y transmite verde y rojo, el filtro magenta sustrae la luz verde y transmite la azul y roja. El
resultado es que sólo la luz roja atraviesa la combinación. Obviamente si superponemos filtros de los tres
colores el resultado es el negro, ya que se sustraen los tres tercios del espectro.

Fig. 4

30
En algunos textos, el magenta se denomina púrpura y el cian, azul ultramar.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 56

Los sustractivos también son llamados colores complementarios. La física define que un color es
complementario a otro cuando sumado a éste da como resultado la totalidad del espectro visible. Por
ejemplo, el amarillo es complementario del azul ya que:

Amarillo + azul = (verde + rojo) + azul = Totalidad del espectro.

El amarillo está compuesto por verde + rojo por lo tanto al sumarlo al azul obtenemos el espectro
completo. El magenta es el complementario del verde y el cian del rojo.

Un método rápido para recordar la síntesis aditiva y la sustractiva, cómo se componen los colores y
cuáles son los complementarios es empleando la siguiente tabla:

Azul Verde Rojo

amarillo magenta cian

O en su versión abreviada31:

A V R

a m c

En vertical nos indica los complementarios y, en diagonal, las sumas y restas de colores; por ejemplo
el cian es complementario del rojo y está compuesto por verde y azul. El verde tiene por complementario
al magenta y se obtiene superponiendo amarillo y cian.

Sistema de reproducción de colores argéntico (negativo – positivo)

Como vimos en la introducción, para obtener una fotografía en color de un sujeto debíamos obtener
los tres negativos de separación de color que nos indicaban el contenido de azul, verde y rojo de éste. En
el experimento de Maxwell, esto se hacía en tres tomas separadas; en la actualidad, esto lo haremos en un
solo paso y sobre un solo material sensible. Las emulsiones color actuales están compuestas por tres
capas, cada una sensible sólo a un tercio del espectro. Por esta característica de capas superpuestas se los
denomina materiales multicapa. En la Fig. 5 tenemos un corte de una emulsión fotográfica color
multicapa: la primera capa sensible al azul, la segunda sensible al verde y la tercera sensible al rojo.
En el gráfico podemos observar, entre la primera y segunda capa, la presencia de una capa filtro
amarilla: su función es la de evitar que pase luz azul a las capas sensibles al verde y al rojo. Como hemos
visto anteriormente, en la parte dedicada a la sensibilidad cromática, los haluros de plata son sólo
sensibles a las radiaciones de onda corta, azules y ultravioleta, y mediante sensibilizadores se les prolonga
la sensibilidad a otras zonas del espectro. En nuestro caso, la capa sensible al verde es en realidad sensible
al azul y se le ha prologado su sensibilidad a la zona del verde, la capa sensible al rojo es también sensible

31
Siempre que abreviemos los nombres de los colores emplearemos mayúsculas para los aditivos y minúsculas para
los sustractivos. Esto es para evitar confusiones ya que tanto azul como amarillo comienzan con a.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 57

al azul y ha sido sensibilizada al rojo. La capa filtro amarilla impide el paso de la luz azul permitiendo
que las capas sensibles al verde y al rojo registren sólo el contenido de esos colores.

Fig. 5
Cada una de estas capas, junto con los haluros de plata, tiene incorporados generadores de color cuya
función es formar los tintes en las capas. El generador de color incorporado a cada capa formará un tinte
de color complementario al de la sensibilidad cromática de la capa:

Capa sensible al azul: generadores de tinte amarillo

Capa sensible al verde: generadores de tinte magenta

Capa sensible al rojo: generadores de tinte cian

Sistema de reproducción de colores argéntico (negativo – positivo)

Veamos ahora cómo funciona el sistema en la práctica:

 Exposición: Supongamos un original a fotografiar como el de la Fig. 6 compuesto de zonas de


color azul, verde, rojo, amarillo, magenta, cian, blanco y negro.
En la Fig. 7, tenemos el esquema de exposición de este original sobre un material multicapa. En
éste, el azul expone en la capa sensible al azul, el verde en la sensible al verde y el rojo en la
sensible al rojo. Amarillo, magenta y cian imprimen en dos capas, que corresponden a sus
componentes: amarillo en las capas sensibles al verde y rojo, magenta en las sensibles al azul y
rojo y cian en las sensibles al azul y verde. El blanco expone en las tres capas ya que blanco =
azul + verde + rojo. Y finalmente el negro no expone en ninguna. Recordemos que los
materiales sensibles de cada capa son haluros de plata, al igual que cuando analizamos la
reproducción de imágenes monocromas, y por lo tanto la estructura de la imagen latente será la
misma que en ese caso; la única diferencia estriba en que en un material multicapa estamos
formando tres imágenes simultáneamente.

 Revelado cromógeno: para hacer visible esta imagen latente tendremos que revelar el material
(Fig. 8). En este caso, haremos un revelado cromógeno ya que éste no solo reducirá a plata
metálica los haluros de plata que recibieron exposición sino que también se encargará, junto con
los generadores de color incorporados en las emulsiones, de la formación de los tintes de color en
cada capa.
Los tintes se deben formar sólo en los lugares donde hubo exposición y tener una densidad
proporcional a la exposición recibida, por ejemplo, tinte amarillo en los lugares donde hubo
exposición de luz azul y en cantidad proporcional a la cantidad de exposición. La forma de
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 58

conseguir esta proporcionalidad es haciendo que los generadores de color se transformen en tinte
sólo al combinarse con revelador agotado. El revelador cromógeno al reducir haluros de plata que
han recibido luz a plata metálica debe entregar electrones; es decir que cuando trabaja pierde una
parte de sí, podemos decir que „se agota‟. Técnicamente, a este revelador agotado se lo denomina
subproducto de oxidación de revelado. Los generadores de color sólo se transforman en tinte al
combinarse, acoplarse, con el subproducto de oxidación de revelado.

Tinte = generador de color + subproducto de oxidación de revelado

De esta manera, el tinte se forma exclusivamente en los lugares donde hay actividad de revelado,
que es donde hubo exposición, y en cantidad proporcional a esta actividad de revelado: a más
actividad, más subproducto de oxidación de revelado disponible para acoplarse con los
generadores de color y por lo tanto una mayor densidad de tinte formado.

 Blanqueo: al finalizar el revelado cromógeno, en los lugares donde hubo exposición tendremos
formada una densidad de plata metálica junto con otra del tinte que corresponde a la capa. Para la
reproducción color, sólo se necesitan los tintes que se han formado durante el proceso. Por lo
tanto tendremos que eliminar la imagen formada en plata metálica. Por esta razón la segunda
etapa del proceso será un blanqueo (Fig. 9). Durante el blanqueo, se rebromuriza la plata
metálica formada durante el revelado, esto significa que la plata metálica es nuevamente
convertida en haluro de plata para que la tercera etapa, el fijado, permita su eliminación. La capa
filtro amarilla desaparece durante el blanqueo.

Fig. 6

Fig. 7

Fig. 8

Fig. 9

Fig. 10

 Fijado: en esta etapa ocurre exactamente lo mismo que vimos en 1. 1., el fijador hace solubles los
haluros de plata para que puedan ser eliminados por el lavado final.

Luego del fijado y el lavado final, en las capas sólo restan los tintes transparentes formados durante el
proceso. La imagen obtenida es negativa (Fig. 10), está invertida tonalmente, como en el caso del
negativo monocromo, y también en cuanto a color. Si observamos, veremos que lo que era azul en el
original ahora es amarillo, magenta lo que era verde, cian lo que era rojo, etc. Los colores del negativo
son los complementarios a los del original.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 59

El positivado

Fig. 11

Fig. 12

Fig. 13

Fig. 14

Fig. 15

Como en el caso del positivado monocromo, el copiado se puede hacer por ampliación o por contacto.
En todos los casos, en el copiado tendremos que hacer pasar luz blanca a través del negativo, los tintes,
que son transparentes, se encargarán de las sustracciones que correspondan y esta luz expondrá un nuevo
material sensible, un papel fotográfico color, en el caso de las copias fotográficas opacas, o un positivo
color transparente en el caso de las copias cinematográficas. Este material de copiado tendrá la misma
estructura multicapa que encontramos en los negativos, una capa sensible al azul, otra sensible al verde y
finalmente una sensible al rojo, con sus correspondientes generadores de color amarillo, magenta y cian
respectivamente. La única diferencia es que los materiales de copia pueden no tener la capa filtro
amarilla.
En la Fig. 11 tenemos el negativo con sus tintes, en la Fig. 12 tenemos la estructura de exposición
sobre el material de copia. Esta imagen latente tendrá que recibir un revelado cromógeno para hacerse
visible (Fig. 13). Durante éste ocurre lo mismo que vimos en el caso del revelado del negativo color:
donde hay actividad de revelado, o sea donde hay reducción de haluros de plata a plata metálica, el
subproducto de oxidación de revelado se combina con los generadores de color para formar los tintes. Al
finalizar el revelado cromógeno, en los lugares donde actuó la luz tenemos una densidad de plata metálica
junto a una densidad proporcional de tinte amarillo, magenta o cian dependiendo de la capa a la que nos
refiramos. Como en el caso del negativo, debemos hacer un blanqueo y un fijado (Fig. 14) para que en la
emulsión sólo queden los tintes. El positivo obtenido (Fig. 15) reproduce el original de la Fig. 6.

Las etapas del proceso color siempre se repiten:

Revelado cromógeno: los haluros de plata que recibieron luz y que por lo tanto poseen una traza
son reducidos a plata metálica. El revelador que se ha agotado por esta acción de revelado, al que
denominamos subproducto de oxidación de revelado, se acopla con los generadores de color para
formar tinte amarillo, magenta o cian dependiendo de la capa a la que nos refiramos, en los
lugares donde hubo exposición y en cantidad proporcional a ésta.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 60

Blanqueo: se rebromuriza la plata metálica formada durante el revelado para permitir su


eliminación durante el fijado y el lavado final.

Fijado: el fijador se encarga de eliminar los haluros de plata residuales, que aún son sensibles a la
luz, haciéndolos solubles al lavado final. Esto permite la manipulación del material a la luz.
Luego del fijado y lavado, en la emulsión sólo quedan los tintes formados durante el revelado
cromógeno.

En el caso del procesado de material positivo, el blanqueo y el fijado se realizan en una sola etapa
(blanqueo-fijado).

Sistema de reproducción de color electrónico

Al igual que lo visto en la parte dedicada a la formación de las imágenes electrónicas monocromas el
sistema de reproducción de color electrónico sólo se diferencia del fotoquímico en el material sensible. El
principio de funcionamiento se basa en una selección de colores aditiva y una síntesis sustractiva, cuando
se trata de copias fotográficas sobre papel o positivo cinematográfico, o síntesis aditiva en el caso de la
televisión y proyección digital de películas. El material multicapa será reemplazado en la cámara por uno
o tres dispositivos de captura que se encargarán de efectuar la selección de colores, o sea registrar por
separado los contenidos de azul, verde y rojo, del sujeto a fotografiar.

Sistema de un dispositivo de captura RGB

En este sistema, para poder realizar la selección de colores sobre un solo dispositivo de captura, que
puede ser CCD o CMOS, los fotositos tendrán que dividirse en tres grupos: unos registrarán el contenido
de azul, otros el contenido de verde y los terceros el contenido de rojo. Para conseguir esto, se ubica un
filtro coloreado sobre cada sensor. Estos filtros estarán distribuidos uniformemente sobre la superficie del
dispositivo de captura de tal forma que nunca haya dos fotositos adyacentes con la misma sensibilidad
espectral. Esta distribución se denomina esquema de Bayer RGB (Fig. 16).

Fig. 16

Dado que el píxel es, por definición, la unidad mínima de información de imagen y que, por lo tanto,
contiene el 100% de la información sobre ese punto, en el caso de la captura de una imagen en
monocromo basta con que un fotosito registre el valor de luminancia en esa posición de la imagen para
que esto se cumpla. En el caso de la captura de una imagen en color esto no alcanza, el 100 % de la
información de un punto debe incluir, además de la información de luminancia, la información de color, o
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 61

sea de su contenido de azul, de verde y de rojo. Para conseguir esto, tanto en los CCD como en los
CMOS, se colocan filtros aditivos sobre los fotositos para que unos registren el contenido de azul, otros el
contenido de verde y los terceros el contenido de rojo. Estos filtros estarán distribuidos uniformemente
sobre la superficie del dispositivo de captura de tal forma que nunca haya dos fotositos adyacentes con la
misma sensibilidad espectral. Esta distribución se denomina esquema de Bayer RGB (Fig. 16). En este
sistema se podría considerar que un pixel en realidad está compuesto por cuatro fotositos, remarcado en el
gráfico, y en este caso cada fotosito se puede denominar subpíxel.
Se puede notar que, en cada píxel, hay mayor cantidad de subpíxels verdes que de los otros colores;
esto se debe a que, dada la sensibilidad cromática del ojo humano, para formar un blanco sobre la pantalla
de un monitor se requiere: 59% de verde, 30% de rojo y solo un 11% de azul.
Cada uno de estos píxels contendrá la información sobre la luminancia y el contenido de color de la
imagen en ese punto del cuadro. En la salida del dispositivo de captura, la señal se descompone en tres:
una señal que tiene sólo los contenidos de azul (luminancias de azul), otra con el contenido de verde
(luminancias de verde) y finalmente la que indica el contenido de rojo (luminancias de rojo). Esta señal se
denomina RGB (Red, Green, Blue, que en inglés significa rojo, verde y azul). De esta forma, la
información va separada en tres canales, esto permite controlarlos independientemente para poder
gestionar el color general de la imagen.

Interpolación de color (debayering o demosaicing)

Por la forma en que están distribuidos los filtros en el esquema de Bayer resulta que de los fotositos
disponibles en el dispositivo de captura un 50% registrará el contenido de verde y los restantes se
repartirán un 25% para el azul y 25% para el rojo. Por ejemplo en un dispositivo de captura de 20 mp
habrá 10 mp de sensores verdes, 5 mp de sensores rojos y 5 mp de sensores azules. Esta distribución en
mosaico del esquema de Bayer implica que ningún fotosíto tendrá la información de color completa de un
punto, lo cual significa una gran pérdida en la resolución de la imagen, ya que para componer un píxel,
con el 100 % de la información de color, se necesitarían cuatro subpíxels (ver Fig. 16), esto supone una
reducción en la resolución de la imagen de un 75%. La solución a este problema surge de una operación
matemática llamada interpolación de color o debayer, que se realiza en el procesamiento de la imagen.
En ésta operación se toma en cuenta los valores de los subpíxels que rodean al que está siendo procesado
y se infiere el valor RGB completo de éste. Digamos que de esta forma se transforma un subpíxel en
pixel. Es por esta razón que, cuando se emplea el esquema de Bayer, se dice que un fotosito no es un
pixel. De la eficiencia de esta operación depende la resolución final de la imagen y la calidad de la
reproducción del color.

Sistema de un dispositivo de captura a-m-c-V

En este caso, los fotositos están cubiertos por filtros amarillo, magenta, cian y verde. La ventaja de
este sistema es que los filtros sustractivos transmiten más luz que los aditivos, lo cual se ve reflejado en
un aumento general de la sensibilidad final del sistema. En la Fig. 17 podemos observar el esquema de un
dispositivo de captura a-m-c-V.

Fig. 17
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 62

Este sistema ya prácticamente no se emplea, y en general estaba destinado a cámaras de baja gama.

Sistema de tres dispositivos de captura

En las cámaras con este sistema, la luz que entra a través del objetivo es dividida, mediante espejos
dicroicos, en tres haces, uno con la luz azul, otro con la luz verde y el tercero con la luz roja. Cada uno de
estos tres haces es dirigido hacia un dispositivo de captura que registra el contenido de la luz que le llega.
De esta forma, los contenidos de azul, verde y rojo son registrados independientemente (Fig. 18).

Fig. 18

El sistema de tres dispositivos de captura tiene algunas ventajas y desventajas con respecto al esquema
de Bayer, por ejemplo:

 Toda la superficie de los dispositivos de captura está disponible para cada color, lo cual no genera
problemas con la resolución y hace innecesario el debayer, ahorrando recursos de procesamiento
de la imagen.

 El hecho de tener tres dispositivos de captura aumenta el tamaño de la cámara. En general el


tamaño máximo de dispositivo que se emplea en este sistema es de 2/3 de pulgada.

 Mayor consumo de energía.

 La emisión de calor se multiplica por tres.

 Mayor costo por tratarse de tres dispositivos en lugar de uno

Visualización de las imágenes electrónicas color

Para visualizar las imágenes electrónicas color se emplean monitores como los vistos anteriomente. Lo
que debemos agregar a lo expuesto es que los píxels de la pantalla tendrán que graficar los contenidos de
RGB de la imagen capturada; por lo tanto, la pantalla tendrá que estar dividida en subpíxels azules, verdes
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 63

y rojos. Para esto, se colorea el fósforo de cada subpíxel: en el caso de los CRT, se coloca un filtro del
color correspondiente frente a estos en los LCD y plasma o se emplea un polímero fotoluminiscente de
diferente color en el caso de los OLED. La distribución de los píxels y subpíxels en la pantalla es
diferente a la del esquema de Bayer y se puede observar en la fig. 19.

Fig. 19

El vectorscopio

Para evaluar el color objetivamente, en imagen electrónica, se emplea un instrumento llamado


vectorscopio (Fig. 20).

Fig. 20

El vectorscopio nos indica mediante vectores, que nacen en el centro del gráfico, donde se ubica el
blanco, los dos valores más importantes sobre el color de la imagen que está, por ejemplo, capturando una
cámara:

Tono o matiz ( hue ): Define el color, si es azul o rojo por ejemplo, está indicado por el ángulo
del vector con respecto a un punto de referencia. En la Fig. 20 podemos
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 64

observar cómo están indicadas las zonas donde se ubican los colores
aditivos y sustractivos:

B : Azul
G : Verde
R : Rojo
YL: Amarillo
MG: Magenta
CY: Cian
El blanco se ubica en el centro del gráfico.

Saturación: Define la pureza del color. En el gráfico está indicada por la distancia del vector al centro,
donde se ubica el blanco. Las saturaciones normales corresponden a las ubicaciones B, G,
R, YL, MG y CY ya mencionadas.

Por ejemplo: en la Fig. 21 podemos ver el vector que genera un rojo en su máxima saturación. En
cambio, en la Fig. 22 podemos ver como se representa el mismo rojo en menor saturación.

Fig. 21

Fig. 22
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 65

La exposición

Hasta este momento hemos hablado de la luz que actúa sobre los materiales sensibles sin dar
precisiones sobre su cantidad. Como veremos, los materiales sensibles, cualquiera sea su naturaleza,
responderán correctamente dentro de ciertos límites de exposición. Por lo tanto se tiene que disponer de
elementos que permitan por un lado controlar las cantidades de luz que llegan al material sensible, y por
otro calcular cuáles son las cantidades correctas para ese material sensible.

Control de exposición

La ley de reciprocidad, establecida por Bunsen y Roscoe en 1862, dice que el valor de la exposición
que recibe un material sensible, en el momento de la toma, responde la siguiente fórmula:

𝐄=𝐈𝐱𝐭

donde:

E: valor de la exposición

I: intensidad de iluminación sobre el material sensible (lux)

t: tiempo de exposición (segundos)

La unidad en que se expresa el valor de la exposición es el lux segundo.

Por lo tanto el valor de exposición se puede regular modificando cualquiera de las dos variables: I o
32
t . En la cámara se dispone de dos elementos que permiten el control de estas variables: el diafragma y
el obturador.

El diafragma

El diafragma es un iris ubicado en el objetivo, constituido por hojuelas metálicas, que permite regular
la cantidad de luz que atraviesa la lente y por lo tanto modificar la intensidad de iluminación sobre el
material sensible (en nuestro ojo el iris cumple esta función, regulando la cantidad de luz que llega a la
retina). La transmisión del objetivo dependerá de la superficie de la lente que deja libre la apertura del
diafragma. A mayor superficie, mayor transmisión y viceversa. En la Fig. 1 se puede apreciar un
diafragma a dos aperturas diferentes, a la izquierda el diafragma está más abierto que a la derecha y por lo
tanto está dejando mayor superficie libre de la lente para el pasaje de la luz. La transmisión es
proporcional a la superficie libre del diafragma.

32
La ley de reciprocidad, en fotografía argéntica, se cumple dentro de ciertos valores de I y t. Cuando uno de éstos
valores es demasiado grande o demasiado pequeño, por ejemplo una intensidad muy grande combinada con un
tiempo de exposición extremadamente corto, o viceversa, una intensidad muy pequeña con un tiempo de exposición
extremadamente largo esta ley no se cumple. La fórmula debería ser:

𝐄 = 𝐈 𝐱 𝐭𝐩

O sea que el valor de exposición es igual al producto de la Intensidad de iluminación sobre el material sensible y el
tiempo de exposición elevado a la p, donde p es la constante de Schwarzschild. A este efecto se lo denomina fallo
en ley de reciprocidad o efecto Schwarzschild. En el caso de la imagen electrónica este efecto no es aplicable
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 66

Fig. 1

La forma de definir la transmisión de luz de la lente son los números f, también llamados valores de
diafragma, que surgen de la siguiente fórmula:

𝐅
𝐟=
𝐝

donde:

f : valor de diafragma.
F : distancia focal del objetivo.
d : diámetro de apertura del iris (Fig. 1).

Al estar incluida la distancia focal en la fórmula, el valor de f es constante para todos los objetivos, la
cantidad de luz que deja pasar en un determinado f en un objetivo de 28 mm de distancia focal es la
misma que para uno de 400 mm al mismo f. También podemos notar que al estar dividida la distancia
focal por el diámetro del iris cuanto más abierto esté el diafragma menor será el número f y viceversa, por
ejemplo en una lente de 50 mm de distancia focal para obtener un f 2 es necesario que el diámetro del iris
sea 25 mm en cambio para un f 8 éste deberá ser de 6,25 mm.

𝟓𝟎 𝟓𝟎
𝐟𝟐= 𝐟𝟖=
𝟐𝟓 𝟔,𝟐𝟓

Existe una escala de diafragmas aceptada internacionalmente:

1 1.4 2 2.8 4 5.6 8 11 16 22 32 45 64 etc.

Esta se denomina escala racional de diafragmas, ya que cada uno de los valores está relacionado con
los demás. Esta relación es igual a 2, por ejemplo: un f 5.6 deja pasar el doble de luz que un f 8 y la mitad
que un f 4.

f 4 5.6 8
Valor de exposición x2 1/2

Esta relación se cumple entre todos los valores de la escala. Cuando pasamos de uno de estos valores
de la escala racional al siguiente o al anterior decimos que modificamos la exposición un punto de
diafragma. En muchas ocasiones se utiliza el punto de diafragma como unidad para expresar por
ejemplo: diferencias entre luces del esquema de iluminación, contrastes del sujeto, etc.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 67

Esta escala racional es la que se encuentra en todos los objetivos que poseen un diafragma que se
controla desde un anillo de diafragma. Girando este anillo se puede controlar manualmente la apertura
de diafragma. En algunas cámaras electrónicas, en cambio, el diafragma se comanda desde el cuerpo de
ésta, en este caso los objetivos no tienen anillo de diafragmas, y el número f seleccionado aparece en la
pantalla, o en el visor, que se emplea para el encuadre. En estos casos la escala que se suele emplear es la
de tercios de diafragma 33, por ejemplo la siguiente escala entre f 1 y f 5.6:

1 1.1 1.2 1.4 1.6 1.8 2 2.2 2.5 2.8 3.2 3.5 4 4.5 5.0 5.6

En ésta, la relación de valores entre los números es de un tercio de punto de diafragma.

En algunos objetivos se pueden encontrar valores de f como 1.3, 1.7, etc. que no pertenecen a ninguna
escala, en todos los casos indican el valor de máxima apertura que permite el objetivo.

Los valores de diafragma T

El número f se calcula matemáticamente y no toma en cuenta la posible pérdida de luz por absorción
ocurrida en el tránsito de ésta dentro del objetivo. En lentes simples, de pocos elementos, esta absorción
puede ser despreciable, pero en lentes de gran complejidad como los que se emplean profesionalmente,
los lentes zoom son un caso emblemático, puede llegar a valores muy importantes. Cuando esta absorción
es grande la cantidad de luz que llega hasta el material sensible es inferior a la que se calculó
matemáticamente se origina una subexposicíón. Para solucionar este problema se emplean los valores de
diafragma T (transmisión), que se establecen fotométricamente, tomando en cuenta la pérdida de luz en
la transmisión de la lente. De esta forma cada valor representa la transmisión real del objetivo. Por
ejemplo: un objetivo f 2.8 puede tener un T 3.5 como consecuencia de la absorción interna. Los valores
T suelen estar indicados en color rojo en el anillo de diafragmas, los matemáticos, f, en color blanco.
El empleo de la escala T es indispensable cuando la exposición se calcula con un fotómetro de mano,
no así cuando la lectura de la exposición es TTL (through the lens, „a través del objetivo`).
Dado que los valores de diafragma T no tienen relación con el diámetro efectivo del iris, sino con la
transmisión de la lente, no se deben emplear directamente para los cálculos de profundidad de campo.
Algunos fabricantes de lentes tienen sus tablas de profundidad de campo corregidas para diafragmas T.

El efecto de ramping en los objetivos de distancia focal variable

Los zoom, al ser objetivos que, como sabemos, permiten modificar la distancia focal, deberían estar
diseñados para mantener constante el valor de f a lo largo de toda la escala de distancias focales, pero, en
algunos casos, esto no se verifica. Por ejemplo en un zoom cuyas especificaciones son: 18 / 55 mm f 3.5-f
5.6 la apertura máxima en 18 mm de distancia focal será f 3.5 pero que al llevarlo a 55mm dicha apertura
se convertirá en f 5.6. Es decir que el diafragma máximo del zoom se ha modificado al cambiar la
distancia focal, es más cerrado en tele que en angular. Este defecto se denomina ramping.

De acuerdo a este problema se pueden encontrar dos tipos de zoom:

 Zoom de apertura máxima variable: son objetivos cuya apertura de diafragma se modifica
entre la distancia focal más larga y la más corta.

 Zoom de apertura máxima constante (ramping free): son objetivos que mantienen el valor de
apertura máxima a lo largo de toda la escala de distancias focales. Están destinados a uso
profesional

33
Usualmente en las cámaras electrónicas se puede seleccionar, desde el menú, si se emplea una escala de un punto
o de tercios de diafragma.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 68

El ramping no es demasiado importante en fotografía fija pero sí en cine y televisión, pensemos que si,
por ejemplo, en una toma se cierra el zoom, a plena apertura de diafragma, sobre un personaje, la imagen
se oscurecerá paulatinamente ya que al aumentar la distancia focal el diafragma efectivo se irá cerrando.

El obturador

La función del obturador es permitir que la luz actúe solo durante un determinado tiempo sobre el
material sensible, éste lapso es el tiempo de exposición o de integración. El obturador puede ser físico o
electrónico. Si bien la función del obturador es la misma en una cámara fotográfica, una de cine o en una
de video, en cada uno de los casos tendrá características particulares:

Cámaras fotográficas argénticas

Existen dos tipos de obturadores posibles para éstas cámaras:

 Obturadores centrales: su estructura es como la de un diafragma, hojuelas metálicas, pero que


tiene solo dos posiciones: completamente abierto o completamente cerrado. Para ser efectivo
tiene que estar ubicado en el interior del objetivo; esto representa un problema, por el costo, en el
caso de las cámaras con objetivos intercambiables. Su uso está actualmente limitado a las
cámaras de gran formato, para las cuales cada objetivo tiene su propio obturador.

 Obturadores de plano focal o de cortina: se compone de dos cortinas, pueden ser metálicas o de
tela engomada, que se desplazan vertical u horizontalmente frente el material sensible. Para ser
efectivas deben ubicarse muy cerca del material sensible, o sea el plano focal, de allí su nombre.
Tienen dos formas de operar dependiendo del tiempo de exposición. En tiempos normales a
largos cuando se dispara la cámara la primera cortina se desplaza dejando el material sensible
expuesto a la luz, cuando se cumple el tiempo de exposición la segunda cortina sigue a la primera
obturando la llegada de luz. Para tiempos de exposición muy cortos, usualmente el límite es a
partir de 1/125 de segundo, es mecánicamente imposible que una cortina abra y la otra cierre tan
rápidamente, entonces estas deben trabajar por barrido. En ésta forma de operar la primera
cortina comienza su desplazamiento, destapando el material sensible, y la segunda la sigue, a la
misma velocidad, pero con un determinado retardo, dejando solo una franja de la película
expuesta a la luz. Por ejemplo en la Fig. 2, en la que las cortinas se desplazan horizontalmente y
de izquierda a derecha, se puede observa como el punto A es expuesto a la luz por la primera
cortina y luego ocultado por la segunda. La distancia entre las dos cortinas determina el tiempo de
exposición de cada punto de la imagen. El tiempo que tardan las dos cortinas en completar todo el
recorrido es siempre superior al de exposición, en general es de 1/125 de segundo.

Fig. 2
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 69

Este tipo de obturadores, cuando trabajan por barrido, tienen los siguientes problemas:

 Flashes: hemos dicho que el tiempo que tardan las cortinas en barrer toda la superficie
del material sensible es de 1/125 de segundo, en cambio, la duración del destello de los
flashes de estudio está, en general, en alrededor de 1/500 de segundo. Esto significa que
la luz de toma está prendida menos tiempo que lo que tardad el obturador en exponer
toda la superficie de la película, algunas zonas de esta estarán cubiertas por las cortinas
mientras dura el destello. La consecuencia de esto es que parte de la imagen recibirá
menos luz que otras. Es por esta razón que con este tipo de obturador existe un tiempo de
exposición límite para usar con flash, es el más corto en que las cortinas no trabajan por
barrido.

 Rolling shutter: este problema, que ya hemos tratado cuando hablamos de los
dispositivos de captura CMOS, también puede presentarse en el caso de los obturadores
de cortina y provocar deformaciones en la imagen.

Cámaras cinematográficas argénticas

Las cámaras cinematográficas, a diferencia de las cámaras fotográficas, tienen que exponer, como
mínimo, 24 imágenes por segundo, los obturadores centrales y de plano focal no podrían trabajar a esa
frecuencia sin destruirse, es por eso que emplean obturadores rotativos (Fig. 3).

Fig. 3

En general estos obturadores tienen 180° de apertura, lo cual significa que en cada giro la mitad del
tiempo está cerrado y la otra abierto. Este ángulo, en algunas cámaras se puede modificar.

Cámaras electrónicas

En el caso de la fotografía, el video y la cinematografía digital, en general, no hay un obturador físico.


La luz actúa constantemente sobre la superficie del dispositivo de captura y el circuito de la cámara regula
el tiempo durante el cual se recogen los fotoelectrones liberados en los fotositos, esto hace innecesaria la
presencia de un obturador físico.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 70

Los tiempos de exposición o de integración

Como hemos dicho antes, el tiempo de exposición, o de integración, es el lapso durante el cual se
permite actuar a la luz sobre el material sensible. La unidad que se emplea para definirlo es el segundo.
Existen diferentes escalas estandarizadas para la regulación de este tiempo dependiendo de si hablamos
de fotografía fija o cinematografía y video, a saber:

Cámaras fotográficas

Independientemente del tipo de obturador que se esté empleando en una cámara fotográfica, existe una
escala de tiempos de exposición que está establecida internacionalmente:

1 2 4 8 15 30 60 125 250 500 1000

En esta escala el único valor entero es 1, que significa un segundo de tiempo de exposición, los
restantes valores son fraccionarios:

1 1/2 1/4 1/8 1/15 1/30 1/60 1/125 1/250 1/500 1/1000

La escala también es racional, como la de los diafragmas, ya que 1 / 30 es el doble de tiempo de


exposición que 1 / 60 y la mitad que 1/ 15.

t 1/15 1/30 1/60


Valor de exposición x2 1/2

En las cámaras fotográficas existen también dos modos de obturación que permiten tiempos muy
prolongados de exposición:

 Time ( T ): al oprimir e disparador de la cámara el obturador se abre y permanece así hasta que se
oprima nuevamente, momento en que se cierra.

 Bulbo ( B ): el obturador permanece abierto mientras se mantenga oprimido el disparador de la


cámara.

Cámaras cinematográficas

En el caso de las cámaras cinematográficas el tiempo de exposición de cada fotograma depende de dos
factores: la cadencia de filmación y el ángulo de apertura del obturador. Para calcularlo se puede emplear
la siguiente fórmula:

𝟏
𝐭=
𝟑𝟔𝟎
𝐟𝐩𝐬 𝐀𝐧𝐠

donde:

t: tiempo de exposición en segundos

fps: fotogramas por segundo

Ang: ángulo del obturador


Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 71

Por ejemplo:

𝟏
=𝐭
𝟑𝟔𝟎
𝐟𝐩𝐬
𝐀𝐧𝐠

𝟏 𝟏
=
𝟑𝟔𝟎 𝟓𝟎
𝟐𝟓 𝟏𝟖𝟎

En este caso el tiempo de exposición es de 1/50 de segundo para una filmación a 25 fps con el
obturador a 180º. En caso de no querer realizar cálculos en la filmación se puede apelar a la Tabla 1, en la
que tenemos los tiempos de exposición y las correcciones de diafragma correspondientes con respecto a la
exposición a 24 y 25 fps.

Tabla 1

Tabla de correcciones de exposición a Tabla de correcciones de exposición a


partir de 24 fps obturador a 180º partir de 25 fps obturador a 180º

Fps. Tiempo de Corrección de Fps. Tiempo de Corrección de


exposición diafragma con exposición diafragma con
respecto a respecto a
24 fps. 25 fps.

6 1 / 12 -2f 6,25 1 / 12,5 -2f

12 1 / 24 -1f 12,5 1 /25 -1f

18 1 / 36 -1 / 2 f 18,75 1 / 37,5 -1/2F

24 1 / 48 0 25 1 / 50 0

48 1 / 96 +1f 50 1 / 100 +1f

96 1 / 192 +2f 100 1 / 200 +2f

- significa cerrar el diafragma el valor indicado con respecto a la exposición a 24 ó 25 fps.

+ significa abrir el diafragma el valor indicado con respecto a la exposición a 24 ó 25 fps.

 Cálculo del tiempo de exposición con obturadores variables.

En algunas cámaras cinematográficas es posible modificar el ángulo de apertura del obturador. En


todos los casos solo se puede reducir este ángulo ya que aumentarlo es imposible porque el tiempo que el
obturador está cerrado es el que emplea el arrastre de la cámara para mover la película frente a la
ventanilla de exposición y que, por razones mecánicas, no se puede reducir. En la Fig. 4 podemos ver un
obturador rotativo a 180º y a 90º.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 72

Fig. 4

Cerrando el obturador se reduce el tiempo de exposición y se obtienen imágenes con más fijeza, lo
cual mejora la nitidez. El hecho de que el tiempo de exposición a 24 fps sea de tan solo 1 / 48 de segundo
favorece que la imagen en el fotograma esté movida, barrida (motion blur), sobre todo si la acción
delante de cámara es violenta o, por ejemplo, si realizamos una panorámica muy rápida 34,
Debemos aclarar que, cerrando el obturador, si bien la nitidez puede aumentar al acortarse el tiempo de
exposición, también puede aparecer cierto efecto estroboscópico en la reproducción del movimiento.

En la Tabla 2 damos los tiempos de exposición para diferentes ángulos de obturador y las correcciones
de exposición, en puntos de diafragma para corregir en base a la exposición para 25 fps a 180º:

Tabla 2

Angulo del Tiempo de Exposición Corrección de diafragma


obturador 25 fps. con respecto a 180º

180º 1 / 50 0

90º 1 / 100 +1f

45º 1 / 200 +2f

22,5 1 / 400 +3f

+ significa abrir el diafragma la cantidad indicada con respecto al que correspondería con el obturador a
180º.

34
En Argentina llamamos filage, término que proviene del francés, al barrido de la imagen producido por una
panorámica rápida. En francés esta palabra también se emplea para decir que la cámara está desobturada.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 73

 Problemas de cadencia y obturación asociados a la filmación con fuentes pulsantes

Cuando para iluminar una escena se emplean fuentes de luz pulsantes, HMI, tubos fluorescentes, etc.,
la frecuencia en que estas trabajan debe coincidir con la frecuencia de apertura y cierre del obturador, o
sea la cadencia a la que estamos filmando. Si las frecuencias no coinciden se origina un parpadeo,
fliqueo35 en la jerga, visible en la imagen final. En la Argentina la corriente alterna de red es de 50 Hz, o
sea 50 ciclos por segundo, los tubos fluorescentes, por ejemplo, parpadean a esta frecuencia. Un
obturador trabajando a 25 fps estaría en fase con los tubos y no debería fliquear, en cambio a 30 fps
estaría fuera de fase y tendríamos fliqueo. Este fenómeno también se produce en cinematografía digital y
video.

Para evitar estos inconvenientes sugerimos consultar las tablas 3 y 4, que dan las cadencias de
filmación seguras (fliquer free) para 50 ciclos y 60 ciclos.

NOTA: si bien estas tablas son precisas, en algunos casos conviene realizar pruebas filmadas para
estar completamente seguros de los resultados.

Tabla 3

Cadencias de filmación flicker free con cualquier ángulo de obturación


a 50 Hz

1.000 4.166 6.250 11.111 50.000


1.250 4.347 6.666 12.500 100.000
2.000 4.545 7.142 14.285
2.500 4.761 7.692 16.666
3.125 5.000 8.333 20.000
3.333 5.263 9.090 25.000
4.00 5.882 10.000 33.333

Tabla 4

Cadencias de filmación flicker free con cualquier ángulo de obturación


a 60 Hz

1.000 4.00 6.315 10.000 24.000


1.500 4.800 6.666 10.909 30.000
1.875 5.000 7.058 12.000 40.000
2.000 5.217 7.500 13.333 60.000
2.500 5.454 8.000 15.000 120.000
3.000 5.714 8.571 17.143
3.750 6.000 9.231 20.000

35
Fliqueo proviene de una deformación del término inglés flicker, o flickering, que significa parpadeo o
inestabilidad.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 74

En nuestro país, con su corriente de 50 ciclos, este problema se presenta cuando debemos filmar
material para proyección en salas cinematográficas, ya que éste deberá ser rodado a 24 fps. Si en estos
casos empleáramos un obturador a 180º de apertura tendríamos fliqueo. La forma de evitar este problema
es filmar a 24 fps con el obturador cerrado a 172, 8 º, la mayoría de las cámaras traen indicado este
valor en el obturador.
Un caso especial son los monitores de computadora, ya que suelen trabajar en ciclajes propios y
pueden no coincidir con estas tablas.

Cámaras cinematográficas digitales

En cinematografía digital se emplean usualmente los mismos tiempos de exposición que en el caso
anterior, incluso, si bien no hay un obturador físico, el obturador se puede regular por grados. La única
diferencia es que en algunas cámaras de este tipo los tiempos de exposición también se pueden indicar en
milisegundos (ms) o microsegundos (µs)36.

Cámaras de video

Para las cámaras de video los tiempos de exposición estándar son:

En SD PAL o HD 50 Hz (25 fps): 1 / 50 de segundo

En SD NTSC o HD 60 Hz (30 fps): 1 / 60 de segundo

Estos tiempos de exposición se pueden modificar independientemente de la cadencia y, al no ser


necesario un tiempo para el arrastre de la película como en las cámaras de cine, no solo se pueden acortar
sino que también se pueden prolongar.

Interrelación de las escalas

Hemos visto que, de acuerdo a la ley de reciprocidad, el valor de la exposición es igual a:

𝐄=𝐈𝐱𝐭

Por lo tanto un determinado valor de exposición se puede expresar por una combinación de valor de
diafragma y tiempo de exposición, a esta combinación suele llamársela par de exposición.

Supongamos que tenemos una exposición de f 5.6 a 1 / 60, al ser ambas escalas racionales veremos
que para el mismo valor de E existen también otras combinaciones de tiempo-diafragma posibles:

22 16 11 8 5.6 4 2.8 2 1.4


1/4 1/8 1/15 1/30 1/60 1/125 1/250 1/500 1/1000

En todas estas combinaciones, que se denominan pares equivalentes, el valor de E se mantiene


constante, dado que cuando se aumentas al doble la exposición, abriendo un punto el diafragma, se reduce
el tiempo de exposición a la mitad. Desde el punto de vista de la exposición el resultado sería el mismo
empleando cualquiera de estas combinaciones, sin embargo las imágenes no serían idénticas por las
siguientes razones:

36
Milisegundos (ms)= 1/1000 segundos
Microsegundos (µs)= 1/1 000 000 segundos
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 75

 Los tiempos de exposición tienen una influencia directa sobre la fijeza de la imagen, por ejemplo
un objeto que se desplaza rápidamente dentro del encuadre verá congelado su movimiento en
tiempos de exposición muy cortos y quedará movido en tiempos de exposición largos.

 Con diafragmas muy abiertos la profundidad de campo de la toma será menor que con diafragmas
muy cerrado.

22 16 11 8 5.6 4 2.8 2 1.4


1/4 1/8 1/15 1/30 1/60 1/125 1/250 1/500 1/1000

más profundidad de campo más fijeza

Cabe aclarar que tanto en video como en cine, en general, controlamos la exposición con un tiempo de
exposición fijo y diafragma variable.

Filtros ND

Otra posibilidad para el control de exposición son los filtros ND. Estos son filtros fotométricos, la
sigla ND significa Neutral Density, „densidad neutra‟, y su función es la de retener una parte de luz que
llega al objetivo sin modificar los colores. Cumplen una función parecida a la del diafragma modificando
en valores muy precisos la cantidad de luz que llega al objetivo, las graduaciones clásicas de estos filtros
son37:

ND 3= -1 f

ND 6= -2 f

ND 9= -3 f

Un filtro ND 3 dejará pasar la mitad de la luz que llega, o sea el equivalente a cerrar un punto de
diafragma. Estos filtros son muy útiles en cine y video donde la cadencia de filmación impone tiempos de
exposición muy largos, esto, en exteriores por ejemplo, obliga a usar diafragmas muy cerrados y por lo
tanto mucha profundidad de campo. Si se desea menor profundidad de campo se colocan filtros ND lo
que posibilita abrir el diafragma sin perjudicar la exposición ni el balance de color.
Otra forma de indicar los valores de los filtros ND, generalmente en las cámaras de video, es la
siguiente:

1 / 4 ND = -2f

1 / 16 ND = -4f

1 /64 ND = -6f

37
La verdadera denominación de estos filtros es ND 0.3, ND 0.6 y ND 0.9, pero usualmente los llamamos ND 3,
ND 6 y ND 9.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 76

Cálculo de la exposición

Hemos definido a la imagen la imagen que proyecta el objetivo sobre el material sensible como un
conjunto de puntos luminosos cuya intensidad de iluminación corresponde a las luminancias de la escena
frente a la cámara. Por lo tanto en el momento de la exposición un material sensible debe reaccionar
simultáneamente ante los distintos valores de luminancia de la escena. Estos valores de luminancia
pueden variar muy poco o mucho, como, por ejemplo, en un exterior soleado en el que la diferencia puede
llegar a un ratio de 1.000.000 : 1 (20 puntos de diafragma). Poder capturar todas estas diferencias en las
cantidades de luz dependerá de la respuesta del material sensible ante estos valores. Por lo dicho, para
poder calcular la exposición se deberán tomar en cuenta los siguientes factores: la respuesta de los
materiales sensibles y las luminancias de la escena.

La respuesta de los materiales sensibles

Sensitometría

La sensitometría trata de establecer la relación entre la cantidad de luz que llega a un material sensible
y su efecto. Esta relación, que se denomina ley de ennegrecimiento 38 cuando se refiere a los materiales
argénticos, es fundamental para el control de todas las etapas del proceso fotográfico. De lo que estamos
hablando es de una relación causa-efecto, en la cual la causa siempre será el valor de exposición y el
efecto: la densidad de plata, o de tinte, obtenida luego del revelado en el caso de los materiales argénticos,
o el nivel de la señal luego de procesada, en el caso de los dispositivos de captura.

Causa Efecto
Densidad
( argéntico )
Valor de la exposición
Señal
( electrónico )

Conocer esta relación es indispensable para el cálculo de la exposición porque nos indicará cómo
reacciona el material sensible ante los distintos valores de exposición y cuáles son sus límites con
respecto a estos valores.
Para establecer esta relación se hace la siguiente prueba: supongamos que a un material sensible se le
da una serie de exposiciones crecientes, por ejemplo en progresión geométrica: 1, 2, 4, 8, 16, 32, 64, 16,
32, etc., y luego se mide el resultado obtenido para cada una de ellas. La forma más simple de relacionar
dos valores es mediante un gráfico, entonces estos datos se vuelcan sobre dos ejes cartesianos, los valores
de exposición, la causa, sobre el eje de las abscisas (horizontal), y el efecto, la densidad de plata en el
caso de una material argéntico o en el caso de los dispositivos de captura electrónicos el voltaje de la
señal obtenida o el valor de digitalización (bits), sobre el eje de las ordenadas (vertical).

38
La ley de ennegrecimiento, fue postulada por F. Hurter y V. C. Driffield en 1876 dando nacimiento a la
sensitometría.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 77

Fig. 5

Si la relación causa-efecto fuera absolutamente proporcional, o sea que el material sensible reacciona
siempre igual ante todos los valores de exposición, la respuesta se graficaría como una línea que
comenzaría en el cero del gráfico, cero causa cero efecto, y se prolongaría hasta el infinito (Fig. 5). Esta es
la teoría, la curva real que se obtendría, en el caso de un material sensible argéntico, sería la de la Fig. 6.
Como se puede observar en lugar de la recta del gráfico anterior se obtiene una curva que tiene la forma de
una ese estirada, llamada curva característica, curva sensitométrica o curva H&D.

Fig. 6

Sobre esta curva se pueden definir tres zonas (Fig. 7):

 Zona de la subexposicíón o talón de la curva: es la zona comprendida entre los puntos A y C. En


el punto A se puede observar que aunque la exposición es nula la densidad no es igual a cero.
Esto se debe a que durante el procesado el revelador también actuó sobre haluros de plata que no
recibieron exposición, formando así una densidad uniforme de plata sobre todo el material. Esta
densidad parásita se denomina velo de revelado 39 y su densidad está en función del tiempo de
revelado, a mayor tiempo de revelado mayor nivel de velo.
El espacio comprendido entre A y B es la subexposicíón propiamente dicha, en ella se puede
notar que aunque se incrementa la exposición la densidad no varía, con lo cual no se pueden
registrar detalles del sujeto. Pasando el punto B hacia C la densidad comienza a crecer lentamente
con la exposición. El primer incremento útil de densidad se denomina umbral de la penumbra.
Este punto es fundamental puesto que representa la mínima exposición útil, es el primer detalle en

39
Este nivel, además de la densidad del velo de revelado, incluye la absorción de luz producida por el soporte de la
emulsión, por eso en algunos casos se indica como velo + base.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 78

sombra que se registra, y es el que determina la sensibilidad de la emulsión. Luego de atravesado


el umbral a pesar de haber incrementos de densidad ante aumentos de la exposición no existe
proporcionalidad entre éstos y las variaciones de exposición, por lo cual la reproduccí6n no es
aún la correcta.

Fig. 7

 Zona de la exposiciones correctas: comprendida entre los puntos C y D en esta zona a un


incremento de exposición siempre le corresponde un incremento proporcional de densidad, es
decir que para cada cambio de luminosidad del sujeto hay un cambio proporcional de densidad.
Por esta razón se dice que dentro de esta zona reproducimos correctamente al sujeto. La
proyección de ésta zona sobre el eje de las exposiciones es la latitud de la emulsión o sea el
intervalo de luminosidades del sujeto que se pueden reproducir correctamente.

 Zona de la sobreexposición u hombro de la curva: comprendida entre los puntos D y F, en ésta


zona podemos notar que se produce un fenómeno inverso al del talón, a medida que aumenta la
exposición la proporcionalidad decae. Pasando al punto E la densidad se mantiene constante a
pesar de los incrementos de exposición. o sea, que entramos en la sobreexposición propiamente
dicha. Este punto E determina la densidad máxima o ennegrecimiento de base del material.
Este valor carece de importancia en los materiales negativos, pero es fundamental en los positivos
ya que representa el negro máximo que se puede obtener en las copias.

Para llevar al terreno práctico la curva característica se debe tener en cuenta que las diferencias de
valores de exposición representan los cambios de luminancia del sujeto frente a cámara y que para ser
reproducidos deben estar acompañados de una variación en la densidad en el negativo.

Si realizáramos la prueba sobre un sistema electrónico la curva obtenida sería la de la Fig. 8. Las
diferencias con la curva anterior son:

 El nivel de velo es reemplazado por el nivel de ruido.

 La zona de las exposiciones correctas es perfectamente rectilínea.

 Por la forma en que trabajan los dispositivos de captura, que ya hemos tratado al principio de este
trabajo, la sobreexposición se produce cuando el pozo de potencial a colmado su capacidad, es
decir que no puede almacenar mas fotoelectrones. Esto se denomina clipping, clípeo localmente.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 79

 El rango dinámico (latitud en el caso del argéntico) es el intervalo de valores de exposición entre
el valor más bajo sobre el nivel de ruido, A en el gráfico, y el clípeo, C en el gráfico.

La forma definitiva de ésta curva depende del procesamiento de la señal que se efectúe, en la
cámara o en postproducción, después de la captura de la imagen.

Fig. 8

Sensibilidad de los materiales argénticos

Sí bien la zona de las exposiciones correctas es la más la importante en la práctica, ya que dentro de
ella se reproduce correctamente al sujeto, va a ser el talón de la curva zona más importante para establecer
la sensibilidad de las emulsiones.
La sensibilidad de una emulsión indica la cantidad mínima de exposición con la cual ésta puede
obtener un detalle del sujeto, es decir la exposición mínima útil. A través de la historia han existido
diversas formas de establecer esta sensibilidad, desde el sistema H&D, que fue el primer intento, hasta el
actual sistema ISO 1974.
El sistema ISO (ISO 6:1993 e ISO 2240:2003), para materiales monocromos, se basa en el criterio del
umbral, o sea la sensibilidad está establecida por el valor de exposición con el que se obtiene una
densidad sobre el nivel de velo que sea copiable, o sea la exposición mínima útil. Este sistema,
implantado en 1962, establece lo siguiente:

Tomando un intervalo de luminancia de imagen de 20:1 (1,3 Log. E) como condición práctica promedio,
la sensibilidad se basa en la exposición (lux-segundo) con la que se obtiene una densidad de sombra de
0,1 sobre nivel de velo, H en la Fig. 5. 11. El revelado debe bastar para obtener una densidad de 0,8 sobre
las sombras, en el extremo de las altas luces del intervalo de 1,3 Log. E, o sea un gamma 0,6 (Fig. 9).
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 80

Fig. 9

Entonces el valor de la sensibilidad se calcula así:

Para el sistema matemático:

𝟎, 𝟖
𝐒𝐞𝐧𝐬𝐢𝐛𝐢𝐥𝐢𝐝𝐚𝐝 𝐀𝐒𝐀 =
𝐇 (𝐋𝐮𝐱 𝐬)

Para el sistema logarítmico:

𝐒𝐞𝐧𝐬𝐢𝐛𝐢𝐥𝐢𝐝𝐚𝐝 𝐃𝐈𝐍 = 𝟏𝟎 𝐱 𝐋𝐨𝐠 𝐇

Este punto se establece, como hemos visto, en condiciones perfectamente establecidas. Cualquier
variación en las condiciones de utilización de los materiales, en la práctica, con respecto a la prueba
sensitométrica, provoca una variación de la ubicación de este punto. Por lo tanto, el valor de la
sensibilidad depende, en gran medida, de las condiciones en las que se realizan todos los pasos del
proceso. Debemos entonces decir, que la sensibilidad que nos indica el fabricante de la emulsión no es,
sino un punto de partida, que debe ser adaptado a las características del proceso.

Sensibilidad 1/2 1 x2

ISO 50 100 200

Cantidad de exposición necesaria x2 1 1/2

Como vemos en la tabla precedente, los valores de sensibilidad ISO son también una escala racional,
al duplicarse el valor ISO se duplica la sensibilidad, o sea que se requiere la mitad de cantidad de
exposición para el mismo resultado fotográfico. Consecuentemente, si el valor ISO se reduce a la mitad la
sensibilidad hará lo propio y se requerirá el doble de exposición para obtener el mismo resultado
fotográfico.

Sensibilidad del dispositivo de captura

Establecer la sensibilidad en el sistema de reproducción electrónico representa un desafío mayor que


en fotoquímico, dado que a diferencia de éste último, las posibilidades de procesado de la señal son
muchas y afectan notablemente el resultado final. Un negativo se fabrica con determinada sensibilidad y a
menos que se modifique el revelado esta se mantiene. En electrónico, en cambio, la sensibilidad depende
de muchos factores independientemente de la sensibilidad propia del dispositivo de captura, por ejemplo
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 81

el nivel de amplificación de la señal, el tratamiento posterior en la conversión analógica-digital y en el


procesador digital de imagen. A estas posibilidades se suma que en la actualidad conviven varios criterios
para establecer la sensibilidad, a saber:

Para cámaras fotográficas:

Criterios basados en Normas ISO:

 Sensibilidad basada en la saturación ISO 12232- 2006: se basa en el nivel máximo de


saturación admisible en la imagen. El término saturación se refiere a la saturación de exposición,
la exposición máxima sin pérdida de detalle en las altas luces 40, o sea el valor más alto de
exposición antes de llegar al clipeo. Se establece en base a la siguiente fórmula:

𝟕𝟖
𝐒𝐬𝐚𝐭 =
𝐇𝐬𝐚𝐭

donde:

𝐒𝐬𝐚𝐭 = Sensibilidad basada en la saturación

𝐇𝐬𝐚𝐭 = valor máximo de exposición antes de la saturación, en lux-segundos

Este cálculo permite que tener un margen de medio punto de diafragma sobre el valor Hsat , o sea
la exposición que dará una superficie que refleje el 100% de la luz que recibe, evitando el clipeo
de algunas reflexiones especulares del sujeto41.

 Sensibilidad basada en el ruido ISO 12232- 2006: se basa en el nivel mínimo de exposición
que sobresale nivel del nivel de ruido. Este sistema en general se emplea poco por las
dificultades y la diversidad de criterios que existen para establecer el nivel de ruido.

 Función de conversión optoelectrónica OECF ISO 14524: se basa en la relación entre la los
valores de exposición y los niveles de señal luego de procesada en el sistema de la cámara.

La forma de anotación de estas sensibilidades es: ISO xxx. Siendo xxx el valor de la sensibilidad.

Criterios basados en Normas ISO / CIPA (Camera & Imaging Products Association)

Estas normas fueron establecidas en 2006 por CIPA que es la cámara que agrupa a los fabricantes de
cámaras de Japón, para utilizarlas en sus productos y fueron incluidas ese mismo año en la norma ISO
22232. La norma actual es la CIPA DC-004 e incluye dos formas de establecer la sensibilidad:

 Standard output sensitivity ( SOS ): en esta norma la sensibilidad se obtiene a partir del valor
de exposición que es necesaria para que un sujeto de reflectancia media (18%) permita obtener un
determinado valor luego de digitalizada la señal en la cámara. Este valor debe ser 461/1000 de la
totalidad de valores disponibles en una determinada profundidad de bits, en un archivo a 8 bits,
que posee un valor máximo de255, equivale a un valor de 118. La fórmula para calcular la
sensibilidad es la siguiente:

𝟏𝟎
𝐒𝐬𝐨𝐬 =
𝐇𝐬𝐨𝐬

40
No se debe confundir con saturación de color.
41
A este margen se lo suele denominar headroom.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 82

donde:

𝐒𝐬𝐨𝐬 = sensibilidad SOS

𝐇𝐬𝐨𝐬 = valor de exposición, en lux-segundo, necesaria para obtener un valor de 118, en 8 bits.

A diferencia de la norma ISO basada en saturación, empleando esta fórmula el gris del 18%
queda como 0,18 de Hsat y las zonas del sujeto que reflejan el 100% quedan al borde del clipeo.
Dado que las condiciones que plantea la norma se sitúan dentro del espacio sRGB los valores de
sensibilidad que entrega se pueden utilizar en capturas que terminan en archivos por ejemplo
JPEG pero no en RAW. La forma de anotación de esta sensibilidad es: ISO xxx (SOS), donde
xxx es el valor de la sensibilidad.

 Recommended exposure index ( REI ): el valor de sensibilidad REI lo establece arbitrariamente


el fabricante de la cámara en base a lo que considera que es la exposición con la cual se obtiene
una imagen satisfactoria para el usuario. No hay una forma de estandarización determinada para
establecerla por lo tanto depende exclusivamente del fabricante. La fórmula para calcularla es:

𝟏𝟎
𝐒𝐑𝐄𝐈 =
𝐇𝐦
donde:

𝐒𝐑𝐄𝐈 = sensibilidad REI

𝐇𝐦 = valor de exposición decidido por el fabricante para obtener una imagen satisfactoria.

Dada la forma en que este sistema establece la sensibilidad se puede usar en sistemas que no sean
sRGB, por ejemplo RAW. La forma de anotación de esta sensibilidad es: ISO xxx (REI), donde
xxx es el valor de la sensibilidad.

En algunos casos los fabricantes pueden sugerir dos sensibilidades, por ejemplo: ISO 400 (SOS)
ISO 500 (REI)

Dadas las diferencias de procedimiento que imponen están normas una misma cámara podría dar
valores de sensibilidad diferentes con cada uno de de los criterios para establecerla. Por ejemplo dará un
valor más alto para la norma ISO basada en saturación que para la norma SOS. Debemos aclarar también
que a diferencia de las cámaras que emplean película, en las que cuando uno cambia un rollo de 400 ISO
por uno de 100 ISO realmente está cambiando el material sensible, en las cámaras electrónicas esto no es
posible, ya que vienen de fábrica con un dispositivo de captura incorporado que no se puede cambiar. Las
diversas sensibilidades que ofrecen estas cámaras surgen de amplificar más o menos la señal de salida del
dispositivo de captura. Al modificarse la amplificación también se modificará el nivel de ruido a más
sensibilidad, más amplificación y mayor nivel de ruido.

Para las cámaras de video:

En el caso de las cámaras de video la indicación del valor de la sensibilidad no se expresa en ISO sino
que se suele dar, por ejemplo, de la siguiente forma:

F11 standard (89, 9 reflection chart, 2000 lux)

Esto significa que para obtener una señal de 0,7 volts, encuadrando una carta blanca, que refleje el
89,9%, iluminada con un nivel de 2000 lux, se debe emplear un diafragma f 11 en el objetivo de la
cámara. Esta sensibilidad que indica el fabricante es lo que podemos denominar sensibilidad nominal de
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 83

la cámara, en general es la mayor amplificación que permite obtener una imagen con un nivel de ruido
bajo. Ahora, esta sensibilidad nominal de la cámara se puede modificar mediante la ganancia (gain). La
ganancia indica el nivel de amplificación de la señal.. La unidad que se emplea para definirla es el dB
(decibel). La cámara tiene su sensibilidad nominal cuando la ganancia está en 0 dB. Cada vez que se
aumenta la ganancia 6 dB se duplica la sensibilidad.

Ganancia Incremento en la
sensibilidad
0 dB -

6 dB x2

12 dB x4

18 dB x8

El aumento de la amplificación trae aparejado un aumento en el nivel de ruido de la imagen. En


algunas cámaras es posible aplicar ganancias negativas, por ejemplo –3 dB, al disminuirse la
amplificación disminuye la sensibilidad y también lo hace el nivel de ruido, por lo tanto se obtiene una
imagen de mayor calidad.

Luego de todo lo dicho debemos aclarar que los valores de sensibilidad dados por los fabricantes, tanto
en fotoquímico como en electrónico, son solo un punto de partida y su valor real se deberá establecer por
pruebas realizadas en las condiciones reales de uso, esto incluye no solo las condiciones de toma sino
también las de postproducción y exhibición.

Situación de iluminación del sujeto

Vamos a denominar situación de iluminación de sujeto al conjunto de valores de luminancia que lo


componen, es decir el conjunto de los valores de exposición que deberán actuar simultáneamente sobre el
dispositivo de captura en el momento de la exposición.
Por ejemplo, en la Fig.10 podemos ver los diferentes valores de exposición que actúan simultáneamente
en el momento de la toma.

La toma fue expuesta a f 8 1/50 con un ISO 100. Los puntos extremos de luminosidad del sujeto están
en f 2 para las sombras y f 22 para las altas luces 42. Esto implica una diferencia de 7 f entre los valores
extremos. A este intervalo entre el punto más claro y el punto más oscuro lo denominamos contraste del
sujeto. Las restantes luminancias estarán ubicadas entre ellos, por ejemplo la pared parcialmente
iluminada, a izquierda de cuadro, estaba en f 8 ½.
El contraste del sujeto dependerá tanto de la iluminación de la escena como de los valores de reflexión
de los elemento dentro de cuadro.
Es indispensable conocer este contraste, que nos define al sujeto en términos de luminancia, para
poder calcular la exposición correcta, entendiendo por exposición correcta a aquella que nos entregue la
imagen que estamos buscando.

42
Todas las lecturas se realizaron a 1/50 ISO 100 con un Spotmeter Minolta F.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 84

f 8 1/50 ISO 100


f 11 ½ f4½

f8½

f4

f 22

f2

1,4 2 2,8 4 5,6 8 11 16 22

Contraste del sujeto

Fig. 10

Volviendo al ejemplo de la Fig. 1, donde establecíamos la situación de iluminación de una toma, si


consideráramos que aquello que corresponde a una exposición de f 8 debería dar una señal de valor
medio, como exposición correcta, los restantes valores se podrían graficar de la siguiente forma sobre la
curva (Fig. 11). Como vemos las exposiciones se escalonan formando sus valores de señal
correspondientes. En este caso la imagen se despliega dentro del rango dinámico de los sensores, con lo
cual no hay, aparentemente, pérdida de información ni por sobre ni por sub exposición.
Cuando se calcula la exposición se debe tener en cuenta que información se ubica dentro del rango
dinámico y cual se pierde en sobre o sub exposición, es por eso que es indispensable conocer la respuesta
del dispositivo que se está usando. Estos valore se establecen realizando pruebas en las condiciones reales
de empleo del dispositivo, esto incluye las condiciones de postproducción y exhibición

f 8 1/50 ISO 100


f 11 ½ f4½

f8½

f4

f 22

f2
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 85

0
E
f 22
f 16
f 11
f8
f 5.6
f4
f 2.8
f2
Fig. 11

Si la toma la expusiéramos a f 11, es decir con un punto más cerrado el diafragma el resultado
obtenido sería el que se puede observar en la Fig. 12. Podemos observar que todo el intervalo de
luminosidades del sujeto se ha corrido hacia la izquierda provocando que algunas zonas del sujeto caigan
en subexposición.

f 11 1/50 ISO 100 (-1 f )

f 22 E
f 16
f 11
f8
f 5.6
f4
f 2.8
f2
Fig. 12
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 86

F 4 1 / 50 100 ISO (+2 f )

f 22 E
f 16
f 11
f8
f 5.6
f4
f 2.8
f2
Fig. 13

En la Fig. 13, en cambio, se ha abierto el diafragma dos puntos, f 4, corriendo el intervalo hacia la
derecha y provocando que algunas zonas del sujeto entren en la sobreexposición.

Nota: los gráficos son solo a nivel ejemplo y no han sido establecidos por ningún sistema
sensitométrico.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 87

Fotometría

Los exposímetros o fotómetros

Los fotómetros son los instrumentos que nos permiten relacionar dos variables: la sensibilidad del
material fotográfico y la situación de iluminación.
Básicamente el fotómetro, como su nombre lo indica, mide cantidades de luz. Para ello posee un
sensor, que puede ser una celda fotoeléctrica o un fotoresistor, que permite medir cantidades de luz 43. Un
calculador de exposición relaciona esta lectura con la sensibilidad del material y nos entrega un valor de
exposición expresado en combinaciones de velocidad y diafragma, pares de exposición.
Hay dos formas de efectuar las mediciones de luz y, por lo tanto, dos tipos de fotómetros:

Medición reflejada: toma en cuenta las cantidades de luz que refleja el sujeto hacia la cámara (Fig. 14).

Iluminación

Sujeto Fotómetro

Fig. 14

Para hacer las lecturas el fotómetro se apunta hacia el sujeto desde la dirección de cámara. Esta es la
forma de medición de los fotómetros incorporados en las cámaras.
La referencia del fotómetro de luz reflejada con respecto al material sensible, fotoquímico, es la siguiente:
Toda lectura y cálculo de exposición realizada por estos fotómetros da como resultado una densidad, en el
negativo, aproximadamente en la mitad de la parte rectilínea de la curva sensitométrica, o sea una
densidad media.

0
A Exp.

Latitud

Figura 15

43
Las celdas fotoeléctricas generan electricidad a partir de la luz que reciben y en forma proporcional a la cantidad
de ésta. Los fotoresistores modifica su resistencia a una corriente eléctrica proporcionalmente a la luz que reciben, a
diferencia de las fotocélulas, necesitan de una fuente de energía, batería, para funcionar.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 88

Por ejemplo: si medimos una superficie gris, la combinación de velocidad y diafragma nos daría un
valor de exposición A que nos entregaría , luego del revelado, una densidad d (Fig. 15) . Si midiéramos
ahora sobre una superficie blanca, el fotómetro nos entregaría una combinación de velocidad y diafragma
diferente, diafragma más cerrado o velocidad más alta, de tal forma que el valor de exposición sea
nuevamente A y por lo tanto la densidad obtenida d.

Medición incidente: la medición incidente toma en cuenta la luz que recibe al sujeto, independientemente
de cuanta refleje ( Fig. 16 ), por lo tanto las mediciones se realizan desde el sujeto hacia la cámara.

Iluminación.

Fig. 16

A B Exp.
Latitud

Fig. 17

La referencia del fotómetro de luz incidente con respecto al material sensible, fotoquímico, es la
siguiente: el fotómetro está calibrado de tal forma que una vez establecido el nivel de intensidad de
iluminación nos entregue un valor de exposición que ubique aproximadamente en el medio de la parte
rectilínea de la curva las zonas del sujeto que reflejan el 18% de la luz que reciben.

Por ejemplo: si exponemos un cartón mitad gris del 18% y mitad blanco, con la combinación de
velocidad y diafragma que nos indica el fotómetro, obtendríamos un valor de exposición A para el gris
del 18% con una densidad d y un valor de exposición B para el blanco con una densidad d´ (Fig. 17 ).

Concordancia de las lecturas

Como vemos los dos sistemas de medición toman puntos de partida diferentes, y por lo tanto, su forma
de empleo en la práctica es también diferente. El único caso en que las lecturas incidentes y reflejadas
coinciden es cuando el sujeto refleja el 18% de la luz que recibe.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 89

Control de exposición e imagen en video

El monitor de forma de onda

Si bien en video, a diferencia del cine, el hecho de poder monitorear la imagen que se está registrando
parece simplificar el problema de la exposición veremos que en la práctica, en algunos casos, tendremos
que recurrir a instrumentos. Un buen monitor, bien calibrado, es una buena referencia para trabajos que
impliquen pocas tomas pero cuando estos sean más complejos no podremos trabajar a ojo. Por ejemplo
producciones que requieran trabajar a más de una cámara o que tengamos que hacer recortes por croma
key, en estos casos se hace indispensable trabajar con un monitor de forma de onda. El monitor de
forma de onda es el fotómetro del video.

Señal Campos

Blanco

Negro

Pedestal Sincronismo

Fig. 18

El monitor de forma de onda es el equivalente al fotómetro en fotografía ( Fig. 18 ), en el podemos


visualizar los niveles de luminancia correspondientes a cada una de las líneas que componen la imagen.
El gráfico está graduado en unidades IRE ( Institute of Radio Engineers ) para el sistema NTSC y % para
el sistema Pal. Entre – 40 y 100 IRE, para el sistema NTSC, ó – 40 y 100 % en el caso del sistema PAL.

La señal de video ocupa desde el 0 ( cero ) hasta el 100 %. A un blanco le correspondería una señal de
100 %, valores por encima de este estarían sobreexpuestos, 110 % por ejemplo. El negro en cambio
corresponde a un valor de 7,5 %.

La zona entre 0 (cero) y 7,5 % se denomina pedestal, mas adelante veremos que en algunas cámaras
tenemos la posibilidad de modificar la altura del pedestal para modificar las características del negro de la
imagen.

Por debajo del 0 se encuentran los pulsos de sincronismo que regulan los barridos de la imagen.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 90

En el grafico de la Fig. 18 se pueden ver los dos campos que componen un fotograma en un sistema
entrelazado.
Por ejemplo: en la Fig. 19 podemos observar como graficaría el forma de onda los niveles de un
encuadre que abarca una superficie blanca, uniformemente iluminada, y expuesta en un valor de 100.

Fig. 19

En la Fig. 20, en cambio, la señal está en 7,5 ya que el encuadre abarca una superficie negra.

Fig.20

En la Fig. 21 se ha agregado un cuadrado blanco, expuesto correctamente en 100, y se puede observar


el pico de señal que le corresponde
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 91

Fig. 21

Finalmente, en la Fig. 22 se agrega un rectángulo gris, de aproximadamente 55 de valor de exposición.

Fig. 22

La cebra

En los casos en que no disponemos de un monitor de forma de onda para controlar la exposición
podemos apelar al uso de la cebra, que está disponible en las cámaras de video.
La cebra nos permite visualizar en el visor de la cámara algunos niveles de la señal de video. Desde el
menú de la cámara se programa la cebra para que actúe cuando se llega a ciertos valores de señal, por
ejemplo un 75 % o un 100 %. Cuando arribamos a esos valores en el visor aparecerán unas líneas en la
zona que tiene ese valor de exposición. En la Fig.23 derecha podemos observar como se ve una imagen
en el visor con un f 11 en la cual la zona blanca no ha llegado al 100 %, la cebra estaba programada para
este valor. En la imagen de la izquierda se puede observar como la zona blanca cebrea al abrir el
diafragma a f 6.8.
La cebra es una buena referencia para exponer cuando no se tiene otro elemento a mano.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 92

Fig. 23

Control de la imagen desde el menú de cámara.

En las cámaras para uso profesional tendremos acceso a un menú de opciones de configuración que
nos permitirán trabajar sobre la imagen que obtenemos. La forma de acceso a este menú depende de la
marca y el modelo de la cámara, para obtener estos datos deberán remitirse al manual de operación de la
cámara.
Los parámetros que generalmente se modifican son :

 Shutter ( Obturador ) : controla la velocidad de obturación de la cámara. En las cámaras del


sistema PAL la obturación normal suele ser de 1 / 50 de segundo, las superiores son siempre
múltiplo de 50, por ejemplo: 1 / 100. Al aumentar la velocidad de obturación mejora la fijeza de
la imagen pero también aumenta la posibilidad de tener flickering ( efecto de estroboscopia ) en
los movimientos.

 White balance ( Balance de blanco ) : ajusta el balance cromático de la cámara a la temperatura


de color de la luz que se está empleando para la toma. El preset de la cámara es de 3200º K, o sea
que naturalmente está balanceada para luz artificial. Las cámaras incluyen un filtro 85 para su
empleo en luz día. En general las buenas cámaras tienen dos memorias que nos permiten
almacenar dos balances de blanco. Hay que tener en cuenta que estas memorias no se pierden al
apagar la cámara, algo importantísimo para la continuidad.

 Gain ( Ganancia ) : permite modificar la sensibilidad de la cámara. 0 dB. es la sensibilidad


estándar. Si se aumenta la ganancia, a + 9 ó + 18 dB por ejemplo, se aumenta la sensibilidad, pero
hay que tener en cuenta que también aumenta el ruido en la imagen. Para tener una idea:
aumentar la ganancia + 6 dB. equivale a duplicar la sensibilidad. Si se disminuye la ganancia, a –
3 dB por ejemplo, disminuye la sensibilidad pero también el ruido. En general en trabajos donde
se cuenta con suficiente luz o una cantidad adecuada de faroles conviene trabajar las cámaras en –
3 dB para obtener una imagen más limpia.

 Master black o Pedestal ( Pedestal ) : maneja el pedestal, o sea el nivel de negro de la imagen.
Cero es el valor normal. Valores negativos ( enterrar el pedestal ) oscurecen las áreas oscuras.
Valores positivos ( levantar el pedestal ) aclaran las zonas oscuras. En un monitor de forma de
onda podríamos ver que lo que estamos haciendo es corriendo el nivel de negro hacia arriba o
hacia debajo de los 7,5 IRE. La modificación del pedestal solo afecta a las bajas luces sin afectar
las altas.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 93

 Gamma : controla el contraste de la imagen.

 Knee : controla los picos de las altas luces, o sea todas las exposiciones que estén por arriba de
100 IRE. En un monitor de forma de onda podríamos que en realidad se redondean los picos de
señal por arriba de 100. El knee se debería usar siempre controlando los resultados en un buen
monitor ya que si uno se excede los blancos de la imagen pueden quedar manchados. La
modificación del knee solo afecta a las altas luces sin afectar las bajas.

 Detail ( Detalle) : ajusta el énfasis de los bordes de la imagen. Cero es el valor normal, valores
superiores afilan los bordes, inferiores los ablandan.

 Clear Scan : trabaja junto con el obturador ajustándolo por frecuencias, por ejemplo esto permite
eliminar los barridos cuando se está grabando monitores de computadora.

Existe también la posibilidad de trabajar desde el menú de cámara la colorimetría, es decir el color
general de la imagen, modificado los valores de ganancia y pedestal por cada canal de color.
Generalmente se pueden controlar ganancia y pedestal del canal Azul y del canal Rojo. Esta operación si
bien se puede hacer desde la cámara es mucho más cómoda de realizar desde un RCU ( Control Remoto
de Cámara ) o desde un CCU. Para estar seguros de que el ajuste es el correcto es imprescindible contar
con un buen monitor o un vectorscopio, o mejor aún ambas cosas. Estos controles, junto con un
vectorscopio, son los que se emplean para realizar balances de blanco en forma manual. Como en el caso
de los balances automáticos, la cámara enfoca una superficie blanca iluminada por las luces de toma, en el
vectorscopio podremos ver la señal de la cámara. Manipulando la ganancia y el pedestal de los canales
Azul y Rojo tendremos que ubicarla señal en el centro del gráfico, que es el lugar que ocupa el blanco
( Fig. 3 ). Hecho esto podemos estar seguros que la cámara está balanceada para la luz de toma.

SEÑAL
BLANCO

Fig. 3

En algunas cámaras existe la posibilidad de almacenar estos ajustes en tarjetas de memoria y conservarlos
para aplicaciones futuras o para trasladarlos a otras cámaras cuando se trabaja con multicámaras.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 94

La cámara cinematográfica

El sistema de arrastre de la película

El sistema de arrastre de las cámaras cinematográficas es un sistema intermitente, tiene que avanzar la
película un fotograma y luego dejarla quieta durante la exposición, terminada ésta debe avanzarla
nuevamente otro fotograma y dejarla quieta para la nueva exposición.

Fig. 1

En la figura 1 tenemos el corte esquemático de una cámara cinematográfica. Detrás de objetivo


tenemos un obturador rotativo, que generalmente tiene 180º abiertos, es decir que en cada giro la mitad
del tiempo está abierto y la otra cerrado. Luego tenemos la ventanilla de exposición, que deja abierta la
zona del negativo que se va a exponer, y la platina que es la superficie sobre la que se desplaza la
película. La platina está en contacto con la emulsión de la película, que es su cara más frágil, por lo tanto
su superficie debe ser perfectamente lisa para evitar las ralladuras en la película. Luego tenemos la
película y la contraplatina que es la encargada de mantener la película plana y en contacto con la
platina. La presión que ejerce la contraplatina sobre la película debe ser rigurosamente ajustada ya que si
es excesiva puede rayar la película o si es muy poca la película se mueve y puede afectar tanto al foco
como a la fijeza de la imagen.
El movimiento intermitente de la película está a cargo de la grifa. La grifa trabaja sincronizadamente
con el obturador.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 95

Cuando el obturador está cerrado la grifa


engancha una perforación de la pe lícula y la
arrastra, en el caso de 35 mm cuatro
perforaciones hacia abajo, y luego se retira para
que la película quede fija durante la exposición

Ya con la película detenida se abre el obturador para permitir la exposición del fotograma.
Simultáneamente la grifa se está desplazando para volver a su posición inicial. Cuando el obturador se
ha cerrado la grifa calza en una perforación y desplaza la película nuevamente cuatro perforaciones
para ubicar un nuevo fotograma frente a la ventanilla de exposición. Este ciclo se repite en forma
continua mientras la cámara esté funcionando.

La sincronización entre el obturador y la grifa


debe ser perfecta. Ya que si la grifa mueve la
película mientras el obturador está abierto la
imagen obtenida estará barrida. Cuando esto
ocurre decimos que la cámara está desobturada.

En la actualidad la mayoría de las cámaras poseen doble grifa ( Fig. 3 ), es decir que tiene dos grifas
que toman dos perforaciones, una a cada lado del fotograma, de esta forma la película es arrastrada mas
uniformemente evitando desplazamientos laterales. También poseen una, o dos, contragrifas, que toman
una perforación de la película, cuando esta está detenida, ubicándola siempre en el mismo lugar. La
contragrifa garantiza que los fotogramas siempre ocupa el mismo lugar con respecto a las perforaciones
mejorando de esta forma notablemente la fijeza de la imagen.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 96

Fig. 3

Los motores de cámara.

Los motores de cámara se pueden emplea de dos modos:

Modo constante: el motor trabaja a 24 25 ó 30 fps., según se seleccione, controlado por un cristal
que impide cualquier variación en la cadencia. Este modo es el que más se
emplea. Es imprescindible en el caso de hacer sonido directo durante el rodaje.

Modo variable: este modo se utiliza cuando se desea filmar en una cadencia diferente de los 24 /
25 fps.. Dependiendo del modelo de la cámara la velocidad se varía con un
reóstato incorporado al motor o con un controlador externo. Esta última opción es
la más frecuente ya que los controladores permiten modificar la cadencia más
exactamente, incluso trabajar con decimales, por ejemplo: 33,333 fps.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 97

Iluminación

Introducción

Cuando hablamos de iluminación estamos refiriéndonos a modificar situaciones de luz existentes o a


crear situaciones de iluminación desde cero para obtener un resultado fotográfico determinado. La
iluminación nos va a permitir construir los climas de imagen que requiere la película en la que estemos
involucrados. Lo opuesto a iluminar es lo que se puede llamar fotografía de luz ambiente en la cual el
Director de Fotografía no modifica lo que tiene delante de cámara sino que lo utiliza como está 44. Cuando
iluminamos creamos las condiciones para obtener un determinado tipo de imagen. Cada guión requerirá,
cuando no exigirá, un determinado clima de imagen para dar solidez y ayudar al desarrollo de la historia.
El clima de la imagen es la atmósfera dentro de la cual evolucionan los personajes, el que colabora para
que las situaciones sean felices o miserables. El clima es el que transforma el cartón pintado de los
decorados en lugares con personalidad y textura de realidad o de irrealidad.
El tratamiento de imagen se construye a partir del guión y por eso en iluminación no hay constantes,
cada historia requerirá tratamientos diferentes. No hay recetas que uno pueda seguir, solo hay métodos de
trabajo y elementos técnicos para llegar a la imagen que se necesita.
Cuando iluminamos tenemos el control sobre todos los elementos que construyen la imagen. Por
ejemplo, se puede decidir inicialmente con que diafragma vamos a trabajar para tener la profundidad de
campo que necesitamos, iluminando siempre deberíamos llegar a la imagen que buscamos. Para ello
disponemos, como los pintores, de una paleta de recursos para crear las imágenes, estos son: los sistemas
de registro de imágenes, sean fotoquímicos o electrónicos, las ópticas, la luz y la tecnología disponible
para generarla.
sistemas de registro de imagen, la naturaleza física de la luz y la óptica ya han sido tratados en
capítulos anteriores, ahora nos dedicaremos a lo que hace la luz con los objetos que ilumina y a la
tecnología de los artefactos de iluminación.

Estructura de las sombras

Siempre que haya luz suficiente podremos ver, fotografiar o filmar. Ante la presencia de la luz los
objetos se materializan para nuestros ojos o nuestras cámaras. Cada punto iluminado refleja algo de esa
luz y nos permite ver o fotografiar. Si bien podemos afirmar entonces que la luz nos muestra la realidad,
veremos que la forma que toman las cosas frente a nuestros ojos, o cámaras, está dada por el juego de la
luz con las sombras que ésta proyecta. El volumen y la textura de los objetos dependen de este juego entre
luces y sombras. Podríamos decir que la luz muestra y las sombras caracterizan. Veremos también que
el clima, la atmósfera, de las imágenes también va a depender de este juego. Cuando se está iluminando,
uno está atento a la luz en función de las sombras que proyecta ya que será la relación entre estos dos
elementos lo que nos permitirá obtener la imagen que estamos buscando. Este juego de luz y sombra
depende, básicamente, de dos factores: la dirección de la luz y su textura.

Dirección de la luz

Supongamos el caso de la Fig. 1: la cámara encuadra una esfera y la dirección de la luz coincide con el
eje de cámara. Todas las sombras de la esfera caen detrás de ésta, o sea que son invisibles para la cámara.
El resultado es que lo que vemos se asemeja más a un círculo que a una esfera.

44
Este tipo de luz es el que se emplea, por ejemplo, en los documentales, por problemas prácticos, o en tendencias
como el Dogma, por motivos ideológicos.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 98

Fig. 1

En cambio en la Fig. 2 la dirección de luz forma un ángulo, en éste caso de 45º, con respecto al eje de
cámara. En este caso las sombras son visibles para la cámara, la esfera se ve como tal y no ya como un
círculo.
En ambos casos vemos el objeto que tenemos delante de la cámara pero ha sido la ubicación de las
sombras la que le ha cambiado el carácter , la apariencia de volumen del objeto.

Fig. 2

Entonces, con la dirección de luz podemos modificar la apariencia de volumen del objeto, en algunos
casos lo aplana y en otros resalta sus formas. Aquí debemos remarcar que no siempre es necesario resaltar
las formas o aplanarlas, sólo podemos decir que en iluminación no hay constantes, sólo hay intenciones
con respecto al tratamiento de imagen y mecanismos técnicos para hacer visibles esas intenciones.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018 99

Textura de la luz45

Conjuntamente con la dirección de luz veremos que la naturaleza de ésta, con respecto a su textura,
también modificará la forma en que se ve lo que tenemos delante de cámara. Cuando hablamos de textura
de la luz, nos referimos al tipo de sombras que ésta proyecta. Tenemos dos tipos posibles de luz en cuanto
a textura: la luz puntual o directa y la luz difusa.

Luz puntual o directa

Para hablar de esta luz tendremos primero que definir las fuentes que la emiten, éstas son las fuentes
puntuales. Como su nombre lo indica son aquellas que por sus dimensiones se pueden asociar con un
punto, por ejemplo el filamento de una lámpara de tungsteno, por su pequeño tamaño se puede considerar
una fuente puntual. Las fuentes puntuales emiten rayos que al partir todos del mismo punto nunca se
entrecruzan. En la Fig. 3 una fuente puntual ilumina una esfera que proyecta su sombra sobre un plano.
Como podemos ver, la sombra proyectada es perfectamente definida, tiene un borde neto, una línea, que
separa la luz de la sombra. A este tipo de luz lo denominamos luz directa y a este tipo de sombras tan
definidas sombras duras. La luz directa, por su estructura de sombras, hace que los objetos que tenemos
delante de cámara aparezcan con volúmenes y formas bien definidos.
Las texturas de los objetos se resaltan también con este tipo de luz, ya que, visualmente hablando, una
textura no es más que una sucesión de luces y sombras. Por ejemplo, en un tejido de lana la textura visual
es el juego entre la parte iluminada de cada hebra de lana y su parte en sombra, si esta sombra está bien
definida la textura se verá notablemente.
La luz directa por sus características es muy fácil de controlar, permite iluminar áreas específicas sin
escaparse a las zonas aledañas.

Fig. 3

45
Con respecto al término textura, referido a la naturaleza de la luz en cuanto a la estructura de las sombras que
proyecta, hemos preferido emplearlo en lugar de los términos naturaleza o calidad de luz, que se puede asociar
más con las características físicas de la luz.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018100

Luz difusa

La luz difusa es lo opuesto a la luz directa. La luz difusa proviene de lo que denominaremos fuentes
anchas.

A B
Fig. 4

Las fuentes anchas se obtienen por reflexión difusa o por transmisión difusa 46. En la Fig. 4 A, la luz
proveniente de una fuente puntual es difundida por transmisión. El medio que se emplea es un material
translúcido. En la práctica existen difusores de distintas gradaciones para este fin o más simplemente
papel calco de dibujo.
En la Fig. 4 B, la luz es difundida por reflexión. En la práctica, la luz se rebota contra una superficie
blanca, en general un telgopor.

Fig. 5

46
Existen fuente de luz que, por su forma, dan luz difusa sin necesidad de transmitirlas o reflejarlas, es el caso, por
ejemplo de los tubos fluorescentes.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018101

A diferencia de la luz directa en la luz difusa los rayos de luz provienen de distintos puntos y se
entrecruzan. En la Fig. 5, una esfera es iluminada por una fuente difusa y proyecta su sombra sobre un
plano; podemos observar que la sombra producida no tiene bordes perfectamente definidos sino que
tenemos un degradé de luz a sombra. A este tipo de sombras las denominamos sombras blandas. Cuanto
más ancha sea la fuente con respecto al objeto más blandas serán las sombras.
Con esta estructura de sombras, el volumen de los objetos delante de cámara se suaviza, podríamos
decir que se redondea. Las texturas también siguen el mismo camino siendo menos notables.

El esquema de iluminación

Denominamos esquema de iluminación a la forma en que distribuimos las direcciones e intensidades


de la luz, dentro del campo que encuadra la cámara, para llegar a un determinado efecto fotográfico.
Veremos que independientemente de la complejidad del esquema ( un plano corto puede implicar unas
pocas fuentes de iluminación, en cambio un plano general una gran cantidad) las luces se pueden
clasificar en unas pocas categorías de acuerdo a su función dentro de éste esquema. Podemos decir que
hay jerarquías dentro de las luces que estamos empleando: algunas se colocan para ser bien notables
dentro del cuadro otras para pasar desapercibidas, aunque sean indispensables para el efecto fotográfico.
Estas jerarquías también nos permitirán organizar el armado de la luz en el momento del rodaje. De
acuerdo a su rol dentro del esquema las luces se pueden clasificar de la siguiente forma:

Luz principal ( Key light )47

Como su nombre lo indica es la dirección de luz más importante dentro del esquema de iluminación
que estamos desarrollando. Por ejemplo es la luz del sol entrando por una ventana en un interior día o la
luz que proviene de una única lámpara encendida dentro de un interior noche. Es la que parece provenir
de las fuentes de iluminación que están en cuadro o la que nos sugiere fuentes fuera de cuadro. También
es la que establece la textura general de la imagen ya que es la que producirá las sombras visibles en
cuadro.
Técnicamente la luz principal es la que usamos de base para la exposición, el diafragma de toma será
el que le corresponda al nivel de ésta luz y todos los demás niveles de luz se ajustarán con respecto a éste.

Luz de relleno ( Fill light )

Dentro del esquema de iluminación la luz de relleno se encarga de regular el contraste de la imagen, o
sea la profundidad de las sombras, es decir cuanto detalle permitimos que se vea en las zonas oscuras.
Sabemos que el contraste tiene una gran incidencia sobre el clima final de la imagen: la misma luz
principal con mucho o poco relleno describirá situaciones diferentes. Mucho relleno tiende a aligerar la
imagen en cambio poco relleno, sombras profundas, hace la imagen más densa y en algunos casos más
perturbadora.
El nivel de la luz de relleno, con respecto a la luz principal, para obtener un determinado efecto
fotográfico dependerá de la latitud o el rango dinámico del material sensible que estemos empleando. En
todos los casos el nivel de los rellenos está por debajo del de la luz principal. La relación de niveles entre
la luz principal y el relleno se denomina ratio de iluminación o contraste de iluminación. Este valor
puede expresarse en puntos de diafragma de diferencia entre la luz principal y el relleno, por ejemplo:

Luz principal Luz de relleno Ratio o contraste

f 5.6 f4 1f

47
La luz principal también puede llamarse luz base.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018102

O también como relación matemática:

Luz principal : luz de relleno

2:1

Esto significa que el valor de la luz principal es el doble del de la luz de relleno, a continuación damos
una tabla de equivalencias entre las dos formas para expresar el ratio:

1:1 -

2:1 1f

3:1 1,5 f

4:1 2f

8:1 3f

16 : 1 4f

Algo para tener en cuenta cuando se colocan los rellenos, sobre todo cuando los ratios son bajos, 1 : 2
ó 1 : 3 por ejemplo, es que pueden provocar una segunda sombra del objeto. Por convención se acepta una
sola sombra por objeto, una segunda sombra se ve como un defecto o como algo desprolijo 48. Para evitar
las segundas sombras, o suavizarlas, generalmente se emplea luz difusa en los rellenos, aunque esto no es
una regla fija.

Contraluces ( Back light )

Como su nombre lo indica, son todas las luces que vienen desde atrás del sujeto encuadrado. Su
función es la de separarlos, recortarlos, del fondo. Los contraluces nacieron como una necesidad en los
tiempos de la fotografía blanco y negro. Dos colores que a simple vista son muy diferentes en blanco y
negro pueden dar grises muy parecidos. Por ejemplo un objeto rojo sobre fondo verde: en blanco y negro,
ambos colores darían prácticamente el mismo gris, esto nos traería un problema de separación del objeto
con el fondo. En este caso un contraluz iluminaría el contorno del objeto dibujándolo y separándolo del
fondo. En fotografía color, el problema desaparecería, pero, en muchos casos, uno desea mejorar o
resaltar la separación con el fondo y es allí que los contraluces son útiles.
El problema con los contraluces, cuando se emplea una estética muy naturalista, es que estos no
existen en los esquemas naturales de iluminación y, por lo tanto, pueden resultar un tanto falsos. Una
posibilidad para justificar los contraluces, en éstos casos, es colocar en cuadro alguna fuente de
iluminación que sugiera esa dirección de luz.
48
Esta convención posiblemente provenga de que en la naturaleza, al tener un solo sol, los objetos proyectan solo
una sombra.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018103

En cuanto a niveles los contraluces suelen estar por encima de la luz principal aunque esto no es una
regla fija.

Método de trabajo

Tanto en la preproducción como en el lugar de filmación armar un esquema de iluminación requiere:

 Tener en claro cuál es el clima que queremos conseguir. Este clima deberá surgir de la lectura
del guión y de la discusión de la película con el Director.

 Estar seguros de la respuesta del sistema de registro de imagen que estemos empleando, ya sea
fotoquímico o electrónico. Para esto es conveniente realizar pruebas de cámara y lentes ( en
todos los casos ) y, además, de emulsión y laboratorio ( en el caso de cine ).

 Conocer previamente las locaciones o plantas de decorado y las posibles posiciones de cámara.
Para esto antes de rodaje se realiza una locación técnica que es una visita de todo el equipo
técnico al lugar de filmación en la que el Director explica cómo piensa filmar la película. Esta
visita es mucho más grafica que el guión técnico y permite tomar decisiones más ajustadas a la
realidad, sobre todo en el pedido de luces. Por otro lado también permite realizar un mejor plan
de rodaje.

 Una vez en el rodaje, recordar que en las películas lo que está fuera de cuadro no se toma en
cuenta. Siempre se ilumina para una posición de cámara y un tamaño de plano. No vale la pena
invertir tiempo y esfuerzo en iluminar todo un ambiente para luego sólo realizar un primer plano.

 Cuando en un decorado se deban realizar desde planos generales hasta primeros planos, iluminar,
y si es posible filmar, siempre primero los planos más abiertos. De esta forma faroles, cables, etc.
están ya fuera de cuadro para los siguientes planos, que serán más cerrados, ganando tiempo y
mejorando la continuidad de iluminación. Trabajando de ésta forma podremos rodar toda la
secuencia con el mismo diafragma y sólo si es necesario corregiremos la luz en los primeros
planos, lo cual implica poco movimiento de faroles.

 Al armar la iluminación siempre se debe comenzar por la luz principal, recordemos que es la más
importante y que las demás se colocarán en función de ésta.
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018104

Artefactos de iluminación

Hemos visto que la dirección y la textura de luz modifican la realidad para la cámara y que hay una
sola realidad que se ajusta a las necesidades del guión. La luz que empleamos para construir estos
esquemas de iluminación provendrá de artefactos de iluminación. Actualmente hay a nuestra disposición
una gran variedad de ellos, el secreto para poder llegar fácilmente al efecto buscado será disponer de los
artefactos adecuados en el momento del armado. Cada clase de artefacto será como un pincel, nos dará un
trazo de luz característico. Cada esquema de luz requerirá un tipo de trazo o una combinación de ellos.
Veremos ahora cuales son los artefactos de iluminación existentes y cuáles son, por su rendimiento,
los adecuados para conseguir cada tipo de luz.

Spots

El término spot proviene del inglés y significa punto, estos artefactos tienen el rendimiento de una
fuente puntual. Existen tres tipos de spots, a saber:

Fresnel:

Los spots Fresnel derivan su nombre de la lente de Fresnel 49 que poseen en su boca. Esta lente corrige
la dirección de los rayos de luz que emite la lámpara para formar un haz de luz, de forma cónica, que
puede ser controlado fácilmente mediante las viseras del farol o mediante banderas.

Fig. 1

En la Fig. 1 podemos ver el esquema de un Fresnel. En la boca del farol la lente de Fresnel. La
lámpara, asociada a un espejo esférico, está montada sobre un carro que se puede desplazar hacia delante
o atrás. Este mecanismo permite regular el ángulo del haz de luz del farol.

49
El nombre de esta lente proviene de su descubridor el físico Agustín Fresnel ( 1788-1827 ).
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018105

En la Fig. 2 podemos ver este efecto, cuando


la el carro está más cerca de la lente el haz de
luz se amplía, en este caso decimos que el
Fresnel está desconcentrado. Cuando el carro
se aleja de la lente el ángulo del haz de luz se
reduce, decimos que el farol está concentrado.
Las consecuencias de ésta modificación del
ángulo del haz de luz son:

 Se modifica el tamaño de la superficie


iluminada: concentrando se reduce,
desconcentrando se amplía.

 Se modifica la intensidad de
iluminación sobre la superficie
iluminada: concentrando se aumenta,
desconcentrando se reduce.

Fig. 2

Esféricos:

Los spots esféricos, Fig. 3, esquemáticamente son iguales a los Fresnel, la única diferencia radica en
que la lente es esférica.

Fig. 3
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018106

Estos spots, con respecto a los Fresnel, permiten concentrar más el haz de luz. Tienen el inconveniente
de producir un arco iris en el borde del haz, es por esto que en general se los utiliza en iluminación de
teatro donde este defecto pasa desapercibido.

Abiertos:

Los spots abiertos, Fig. 4, no poseen lente en la boca, su rendimiento depende directamente de la
forma del espejo.

Fig. 4

A diferencia de los Fresnel el haz de luz que


producen no es fácil de controlar con las
viseras, ya que el espejo dispersa los rayos de
luz en forma mucho más desorganizada.

Para concentrar o desconcentrar el haz de luz,


Fig. 5, el espejo se desplaza hacia delante (
concentra ) o atrás ( desconcentra ). En
estos artefactos la lámpara está fija.

Cabe aclarar que el efecto de concentrar o


desconcentrar no es tan notable como en los
Fresnel.

Fig. 5
Eduardo Kearney. Teoría básica de Fotografía y cámara 1 2018107

Soft light

Llamamos soft light a todos los artefactos en los que la lámpara no ilumina directamente sino que lo
hace por reflexión, Fig. 6. La luz de estos artefactos se puede considerar difusa siempre y cuando las
dimensiones del espejo sean lo suficientemente grandes 50 con respecto a lo que se tiene que iluminar.

Fig. 6

Estos artefactos, en general, tienen un rendimiento luminoso bastante pobre, ya que se pierde mucha
luz en la reflexión.

Par light

Los Par light o Par ( Fig. 7 ) son artefactos que están entre los spot abiertos y los Fresnel. Poseen un
espejo cónico que le da un excelente rendimiento lumínico y en su boca poseen una lente que tiene muy
poco efecto óptico pero que trabaja como filtro UV ya que generalmente tienen una lámpara HMI. Estos
artefactos vienen acompañados de un juego de lentes para colocar delante del farol. Generalmente las
denominamos lupas, y su función es óptica y permite modificar el ángulo del haz de luz, incluso trae una
lente Fresnel. Son faroles de muy alto rendimiento y en general se emplean para relleno de luz en
exteriores.

Fig. 7

50
Ver capitulo Iluminación, Luz difusa.

You might also like