You are on page 1of 36

T.

1 INTRO: HISTORIA Y ENFOQUE PERCEPCIÓN VISUAL


Lo que nos interesa es prestar atención a las ideas generales, a los conceptos básicos de nuestro campo de estudio.
2. INFLUENCIAS INICIALES
Las primeras teorías científicas de la percepción estuvieron influidas por teorías previas basadas en el sentido común y la
reflexión filosófica. Para la filosofía, el estudio de la percepción formaba parte de la teoría del conocimiento que se
interesaba por justificar su validez. ¿En qué medida podemos confiar en nuestros sentidos de que nos dan un conoc válido
del mundo? y, al intentar contestarlas, la reflexión filosófica moderna se polarizó en 2 posturas contrapuestas:
1) Para el racionalismo, los sentidos no eran una fuente fiable de conocimiento. No es q nos engañen, xo pueden hacerlo
y, por tanto no pueden ser el fundamento del conocimiento cierto. El conocimiento es indudable pero con el fundamento en
la razón, no en los sentidos. Descartes (racionalista), encontró en el hecho de pensar el fundamento de toda certeza. El
razonamiento nos da un conoc más fiable q el de los sentidos. La mente está dotada de ideas innatas q no dependen de la
exp sensorial, y q son el fundamento de nuestras certezas más fundamentales.
Lo q tiene importancia es q el racionalismo da una importancia fund, al explicar la naturaleza de nuestro conocimiento, a:
- los procesos de pensamiento.
- los factores innatos.
2 problemas fundamentales en el estudio de la percepción tienen que ver, por un lado, con el grado de implicación que los
procesos cognoscitivos relacionados con el pensamiento tienen en la percepción, y, por otro lado, con el grado de
dependencia que la percepción tiene respecto de factores innatos.
2) Para el empirismo el conocimiento cierto no era posible. Se interesaron más por saber cómo era nuestro conocimiento y
valorar dp el grado de certeza q podía ofrecer. Su punto de partida: todo conocimiento empieza por los sentidos. No existen
ideas innatas, todo conocimiento procede de la experiencia y la exp es inicialmente sensorial.
Para ellos las sensaciones eran los elementos irreductibles del conocimiento, y que el conocimiento complejo era resultado
de la asociación de diferentes sensaciones simples.
El concepto de sensación de la filosofía empirista encontró apoyo en los descubrimientos q en el sXIX realizó la fisiología
de los sentidos:
Charles Bell en 1811 y François Magendie 11 años dp demostraron que las funciones sensoriales estaban mediadas por un
conjunto de nervios que eran diferentes de los que mediaban las funciones motoras.
Müller en 1820 formuló la doctrina de la energía específica de los nervios según la cual cada sensación estaba determinada
por la actividad específica de los nervios sensoriales que le servían de medio de transmisión, independientemente de cual
fuera el estímulo q causara esa actividad. Aunque esta doctrina de Müller no es aceptada, contribuyó a fomentar la invest
xa determinar los diferentes sentidos o modalidades sensoriales y estudiar la forma en que los efectos producidos por un
objeto percibido eran transmitidos hasta el cerebro mediante los nervios sensoriales.
En el proceso de determinar cuáles eran las sensaciones elementales, los fisiólogos y los físicos del siglo XIX prestaron at
a la sensación misma como hecho mental o dato de consciencia e idearon proceds experimentales xa estudiarlas.
Resultado de ese esfuerzo, aparecieron un conjunto de métodos y de resultados q dieron origen a la psicofísica.
E. Weber estaba interesado en estudiar si los nervios que responden al estado de nuestros músculos, también contribuyen a
nuestro sentido del tacto cuando tratamos de juzgar el peso de los objetos. Weber introdujo el concepto de diferencia
apenas perceptible y comprobó q no era una cantidad absoluta sino q se aproximaba a una razón constante del peso que se
estaba juzgando. Dp Fechner publicó sus Elementos de Psicofísica, libro fund en la historia de la P de la percepción y de la
P experimental en general. A partir de Fechner, la psicofísica quedó establecida como disciplina interesada en establecer
las rels matemáticas precisas entre los estímulos, medidos en escalas físicas, y las sensaciones evocadas por esos estímulos,
medidas en escalas de sensación. Los métodos para construir escalas de las sensaciones y los resultados principales,
representados por la Ley de Fechner, forman parte del patrimonio de la psicofísica actual.
El concepto de percepción tardó más en acuñarse que el de sensación. Reid distinguió entre sensación y percepción. Para
Reid, la percepción es mucho más que una sensación, aunque depende de las sensaciones.
La percepción incluye dos elementos que no están presentes en la sensación:
1º: una concepción del objeto.
2º: una irresistible convicción de la existencia de ese objeto.
Por tanto, diferenció claramente entre sensación y percepción incluyendo en la percepción tanto la categorización del
objeto como su existencia objetiva. Una idea que Reid consideraba filosóficamente crucial, cuando pensaba q la existencia
real de los objetos es percibida directamente, ha tenido una influencia muy importante en la formulación de la teoría de la
percepción directa que, como veremos, llevó a cabo a mediados del siglo xx James Gibson.
3. LA TEORÍA CLÁSICA
Formulada en la 2ª mitad del sXIX por Helmholtz y reelaborada por W. Wundt. Patrimonio común de casi todos los
teóricos de la percepción y sus ideas centrales han sido reformuladas hasta hoy.
En 1856 Helmholtz publicó su Tratado de Óptica Fisiológica y en 1863 su libro Sobre la Sensación de Tono. Ambas el
fundamento de la moderna invest científica de la percepción visual y auditiva respectivamente.
En su Tratado de Óptica Fisiológica trató los problemas más elementales de la sensación y los problemas más complejos
de la percepción como parte de una única disciplina fisiológica. El 3r volumen de su Tratado estudia problemas q han
pasado a formar parte de los textos de P de la percepción y han desaparecido de de fisiología. Resultado de la progresiva
especialización que caracteriza al desarrollo de la ciencia, no debe ocultar el valor de la concepción unitaria de Helmholtz,
para quien el uso de métodos conductuales o introspectivos no suponía un cambio de disciplina sino el desarrollo de la
fisiología por otros medios.
El interés por fundar una ciencia específica de lo mental, basada en el uso de la introspección como método adecuado fue
cosa de Wundt, discípulo de Helmholtz. En 1874 publicó sus Fundamentos de Psicología Fisiológica y en 1879 fundó el
primer lab dedicado al estudio de la psicología experimental. A partir de Wundt, la investigación psicológica de la
percepción inició un rumbo particular que, casi siempre en contacto con los principales descubrimientos fisiológicos, pero
tiene su propia historia. En este nuevo contexto, la formulación de la teoría clásica de la percepción por el discípulo de
Wundt, Edward Titchener, suele conocerse con el nombre de estructuralismo.
En general el punto de vista clásico afirma q nuestra percepción de los objetos y de los eventos está det por estructuras
mentales resultado de un proceso de aprendizaje perceptivo a partir de exps sensoriales elementales, no innatas.
El punto de vista clásico fue, en su origen empirista y trató de integrar en una teoría unitaria las principales aportaciones
que el desarrollo científico del momento podía hacer al estudio de la percepción. 3 aspectos de la teoría merecen atención:
1) La sensación como unidad de análisis xa la teoría clásica la invest perceptiva debe empezar x analizar las sens básicas.
1º diferenciar las modalidades sensoriales y dp subdividir cada modalidad en sus difs sens elementales. Esto exigía buscar
en primer lugar los Es físicos más simples que fueran capaces de evocar una sensación, después había que investigar los
receptores elementales que responden a ese estímulo. Dado q Müller afirmaba q cada sensación era el resultado de una
energía nerviosa específica, parecía lógico pensar que a partir del análisis de las sensaciones se podría llegar a determinar
esas energías. Para ello, los conceptos de umbral absoluto y de umbral diferencial acuñados por la psicofísica, así como
los métodos para medirlos, eran imprescindibles. Los primeros resultados parecían prometedores.
Pero el concepto de sensación no estaba libre de problemas. Por un lado, el análisis de las sensaciones llevó a describirlas
en términos de atributos. Külpe utilizó de forma sistemática el término atributo para caracterizar las sensaciones. Los
atributos no son entidades separables, son aspectos diferentes de la sensación q pueden variar de forma más o menos
independiente, pero q son necesarios para que dé una sensación. Una sensación sin cualidad o sin intensidad no es una
sensación aunq ambos aspectos pueden variar de forma muy diversa. Para Külpe, las sensaciones correspondientes a los 5
sentidos necesitan tener 3 atributos: cualidad, intensidad y duración. Además, la visión y el tacto, poseían un 4º atributo: la
extensión. Al incluir la duración y la extensión, hizo concesiones a las posiciones innatistas q consideraban q el espacio y
el tiempo no dependían de la experiencia, sino q estaban dadas en la propia estructura mental. Vemos pues, q en el análisis
de la sensación, la teoría clásica se encontró con las limitaciones de un empirismo radical.
Otro aspecto que contribuyó al declive del concepto de sensación era q para considerar a las sensaciones como unidades
fundamentales, es que no podemos distinguirlas una vez que entran a formar parte de un compuesto. Como veremos al
tratar del color, que era considerada una de las sensaciones más simples, la mezcla de colores fundamentales produce un
nuevo color pero en el nuevo color no hay rastro de las sensaciones correspondientes a los colores que producen la mezcla.
Para Titchener, para quien la introspección debía servir siempre para aislar las sensaciones cs, cada matiz distinto de color
era una sensación elemental diferente. Para Helmholtz, los resultados de los experimentos de mezcla de colores eran más
fiables q la introspección para detectar los cs elementales y, en el caso del color, sólo había 3 cs elementales. ¿Había, por
tanto, sólo 3 sensaciones de color? El problema es que la idea de q las sensaciones constituían los elementos irreductibles
de la experiencia consciente, se encontraba con problemas de difícil resolución.
2.2 La percepción como síntesis de sensaciones: es importante distinguir entre E distante y E próximo, hacen referencia:
E distante propiedades físicas de los objetos mismos: tamaño, forma, distancia a la que está del observador, etc.
E próximo propiedades de la estimulación que actúa sobre nuestros receptores. En el caso de la visión, ej, el E próximo
hace referencia a la imagen del objeto que se proyecta sobre la retina de los ojos.
En la percepción, las características más importantes que captamos de los objetos son sus características distantes. Lo que
se nos impone en la percepción visual son características que pertenecen a los objetos, no a nuestras imágenes retinianas.
¿Cómo es posible llegar a captar esas características a partir del estímulo próximo? Esta pregunta encontró en la teoría
clásica una respuesta basada en el A. La percepción de las características distantes no son una respuesta sensorial directa,
sino una percepción compleja aprendida. La percepción visual de los objetos se compone, por tanto, de sensaciones
visuales no espaciales, como el matiz o el brillo, y de imágenes de sensaciones no visuales q han estado característicamente
asociadas con esas sensaciones en la experiencia previa con esos objetos.
Un fenómeno de importancia es el de las constancias. Percibimos constante el color de un objeto a pesar de los cambios en
la iluminación, o el tamaño de ese mismo objeto a pesar de q se nos muestre a distancias difs. En éstos casos, los cambios
en el E próximo no determinan nuestra percepción. ¿cómo es posible la constancia de estas percepciones? Helmholtz lo
explicó tb en términos de A y formuló una regla: el principio de verosimilitud: percibimos aquellos objetos y eventos q,
bajo condiciones normales, serían los q produjeran el conjunto de estimulación sensorial efectiva q estamos recibiendo. Es
decir, acabamos percibiendo las características de los objetos q, sobre la base de la experiencia previa, son más probables.
2.3 La inferencia inconsciente Helmholtz tb dió una teoría sobre la forma en que nuestro sistema perceptivo aplicaba la
regla. Ej, cuando percibimos un objeto del mismo tamaño a pesar de sus cambios en la distancia a q está de nosotros, es pq
hemos aprendido a hacer algo q produce el mismo resultado que “tomar en cuenta la distancia”. De forma parecida, cuando
un papel continúa viéndose blanco a pesar de q lo vemos bajo una luz tenue, es pq hemos aprendido a tomar en cuenta los
cambios en iluminación. Pero Helmholtz no pensaba q “tomar en cuenta” la distancia o la iluminación fuera un acto
consciente de reflexión sobre la sit, sino de una inferencia inconsciente a partir de sensaciones q nos pasan desapercibidas.
La explicación de Helmholtz fue en su momento, y continuó siéndolo durante mucho tiempo, una fuente de controversia.
Cuando se formuló, hablar de sensaciones imperceptibles resultaba contradictorio en sí mismo para los que creían que la
sensación era el elemento constitutivo de la percepción. Otros consideraron q la explicación era demasiado complicada y
especulativa. Pero la explicación de Helmholtz tb tuvo defensores, aunq se ha reformulado de maneras diferentes.
Helmholtz describió el proceso perceptivo usando los términos que le daba la P de su tiempo, y lo describió como si fuera
un proceso de resolución de problemas, que es el resultado de la exp previa pero q se desencadena al margen de la voluntad
consciente del observador. Todo el aparato conceptual de hoy cuando hablamos de A implícito y de hs automáticas, le
habría sido de gran utilidad.
La teoría de la percepción de Helmholtz es una teoría muy cargada de elementos cognitivos. Para Helmoltz, la percepción
no estaba determinada por los procesos sensoriales sino por toda la estructura mental que él resumió en el concepto de
inferencia inconsciente. El E próximo es pobre en cuanto a la inf q da y necesita ser completado por toda la constelación de
conocimientos sobre el mundo q nuestra experiencia nos ha ido dando. Esta forma de pensar, basada sobre la pobreza de la
estimulación y la importancia del conocimiento para determinar lo que percibimos, es todavía hoy muy importante.
3. 1ª MITAD SXX
La teoría clásica de la percepción no pasó sin críticas por el siglo XIX. Hemos visto, al hablar de la sensación, que las
discusiones en torno a la mezcla de colores arrojaron serias dudas sobre la validez del concepto mismo de sensación
elemental y sobre la forma de determinar la existencia de elementos. Una importante contrapropuesta a la teoría
tricromática de Helmholtz, fue la teoría de los procesos oponentes formulada por Ewald Hering. Pero hubo que esperar al
sXX para que se desarrollara una alternativa teórica que representara un reto global a las posturas defendidas por la teoría
clásica. Esta alternativa estuvo representada por la teoría de la Gestalt.
3.1 La Teoría de la Gestalt: los postulados principales del racionalismo hicieron su aparición en el campo de la invest
científica de la percepción de la mano de la P de la Gestalt. Para la Gestalt las sensaciones, consideradas cm elementos de
la vida anímica, eran inexistentes. Gestalt significa configuración o forma total. Refeja su interés x centrar la invest
perceptiva en el estudio de las rels q estructuran las difs partes de una escena, más q en los els sensoriales q la componen.
Fenomenología: para la teoría clásica, la introspección era el método de la P para la investigar la percepción. Pero la de los
estructuralistas, requería un largo entrenamiento, durante el cual el observador aprendía a observar sus propios estados
mentales. Este entrenamiento con frecuencia le inducía una tendencia a percibir sus estados mentales de acuerdo con sus
inclinaciones teóricas, influyendo en los resultados.
Para la Gestalt, la experiencia consciente del observador tb era la fuente principal de datos de la investigación psicológica.
Pero estaba interesada en los datos de conciencia tal como aparecían de forma inmediata, sin contaminar con prejuicios
teóricos. Más q de introspección, debe hablarse de descripción fenomenológica para marcar la diferencia entre la
introspección clásica y la actitud de auto-observación de los gestaltistas. Para ellos, no se trataba de forzar a discriminar las
sensaciones elementales, sino de respetar los datos inmediatos de la misma y describirlos lo más objetivamente posible.
Configuración: los principales líderes de la Gestalt, Wertheimer, Kohler (1929) y Kofka (1935), rechazaron los supuestos
fundamentales de atomismo y empirismo de la teoría clásica. Lo importante en la percepción es la configuración del campo
perceptivo, la forma en que se relacionan los componentes de la escena, la totalidad estructurada por esas relaciones. Para
los gestaltistas, el todo es diferente de la suma de sus partes porque las relaciones entre los cs provocan la aparición de
propiedades emergentes, pertenecientes a un conjunto como tal pero q ninguno de los cs del conjunto posee por sí mismo.
Una persona puede percibir que la intensidad de un estímulo es mayor que, igual o menor que la intensidad de otro sin
necesidad de conocer los valores absolutos de intensidad de ninguno de ellos.
Los gestaltistas también rechazaron la analogía química que había utilizado la teoría clásica al considerar la percepción
como un compuesto formado por sensaciones elementales. Ellos preferían analogías tomadas de la física y hablaban del
campo perceptivo como si fuera semejante a los campos magnéticos o eléctricos. Ej: la presencia de una partícula con
carga eléctrica positiva, define un campo eléctrico a su alrededor. Si se añade una segunda partícula, la estructura del
campo se modifica y lo hace de distinta forma dependiendo de que la carga de la segunda partícula sea igual o diferente de
la de la primera. De forma parecida, en la Figura 1.1 A podemos ver un campo visual formado por un elemento que es la
letra K. En B, la percepción predominante es la de un rombo flanqueado por dos líneas verticales.
Pero el rombo surge por la adición de otra letra K rotada 180 grados y yuxtapuesta a la anterior. En
B, la identidad de cada letra individual se pierde porque la relación espacial entre las dos letras da lugar a la percepción del
rombo. Si, en vez de estar juntas, aumentáramos la distancia entre las letras, como en C, cada una recuperaría su identidad
como una letra K. La teoría de la Gestalt hizo aportaciones muy importantes a la invest de la percepción. Sus principios de
organización, a veces llamados leyes, constituyen aún hoy una importante materia de estudio y de investigación.
Innatismo: la Gestalt tb rechazó el empirismo. Para ellos, los principios organizadores de la percepción no tenían su origen
en la experiencia, ni del A previo. Sino resultado de la interacción de las estructuras cerebrales con el medio ambiente y
esas estructuras eran innatas o, a lo sumo, fruto de la maduración. Kohler, recurrió a la estructura de los mecs cerebrales a
la hora de explicar los fenómenos perceptivos. Consideraban que el cerebro era un ej de Gestalt física, es decir un sistema
físico q funcionaba como una totalidad dinámica q tendía hacia un estado de equilibrio de energía mínima. Además,
pensaban q los mecs causales subyacentes a los procesos perceptivos eran campos electromagnéticos generados por la
actividad de las neuronas. Esos campos también tenían las propiedades de una Gestalt física. La semejanza entre la
dinámica de los campos electromagnéticos cerebrales y la de los campos perceptivos, les llevó a formular su doctrina del
isomorfismo psicofísico. Esta doctrina afirma q tanto en el caso de la percepción del espacio como en la del tiempo o en la
de la forma, la org del campo perceptivo era una verdadera representación de la org dinámica de los procesos fisiológicos
subyacentes. Se da por tanto una igualdad de forma o isomorfismo entre el func del psiquismo y el func del cerebro, lo q
permite inferir la naturaleza de los procesos cerebrales a partir del análisis de las leyes q configuran el campo perceptivo.
Eran perfectamente conscientes de que en la percepción se producían fenómenos como las constancias o las ilusiones. La
explicación que dieron no se basaba en la experiencia, como Helmholtz y los empiristas, sino en las propiedades dinámicas
del cerebro como una Gestalt física. En oposición al principio de verosimilitud, formularon el principio de Pragnanz, q tb
se suele denominar el principio mínimo: establece que, en sits en las q son posibles más de una interpretación de la escena
visual, el sistema perceptivo impondrá la interpretación más simple. Es un principio coherente con una forma de pensar
que considera el func de la mente isomórfico con el func del cerebro y a éste como un sistema dinámico q tiende a un
estado de energía mínima.
3.2 El conductismo
Para la teoría clásica de la percepción, al igual que para la Gestalt, los datos fundamentales de la investigación eran los
datos de consciencia, por eso sus principales aportaciones están hoy en el campo de la percepción. Pero para el
conductismo los datos fundamentales están en la conducta y se centró en los factores que la modifican. Por eso, realizaron
sus principales aportaciones en el campo del A y de la motivación. Sus aportaciones al estudio de la percepción fueron
escasas y en ningún caso comparables a la aportación de las teorías anteriores. Nunca formularon una teoría conductista de
la percepción. Su interés se focalizó casi sólo en la relación entre Es y Rs pero en la práctica siempre usó Es muy simples,
en los q se manipulaba una sola dimensión, y Rs cuyo aspecto más interesante era el carácter mensurable de su resultado y
la forma en q podía ser moldeada para lograr ese resultado.
Pero no debe pasarse por alto su aportación metodológica. Con el estudio de la conducta, abrió a la P un campo de invest
sin explorar, introdujo rigor en la experimentación y precisión en las medidas y en el lenguaje. Exageró al exigir q la P se
limitara al estudio de la conducta, pero el estudio de la conducta ha sido desde entonces crucial para el desarrollo de la P.
El conductismo la redujo la investigación perceptiva al estudio de la conducta discriminativa y de esta conducta lo que más
le interesó fue su adquisición y el análisis de las variables q determinaban el control de la conducta por parte de los Es.
Pero cometieron el error de pensar que los Es manipulados por el investigador, que podemos llamar estímulos nominales,
eran lo mismo que los estímulos funcionales, que son los que realmente influyen en el organismo, con lo cual pasaron por
alto el problema central del estudio de la percepción, que es la relación entre ambos tipos de Es.
Desde el punto de vista metodológico, el conductismo ayudó a valorar la importancia de las tareas experimentales y el
análisis de las variables que las afectan. Pero lo importante de las tareas es su capacidad para informar de los procesos que
intervienen en ellas y la explotación de esa capacidad no la pudo llevar a cabo el conductismo.
3.3 Teoría de la percepción directa
Tb conocida como teoría ecológica de la percepción, desarrollada durante muchos años por James J. Gibson, muy
influenciado por la teoría de la Gestalt y el conductismo. De la teoría de la Gestalt, adoptó su oposición a toda postura
atomista. Pero al contrario que los gestaltistas, no creía q el fundamento de la teoría perceptiva estuviera en la estructura
del organismo, sino en el estudio del medio ambiente en el que el O está inmerso. Se trata, por tanto, de analizar a fondo la
estimulación para localizar la inf relevante en cada sit.
Percepción ecológica Gibson piensa que el análisis perceptivo debe centrarse en la conformación óptica ambiental. Con
este término quiere indicar el patrón global de la estimulación, por oposición a aspectos parciales como son las
sensaciones. Éstas se definen en términos de luminancia, mientras que la conformación óptica se mide en términos de los
márgenes existentes entre áreas de diferente luminancia. Las luminancias cambian con cambios en la iluminación, mientras
que la conformación óptica permanece invariante ante esos cambios. La conformación óptica es un concepto relacional,
mientras que las luminancias son las cantidades de luz medidas por un fotómetro.
Gibson estaba convencido de que el patrón de estimulación q llega a los sentidos, lejos de ser pobre en inf, como pensaba
Helmholtz y los clásicos, contiene toda la inf necesaria para determinar qué ha de percibirse en una situación det.
La supuesta pobreza del estímulo es, según Gibson, el resultado de estudiar la percepción en condiciones restrictivas en las
q se priva al O de inf q está disponible en condiciones normales de la vida cotidiana. La teoría clásica ha fomentado invests
en las q un observador estático, mirando x un orificio, tiene acceso a una inf peculiar de un punto de vista det.
La percepción cotidiana, sin embargo, es una percepción dinámica q cambia a medida q el observador se mueve con
respecto a la escena total, y ese tipo de percepción es el q debemos estudiar.
Gibson trató de ofrecer una óptica ecológica como alternativa a la óptica geométrica utilizada por la teoría clásica. La
óptica geométrica, en lugar de tratar la luz en términos de onda o corpúsculo, construye sus representaciones sobre el
concepto de rayo de luz. Dado que la trayectoria de un rayo corresponde aprox a la de un fotón, la óptica geométrica
puede utilizar líneas rectas para representar esas trayectorias y emplear técnicas geométricas para poder predecir con
aceptable aprox la posición de las imágenes formadas por los sistemas ópticos. La óptica geométrica trata el ojo humano
como un caso particular de cámara oscura y ha contribuido a popularizar la semejanza entre el ojo y la cámara fotográfica y
entre la imagen retiniana y la imagen impresa en una fotografía. Para Gibson, la utilización de la óptica geométrica como
base para la descripción de los estímulos es un error porque está fundamentada en abstracciones que no pueden captar la
riqueza de la conformación óptica ambiental. La óptica geométrica es una ciencia de la luz, no una ciencia de la visión. La
ciencia de la visión necesita hacer referencia al organismo y a la relación del organismo con el medio. Una óptica adecuada
a una teoría de la percepción visual necesita hacer referencia a la forma particular en que se configura para el organismo el
ambiente con el que interactúa. Para ello se necesita una óptica ecológica.
La óptica ecológica de Gibson está organizada en torno a 2 conceptos funds: información y propiedad funcional.
Introdujo el concepto de información en contraposición al concepto de energía. La energía es la estimulación apropiada
para las células receptoras; los receptores responden a una energía particular. Sin embargo los órganos sensoriales son
sistemas perceptivos que responden a estímulos de un orden superior al de los estímulos de los receptores. Los sistemas
perceptivos responden a la inf que hace referencia a los objetos mismos. El concepto de información en Gibson no es el
concepto formal introducido por la teoría matemática de la información. Gibson utilizó el término para acentuar el carácter
objetivo de la percepción en cuanto que ésta nos informa acerca de los objetos. La inf en Gibson es “información sobre
algo” y únicamente significa “especificidad respecto de algo”. Al afirmar q los sentidos perciben inf sobre los objetos,
quiere poner de manifiesto que, por ser sistemas perceptivos y no simplemente órganos receptores, los sentidos son
capaces de captar características reales de los objetos que no nos son dadas propiamente en la energía que llega a nuestros
receptores sino en las relaciones que determinan la estructura de la conformación óptica. Cómo es posible que los sentidos
lleguen a captar esta inf es un problema que veremos más adelante.
En su último libro La aproximación ecológica a la percepción visual, Gibson introdujo el concepto de affordance como una
extensión del concepto de inf. Al igual que la inf, las propiedades funcionales q constituyen una affordance están
especificadas en la estructura de la conformación óptica, pero añaden un aspecto que las cualifica: son invariantes q están
en consonancia con el cuerpo del observador mismo. Gibson da ejemplos de varias propiedades funcionales de superficies,
tales como “sentarse sobre ella” en el caso de una silla, “subir por ella” en el caso de una escalera de mano o incluso
“introducir en su interior” en el caso de un buzón de correos. Gibson mantiene que nuestro sistema perceptivo es ca- paz
de captar estas propiedades directamente. Vemos, por tanto, que la idea central de Gibson consiste en remachar que la
investigación de la percepción debe centrarse en estudiar las propiedades de nuestros sentidos considerados como sistemas
perceptivos, es decir como totalidades dinámicas estructuradas cuya capacidad de captar inf y propiedades funcionales
sobrepasa con mucho la de sus componentes. Pero considera que este objetivo investigador no se logrará a base de
descomponer el sistema y ver lo que tenemos “dentro de la cabeza” sino estudiando el medio ambiente, dentro del cual se
encuentran inmersos nuestros sistemas perceptivos.
Percepción directa es el segundo punto fund en la teoría de Gibson, el carácter directo que atribuye a la percepción.
Hemos visto que para la teoría clásica la estimulación es pobre a la hora de informarnos sobre el medio y que necesita
suplir esta deficiencia con inf proveniente de nuestros recuerdos y, en general, con la experiencia acumulada. Nada de esto
es necesario para Gibson. Lo q percibimos está perfectamente det por la particular conformación estimular que en un
momento det nuestros sistemas perceptivos captan. No necesitamos recurrir a recuerdos, o pens xa explicar la percepción.
Al decir que la percepción es directa, quiere decir que toda la inf necesaria para determinar la percepción se encuentra en el
medioambiente y que no necesitamos recurrir a procesos del organismo para su explicación:
Cuando afirmo q la percepción del medio es directa, quiero decir que no está mediada por imágenes retinianas, imágenes
neuronales o imágenes mentales. Percepción directa es la actividad de obtener la inf de la conformación óptica de la luz.
Llamo a esto un proceso de captación de inf q implica la actividad exploratoria de buscar, explorar y mirar a las cosas.
Dos aspectos a ser resaltados:
1) su oposición a cualquier tipo de mediación basada sobre representaciones: esto lo enfrentó a las teorías del
procesamiento de la inf q han predominado desde mediados del siglo XX. Tb con la investigación neurofisiológica que,
con una mentalidad analítica, trata de estudiar los cs de los sistemas perceptivos y sus funciones en la percepción. En su
afán por evitar toda referencia a procesos intermedios entre la estimulación y la experiencia perceptiva, prácticamente
ignoró todo un conjunto de datos fisiológicos que, en nuestra opinión, no se pueden ignorar. Con respecto a las
investigaciones neurofisiológicas mantuvo en percepción una postura similar a la mantenida por los primeros conductistas
respecto al aprendizaje: no proporcionan datos relevantes para una teoría de la percepción.
2) su concepción de la percepción como un proceso activo el término activo lo usa para poner de manifiesto la importancia
que la locomoción del observador tiene para cambiar el patrón estimular y para especificar la inf presente, por ej, en el
flujo óptico. Tb lo usa para reconocer la importancia q la motivación puede tener para captar una det propiedad funcional
en el estímulo. Pero en sí mismo el acto de percibir no es activo en el sentido constructivista que dio a este término la
teoría clásica. Para ésta, la percepción es activa en cuanto q es una síntesis de la inf proporcionada por los sentidos y la
proporcionada por la exp previa del observador. Para Gibson toda la inf está en la estimulación, el observador no aporta inf
alguna sino q se limita a captar aquella inf con la que se encuentra en sintonía. Gibson, al igual q T. Reid, es un realista.
La teoría de Gibson es más fuerte en lo referente a su posición ecológica que en su defensa de la percepción directa. Su
influencia ha sido importante y amplia en el estudio de la percepción aunque sus posturas extremas respecto al papel de las
representaciones no son mayoritarias. Su despreocupación por incorporar los datos de la fisiología en la teoría de la
percepción, además de privarle del respeto de los fisiólogos, es compartida por muy pocos psicólogos.
3.4 otras influencias
Aunq nos hemos centrado en las aportaciones nuevas de mitad del sXX, muchos continuaron trabajando dentro del
programa de invest planteado por la teoría clásica. En este contexto distintas formas de funcionalismo que concebían el
proceso perceptivo como una transacción en la que los estímulos y el observador se implican mutuamente de forma que
para definir el E funcional o efectivo para un det observador es necesario conocer su conducta previa. Así, E y conducta se
encuentran inmersos en un círculo de interacción que determina su definición mutua. Este transaccionalismo, tuvo su
origen en el filósofo J. Dewey.
También muy influyente fue el funcionalismo probabilista formulado por Brunswick quien, al igual q Gibson, acentuó la
importancia de estudiar sits ecológicamente válidas, en las que la estimulación no estuviera empobrecida sino que fuera
representativa de las sits en las q el O vive y de las q el investigador quiere generalizar sus conclusiones. Brunswick tb
estuvo muy interesado en reformular la teoría perceptiva de Helmholtz dejando de lado sus sensaciones elementales y sus
mecanismos sensoriales. Pensaba que el aprendizaje perceptivo es el proceso que lleva al organismo a confiar en aquellos
indicios o claves estimulares q están altamente correlacionadas con alguna propiedad física de los objetos o de los eventos.
A pesar de que el concepto de sensación, entendido como elemento c de la percepción, fue progresivamente abandonado, el
estudio, dentro de cada modalidad sensorial, de las respuestas a cambios en aspectos simples de la estimulación, continuó
siendo tarea de la psicofísica. Una aportación importante a su desarrollo, que estudiaremos en la sección de métodos en
este libro, fue la aparición de los métodos directos ideados por S.S. Stevens con el fin de conseguir escalas de razón en la
medición de esas respuestas sensoriales. Sobre la base de estos métodos, Stevens formuló su ley potencial psicofísica y dio
origen a lo que hoy se conoce como nueva psicofísica para distinguirla de la psicofísica clásica fechneriana.
4. 2ª MITAD S.XX
A mediados del siglo xx se produjo un cambio en la investigación psicológica q afectó a todas sus áreas de especialización.
Las actitudes conductistas cedieron el paso al interés por los procesos subyacentes a la conducta y surgió la moderna
psicología cognitiva, q dió al estudio de la percepción un marco de referencia en el q muchas de las ideas de la teoría
clásica pudieron ser reformuladas. Este marco de referencia tb ayudó a integrar otras 2 corrientes de invest científica
cruciales para el desarrollo de la invest en percepción: los avances de la investigación fisiológica y el computacionalismo.
4.1 La psicología cognitiva
La teoría clásica, el estructuralismo e incluso la Gestalt pueden ser consideradas versiones distintas de una P cognitiva.
Pero el término psicología cognitiva se utiliza hoy para designar una versión particular que surgió a mediados del siglo xx,
el procesamiento de información, q dió una aprox al estudio de los procesos cognitivos considerando la mente humana
como un sistema q maneja símbolos de una forma semejante a un ordenador. La metáfora del ordenador es la analogía q
servirá de guía para estudiar los procesos mentales.
Al igual que un prog de un ordenador, los procesos mentales pueden ser analizados como una serie de fases o estadios.
Cada estadio recibe una inf de entrada, opera sobre esa inf transformándola de alguna forma y produce una inf de salida.
El funcionamiento final del sistema es el resultado del conjunto de operaciones que, a través de las distintas fases,
transforman la inf inicialmente recibida. Para el procesamiento de inf, al igual que para el estructuralismo y la Gestalt, y en
oposición a Gibson y los conductistas, el estudio de los procesos que transforman la inf de entrada (input) y producen una
det salida (output) es el objeto de estudio de la P. En este contexto, la percepción es una fase del procesamiento de la inf
mediante la cual el O construye una representación del medio q pueda guiar su actividad. Esta representación se consigue
sobre la base de la inf dada por la estimulación y mediante las operaciones que el sistema aplica a su transformación.
Principales características del procesamiento de información:
1. Sistemas el proces de inf considera la cognición como actividad resultante de la interacción d los cs de un sistema. No
niega la importancia los cs del sistema pero concede mayor importancia a la estructura y a la org funcional resultante de la
interacción de sus cs. El procesamiento de inf se sitúa en una posición intermedia entre el estructuralismo y la Gestalt.
Una forma de representar el funcionamiento de un sistema y sus cs principales ha consistido en usar diagramas de flujo.
La Figura 1.2 presenta un diagrama de flujo en el que un sistema A recibe 2 tipos de input, (a) y (b). Cada rectángulo en el
diagrama representa un conjunto de operaciones q acaban produciendo un output; a su vez, estos outputs forman el input de
la fase siguiente (e) que acaba produciendo una salida final (O) para el sistema A.
Un diagrama de flujo es una forma abstracta de representar la org de los cs de un sistema y su funcionamiento. Una posible
interpretación del diagrama en la Fig 1.2 podría ser un sistema de integración de inf procedente de distintas modalidades
sensoriales q recibe inf visual (a) y táctil (b) y produce, mediante una operación sobre los dos tipos de inf (e), una
representación integrada de ambas (0). Un diagrama de flujo permite representar los sistemas perceptivos como conjuntos
de subsistemas q están compuestos de una inf de entrada (input), un conjunto de operaciones representadas por los
rectángulos, y una inf de salida (output).
Una propiedad importante de los Ss de proces de inf es la que Palmer y Kimchi llamaron
descomposición recursiva: la posibilidad de subdividir un sistema en otros subsistemas
componentes, cada uno de ellos dotado de un input, de una función y de un output. En la Fig
1.2 vemos q el sistema total A está compuesto por 3 subsistemas, uno especializado en
procesar la inf visual, otro en la inf táctil, y un 3º q integra ambas infs. A medida que avanza
la investigación de cada uno de esos cs, es posible proceder a un análisis más detallado del
func de cada subsistema mediante la especificación de sistemas menores que componen los
subsistemas. Este esquema de análisis es recursivo porque se puede aplicar una y otra vez
siempre que lo requiera el análisis del sistema q se está estudiando hasta que se llega a un último nivel que no se puede
descomponer más. A los componentes de este último nivel se les suele denominar características primitivas, cuando se
trata de componentes de una representación, o, si de trata de procesos, son llamados operaciones elementales.
2. Información, codificación y representación de usar el concepto de información en el sentido técnico de la teoría de la
inf de Shannon; que trataba de medirla en términos de la probabilidad de emisión de un mensaje, pero los resultados no
fueron buenos; pasó a ser usado como sinónimo de conocimiento: inf es la cantidad de conocimiento q una persona
adquiere o posee sobre el medio que le rodea. En el caso de la percepción, no se trata tanto de la cantidad de inf e hay en la
estimulación, cuanto de la cantidad de conoc que el observador puede llegar a adquirir sobre la base de esa estimulación.
Íntimamente reldos con esta forma de concebir la inf están los conceptos de codificación y de representación. Para el
proces de inf el conocimiento está org en la mente humana en forma de imágenes u otros formatos de representación.
La inf del medio q nos llega a través de los sentidos necesita ser trasladada a esas formas o códigos de representación por
medio de un conjunto de procesos a los que se les da el nombre de procesos de codificación.
La percepción es fund un conjunto de procesos de codificación mediante los cuales se genera en el observador una
representación mental del medio ambiente.
3. Características de los procesos los procesos de un sistema cognitivo, como el sistema perceptivo, pueden estar
organizados de forma serial o en paralelo. Serial: cuando los procesos se llevan a cabo en secuencia, uno dp de otro, y
cada uno de ellos recibe como input el output final del proceso que le precede, por lo q no empieza a funcionar hasta que el
proceso anterior ha finalizado. Paralelo: actúan simultáneamente y su input es independiente del output de otros procesos.
Los primeros modelos que el procesamiento de inf usó para representar procesos mentales, mostraban una org serial.
Dp, a medida q se fue cayendo en la cuenta de la complejidad de los procesos perceptivos, los modelos de org en paralelo
fueron ganando terreno. La rapidez con q tienen lugar los procesos perceptivos visuales parecía requerir una estructura del
sistema visual en la que numerosas operaciones pudieran realizarse simultáneamente. Esta estructura, a su vez, exigía una
división del trabajo de forma que distintos cs del sistema perceptivo se especializaran en llevar a cabo un det conjunto de
funciones. Ej: un c podía especializarse en procesar el color de una escena, mientras otro c procesaba la forma y un tercero
el movimiento. Cuando un sistema presenta una organización especializada de este tipo se dice que tiene una estructura o
arquitectura modular, y a los cs del sistema se les llama módulos.
Otra dimensión que el procesamiento de inf ha utilizado para caracterizar a los procesos está relda con la dirección que
sigue el flujo de procesamiento. Cuando el procesamiento está constituido por un conjunto de operaciones que operan
sobre los datos que proporciona el input para construir representaciones progresivamente más complejas, se dice que el
procesamiento tiene lugar de abajo a arriba. Cuando el procesamiento tiene lugar en la dirección opuesta, de forma que
las representaciones más complejas, tales como objetivos o creencias, actúan mediante feedback sobre las operaciones más
simples, se dice q el procesamiento tiene lugar de arriba a abajo. Una caracterización afín a ésta, pero que pone el acento
en el papel q juegan las influencias complejas de feedback, es la q distingue entre procesos dirigidos por los datos, cuando
operan con independencia de esas influencias, y procesos dirigidos conceptualmente, cuando operan bajo su influencia.
Las distintas teorías que han surgido dentro del procesamiento de inf varían unas de otras en la importancia que conceden a
cada uno de estos tipos de procesamiento.
La teoría de la visión de Marr es una teoría concebida en su totalidad de abajo a arriba y dirigida por los datos.
Por el contrario, otras teorías han acentuado el papel que el conocimiento previo, las intenciones y las creencias ejercen
sobre lo percibido; son teorías preferentemente de arriba a abajo. Sin embargo, la mayor parte de las teorías defienden la
coexistencia de los dos tipos de procesamiento; estas teorías suelen ser llamadas interactivas.
Una última caracterización de los procesos que se ha utilizado frecuentemente en la P cognitiva, es la que distingue entre
procesos automáticos y procesos bajo control atencional o procesos controlados. Esta clasificación está relda con el
grado de dependencia de la atención que un proceso tiene para poder llevar a cabo su función:
- automático: a un conjunto o a una secuencia de operaciones q se pone en funcionamiento ante la sola presencia de un E.
La secuencia puede incluir tanto procesamiento de abajo a arriba como de arriba a abajo. Un proceso automático puede
formar parte de un sistema perceptivo de forma innata o como resultado de la práctica. En la medida en que un proceso
automático depende de la práctica, su automaticidad debe entenderse como una cuestión de grado, no tipo todo o nada.
- controlado: cuando se requiere la influencia de la atención para ensamblar un conjunto o una secuencia de operaciones.
Ej: cuando se trate de una secuencia nueva, o q la sit en la q se van a llevar a cabo las operaciones sea peligrosa para el O.
La automaticidad y la dependencia del control atencional son características complementarias de los procesos perceptivos.
Cuanto más automático es un proceso, menor implicación atencional requiere y cuanto menor grado de automatismo posee
más necesaria es la implicación de la atención para poder operar. En la investigación de los procesos de percepción la esta
distinción entre procesos automáticos y controlados tiene una amplia aplicación. Hay procesos los implicados en la
percepción visual del movimiento, que se ponen en func ante la sola presencia de un estímulo adecuado. Sin embargo
otros, como es el caso de la lectura, requieren gran concentración atencional al principio pero, a medida que la práctica
mejora su aprendizaje, la implicación de la atención es cada vez menor.
4. Métodos El procesamiento de inf reintrodujo el estudio del TR como una de las principales VDs para hacer inferencias
acerca de los procesos perceptivos y de los procesos mentales en general. El método sustractivo introducido por el
psicólogo Donders fue ampliamente utilizado. De acuerdo con este método, el tiempo empleado por una persona en la
realización de una tarea podía dividirse en una serie de fases o estadios cada uno de los cuales correspondía a una
operación elemental componente de la tarea. Donders utilizó tareas muy simples que denominó con las letras A, B y C:
- tarea A: tb tarea de tiempo de reacción simple o tarea de detección, consiste en la presentación de un único E al que el
observador debe responder lo antes que pueda con una única respuesta. Consiste, por tanto, en la presentación de un
estímulo por parte del experimentador y la realización de una R por parte del observador.
- La tarea B: o tarea de tiempo de reacción de elección o tarea de discriminación, consiste en la presentación de dos o
más Es y un nº equivalente de Rs, cada una de ellas asociada a un estímulo det. Ante la presentación de un E por parte del
experimentador, el observador debe contestar con la R asociada a ese E.
- La tarea C: o de tiempo de reacción selectivo o tarea responde/no respondas se presentan dos o más Es pero el
observador sólo debe responder a uno de ellos y no responder al resto.
Donders supuso que cada una de estas tareas estaba compuesta de un nº det de procesos elementales y que restando al TR
empleado en responder en una de ellas, el tiempo empleado en responder a la inmediatamente más simple, podía aislar el
tiempo empleado en cada proceso elemental. La lógica utilizada por Donders para hacer inferencias acerca de los procesos
mentales es tributaria de supuestos que acabaron por resultar excesivamente restrictivos, aún así la aplicación de su lógica
ha producido resultados interesantes cuando se ha aplicado a sits q cumplían los supuestos. Sus tareas, sin embargo, han
quedado como tareas fundamentales en la investigación de la percepción. Los intentos de superar las limitaciones del
método sustractivo llevaron a la formulación de nuevos métodos, como el método de los factores aditivos de Sternberg,
que contribuyeron a profundizar en la investigación cognitiva.
Muy próxima al procesamiento de inf puede considerarse la Teoría de Detección de Señales (TDS). Esta teoría puso de
manifiesto que una R tan simple como la que un observador puede emitir en una tarea de detección encaminada a
determinar un umbral absoluto, no refleja de forma incontaminada el func de un sistema sensorial, sino que hay q tomar en
consideración a los procesos de decisión implicados en la emisión de la R. Desde q fue formulada, la TDS ha sido utilizada
dentro del procesamiento de inf como un proced para mejorar las inferencias basadas sobre medidas de precisión.
Finalmente destacar la importancia que dentro del procesamiento de inf alcanzaron los proceds de formalización de las
teorías y de los modelos. El desarrollo de los modelos matemáticos fue extraordinario pero sobre todo hizo su aparición,
como método específicamente ligado a esta aproximación psicológica, la implementación de las teorías mediante
simulación en ordenador. Una simulación es un programa que al incorporar en su func una teoría, permite contrastar sus
predicciones y explorar sus consecuencias con una precisión difícil de alcanzar por otros procedimientos.
4.2 El computacionalismo
El computacionalismo representa, a la vez, la madurez teórica del procesa- miento de información y la apertura de la
psicología cognitiva a la interacción con otras disciplinas interesadas en la investigación de los procesos cognos- citivos.
La referencia del ordenador no tenía las mismas connotaciones para todos los investigadores. Para unos, el ordenador era
preferentemente una metáfora, una analogía que nos permitía pensar acerca de los procesos cognitivos. Para otros era
mucho más, el ordenador y la mente humana eran casos particulares de una clase de sistemas de procesamiento de inf que
Newell y Simon llamaron sistemas de símbolos físicos. El estudio de estos sistemas y la búsqueda de una teoría general de
los mismos constituyeron los objetivos de una nueva empresa científica a la que se denominó ciencia cognitiva. La ciencia
cognitiva surgió como una empresa multidisplinar en la que convergió el interés por investigar los procesos cognitivos de
disciplinas aparentemente tan dispares como la psicología cognitiva, la neurociencia, la inteligencia artificial, la lingüística,
la filosofía de la mente y la antropología.
En la investigación de los procesos perceptivos, destacaremos dos aportaciones de la ciencia cognitiva: las características
generales de la teoría de David Marr y dp los conceptos fundamentales de una alternativa q, dentro de la ciencia cognitiva,
apareció en oposición a la consideración de la mente como un sistema de símbolos físicos, conocida como conexionismo.
4.2.1 La teoría de David Marr Marr procedía del campo de la neurociencia teórica y sintetizó su teoría en su libro Vision,
una de las contribuciones más importantes del sXX al estudio de la percepción visual. Mostró pronto su insatisfacción con
el carácter fragmentario tanto de la investigación psicofísica como de la fisiológica de la visión. La psicofísica era casi
exclusivamente descriptiva y la fisiológica, aunq estaba interesada en los mecs cerebrales de la percepción, producía unas
explicaciones excesivamente simples. Las investigaciones de los 60, estaban centradas en la búsqueda de detectores, pero
el descubrimiento de detectores por sí mismos -pensaba Marr- no nos dice nada sobre cómo llevan a cabo la detección de
una característica, ni cómo se integra la inf de los difs detectores para producir una representación integrada del medio.
Para David Marr, una teoría de la visión adecuada debe interesarse por los procesos de construcción de las representaciones
que permiten al cerebro ver. Para ello se requiere una aprox computacional que, como resultado final, permita construir
máquinas que vean. La aprox de David Marr dió tanto una filosofía de la investigación computacional como una teoría
concreta de las principales fases de procesamiento visual.
Los niveles de análisis para Marr, los sistemas complejos de proces de inf, como la mente humana o el sistema visual, no
pueden ser explicados y comprendidos desde un único punto de vista. Es necesario 1º determinar los puntos de vista desde
los que el sistema puede ser estudiado y después integrar la inf de cada uno de ellos. A los puntos de vista desde los que
podemos estudiar un sistema Marr les da el nombre de niveles de análisis. Cada nivel de análisis está det por un tipo de
pregunta q nos hacemos acerca del sistema y la explicación adecuada a cada nivel de análisis es la respuesta a esa pregunta.
Propuso que los niveles de análisis funds son 3:
1) nivel computacional especifica de forma abstracta el problema que un sistema de procesamiento de inf tiene q resolver.
La pregunta es: ¿qué hace el sistema? La explicación tiene que apuntar a los objetivos y a la finalidad del sistema. Marr
usó como ej de sistema de inf una caja registradora: lo q hace son operaciones aritméticas elementales, como sumar o
multiplicar. Por tanto, una explicación de nivel computacional de una caja registradora deberá especificar las operaciones
que hace y encontrará el por qué de esas operaciones en la teoría de la aritmética. En el caso de la visión, una teoría
computacional deberá especificar los objetivos funds del sistema, ej, siguiendo a Aristóteles, puede definirse como objetivo
fund del sistema visual descubrir a partir de imágenes qué existe en el mundo y dónde está.
2) nivel Algorítmico especifica cómo se llevan a cabo las operaciones o procesos del sistema. En este nivel es necesario
especificar una representación q codifique el input y el output del sistema y un algoritmo q lleve a cabo la correspondencia
entre input y output. En el ej de la caja registradora, el nivel algorítmico deberá determinar si la representación q se usa es
decimal o binaria y cuál es el algoritmo concreto utilizado para efectuar las operaciones. En general, por tanto, este nivel se
pregunta por, y busca explicaciones reldas con el modo en que un sistema resuelve los problemas.
3) nivel de Implementación se interesa por la naturaleza de la realización física del sistema, por la tecnología que utiliza.
En el caso de la caja, las preguntas típicas de este nivel tendrían q ver con ruedas dentadas o con circuitos electrónicos; en
el caso de un sistema visual, tendrían que ver con circuitos integrados o con neuronas si se trata de un sistema biológico.
Los tres niveles de análisis pueden estar muy reldos entre sí; ej, la elección de circuitos electrónicos para construir una caja
registradora, puede condicionar la elección de una representación binaria. Pero es conveniente distinguir entre los
diferentes niveles de análisis para tener claro cual es el tipo de explicación adecuada a una det pregunta. Sobre todo es
conveniente tener claro q, al tratar de explicar el comportamiento de sistemas complejos de procesamiento de inf, carece de
sentido buscar la explicación de ese comportamiento como si solamente hubiera una única explicación posible. Una
explicación sólo tiene sentido en relación con una pregunta en un det nivel de análisis; por eso necesitamos explicaciones
en niveles distintos para entender adecuadamente esos sistemas.
Los niveles de organización del procesamiento visual para Marr, el problema fund de la percepción visual es construir
una descripción invariante de la forma y de la posición de las cosas a partir de imágenes. No es que la visión no lleve a
cabo otras funciones, como procesar el color o el movimiento. Pero estas funciones son subordinadas al objetivo
primordial que es dar inf sobre la forma de los objetos en el espacio. El sistema visual logra este objetivo a través de 3
grandes fases de procesamiento a partir de un input inicial. Este input es una imagen bidimensional de la escena visual
generada por los valores de intensidad de cada uno de los puntos de la imagen correspondientes a la excitación de los
receptores. Las 3 fases de procesamiento son y tienen como objetivo:
a) El Esbozo Primario su objetivo es hacer explícita la inf acerca de la imagen bidimensional; en primer lugar los cambios
de intensidad q hay en ella, después la distribución geométrica y la org de esos cambios. El input de esta fase es la imagen
inicial. El output está formado por un conjunto de primitivas simples -bordes, barras, manchas y terminaciones- agrupadas
de acuerdo con principios de org semejantes a los propuestos por la Gestalt. Estas primitivas constituyen los elementos
simbólicos básicos a partir de los cuales se van a construir las representaciones de las fases siguientes.
b) El esbozo 21/2-D se hace explícita la inf acerca de la orientación y de la profundidad de las superficies visibles. Tb se
especifican los contornos y las discontinuidades en orientación y profundidad en un sistema de coordenadas centradas en el
observador. Se trata por tanto de recuperar inf acerca de las superficies que conforman la escena visual en un espacio
tridimensional, pero la consecución de la 3ª dimensión no es perfecta, por eso esta fase se llama esbozo 21/2-D, ya que los
valores de orientación y de profundidad obtenidos están referidos al observador.
El procesamiento en esta fase tiene dos características: modularidad y paralelismo:
- modularidad: implica que los procesos que tienen lugar en esta fase son llevados a cabo de una forma especializada por
distintos cs del sistema visual; así mientras un módulo procesa el color, otro procesa el mov, otro la textura, etc.
- paralelismo: implica que el func de cada módulo es independiente del funcionamiento de los demás y se llevan a cabo al
mismo tiempo. El input para cada módulo de esta fase es el resultado de la fase de esbozo primario. El output de esta fase
está formado por la inf peculiar dada por cada modulo, tal como color, movimiento, etc. Pero además la integración de la
inf q cada módulo da sobre la orientación y profundidad de cada punto de la escena visual respecto al observador, permite
tb recuperar una representación de las superficies.
c) El modelo 3-D: en esta fase consigue una representación de las formas y de su org espacial en un marco de referencia
centrado en el objeto mismo, usando una representación jerárquica y modular de primitivas volumétricas y de superficie.
El input a esta última fase es el resultado de la fase anterior y el resultado final son modelos tridimensionales organizados
jerárquicamente cada uno de ellos constituido por una configuración espacial de ejes en torno a los cuales se engarzan las
primitivas volumétricas. La Figura 1.3 muestra un ej de Marr y Nishihara, de aplicación recursiva de este principio de
organización jerárquica. A distintos niveles de magnitud, una primitiva volumétrica - en este caso un cilindro- se engarza
en torno a un eje produciendo una representación de un cuerpo humano entero, un brazo, un antebrazo y una mano.
La influencia de la teoría de David Marr en la
investigación actual de la percepción visual ha sido
determinante. Muchos aspectos concretos de su teoría han
quedado sobrepasados por la investigación posterior, pero
su concepción teórica global, y sobre todo su forma de
abordar la invest han marcado un antes y un dp en la
invest de la percepción visual.
David Marr fue un auténtico pionero de la neurociencia
computacional y su aportación a la teoría de la percepción
visual es, en opinión de muchos investigadores,
comparable a la que Helmholtz realizó en su tiempo.
4.2.2 El conexionismo
La teoría de Marr es un buen ej de una teoría computacional simbólica. Al final de la primera de las fases de la teoría, el
procesamiento visual alcanza las características primitivas de una representación simbólica. Los bordes, las manchas, las
barras y las terminaciones son entidades elementales de la representación q tienen un significado porque hacen referencia a
aspectos particulares de la escena visual y son simbólicas pq tienen un significado. Cuando, en una representación, existe
una correspondencia uno a uno entre los elementos q forman la representación y los aspectos de la escena representada, se
dice de ella q es una representación local. Las representaciones simbólicas usan preferentemente representaciones locales.
A comienzos de los 80, apareció en la ciencia cognitiva una alternativa a los sistemas simbólicos: el conexionismo. Su
objetivo era aproximar la teoría de los procesos cognitivos a la teoría del cerebro. Para ello propusieron construir
representaciones con “inspiración neuronal” y procesos que funcionaran “al estilo del cerebro”, de ahí que esta aprox sea
conocida también con el nombre genérico de redes neuronales. Una red neuronal está compuesta de un conjunto de
unidades elementales de procesamiento parecidas a las neuronas del cerebro q están conectadas entre sí de una forma det.
Las conexiones entre unidades pueden ser excitatorias, si la activación de una unidad provoca un aumento en el nivel de
activación de la otra, o inhibitorias, si el nivel de activación de la segunda disminuye como consecuencia de la activación
de la primera. Las diferentes fuerzas de las conexiones excitatorias e inhibitorias entre las unidades de una red definen lo q
se llama un patrón de conectividad que puede cambiar como consecuencia de sucesivas experiencias de acuerdo con una
regla de aprendizaje. Otros conceptos importantes para entender el func de una red neuronal son: la regla de activación q
especifica la forma en q se combinan las diferentes entradas q una unidad recibe para determinar el estado de activación
de la unidad. Finalmente una red neuronal debe de concretar una función de output q determine la correspondencia entre
el estado de activación y el output del sistema, y un ambiente q especifique el medio en el q debe funcionar la red.
Fig 1.4 ej de red neuronal: las unidades están representadas por círculos y las conexiones por líneas que terminan en una
punta de flecha. La red representada en la Figura 1.4 está formada por 3 capas, cada una formada por un conjunto de
unidades elementales de procesamiento. La primera está formada por unidades de input que son activadas por el medio
ambiente en el que actúa la red. El estado de activación de las unidades de la tercera capa determina el output de la red.
Finalmente la capa intermedia esta formada por unidades ocultas, q no establecen contacto directo ni con el input ni con el
output de la red; su función es modificar las conexiones entre las unidades de input y las de output en función de la inf que
reciben tanto de otras unidades de input como de las unidades ocultas a las que se encuentran conectadas.
Las redes neuronales dan lugar a representaciones distribuidas en las que no se puede establecer una correspondencia
uno a uno entre las entidades del mundo representado y las unidades de la red. En una representación distribuida cada
entidad del mundo está representada por el patrón de activación del conjunto de unidades que forman parte de la red y, a
su vez, cada unidad de la red puede estar implicada en la representación de muchas entidades diferentes del mundo
representado. Ej: si suponemos que la red en la Fig 1.4 es una red implicada en el reconocimiento de objetos, cada unidad
puede responder a un aspecto restringido del objeto, como puede ser su color o su forma. Ante la presencia de un objeto
concreto, como puede ser una manzana, las unidades de la red responderán cada una al aspecto concreto correspondiente a
su color y a su forma, de modo que la manzana no estará representada por una única unidad sino por un conjunto de
unidades cuyo patrón conjunto de activación corresponderá a la manzana. Pero ninguna unidad en la red mantiene una
relación especial con la manzana representada; por el contrario, cualquier unidad de la red puede formar parte de otros
patrones de activación diferentes que, a su vez, correspondan a otros objetos del medio ambiente.
La investigación con redes neuronales ha puesto de manifiesto que la acción coordinada de las unidades de una red da
origen a propiedades emergentes capaces de simular procesos cognitivos. Por ello
se han convertido en un importante instrumento de formalización de teorías
psicológicas a la vez que proporcionan una forma de pensar acerca del
funcionamiento del cerebro que permite aproximar entre sí los conceptos mentales
propios de la P cognitiva y los conceptos fisiológicos propios de la neurociencia.
La utilización de modelos explicativos formulados en términos de redes neuronales
no está necesariamente reñida con la utilización de teorías simbólicas. El mismo
Marr utilizó de una forma muy pragmática ambas formas de teorizar dependiendo
del tipo de proceso q pretendía estudiar.
4.3 Los avances de la fisiología
Durante los años 50 la investigación fisiológica estableció un contacto más directo con los problemas propios de la
investigación psicológica de la percepción. Antes los fisiólogos se contentaban con describir cómo los órganos sensoriales
y sus nervios correspondientes presentaban una imagen del mundo externo al cerebro y consideraban que era tarea de los
psicólogos la investigación de lo que ocurría después.
Con los microelectrodos y el registro unicelular, la implicación de los fisiólogos en la investigación perceptiva se hizo
habitual y así continúa hasta nuestros días.
Principales hallazgos que llevaron a conceptuar el cerebro como un sistema de procesamiento de inf: las invests sobre la
retina de las ranas por Barlow y Lettvin, Maturana, McCulloch y Pitts. Estos descubrieron un tipo particular de células
ganglionares en su retina q respondían sólo cuando un pequeño disco oscuro aparecía en su campo de visión. Si ese mismo
E se presentaba a una rana intacta, ésta se orientaba hacia el objeto e iniciaba Rs tendentes a cazar y comerse el objeto. Los
investigadores denominaron a esas células “detectores de bichos” pq parecían sintonizadas a la presencia de los pequeños
insectos parte de su dieta. La significación teórica iba más allá de la mera curiosidad: “La retina de la rana era capaz de
transmitir un mapa de las características relevantes en el mundo del animal, y su función principal no era tanto transformar
los distintos niveles de luminancia en impulsos nerviosos de diferente frecuencia, cuanto responder de forma invariante a
distintos patrones de estimulación externa a pesar de los cambios en luminancia” (Barlow, 1972).
A partir de estos descubrimientos, la investigación neurofisiológica produjo una serie de hallazgos que acabarían por
revolucionar la forma de pensar acerca de las neuronas que la fisiología había mantenido hasta entonces.
Hartline y Barlow demostraron la existencia de inhibición lateral, mec periférico de interacción neuronal capaz de explicar
fenómenos perceptivos como el contraste simultáneo de la claridad. Hubel y Wiesel publicaron sus 1ºs trabajos sobre las
neuronas de la corteza estriada de los gatos que les valió el premio Nobel de fisiología y medicina en 1981.
A lo largo de los 60, las invests de los De Valois, acabaron por dar la razón que le correspondía a la teoría de los procesos
oponentes del color que Hering había mantenido en el siglo XIX y Hurvich y Jameson habían reformulado unos años antes.
En 1967, Barlow, Blakemore y Pettigrew encontraron células especializadas en la detección de la profundidad binocular.
Todos estos descubrimientos llevaron a los investigadores al convencimiento de que cada neurona individual en el sistema
visual era capaz de llevar a cabo tareas mucho más complejas que las q se había pensado. Las neuronas no se limitaban a
transmitir inf más o menos precisa sobre la intensidad luminosa de la imagen, sino que eran capaces de informar sobre las
características elementales de un patrón y sobre la org jerárquica de esos elementos. Eran capaces de detectar la distancia a
la q estaban los objetos, y de ignorar las causas irrelevantes de las variaciones en iluminación. Aparecían cada vez de
forma más clara como unidades elementales y el cerebro como un sistema complejo de procesamiento de inf.
Este cambio en la forma de entender el func de las neuronas y del cerebro, llevó a una convergencia de puntos de vista
entre la P y la neurociencia y tanto la mente como el cerebro comenzaron a ser considerados como sistemas complejos de
procesamiento de inf. Desde entonces la relación entre P cognitiva y neurociencias ha sido cada vez más estrecha hasta dar
origen a la moderna Neurociencia Cognitiva: la empresa ínterdisciplinaria q investiga la rel entre procesos psicológicos y
estructuras cerebrales mediante la utilización de técnicas de neuroimagen. Estas técnicas, tales como el PET o la fMRI,
permiten el registro de la actividad cerebral durante la realización de una det tarea.
5. MARCO TEÓRICO
En general la orientación de este libro se enmarca dentro de la aproximación cognitiva del procesamiento de inf. En la
medida en que el computacionalismo representa la madurez del procesamiento de información consideramos que el marco
general de la teoría de la visión propuesta por David Marr es un punto de inflexión en la investigación perceptiva que el
estudiante debe conocer porque representa el nuevo punto de partida de la moderna teoría de la percepción visual.
5.1 La función de la visión En 1r lugar una teoría de la percepción visual debe tomar considerar la función que hace la
visión en el contexto de la interacción del O con su medio. Dentro del objetivo general de supervivencia y reproducción, la
visión da inf precisa y a distancia sobre los objetos y sobre la posición espacial de los mismos en el medio a partir de la luz
que los objetos emiten o reflejan. Con esta inf el O es capaz de dirige las acciones que garantizan su supervivencia.
Un requisito indispensable para la supervivencia del O es la precisión de la visión. No quiere esto decir que la visión sea
infalible; a veces nos engaña, por eso las ilusiones ópticas son un importante conjunto de fenómenos que una teoría de la
percepción debe explicar. Sin embargo las ilusiones no son la norma sino la excepción en el funcionamiento de la visión.
Normalmente la visión es verídica y da al O una inf precisa como para guiar sus acciones de forma eficaz.
La propiedad q tiene la inf q da la visión es que es una inf a distancia, lo q representa un valor adicional xa la supervivencia
pues le permite adquirirla sin entrar en contacto con los objetos ni comprometer su seguridad. La visión comparte esta
carac con la audición y el olfato pero la inf espacial de estos sentidos no es tan precisa como la dada por la visión, al menos
en las personas y gran parte de animales. El tacto y el gusto tb dan inf xo es necesario q éstos entren en contacto con el O.
La característica más específica y definitoria de la visión es q la inf sobre los objetos y sobre su posición espacial se
obtiene a partir de la luz q emiten o reflejan. Pero la luz q llega al observador depende de muchos fs: de la iluminación q el
objeto o la escena reciben, de la reflectancia de sus superficies, de su geometría, del punto de vista del observador, etc.
Pero ¿Cómo puede el sistema visual darnos la percepción de objetos y escenas constantes a partir de una inf tan cambiante?
Este es el problema central de la visión que tenemos q resolver. Al plantear así el problema adoptamos una postura realista
afín a la propuesta por Gibson. Consideramos los sentidos, y la visión, como canales xa la percerción del mundo real
externo. Por eso el problema central de la percepción consiste en recuperar las propiedades válidas de ese mundo externo a
partir de la inf de los sentidos.
5.2 El procesamiento de la información 2º: una teoría de la visión debe preguntarse por la forma en que el sistema visual
resuelve el problema planteado. Para Gibson se reducía a identificar en la estimulación las Vs responsables de la constancia
perceptiva, los invariantes en rel a los cambios en el punto de vista del observador y a los cambios en iluminación. Para
nosotros, la identificación de los aspectos relevantes en la estimulación es solamente el primer paso de una cadena de
eventos. Es necesario considerar las diferentes fases mediante las cuales el sistema visual procesa la inf estimular y la
convierte en conoc para el O del medio en q está. Llevar a cabo este análisis del procesamiento de la inf implica describir
los diferentes tipos de representaciones que el sistema visual construye y los procesos q permiten la codificación de los Es,
la progresiva org de la escena visual y la construcción de las representaciones fundamentales.
El concepto de representación es central en una teoría del proces de inf, como un complejo sistema de correspondencias
entre caracs del medio y códigos neuronales q permiten al sistema visual recuperar internamente la inf relevante del medio.
Fig 1.5: principales fases de procesamiento en el proceso de consecución de la representación final que nos
permite percibir visualmente una escena o un objeto.
Las tres primeras corresponden en general a las tres fases propuestas por Marr.
1ª: centrada en el análisis de la imagen bidimensional proporcionada por la distribución de luminancia que
llega a nuestros receptores y que es objeto del procesamiento visual inicial.
2ª: dedicada a la recuperación del trazado tridimensional de las superficies visibles.
3ª: a la obtención de la representación volumétrica de los objetos en coordenadas centradas en los objetos
mismos. Al final de la 3ª fase el sistema visual ha sido capaz de obtener una representación perceptiva de los
objetos individuales y de la escena concreta de la estimulación. Con todo, el procesamiento perceptivo no
termina ahí; es preciso una última fase en la q las representaciones perceptivas alcanzan un significado al
entrar en rel con el mundo conceptual del observador. En esta última, el mundo percibido dado x los
sentidos es asimilado e integrado en el S de conoc del perceptor.
Este esquema general de procesamiento, constituye el marco general de nuestra postura constructivista en el
sentido de que considera necesario, para poder explicar adecuadamente la percepción visual, tomar en
consideración tanto los procesos que el sistema visual pone en funcionamiento para obtener una
representación del medio, como el conocimiento del observador que da significado a lo percibido. Nuestra
postura simpatiza con la teoría clásica en su consideración constructivista de la percepción pero no suscribe
en su totalidad sus postulados empiristas. El empirismo que inspiró la teoría clásica solamente tomó en
consideración la exp del sujeto adquirida a través del A y retenida en la M. Nosotros consideramos necesario además
considerar la evolución de las especies, q nos da desde el nacimiento unos mecs cuya maduración y func dependen de la
exp individual y que está dotado de pautas de func predetdas. La disyuntiva entre herencia o medio propuesta por innatistas
y empiristas obligando a elegir una de las opciones carece de sentido en la actualidad. No se trata ya de optar por principio
por una de ellas sino de determinar empíricamente el papel de cada una de ellas en la explicación de la percepción.
5.3 Mecanismos neuronales Finalmente, una teoría de la percepción debe prestar at a las estructuras cerebrales q la hacen
posible. Aunq esto parece evidente, la historia de la invest muestra q los contactos entre la psicología y la fisiología no han
sido habituales aunq afortunadamente son cada vez más estrechos. El estudio de la percepción visual formaba parte de la
óptica fisiológica tal como la entendía Helmholtz, pero el desarrollo de la P de la percepción visual se centró en el análisis
de la experiencia consciente y en el estudio de los fs estimulares q determinaban esos estados de consciencia. La referencia
a mecs fisiológicos se limitaba a los órganos de los sentidos. A partir de la mitad del pasado siglo el panorama empezó a
cambiar y ahora la relación entre psicología y fisiología del cerebro es cada vez más estrecha. La moderna neurociencia
cognitiva permite relacionar los fenómenos perceptivos trad estudiados por la P y las estructuras cerebrales de una forma q
hasta ahora no había sido posible. Todo hace pensar q esta nueva empresa multidisciplinar marcará el futuro de la invest
sobre percepción, y probablemente de la investigación psicológica en general.
T.2 LA PERCEPCIÓN DEL COLOR La percepción del color es central en el estudio de la percepción visual por:
1) recoge aportaciones de disciplinas muy diversas; la física, la fisiología, las ciencias de la computación, la lingüística y la
antropología social, que junto con la P han contribuido a mejorar nuestro conocimiento sobre la percepción del color.
2) nuestros conocs sobre el procesamiento del color están bien fundamentados. En comparación con otras áreas de la invest
perceptiva, están mejor fundamentados y el grado de acuerdo entre investigadores es mayor.
3) el procesamiento del color es un buen ej de la forma en q teorías consideradas opuestas pueden ser complementarias si
se amplía el marco teórico. La teoría tricromática y la de los procesos oponentes fueron consideradas irreconciliables para
explicar los fenómenos de la percepción del color. Hoy sabemos q depende del nivel de org perceptiva q consideremos.
El interés de la percepción del color es comprender su apariencia. ¿Pq los colores se muestran en nuestra exp consciente de
la forma en q lo hacen? La R: 3 principios: tricromaticidad, procesamiento oponente y constancia, q pertenecen a
niveles bajo e intermedio en el procesamiento perceptivo del color.
1. LA APARIENCIA DEL COLOR La 1ª aportación a la apariencia del color fué de Newton sobre la composición
espectral de la luz. Cuando hizo pasar un rayo de luz solar a través de un prisma observó la aparición de un arco iris
mostrando los colores del espectro luminoso. Comprobó q estos colores eran fundamentales, pq haciendo pasar un rayo de
cada color por un 2º prisma, el color no volvía a descomponerse con un 2º arco iris. Luz puede ser descrita en términos de:
- luz como onda: útil para comprender su composición espectral y los aspectos cualitativos del color, y
- luz como corpúsculo: para referirnos a la cantidad de luz asociada a los colores.
1. La cantidad de luz y su medida las medidas de la cantidad de luz dimanan de una concepción corpuscular de la luz.
Así, la luz está compuesta por paquetes elementales (“cuantos”) de energía, llamados fotones, que constituyen la unidad de
medida de la cantidad de luz. La medición de la cantidad de luz puede hacerse desde dos perspectivas:
1) la radiometría, considera la luz como cualquier otro tipo de energía, sin hacer referencia al uso q puede hacerse de ella.
2) la fotometría, considera únicamente la cantidad de luz q es visualmente efectiva, es decir la cantidad de luz q se puede
percibir, e introduce un factor de corrección en las medidas radiométricas basado en la sensibilidad de nuestros receptores.
De entre los diferentes conceptos fotométricos son importantes:
Iluminancia (E): cantidad de luz visualmente efectiva q incide sobre una superficie. Ej: la cantidad de luz procedente de
un rayo de luz que incide sobre una mesa. La unidad de medida: el lux. Su valor depende de dos factores:
- de la distancia entre la superficie iluminada y la fuente de iluminación, siendo menor cuanto mayor es la distancia, y
- del ángulo de desviación de la perpendicular; la cantidad de iluminancia es menor cuanto mayor es dicho ángulo.
Luminancia (L): cantidad de luz visualmente efectiva emitida x una fuente de luz extensa. Ej: la cantidad de luz reflejada
por una mesa. Unidad de medida: candela por 𝑚2 (cd · m2). Puesto q una parte importante de las fuentes luminosas
extensas son superficies q reflejan la luz q reciben, la proporción de cantidad de luz recibida q una superficie emite es el
cociente entre la cantidad de luz emitida (luminancia) y la cantidad de luz recibida (iluminancia) y se llama reflectancia.
2. El espectro electromagnético la luz como onda nos permite relacionarla con los difs tipos de energía q componen el
espectro electromagnético. Fig 2.1 (97), el espectro electromagnético ordena los distintos tipos de energía en función de la
longitud de onda q caracteriza a cada una de ellas. Sólo una pequeña parte del espectro electromagnético, la comprendida
entre los 400 y 700 nm2, tiene interés pq es la franja de longitudes de onda q tiene efectividad visual y el espectro visible.
El diferente grado de refracción de las distintas longitudes de onda permite observar los cs del espectro luminoso cuando,
como hizo Newton, se hace pasar un rayo de luz solar a través de un prisma. Las longitudes de onda cortas, que son más
fuertemente refractadas, presentan una apariencia violeta (400 nm)3 o azulada (480 nm) cuando se las ve sobre fondo
oscuro, mientras que las longitudes de onda más largas tienen apariencia anaranjada (610 nm) o roja (700 nm) cuando son
vistas sobre fondo oscuro. El verde (540 nm) o el amarillo (580 nm) ocupan posiciones intermedias en el espectro visible.
La distribución espectral de una luz es la función que describe la cantidad de luz q contiene en cada una de las longitudes
de onda. La luz solar contiene una cantidad aprox igual en todas las longitudes de onda aunque tanto al salir como al
ponerse el sol predomina la presencia de las longitudes de onda larga. Una lámpara de tungsteno, como las que se usan en
la iluminación doméstica, contiene muy poca luz en las longitudes de onda cortas y, dentro del espectro visible, la cantidad
de luz que proyecta está linealmente relda con la longitud de onda por lo que los colores rojos tienden a predominar en
ambientes iluminados con este tipo de lámparas. En la luz proveniente de una lámpara fluorescente todas las longitudes
están relativamente bien representadas y, aunque la distribución no es igual para todas las longitudes de onda, es un tipo de
luz que se aproxima a la luz natural. La distribución espectral de las fuentes de iluminación es un factor determinante de la
estimulación en la percepción del color y debe ser tomada seriamente en consideración por el investigador.
3. La codificación del color Newton fue consciente de q el color no era una propiedad de la luz y de que no se podía decir
q los rayos de luz tuvieran un color det. El color es una sensación consciente resultante de la interacción de nuestros
sentidos con la estimulación luminosa. La longitud de onda es el parámetro estimular preferentemente reldo con la
sensación de color pero solo es el 1r paso en la cadena causal de eventos que determinan esa sensación. Al conjunto de
procesos q completan esa cadena causal podemos llamarlos procesos de codificación del color: encargados de transformar
un código físico, en términos de longitudes de onda, en un código psicológico, en términos de exps conscientes de color.
Las estrategias científicas utilizadas para estudiar la codificación del color son de dos tipos: psicofísicas y fisiológicas.
- Las estrategias psicofísicas estudian la rel entre la manipulación de las características del E luminoso y la exp de color.
- La psicofísica se interesa por describir y medir la experiencia sensorial y por relacionar las caracs de esa exp con los
parámetros de la estimulación. Estudian la relación tanto de las caras estimulares como de la exp sensorial con los distintos
cs del sistema visual. Se interesa por identificar esos cs y determinar su rel con los parámetros estimulares y con la exp de
color. La investigación psicofísica ha sido la primera y ha preparado el terreno que ha hecho posible la investigación
fisiológica. En la actualidad los dos tipos de estrategias son usadas complementariamente.
4. Los atributos del color 3 atributos psicológicos básicos: matiz, saturación y brillo/claridad. Hacen referencia a nuestra
experiencia consciente y deben ser diferenciados de las dims físicas del estímulo con las q están reldas.
El matiz: diferencia un color de otro; nos permite clasificarlo con términos como rojo, verde o azul. Como vimos, en el
espectro luminoso hay una alta correlación entre longitud de onda y matiz, como aparece en el arco iris. Estos colores
forman parte del grupo de colores espectrales. Pero no confundir el matiz con la longitud de onda. Hay colores q no están
reldos con una longitud de onda det, como los colores no espectrales, como los púrpuras y morados, q sólo pueden
obtenerse mediante la mezcla de dos o más luces monocromáticas. A los colores tanto espectrales como no espectrales se
llaman cromáticos. Otros como el blanco, gris y negro se comprenden mejor en rel con la dim de claridad q con el matiz, y
se llaman acromáticos. En sentido estricto, el matiz hace referencia a los aspectos cualitativamente diferentes de la exp de
color q tienen rel con diferencias de longitudes de onda o con mezclas de difs longitudes de onda.
La saturación: pureza cromática q tiene el color. Permite hacer un juicio sobre el grado en que un E cromático difiere de
un acromático independientemente de su brillo. El E acromático de referencia suele ser el blanco, por ello tb suele definirse
como el grado de mezcla con blanco que presenta un E cromático. Ej: un color rosa es un rojo con poca saturación
resultante de la mezcla de rojo con blanco. Para los colores espectrales, el referente de máxima saturación es el aspecto que
presenta en el espectro visible, ej los colores que se pueden observar en la Fig 2.1.
El brillo y la claridad: dos atributos distintos aunque reldos.
- brillo: sensación visual x el q un E visual aparece más o menos intenso. Hace ref a la mayor o menor cantidad de luz q un
E visual parece emitir y está preferentemente reldo con la luminancia x lo q a veces es definido como luminancia percibida.
Cuando un E varía en brillo, oscila entre valores q van de brillante a tenue. Preferentemente asociado a Es q emiten luz.
- claridad: asociado a la percepción de Es que reflejan luz, como son la mayor parte de las superficies. Está relda más con
la reflectancia, por lo q a veces se define como reflectancia percibida. Todas las superficies coloreadas tienen algún grado
de claridad, oscilando entre valores que van de clara a oscura, pero estos cambios de claridad aparecen de forma más
patente en las superficies acromáticas donde los cambios en claridad producen la aparición de colores que oscilan entre los
blancos y los negros pasando x una amplia gama de grises. Por eso es útil asociar la claridad con la dim blanco-gris-negro
y usar los términos claro y oscuro por aproximación a esta dim. Es conveniente reservar el término brillo para referirse a
los cambios de intensidad de fuentes q emiten luz y usar el término claridad cuando se trata de superficies q reflejan luz.
5. Sistemas de ordenación de los colores 2 sistemas de org del color basados en proceds psicofísicos: uno basado en
juicios sobre la semejanza de pequeñas muestras de material coloreado y otro basado en operaciones d igualación de luces.
El de Munsell es uno de los 1ºs sistemas para medir la apariencia del color sobre la base de las 3 dims de matiz, claridad y
saturación. El segundo ha servido de fundamento a la colorimetría.
- el sistema de colores de Munsell: En 1905 Munsell publicó un sistema de org de los colores en forma de libro, integrado
por un conjunto de pequeños trozos de papel coloreado de igual tamaño que varían en matiz, valor y croma. Los trozos
están organizados de forma q difieren entre sí en intervalos perceptivamente iguales en cada una de las 3 dims cuando se
ven en condiciones perceptivas normalizadas, es decir, a la luz del día y sobre fondo entre el blanco y el gris medio.
Cada pág del libro presenta un conjunto de trozos coloreados q son del mismo matiz pero varían en valor y en croma.
Cada pág está organizada de forma q el eje vertical representa el valor en una escala de 10 intervalos, con el negro en la
parte de abajo, el blanco arriba y la gama intermedia de grises. El eje horizontal representa el croma en una escala de 5
intervalos situando el mínimo a la izquierda -junto al eje del valor- y el máximo a la derecha y aumentando la puntuación
de dos en dos para cada intervalo.
Fig 2.2.B, cada pág está formada por un conjunto de filas y de columnas. Cada
una de las filas corresponde a una puntuación diferente en valor y dentro de cada
fila los trozos tienen el mismo valor y varían en croma estando los más saturados
en la parte derecha de la pág. Así mismo, cada una de las columnas corresponde
a una puntuación diferente de croma y dentro de cada columna los trozos tienen
la misma puntuación en croma y varían en valor de menos (abajo) a más (arriba).
Fig 2.2.B, sólo mezclas de det valor y croma son posibles; la gama de posibles
mezclas está encerrada en el espacio delimitado por la curva.
Si colocáramos el libro de pié y abriéramos las págs alrededor del eje central, la
figura geométrica generada se aproximaría a un cilindro como el que presenta la
Figura 2.2.A, con el eje principal del cilindro representando el valor, el radio del
cilindro representando el croma y el matiz situado en torno al perímetro del
cilindro.
La Figura 2.2.C, mediante un corte perpendicular al eje central, permite representar la org del sistema de Munsell, con el
valor situado en el centro, el matiz a lo largo del perímetro de la circunferencia y el croma a lo largo del radio. La escala de
matices en torno a la circunferencia consta de 10 segmentos con 10 matices cada uno. Las referencias van en intervalos de
veinte en 20 puntos del rojo (SR) al amarillo (5Y), al verde (5G), al azul (5B), al púrpura (5P) y vuelta al rojo. Intercalados
entre esto se indican referencias correspondientes a mezclas intermedias. En realidad el libro de Munsell no presenta los
100 posibles matices sino sólo 40. Cada trozo de color se identifica por 3 símbolos, ej 2,5 GB 5/10, en donde el 1r símbolo
(2,5 GB) indica el matiz (2,5 en el segmento Verde-Azul); el 2º (5) indica el nivel de valor y el 3º (10) el nivel de croma.
El sistema creado de Munsell fue anterior al q veremos más adelante, que es el sistema normalizado de la Comisión
Internacional de Iluminación (CIE). Con posterioridad a la normalización llevada a cabo x la CIE, la Munsell Corporation
acordó producir los trozos coloreados de cada muestra de acuerdo con los valores de la CIE y no x medio de mezclas de
pigmentos.
- la codificación de la longitud de onda: El 1r paso en la codificación de la longitud de onda tiene lugar en el nivel de los
receptores. 2 clases d receptores visuales: bastoncillos y conos, determinan 2 sistemas de visión con caracs muy diferentes.
- El sistema de visión escotópica depende de los bastoncillos, y está adaptado a las sits de bajo nivel de iluminación. Los
bastoncillos son extremadamente sensibles a la luz y no difieren entre sí en su respuesta a la longitud de onda. Pero, la
sensibilidad de los bastoncillos no es la misma para cada una de las longitudes de onda.
El estudio psicofísico de la respuesta del sistema de visión escotópica a la longitud de onda de una luz se realiza mediante
un experimento de igualación escotópica. En esta sit experimental se presenta un campo visual -por ejemplo, un círculo-
dividido en dos mitades. Una de las dos mitades contiene la luz de prueba, que puede tener una distribución espectral fija,
es decir un conjunto det de longitudes de onda. La otra mitad contiene una luz primaria, q tiene una distribución espectral
fija y sólo puede variar en intensidad. La tarea del observador es manipular la intensidad de la luz primaria hasta que
consigue igualarla a la luz de prueba. El resultado es que, en condiciones de baja iluminación -condiciones escotópicas- los
observadores pueden ajustar la intensidad de la luz primaria hasta igualar cualquier luz de prueba. Esto muestra q la
distribución espectral relativa de la luz es irrelevante para el func del sistema visual escotópico; éste sólo es sensible a la
cantidad de luz. Ahora bien, la intensidad de la luz primaria para conseguir la igualación no es la misma para todas las
luces de prueba, lo que indica que el sistema de visión escotópica es más sensible a unas longitudes de onda que a otras.
Fig 2.3 muestra la función de sensibilidad espectral escotópica. Como se ve, el sistema es poco sensible a las longitudes de
onda extremas y muestra su máxima sensibilidad a las longitudes de onda medias en el entorno de los 510 nm.
- El sistema de visión fotópica depende de los conos, está adaptado a sits de alta iluminación y está directamente reldo con
la codificación diferencial de la longitud de onda. No todos los conos responden de la misma forma a la longitud de onda,
unos son más sensibles a las longitudes cortas, otros a las longitudes de onda medias y otros a las largas. El estudio
psicofísico de la respuesta del sistema de visión fotópica a la longitud de onda de una luz se realiza mediante un
experimento de igualación de color, q es el fundamento de la colorimetría y a partir de Helmholtz y Maxwell los
resultados obtenidos en este tipo de experimento dieron los datos fundamentales para su teoría del color.
La sit experimental en un experimento de igualación de color es similar a la del exp de igualación escotópica. El campo
visual dividido en dos mitades contiene una luz de prueba q puede tener cualquier distribución espectral y la tarea consiste
en manipular la intensidad de 3 luces primarias hasta conseguir que los dos lados del campo visual sean indistinguibles.
Durante todo el exp, la distribución espectral de las 3 luces primarias permanece constante y el observador sólo puede
modificar la cantidad de cada luz primaria. El resultado es q, en condiciones de alta iluminación -condiciones fotópicas- los
observadores pueden igualar todas las luces de prueba manipulando las cantidades de luz de las 3 luces primarias. Las dos
partes del campo visual, aunq tienen la misma apariencia, no tienen la misma distribución espectral por lo q al color
resultante de la mezcla de las 3 luces primarias se llama metámero.
El conjunto de luces primarias que se pueden utilizar en un experimento
de igualación de color debe cumplir una condición y es que ninguno de
los colores primarios pueda obtenerse por la mezcla de los otros dos. En
la práctica se ha comprobado que para obtener conjuntos de tres luces
que puedan ser utilizadas como primarias, sus longitudes de onda deben
estar ampliamente separadas en el espectro visible. Para tipificar las
referencias calorimétricas, La Comisión Internacional de Iluminación
(CIE), ha utilizado como primarios de su sistema RGB (rojo, verde, azul)
tres luces de 700, 546.1 y 435.8 nm
La Figura 2.4 muestra la función resultante de un experimento que usó
estas luces primarias. En ella se especifica las cantidades de R [r (/..)], G
[g (/..)] y B [b (/..)] necesarias para igualar los colores de prueba
correspondientes al espectro visible. Estas cantidades se denominan
valores triestímulo y están expresadas en unidades tricromáticas.
Véase en la Fig 2.4 q para igualar las longitudes de onda entre los 435.8 y los 546.1 nm los valores de R q hay q añadir a la
mezcla tienen un valor negativo. Esto significa q la igualación de los colores correspondientes a las longitudes de onda
comprendidas en ese rango no puede lograrse mediante la mezcla de las tres luces primarias, pero sí se logra si la cantidad
de R se mezcla con la luz del E de prueba. En este caso lo q se hace es disminuir la saturación del E de prueba y lograr de
esta forma q el color resultante sea igualado x una mezcla de G y B. Así, en sentido estricto no es verdad q la apariencia de
cualquier color pueda ser igualada por la mezcla de 3 luces primarias, pero sí es verdad q la igualación de cualquier color
puede lograrse mediante la manipulación de 3 luces primarias lo q permite establecer un sistema descriptivo basado en 3
luces primarias q incluya todos los colores.
La ecuación del color es la expresión q determina la cantidad de cada luz primaria necesaria para lograr la igualación del
color (E) correspondiente a una det longitud de onda (A.). Ej: con ref a la Fig 2.4, el color correspondiente a una longitud
de onda de 475 nm tiene la siguiente ecuación del color: 𝐄𝟒𝟕𝟓 = -0.045R + 0.032G + 0.186B
En este caso ha sido necesario proyectar 0,045 unidades tricromáticas de R en el campo de prueba para lograr la
igualación, por eso aparece como un valor negativo en la ecuación.
La mezcla de luces puede expresarse en términos de una ecuación lineal porque cumple las propiedades de:
La homogeneidad supone q una igualación persiste si ambos términos de la ecuación se multiplican por una constante.
La superposición supone q si a ambos lados de la ecuación se suma una constante, la igualación persiste. Esta propiedad
suele conocerse con el nombre de ley aditiva de Grassmann. Aunque esté implícitamente supuesto, es conveniente caer en
la cuenta de que la mezcla de colores tb tiene las propiedades simétrica y transitiva
- el diagrama de cromaticidad: como en toda mezcla de luces, la cantidad de luz en la mezcla es igual a la suma de las
cantidades de cada luz primaria y la apariencia de la mezcla no depende de los valores triestímulo absolutos, se puede
definir un sistema de coordenadas basado en la contribución proporcional de cada luz primaria al total de la mezcla. Ej, la
proporción de R a la mezcla viene dada por la ecuación:

de igual manera puede determinarse la proporción de G y de B. A los valores r, g y b q representan la contribución


proporcional de cada luz primaria a la mezcla se les llama coordenadas de cromaticidad. Un sistema de representación de
los colores basado en coordenadas de cromaticidad puede usar solo 2 coordenadas ya q el valor de la 3ª coordenada viene
det x la diferencia entre uno y la suma de los valores de las dos coordenadas q se usan en la representación bidimensional.
Éste es el caso del diagrama de cromaticidad de la CIE que aparece en la Fig 2.5. Este diagrama está basado en el sistema
X Y Z cuyos valores primarios no corresponden a un conjunto particular de luces primarias sino que son transformaciones
lineales del sistema R G B. Estas transformaciones se hicieron con el propósito de tipificar la representación y teniendo en
cuenta una serie de ventajas, entre ellas la de q los valores triestímulo fueran todos positivos.
En la Figura 2.5, puede verse que las coordenadas X e Y son
suficientes para construir un sistema de representación de todos los
colores. En el perímetro de la línea curva continua se representan las
distintas longitudes del espectro luminoso con sus correspondientes
matices de color en el grado máximo de pureza de excitación. La
línea recta que une el punto de los 400 nm con el de los 700 nm
corresponde a la zona de colores púrpura que no son espectrales. En
el centro del diagrama se sitúa la zona de colores acromáticos con el
punto D correspondiente al valor del estímulo acromático que sirve
de referencia al sistema de unidades tricromáticas usado. Para los
colores situados dentro del diagrama de cromaticidad puede
determinarse su longitud de onda dominante, si la tienen, así como
su pureza de excitación. La longitud de onda dominante de un E de
color está correlda con el matiz perceptivo del mismo. En el
diagrama de cromaticidad se puede determinar mediante una línea q,
trazada desde el punto de referencia D y pasando por el punto
correspondiente al color q se quiere determinar (Q) corte el
perímetro del diagrama. El punto de intersección determina la
longitud de onda dominante (A,d). La pureza de excitación está correlacionada con la saturación y es fácil de entender por
referencia a la recta menciona- da en la definición anterior. La pureza de excitación es el cociente entre la distancia desde
el punto de referencia D al punto correspondiente al color (Q) y la distancia de la recta que une D con A,d pasando por Q.
La pureza de excitación es cero cuando D y Q coinciden y alcanza el valor de 1 cuando Q y A,d coinciden.
El diagrama de cromaticidad nos permite también determinar los pares de colores complementarios10, que son aquellas
parejas de colores que, mezcladas en proporciones adecuadas, producen una igualación con un color acromático
determinado (el de referencia, que en este caso es el blanco). En el diagrama de cromaticidad, los puntos opuestos del
perímetro que están unidos por una recta que pasa por el punto de referencia D, determinan longitudes de onda que son
complementarias. No todas las longitudes de onda tienen complementaria. Como puede verse en el diagrama de la Figura
2.4, los Es de color de longitudes de onda comprendida entre aprox 493,3 y 566,5 no tienen complementario. El punto
opuesto a estas longitudes de onda en el diagrama cae en la recta de los colores púrpura que no son colores espectrales.
La mezcla de pigmentos
Como hemos visto, en este tipo de mezcla de luces de colores, la resultante de la mezcla es igual a la suma de la cantidad
de luz de las luces primarias, por ello se llama tb mezcla aditiva de colores. Pero no toda mezcla de colores es aditiva. Hay
sits en q la resultante de una mezcla no es aditiva respecto a sus cs. El caso más frecuente de mezcla no aditiva es la mezcla
de pigmentos, como la de un pintor. Esta se llama mezcla sustractiva pq hay q considerar las longitudes de onda q son
absorbidas y las q son reflejadas por los pigmentos. Ej: un pigmento azul absorbe longitudes de onda largas y refleja las
cortas q son las q le dan la apariencia azul. Por el contrario, un pigmento amarillo absorbe longitudes de onda cortas y
refleja longitudes de onda largas. En la mezcla de ambos pigmentos, el azul absorbe las largas y el amarillo las cortas por
lo q en la mezcla las longitudes de onda más reflejadas son las medias, q producen una sensación verde. Este resultado es
la consecuencia de una supresión de longitudes de onda provocada por la reflectancia particular de cada pigmento. En una
mezcla de luces, realizada en las debidas proporciones, la mezcla de azul y amarillo hubiera producido un efecto gris ya
que azul y amarillo son colores complementarios.
2. TRICROMATICIDAD
La experimentación con mezcla de luces fue el fund más sólido de la teoría tricromática del color. Propuesta en 1777 por
G. Palmer e independientemente vuelta a descubrir por T. Young en 1802. Dp elaborada por Maxwell y Helmholtz y
conocida como la teoría tricromática de Young y Helmholtz.
- En su vertiente psicofísica, defendía que las sensaciones de color fundamentales eran 3: rojo, verde y azul.
- En su vertiente fisiológica, mantenía la existencia de 3 tipos de receptores sensibles a diferentes longitudes de onda.
Según Helmholtz, cada uno de los receptores respondía preferentemente a un tipo de longitud de onda, uno a las cortas,
otro a las medias y otro a las largas. No obstante, cada uno de ellos era diferencialmente sensible a un rango de longitudes
de onda amplio, por lo q se daba un cierto solapamiento entre las distribuciones de sensibilidad de los tres receptores. Cada
uno de los receptores, considerado de forma aislada, era ciego al color; pero, debido al solapamiento de las funciones de
sensibilidad, cualquier longitud de onda era capaz de estimular de forma diferente a cada receptor. El patrón de activación
producido en los receptores por las distintas longitudes de onda era el responsable directo de la experiencia de color.
La teoría tricromática tenía a su favor los resultados provenientes de experimentos de mezcla de luces como los vistos.
Además explica bien las deficiencias cromáticas. La fisiología actual nos permite afirmar q, en el nivel de los receptores, la
codificación del color tiene lugar de acuerdo con los postulados fundamentales de la teoría tricromática.
Las deficiencias cromáticas
- acromatopsia: verdadera ceguera al color, en muy raros casos, reduce la visión a la dimensión de claridad en la gama de
blancos, grises y negros. Los q la padecen no necesitan más que una luz primaria en un experimento de igualación ya q
sólo pueden basar su discriminación en la dimensión de brillo-claridad.
- dicromatopsia: más frecuente. Quien la padece sólo tiene dos de los 3 tipos de receptores dl color, por lo q un dicrómata
sólo necesita usar dos luces primarias para igualar una luz de prueba en un exp de igualación de colores. Dependiendo del
tipo de receptor que falte, pueden presentarse tres tipos de dicromatopsia:
protanopas: carecen de receptores de onda larga. Si una luz roja se hace más brillante q una luz verde, confundirá estos
colores.
deuteranopas: carecen de receptores de onda media. Es más común que la protanopia y afecta tb a la discriminación entre
el verde y el rojo. La apariencia del color para protanopas y deuteranopas es similar, las longitudes de onda cortas tienden a
aparecer azules y las largas tienden a aparecer amarillas. En medio de estas dos bandas hay un punto acromático de color
gris q permite discriminar a protanopas de deuteranopas ya q para los 1ºs tiene lugar en los 492 nm y para los 2ºs en los
498 nm.
tritanopas: carecen de receptores de ondas cortas y son poco frecuentes entre la población (1 entre 20.000 personas). La
apariencia q toman los colores para el tritanopa es de verde para las longitudes de onda cortas y rojo para las largas. El
punto gris de neutralidad cromática lo presentan en los 570 nm.
Existen otros tipos de anomalías llamadas tricromáticas q son debidas a un func anómalo de los receptores. Quienes las
padecen pueden igualar cualquier color con una mezcla de 3 luces primarias pero la mezcla difiere de la usada por las
personas normales. La investigación del color el estudio de las deficiencias cromáticas influyó poderosamente a favor de la
teoría tricromática. No obstante, la evidencia determinante a favor de la teoría la aportó la invest directa de los receptores.
Fisiología de los fotorreceptores
A mediados del siglo veinte la investigación fisiológica fue capaz de aislar y extraer el fotopigmento de los bastoncillos
llamado rodopsina. Cuando este fotopigmento es expuesto a la luz, sufre una serie de modificaciones químicas que acaban
produciendo un cambio gradual en el potencial de membrana. Una característica de todo este proceso es que no cambia a
pesar de que cambie la longitud de onda que es absorbida. Es decir, aunque los cuantos de longitud de onda corta poseen
más energía que los cuantos de longitud de onda larga, la secuencia de reacciones es la misma cuando se absorben unos
que cuando se absorben otros. A esta propiedad se le da el nombre de univarianza significando con ello q el fotopigmento
establece una correspondencia entre toda la gama de longitudes de onda del espectro visible y un único tipo de output que
es la tasa de absorción. La respuesta de la rodopsina no codifica inf alguna sobre la composición espectral de la luz y por
ello no somos capaces de discriminar luces de diferente color en condiciones de visión escotópica. Obsérvese q univarianza
no significa que la rodopsina absorba de igual forma todas las longitudes de onda; no es así, de hecho es más sensible a las
longitudes de onda media que a las bajas o altas, como se ha visto antes en la función de sensibilidad escotópica.
Univarianza significa que, una vez absorbidos, los cuantos de cualquier longitud de onda tienen el mismo efecto visual.
La propiedad de univarianza permite establecer una relación entre la tasa de absorción del fotopigmento y los resultados de
un experimento de iguala- ción escotópica comparando la funcion de absorción de la rodopsina con la función de
sensibilidad espectral escotópica. Wald y Brown hicieron esa comparación y comprobaron que el grado de solapamiento
entre ambas es prácticamente perfecto. Resultados como éste permiten establecer que la tasa de absorción de la rodopsina
es el fundamento biológico de la igualación escotópica.
Con respecto a los conos, la investigación de los fotopigmentos ha sido más complicada y no han podido ser aislados hasta
hace unos años por proceds de ingeniería genética (Merbs y Nathan). No obstante, utilizando una gran variedad de proceds,
hace tiempo que se había establecido la existencia de tres tipos de conos que presentan una sensibilidad diferente a las
distintas longitudes de onda. Unos conos muestran mayor ca- pacidad de absorción para las longitudes de onda corta, por
lo que son llama- dos conos S; tienen una sensibilidad máxima en torno a los 440
nm12• Otro grupo de conos M muestra mayor capacidad de absorción para las
longitudes de onda medias, con un máximo en torno a los 530 nm. El tercer grupo de
conos L es más sensible a las longitudes de onda largas y su pico máximo se sitúa en
torno a los 560 nm13• Los conos L son los más abundantes en la retina humana, son
aproximadamente el doble que los conos M. Los más escasos son los conos S que
vienen a representar entre el cinco y el diez por ciento de la población de conos. Según
la opinión de Rusell y Karen DeValois (De Valois & De Valois, 1993) la razón entre
los conos L, M y S viene a ser aproximadamente de 10 : 5 : 1.
Fig 2.6 presenta la absorción relativa de cada uno de los tres tipos de conos. Como puede verse, hay solapamiento entre las
distribuciones de absorción de cada uno de ellos aunq el solapamiento es mucho mayor entre las distribuciones de los
conos M y L. La Fig tb pone de manifiesto q, ante una misma longitud de onda, la respuesta de cada tipo de cono es
diferente. En general, el funcionamiento de los 3 tipos de conos es parecido a lo que Helmholtz había anticipado aunq los
detalles de las funciones de absorción son diferentes.
3. PROCESAMIENTO OPONENTE
En el siglo XIX, los investigadores de la percepción con una orientación fenomenológica, siempre concedieron una gran
importancia a la forma en que los colores aparecen en nuestra experiencia consciente. Varios fenómenos reldos con la
percepción del color encontraban difícil acomodo en la teoría tricromática.
Fenómenos que cuestionan la teoría tricromática
a) Tareas de clasificación de colores. Hering observó que, cuando se pedía a los sujetos el agrupamiento de un conjunto
de fichas de diferentes colores, el n1 de cats más frecuentemente utilizado era cuatro: rojo, verde, azul y amarillo. Si los
colores fundamentales fueran 3, ¿por qué se utilizaba el amarillo como categoría independiente de las otras tres?
b) Combinaciones de colores. Aunque la teoría tricromática es capaz de predecir el resultado de la mezcla de luces, no es
capaz de explicar porqué no podemos tener experiencia de dets combinaciones. Ej: el púrpura es un color q parece ser rojo
y azul, el naranja responde a una mezcla de rojo y amarillo, pero no existe experiencia de colores que respondan a
combinación de rojo y verde o de azul y amarillo.
e) Deficiencias cromáticas. hemos visto que guardan una relación estrecha con la falta de dets fotorreceptores, pero tb q la
experiencia visual de un protanopa es semejante a la de un deuteranopa. La pérdida de la experiencia de color no ocurre de
forma individualizada para cada uno de ellos, sino que tiene lugar por pares, y los emparejamientos no son arbitrarios sino
que afectan al par rojo-verde o al par azul-amarillo.
d) Posefecto de color. Si uno fija su vista en una superficie coloreada durante cierto tiempo y, a continuación, cambia su
mirada a una superficie blanca, esta superficie adquirirá la apariencia del color oponente al que tenía la primera superficie.
Este fenómeno se conoce con el nombre de posefecto de color y está íntimamente reldo con el fenómeno de adaptación
cromática q consiste en la perdida de sensibilidad para un det matiz como consec de una exposición repetida a ese matiz.
Fenómenos como estos llevaron a muchos autores a defender la existencia de más de tres colores fundamentales. Ej: Ernst
Mach, físico y filósofo austriaco, propuso la existencia de 6 colores funds: rojo, verde, azul, amarillo, blanco y negro. Sin
embargo, la teoría q se opuso con más fuerza a la teoría tricromática fue la de Ewald Hering.
Teoria de Hering
Hering sostuvo la existencia de 6 colores fundamentales, reldos en pares amarillo-azul, rojo-verde y blanco-negro. Pero, su
teoría de los receptores defendía la existencia de 3 sistemas retinianos, por lo que el nº de receptores postulados no era
diferente del postulado por la teoría tricromática. La diferencia fund radicaba en la forma de entender el func de esos mes.
Para Hering, cada receptor estaba preferentemente dedicado al procesamiento de un par de colores oponentes y la respuesta
de los receptores no era monofásica (excitatoria), sino bifásica (excitatoria e inhibitoria). Hering asumió la existencia de 3
sustancias visuales en la retina, cada una capaz de experimentar un cambio químico en una de dos direcciones antagónicas.
Hering llamó a estos cambios asimilación y desasimilación y relacionó la fase de asimilación de cada sustancia con la
codificación del azul, el verde y el negro, y la fase de desasimilación con la codificación del amarillo, el rojo y el blanco
respectivamente, de forma q en cada uno de los tres pares, amarillo-azul, rojo-verde, y blanco-negro el primer miembro del
par estaba asociado con la desasimilación y el segundo con la asimilación.
Los teóricos del color se dividieron entre partidarios de la teoría tricromática o de la teoría de procesos oponentes. Hasta
sXX, la teoría preferida fue la teoría tricromática, aunq ya en 1905 von Kries y dp Müller y Schrodinger manifestaron q las
dos teorías no tenían por qué ser incompatibles. Ambas podían ser correctas pero en fases diferentes del procesamiento del
color. Pero, para la gran mayoría aceptar una teoría de doble proceso resultaba una complicación excesiva y una
innecesaria violación del principio de economía explicativa. No obstante, los trabajos de Hurvich y Jameson (1957)
abrieron definitivamente la puerta a una teoría de doble proceso.
Teoría de Hurvich y Jameson
Hurvich y Jameson usaron un proced psicofísico conocido como experimento de cancelación de matiz. En este exp, se
pide al observador q juzgue si una luz de prueba tiene apariencia, por ej, rojiza o verdosa. Si la apariencia es rojiza, el
observador debe añadir luz verde hasta cancelar la impresión de luz rojiza. Si aparece verdosa, la luz que debe añadir es la
roja. La idea central en el proced consiste en la cancelación mutua de los matices oponentes de forma que, una vez que el
matiz rojo o verde de la luz de prueba ha sido cancelado, la luz de prueba, más la luz añadida para cancelar, adquiere una
tonalidad amarilla, azul o gris. El proced es el mismo para cancelar los matices azulados o amarillentos, se utiliza luz
amarilla para cancelar el azul y luz azul para cancelar la amarilla.
Figura 2.8 muestra la valencia cromática del espectro visual obtenida mediante la aplicación de este método.
En la parte A se representa la fuerza del par azul-amarillo. En las longitudes de onda cortas -valores menores de 500 nm
aprox- predomina el matiz azulado, mientras q en las largas - por encima de 500 nm- predominan los matices amarillentos.
En el apartado B se representa la fuerza del par rojo-verde. Obsérvese que el matiz rojo está presente en las longitudes de
onda cortas aunq en menor medida q en las largas; en las longitudes de onda medias predomina exclusivamente el verde.
El apartado e representa la superposición de las funciones anteriores con la particularidad de que, para acentuar el carácter
oponente de cada par de colores, se ha dado a los matices azul y verde valores negativos. Se trata solamente de una
convención que no debe hacernos olvidar que los valores de las luces utilizadas son siempre positivos.
Sobre la base de estos datos psicofísicos, Hurvich y Jameson propusieron una teoría de la codificación del color de dos
fases que reconciliaba la teoría tricromática de Helmholtz con la teoría de los procesos oponentes de Hering. La teoría
tricromática era correcta en el nivel de los receptores puesto que solamente existían 3 tipos de fotorreceptores en la retina q
se activaban en distinto grado ante cada longitud de onda. Pero, en una segunda fase se producía una nueva codificación en
términos de procesos oponentes de forma que determinados mecanismos cerebrales codificaban el par rojo-verde mientras
otros mecanismos codificaban el par azul-amarillo. Hurvich y Jameson postularon además la existencia de un 3r mec no
oponente para el par blanco-negro encargado de procesar la claridad.
El modelo de Hurvich y Jameson estaba fundamentado en los datos psicofísicos procedentes de experimentos de
cancelación de matices. En la más pura tradición de la psicología experimental, postulaba la existencia de dets mecs
neuronales para explicar los datos psicofísicos, pero no estaba apoyado en evidencia fisiológica directa. No obstante, la
influencia de sus investigaciones fue grande y dieron un fuerte impulso a la investigación fisiológica del color.
Investigaciones de DeValois
Las ideas de Hurvich y Jameson, y en consecuencia la teoría de los procesos oponentes, encontraron apoyo fisiológico en
las invests de Rusell DeValois y sus cols. Estos descubrieron en el núcleo geniculado lateral (NGL) del tálamo de primates,
células q respondían selectivamente al color de forma similar a la postulada por la teoría de los procesos oponentes. Unas
células eran activadas x la luz roja e inhibidas x la verde y otras se activaban ante la luz verde e inhibidas x la roja. Lo
mismo ocurría para el par azul-amarillo. Además encontraron células no oponentes, algunas de las cuales eran excitadas
por cualquier tipo de longitud de onda e inhibidas por la ausencia de luz y otras que eran activadas por la ausencia de luz e
inhibidas x su presencia. En conjunto, las células descubiertas por De Valois y cols presentaban un patrón de codificación
del color que estaba de acuerdo con la teoría de los procesos oponentes. Esto, junto con los 3 tipos de fotorrectores del
color, dieron un impulso definitivo a las teorías duales de proces del color como la propuesta por Hurvich y Jameson.
Avances recientes
- investigación empírica: la investigación fisiológica descubrió muy pronto que el procesamiento oponente del color no
tenía su comienzo en el núcleo geniculado lateral del tálamo, sino que se iniciaba ya en la retina, en el nivel de las células
bipolares y ganglionares. De hecho, la especialización de las vías nerviosas en lo referente a la transmisión de la inf
cromática se inicia ya en las células bipolares y ganglionares y continúa hasta la corteza a través de 3 vías diferentes:
l. La vía P se origina en las células bipolares enanas y deja la retina a través de las células ganglionares del mismo nombre.
Este grupo de células comprende tanto neuronas de centro on como neuronas de centro off y tanto las unas como las otras
contactan con un único cono L y M en el centro de la fóvea. Los conos S, que son menos abundantes q los L y M, parece
que solamente hacen contacto con bipolares enanas de centro off. Para todas estas células el contorno oponente al centro
parece estar controlado por señales procedentes de una mezcla de los otros tipos de conos. Las células ganglionares envían
la inf a las capas parvocelulares del núcleo geniculado la- teral que a su vez la proyecta sobre la capa 4Cb de la corteza
visual primaria. La vía P es la principal portadora de información sobre el color.
2. La vía M. se origina en las células bipolares difusas que envían su información a las células ganglionares parasol. Estas
células contactan preferentemente con grupos de bastoncillos y con grupos de conos L y M que contribuyen de forma
conjunta, por lo que las células no pueden dar una base para discriminar entre diferentes longitudes de onda. Las células
parasol envían su información a las capas magnocelulares del núcleo geniculado lateral que desde allí se proyecta sobre la
capa 4Ca y 4B de la corteza visual primaria. Aunque no envía inf cromática diferenciada, esta vía proporciona la principal
inf q determina las funciones de luminosidad escotópica y fotópica.
3. La vía K. origen en unas células ganglionares llamadas pequeñas biestratificadas que poseen un centro on activado por
un cono S y un contorno inhibitorio que recibe inf de conos L y M. Estas células ganglionares proyectan su información
sobre las capas K19 del núcleo geniculado lateral y desde allí a la zona de las gotas (blobs) en las capas 2 y 3 de la corteza
visual primaria. Esta vía transmite hasta la corteza inf oponente relda con los conos S por lo que parece razonable pensar q
está preferentemente relda con la codificación del par de colores azul-amarillo.
- elaboración teórica: desde la teoría el interés se ha centrado en la construcción de modelos que, siendo fieles a los
descubrimientos empíricos, puedan explicar la forma en que la codificación tricromática que tiene lugar en los receptores,
se transforma en una codificación en pares colores oponentes y, en última instancia, en la experiencia de color como
aparece en nuestra consciencia. Uno de los modelos más influyentes ha sido el propuesto por los DeValois.
El modelo que han propuesto los DeValois es un modelo de 4 fases que tienen lugar en zonas diferentes de los centros
nerviosos reldos con el procesamiento visual del color.
- La 1ª fase el nivel de los receptores y es de naturaleza tricromática. Tenemos 3 tipos de receptores del color
diferencialmente sintonizados a longitudes de onda largas (conos-L), longitudes de onda media (conos-M) y longitudes de
onda corta (conos-S). La proporción de conos L: M:S es 10:5:1.
- La 2ª fase es de naturaleza oponente y tiene lugar en la retina y en el núcleo geniculado lateral del tálamo. En la retina,
una red neuronal formada por las conexiones e interacciones de los fotorreceptores con las demás células retinianas da
origen a seis tipos de células ganglionares enanas oponentes. Tres de ellas, llamadas L𝑜 , M𝑜 y 𝑆𝑜20 , tienen un centro
activado directamente por conos L, M y S respectivamente y un contorno que en todas ellas es inhibido por influencias
indirectas provenientes de conos L + M + S. Así, la inf q converge en una célula Lo puede representarse como L - (LMS),
la que converge en Mo como M - (LMS) y la de So como S - (LMS). Las otras 3 enanas oponentes, -Lo-Mo y -So tendrían
una org on off opuesta a las anteriores ya que sería inhibidas en su centro por conexiones directas con conos L, M y S y
excitadas en su contorno por las influencias indirectas de conos L+ M + S. La representación de la inf convergente sobre
cada una de estas células sería -L + (LMS), -M + (LMS) y -S + (LMS). Estos 6 tipos de células ganglionares enanas
mandan la inf al núcleo geniculado lateral (NGL) a través de la vía P. En la retina tiene lugar tb la codificación de la
información q se transmite por la vía M pero no nos detendremos en ella ya q el modelo de los DeValois se centra en la inf
transmitida por la vía P. A partir de ahora nos centraremos exclusivamente en la vía P.
En el núcleo geniculado lateral del tálamo tiene lugar una organización más precisa del contorno de las unidades
acentuando la naturaleza oponen- te de las mismas. Así, las células con un centro relacionado con un cono L reciben en su
contorno un input antagonista proveniente exclusivamente de conos M y viceversa. En este nivel las células adquieren una
estructura que puede representarse así: Lo como L-M, -Lo como -L+M, Mo como M-L, -M como -M+L, So como S-LM, y
So como -S+LM. Por tanto, en este nivel la codificación del color adquiere un carácter claramente oponente en su
estructura centro-contorno. Esta org proporciona a las células del NGL la posibilidad de responder tanto a variaciones en el
color como a variaciones en la luminancia de los estímulos. Esta idea se puede entender mejor examinando la Figura 2.9.
En la parte izquierda de la figura se puede ver la estructura centro-contorno de una
célula Lo que tomamos como ejemplo. Dependiendo del tipo de estimulación que
incide sobre esta célula, el campo receptivo de la misma puede ser de dos formas
diferentes. Si la célula es estimulada por una luz acromática blanca, que contiene
todas las longitudes de onda, la respuesta de la célula será excitatoria en su centro
e inhibitoria en su contorno, es decir la respuesta ordinaria de una célula on-off a
los cambios de luminancia. Esto es lo que aparece en la parte superior derecha de
la figura. Sin embargo, si la luz que incide sobre la célula es roja, entonces el
centro L responderá hasta su máximo posible mientras que el contorno -M, al no
ser sensible a la luz roja, no producirá inhibición. El resultado será un campo
receptivo uniforme respecto al color.
- La 3ª fase es la fase principal para el modelo pues en ella se produce la
separación de la inf referente al color de la información correspondiente a la
luminancia y también tiene lugar la organización del código del color en un
espacio tridimensional siendo estas dimensiones los pares rojo-verde, amarillo-
azul y blanco-negro. Estos dos problemas se resuelven mediante combinaciones particulares de la información que
proporcionan las células del NGL que hemos visto en la fase anterior y tiene lugar en la corteza visual.
La separación del color y la luminancia se puede entender considerando las propiedades de las células ejemplificadas en la
Figura 2.9. Supongamos, por ejemplo, que combinamos el output de una célula Lo con el de una -M cuyo centro es
inhibido por longitudes de onda medias y cuyo contorno es activado por las longitudes de onda largas. Como hemos visto
antes, la célula Lo tiene un campo receptivo de centro excitatorio y contorno inhibitorio (on- off) en respuesta a los
incrementos de luminancia, y tiene un campo uniforme excitatorio de color (rojo) en respuesta a los cambios hacia las
longitudes de onda largas. En estas mismas situaciones de estimulación, la célula -M0responde a los incrementos de
luminancia con un centro inhibitorio y un entorno excitatorio (off-on) y a la luz roja con un campo homogéneo del mismo
color que el producido por Lo ya que su centro inhibitorio no se ve afectado por las longitudes de onda largas. El resultado
de la combinación de Lo y -M puede deducirse fácilmente dado el carácter lineal del modelo. Con respecto a los
incrementos de luminancia los dos campos receptivos (on-off y off-on) se anularán mutuamente. Con respecto a la
estimulación de luz roja las dos células sumarán sus respectivos campos receptivos. El resultado final de esta combinación
es la producción de unidades de procesamiento que son ciegas a la luminancia pero sensibles al color.
Consideremos ahora la combinación del output de una célula L con una 0 célula Mo que tiene un centro excitatorio para las
longitudes de onda medias y un contorno inhibitorio para las largas. En este caso la respuesta a incrementos en luminancia
será on-off para ambas produciéndose la suma de los campos receptivos. Sin embargo, la respuesta a la luz roja será
excitatoria en L e inhibitoria en M produciéndose así la cancelación del color. El resultado oo final de esta combinación es
la producción de unidades que son ciegas al color pero sensibles a la luminancia.
Resumiendo, la integración de la información procedente de Lo y – Mo suma color y cancela luminancia mientras que la
de Lo y + Mo suma luminancia y cancela color. Lo mismo puede decirse para Mo y - L y para M y + L. El resultado final
consigue separar el procesamiento del color del procesamiento de la luminancia.
La org del espacio tridimensional de los procesos oponentes es el
resultado de añadir el output de las células So y -S a las combinaciones
que acabamos de estudiar.
La Fig 2.10 representa el diagrama completo del modelo propuesto por
los DeValois. Las líneas horizontales representan combinaciones que
cancelan el color y codifican la luminancia, una dando lugar a
acromáticos claros y otra a acromáticos oscuros. Las líneas verticales
representan las combinaciones particulares que llevan a la codificación
de los 4 colores funds q forman los dos pares oponentes cromáticos:
rojo, amarillo, verde y azul. El diagrama pone de manifiesto tb los
supuestos fundamentales del modelo. En esencia, los DeValois
proponen q a lo largo de la vía P, el eje predominante en la
codificación del color es el formado por las células que reciben en el
centro de sus campos receptivos inputs que provienen de los conos L y M. El papel del sistema oponente S es romper esa
predominancia cuando la información llega a la corteza visual modulando la actividad del sistema L M de dos formas
diferentes que dan lugar a los ejes rojo-verde y amarillo-azul. Así pues, los tres sistemas oponentes L M y S participan en
la codificación de los colores pero L y M son los principales. Incluso en la codificación del azul, la contribución de Mo es
mayor q la de So.
4. La cuarta fase y última en el modelo asume la existencia de células complejas que responden selectivamente a un color y
no a otros. En opinión de los DeValois, estas células deben darse en zonas corticales posteriores a Vl y no tienen el carácter
oponente que tienen las células que participan en las fases anteriores. Estas células complejas disparan a una determinada
región espectral y no producen respuesta alguna a otras. Esto no significa que el procesamiento del color pierda su carácter
oponente en esta fase, sino que el procesamiento es oponente entre células diferentes y no dentro de cada célula como lo
era en las fases anteriores. Ej: aunq son células diferentes las que disparan al rojo y al verde, estas células nunca disparan
las dos al mismo estímulo, cuando disparan las células sensibles al rojo no lo hacen las sensibles al verde y viceversa. Pero,
las células q disparan al rojo y las que lo hacen al amarillo, pueden disparar ambas ante el mismo E.
El modelo de los DeValois es uno de los más completos e influyentes en la investigación actual y constituye una buena
muestra de la complejidad que los actuales modelos de procesamiento del color van adquiriendo. Merece la pena destacar
algunos de sus aspectos más interesantes. En primer lugar, el modelo muestra cómo la información cromática y la
acromática pueden ser proporcionadas por los mismos mecanismos. El modelo asume que la infor- mación acromática, no
sólo es conducida por la vía M sino también por la vía P. En segundo lugar, el modelo muestra cómo pueden surgir células
especia- lizadas en la respuesta a seis colores, organizados en tres pares oponentes, a partir de los tres fotorreceptores
cromáticos. Además, el modelo proporciona una explicación aceptable de la calidad de la percepción de las longitudes de
onda cortas a pesar de la escasez de receptores especialmente sensibilizados a las mismas. Finalmente, desde un punto de
vista computacional el modelo es sencillo pues mantiene, a lo largo de sus principales fases, un funcionamiento lineal para
todas las unidades de procesamiento. La investigación futura se encargará de ir estableciendo la consistencia de los
principales supuestos del modelo.
4. LA CONSTANCIA DEL COLOR
Las teorías q hemos tratado se han centrado en el procesamiento de Es muy sencillos, luces y superficies monocromáticas
aisladas. La inf q nos ha proporcionado ha sido de gran valor, pero no es menos verdad que el estudio de la percepción del
color exige la consideración de Es más complejos y de fenómenos q no pueden ser explicados por las teorías estudiadas.
A mediados del sXX, el físico E. Land, famoso por haber inventado la técnica fotográfica de revelado instantáneo y
fundador de la Polaroid Corporation, hizo investigaciones que causaron un fuerte impacto en la comunidad científica.
Land, que había desarrollado su técnica para fotografía en blanco y negro, estaba investigando la forma de ampliarla para
obtener fotografía en color. En el proceso, comprobó q los principios de la colorimetría no le permitían predecir la
apariencia de los colores. Uno de los experimentos q provocaron en él mayor sorpresa y dedicación a la investigación fue:
tomó dos fotografías en blanco y negro de una misma escena rica en colores, una de ellas la tomó a través de un filtro rojo,
y la otra a través de un filtro verde. Después de hacer las correspondientes filminas, proyectó a través de un filtro rojo en
una pantalla la imagen tomada con el filtro rojo y superpuso a esta imagen la segunda, q había tomado con el filtro verde,
pero proyectada sin filtro, es decir, proyectada con luz blanca. Sobre la base de la mezcla de luces, era de esperar que el
resultado de la superposición fuera una escena o roja, o blanca o un rosa intermedio entre las dos luces mezcladas. Para
sorpresa de todos, Land observó que la superposición de las dos filminas reproducía toda la gama de colores presentes en
la escena inicial, casi con la misma viveza que si se tratara de una fotografía ordinaria en color. La reacción de Land en
contra de la teoría tricromática fue frontal pero el tiempo se ha encargado de demostrar que las observaciones de Land sólo
ponen de manifiesto la insuficiencia de la teoría tricromática para predecir la apariencia de los colores aunque sea útil para
predecir cuándo dos luces parecerán iguales.
Las observaciones de Land eran una demostración más de la constancia del color. La percepción del color no depende
exclusivamente de la cantidad de luz q un objeto refleja, o de la longitud de onda reflejada x el objeto sino de un conjunto
de fs que tienen q ver con la naturaleza del objeto y con el contexto en q aparecen los colores. Supongamos q a plena luz
del sol, a mediodía, exponemos un trozo de carbón a los rayos del sol. Por mucha luz que refleje, el carbón continúa
apareciendo negro. Si comparamos la cantidad de luz reflejada por el carbón al mediodía con la reflejada por una hoja de
papel blanco al anochecer, podríamos comprobar que, en términos absolutos, la cantidad de luz reflejada por el carbón al
mediodía es mayor que la del papel blanco al anochecer. Pero el carbón continúa viéndose negro al mediodía y el papel
continúa viéndose blanco al anochecer. Los colores de los objetos nos aparecen como una propiedad de los objetos q nos
permite muchas veces reconocerlos como tales objetos. Esto no es posible si nuestra exp de color variara en función de las
variaciones q sufre la luminancia de los objetos. Nuestro sistema visual responde a una carac intrínseca de los objetos,
como es su reflectancia, y no a las cantidades absolutas de luz q llegan a la retina, pero ¿cómo puede conocer nuestro
sistema visual la reflectancia de un objeto si lo único que llega a la retina es su luminancia?
Fig 2.11 presenta 2 casos de contraste simultáneo, uno acromático y otro cromático, q ponen de manifiesto la
dependencia del contexto q tiene nuestra percepción del color. En la parte superior de la fig, los dos cuadrados de los
extremos tienen exactamente las mismas propiedades físicas y por lo tanto provocan el mismo tipo de reacción local en los
fotopigmentos de los receptores retinianos. Sin embargo, los dos cuadrados son percibidos con distinta claridad debido al
gradiente de claridad q caracteriza al entorno. En la parte inferior de la fig, la distribución espectral de las dos “X” es la
misma y esto se puede observar si fijamos la vista en el punto donde ambas coinciden. A pesar de ello, el color de cada
“X” es diferente, demostrando q la apariencia del color no depende de la estimulación local de los fotorreceptores sino de
la estructura espacial de la imagen como un todo. Las filminas q Land superpuso en el experimento mencionado antes son
una demostración más dramática aún de que nuestro sistema visual no atribuye color a los objetos en función
exclusivamente de la luz que los objetos reflejan sino teniendo en cuenta complejas rels de la escena como un todo.
La constancia de la claridad
Para entenderla, debemos recordar los conceptos de iluminancia, luminancia y reflectancia. Los valores de luminancia q
llegan a la retina son el producto de la reflectancia del objeto por la iluminancia q recibe dicho objeto. Además, el rango de
variación de los valores de luminancia en la retina como resultado de cambios en iluminancia, es mucho mayor q el rango
de variación debido a cambios en reflectancia. El problema es descubrir cómo puede nuestro sistema visual distinguir los
cambios en luminancia debidos a diferencias en iluminación de los cambios debidos a la reflectancia del objeto a partir de
los cambios en luminancia que es la única inf q recibe a través de los receptores. El hecho empírico innegable es que
nuestra percepción de la claridad responde adecuadamente a los cambios en reflectancia. ¿cómo es posible?
Helmholtz propuso que la luminancia de una región en la imagen retiniana era comparada con la intensidad percibida de la
iluminación en esa parte de la escena visual. Para Helmholtz, el problema se reducía a un cálculo de la claridad similar al
que hacen los físicos cuando calculan la reflectancia de una superficie. La luminancia retiniana dividida por la iluminancia
percibida nos daba la reflectancia percibida -es decir, la claridad- de la misma forma que la luminancia de una superficie
dividida por su iluminancia nos proporciona su reflectancia. El razonamiento de Helmholtz presentaba problemas lógicos y
empíricos. Uno de los primeros en resaltar sus problemas lógicos fue Hering, quien tildó al razonamiento de Helmhotz de
circular. Dada la luminancia de una superficie, uno necesita conocer la reflec- tancia de la misma para poder inferir su
iluminancia, pero es precisamente la reflectancia lo que se trata de encontrar. La circularidad parece inevitable: ne-
cesitamos conocer la reflectancia para inferir la iluminancia y ésta para inferir la reflectancia. Desde un punto de vista
empírico, el problema viene dado por la adaptación a la luz que nos hace insensibles a los niveles absolutos de iluminación
en condiciones de visión normal. No parece, por tanto, probable que el sistema visual tenga acceso a la iluminancia de una
superficie de forma directa e independiente de la luminancia retiniana.
Hering, a su vez, puso mucho énfasis en atribuir la constancia de la claridad, y del color en general, a mecs sensoriales por
un lado, tales como el tamaño de la pupila y la adaptación, y a mecanismos cognitivos como la memoria del color. La
opinión de Hering fue refutada por Katz en su famoso libro El Mundo del Color (1935) donde demostró que la constancia
del color persistía en situaciones que excluían la influencia de los factores defendidos por Hering.
Los psicólogos de la Gestalt fueron los primeros en rechazar la idea de que la luminancia fuera el estímulo responsable de
la percepción de la claridad y pusieron el énfasis en el papel desempeñado por los gradientes y por la razón entre
luminancias. Dentro de esta tradición investigadora, el experimento realizado por Hans Wallach (1948) fue determinante
para encauzar definitivamente la investigación. Wallach utilizó una situación que aparece representada en la Figura 2.12.
Presentó a los observadores dos Es distintos, cada uno formado
por dos círculos concéntricos. Los círculos interiores de cada
estímulo estaban iluminados por proyectores diferentes de los
que iluminaban los círculos envolventes. En cada ensayo, los
dos círculos concéntricos de un estímulo eran iluminados por el
experimentador con una intensidad fija y diferente para cada
uno de ellos. También el círculo envolvente del otro estímulo
era iluminado por el experimentador con una intensidad
diferente a la del círculo envolvente del primer estímulo. A
modo de ej, supongamos que la intensidad de los círculos del
primer estímulo era fijada por el experimentador en 80 unidades
para el envolvente y 20 unidades para el interno, y, a su vez, la
intensidad del círculo envolvente del segundo estímulo se fijaba
en 40 unidades. La tarea del observador consistía en manipular
la cantidad de luz del proyector que iluminaba el círculo interno
de la presentación variable hasta conseguir para el mismo una
apariencia igual a la del círculo interno de la presentación fija.
Wallach encontró que los observadores ajustaban la intensidad
del círculo de forma que la razón entre su luminancia y la de su
círculo envolvente era igual a la razón entre la luminancia del
círculo interno y la de su envolvente en la presentación fija. En el caso de nuestro ejemplo, los sujetos iluminabanel círculo
interno con 10 unidades de intensidad. Los resultados de Wallach pusieron de manifiesto la respuesta del sistema visual, no
a los valores absolu- tos de iluminación, sino a los valores relativos. La investigación posterior ha puesto de manifiesto que
la comparación entre la luminancia de la superficie interna y la de la superficie envolvente toma en consideración
preferentemen- te los bordes donde se produce el tránsito de un nivel de luminancia a otro.
La Figura 2.13 ilustra un efecto, conocido con el nombre de efecto Craik-O'Brien-Cornsweet. En la figura aparece una
superficie oscura junto a otra más clara. De hecho la distribución de luminancia es la misma para las dos, como lo
muestran las dos rampas de luminancia que aparecen en la parte de abajo de la figura, pero el efecto perceptivo viene
determinado por las di- ferencias en el borde central que se propaga a toda la superficie.
La teoría retinex propuesta por Land y cols fue una de las primeras teorías que utilizó el cálculo de las razones de
luminancia en los bordes como fundamento de su teoría para explicar la constancia del color. La teoría fue formulada para
explicar preferentemente la constancia cromática pero, como veremos más adelante, su explicación de la constancia de la
claridad es el fundamento de toda la teoría. Por eso, comenzaremos aquí su estudio y volveremos a ella al tratar de la
constancia cromática.
Land y MeCano comenzaron por tomar en consideración la naturaleza de las superficies y de las imágenes. En su opinión,
la reflectancia tiende a ser constante en el espacio delimitado por una superficie excepto en los bordes donde se produce un
cambio abrupto entre objetos o entre pigmentos. Sin embargo, los cambios en iluminancia tienden a ser graduales y no
producen transiciones bruscas. Por tanto, al analizar los cambios de luminancia en una imagen, los cambios escalonados en
la función de luminancia serán indicadores de cambios en reflectancia mientras que los cambios graduales indicarán
cambios en iluminancia. Land y MeCano estudiaron el alcance de estas ideas en un contexto experimental como el que
aparece en la Fig 2.14.
El conjunto de colores que aparecen como estímulo en el apartado B se conoce con el nombre de Mondrian por su parecido
con los planos rectan- gulares de colores puros creados por el pintor holandés Piet Mondrian. Un Mondrian proporciona un
estímulo adecuado para estudiar el efecto conjun- to de múltiples cambios de reflectancia al pasar de un plano a otro25• En
el apartado A de la figura se presenta un Mondrian acromático en blanco gris y negro apropiado para el estudio de la
constancia de la claridad.
Land y McCann estudiaron la percepción de estos estímulos bajo distintas condiciones de iluminación. Los planos de un
Mondrian formados de distin- tos niveles de gris repartidos de forma aleatoria en la superficie del cuadro, constituyen un
estímulo mucho más complejo que la organización de círculos concéntricos utilizada por Wallach. En el caso de Wallach
sólo se daba un tipo de borde entre los círculos concéntricos y las superficies a comparar eran sólo dos, pero en un
Mondrian los bordes que delimitan cada plano son muchos más, también son más las posibles superficies de comparación
y se encuen- tran a distancias distintas. A pesar de ello, el gris de cada plano se mantiene constante. Como la luminancia de
cada plano es el resultado de multiplicar la iluminancia por la reflectancia de la superficie, el problema al que se enfrenta el
sistema visual es recuperar la reflectancia a partir de las luminancias.
La teoría retinex propone que la claridad de las superficies es el resultado de la integración global de las razones de
luminancia determinadas localmen- te en los bordes. Land y McCann demostraron que la razón entre las lumi- nancias de
cualesquiera dos rectángulos en un Mondrian es igual al producto de las razones de las luminancias correspondientes a los
bordes que hay que cruzar en la trayectoria que va de uno a otro. Por ejemplo, si tomamos dos rectángulos a y e en el
Mondrian de la Figura 2.14, que están separados por una tercera superficie b, la razón entre la luminancia de a y la de e es
igual al producto de dos razones de luminancias: la que existe en el borde que separa a y b entre la luminancia de a y la
luminancia de b, y la que existe en el borde que separa b y e entre la luminancia de b y la luminancia de c. Land y McCann
demostraron que esta relación se daba para cualquier número de rectángulos intervinientes y para cualquier trayectoria que
se trazara entre cualesquiera dos planos de un Mondrian.
La teoría retinex es un buen ejemplo de teoría basada en propiedades intrínsecas de la imagen. La relación entre las razones
de las luminancias de los planos de un Mondrian forma un conjunto entrelazado de invariantes que son, en última
instancia, los responsables de la constancia de la claridad. La teoría es también un buen ejemplo de teoría computacional
pues un retinex es un mecanismo hipotético de cómputo -en última instancia realizable en un mecanismo neuronal- cuyo
funcionamiento equivale a un algoritmo que calcula las razones de luminancia e integra en el espacio correspondiente a la
superficie del Mondrian la información correspondiente a los bordes para reconstruir la imagen sobre la base de la
reflectancia.
La teoría retinex es capaz de explicar que la información local de la lu- minancia en los bordes es suficiente para recuperar
la reflectancia relativa de todas las regiones de un Mondrian pero es importante caer en la cuenta de que la reflectancia
relativa sólo nos informa de las diferencias entre las reflec- tancias de las regiones del cuadro, no nos dice nada de los
valores absolutos de reflectancia. La importancia de este punto para la percepción de la claridad es grande, porque las
diferencias relativas entre distintos niveles de claridad pueden ser iguales para la diferencia entre un blanco y una gama de
grises claros que para la diferencia entre un gris medio y una gama de grises oscuros que terminen en negro. ¿cómo puede
el sistema visual determinar que se trata de una gama que oscila entre blancos y grises o una gama entre grises ynegros?
Los investigadores han etiquetado este problema con el nombre de problema del anclaje porque se trata de fijar un punto de
la gama que permita interpretar el significado de las diferencias en términos absolutos. Land y Mc- Cann propusieron una
regla simple. Asumieron que el sistema visual asigna el color blanco al valor de máxima reflectancia y atribuye al resto
valores menores de claridad dependiendo de su relación con el primero26• Esta regla ha resultado ser aplicable en muchas
ocasiones cuando se trata de situaciones simples que implican la comparación de dos áreas. Sin embargo, incluso en
situaciones simples la asignación del blanco parece depender no sólo de fac- tores fotométricos como es la luminancia sino
de factores geométricos como es el área. En su formulación más simple, la regla del área viene a decir que cuanto más
grande es un área más clara parece. Las dos reglas funcionan bien cuando el área más grande es también la de mayor
luminancia pero la cosa se complica cuando hay conflicto entre las dos reglas. Gilchrist y colaboradores (1999) han
formulado una regla del área que combina ambos factores y que puede formularse de la siguiente manera: en una situación
estimular simple, cuando la más oscura de las dos regiones tiene el área relativa más grande, a
medida que el área más oscura crece, su claridad aumenta. Al mismo tiempo, la región más pequeña y más clara al
principio parece blanca, después parece una luz blanca fluorescente y finalmente parece una fuente emisora de luz. Un
ejemplo de esta situación final es la apariencia de la luna en la noche. La luna es una superficie que refleja luz pero su
apariencia no es blanca sino que parece emitir luz.
En el caso de situaciones estimulares complejas el problema es mucho mayor pues la atribución de claridad a las
superficies depende de factores que determinan la organización de la escena. Aunque no nos vamos a detener en ellos
ahora pues los estudiaremos con mayor detenimiento más adelante, me- rece la pena mencionar algunos resultados que nos
ayuden a entender la com- plejidad que puede llegar a alcanzar algo aparentemente tan sencillo como es la determinación
de la claridad de una superficie. Por ejemplo, Gilchrist (1980) demostró que, incluso en situaciones tan simples como la
utilizada por Wallach, la razón entre las luminancias sólo es efectiva cuando las dos su- perficies aparecen como
coplanares, es decir, pertenecientes al mismo plano en profundidad. Si, manipulando las claves de profundidad, los dos
círculos aparecen como sustentados en planos de profundidad diferentes, la constan- cia de la claridad se rompe. Vemos,
por tanto, que la asignación de claridad interactúa con otros factores
que determinan la interpretación última. La Fi- gura 2.15 presenta
los conocidos anillos de Kofka y Benussi que ejemplifican la
importancia de factores que afectan a la organización de la escena.
En la parte A de la figura, el anillo central parece uniforme. En la parte B la uniformidad se rompe mediante la separación
de las superficies que sirven de fondo, de modo que la mitad de la izquierda, que se inscribe en el fondo más oscuro,
aparece más clara que la mitad de la derecha. En C las diferencias en claridad de las dos partes del círculo se hace mucho
más compleja por la reorganización de la figura central producida por el simple cambio relativo de las posiciones de las
dos mitades de la figura.
La influencia de estos factores que afectan a la interpretación final de la claridad pone de manifiesto la insuficiencia de las
teorías que ponen el énfasis explicativo exclusivamente en factores fotométricos. Para la teoría retinex el papel de factores
no fotométricos, como los que acabamos de ver, afecta a un supuesto central de la teoría, el relacionado con el efecto
gradual de la iluminancia y la interpretación de los cambios bruscos de luminancia en términos de cambios en reflectancia.
Este supuesto funciona bastante bien a la hora de explicar la percepción de un Mondrian pero hay situaciones múltiples en
la experiencia perceptiva que no pueden explicarse así. Imaginemos, por ejemplo, una escena a plena luz del día en la que
un edificio que interfieren los rayos del sol proyecta una sombra nítida sobre el suelo o sobre cualquier otra superficie. El
borde que divide la zona sombreada de la iluminada es el resultado de un cambio brusco de luminancia en las dos zonas
que lo delimi- tan producido por las diferencias en iluminancia de las dos superficies, pero en este caso el cambio brusco
no es interpretado por el sistema visual como una diferencia en los pigmentos de las superficies, es decir, no es interpretado
como un cambio de reflectancia sino que el sistema visual acierta a interpre- tarlos como un cambio en la iluminación que
reciben las superficies, es decir, como un cambio en iluminancia. Existen por tanto cambios bruscos en lumi- nancia
producidos por bordes de iluminación que el sistema visual atribuye a cambios en la iluminancia de la escena y cambios
bruscos de luminancia producidos por bordes de reflectancia que el sistema visual atribuye a cambios de claridad en las
superficies. Las razones últimas de esta interpretación estánpor determinar pero algunas han sido ya identificadas y su
estudio forma parte de la investigación actual. Por ejemplo, el grado de nitidez del borde influye haciendo que cuanto
mayor sea la nitidez más predomine la interpretación del borde como borde de reflectancia27• También la magnitud de la
diferencia entre las luminancias que determinan el borde parece importante ya que los bordes de iluminación pueden
producir diferencias en luminancia mucho ma- yores que los bordes de reflectancia. Ya hemos mencionado antes la
importan- cia asociada a que los estímulos aparezcan como coplanares y de otros factores organizativos. A ellos hay que
añadir la importancia de factores locales de la imagen como son las conjunciones en forma de T, de Y o de 'P que pueden
formar la unión de bordes en figuras planas o en prismas. La investigación de estos factores forma parte de los temas más
actuales de la investigación en este campo. Una idea bastante generalizada entre los investigadores es la existencia de
marcos de referencia (Gilchrist, 1999) o ventanas adaptativas (Adelson, 2000) que delimitan una región en el espacio
dentro de la cual tienen lugar los cómputos que determinan la asignación de claridad a una superficie y los
principios de agrupamiento que la configuran. Los factores que están fuera de una determinada ventana adaptativa no
ejercen un efecto en la determinación de la luminancia que esa ventana acota. Las ventanas adaptativas pueden cam- biar
de tamaño y de forma dependiendo de factores diversos, por ejemplo, si el número de elementos en una escena es muy
grande la ventana adaptativa se hace más pequeña, y si el número de elementos es escaso la ventana se hace mayor. El
concepto de ventana adaptativa nos proporciona una idea de la fle- xibilidad que posee el sistema implicado en el
procesamiento de la claridad. La determinación de razones de luminancia y el conjunto de cómputos que acaban
determinando la claridad de una superficie no se efectúan siempre de una forma rígida y predeterminada sino de forma
flexible y adaptativa como lo requieren las diferentes situaciones estimulares que confronta el organismo.
La constancia cromática
La constancia de la claridad se ha centrado en el estudio del eje blanco-negro y ahora se trata de ampliar esos conocs al eje
rojo-verde y al amarillo- azul. El problema se complica en cuanto al número de ejes que tiene que tomar en consideración
el sistema visual a la hora de determinar el color de una superficie, pero la naturaleza del problema no es muy diferente del
problema. En ambos casos elsistema visual tiene que recuperar la reflectancia de las superficies sobre la base de las
luminancias que a partir de esas superficies llegan a la retina.
Land aplicó su teoría retinex a la visión cromática extendiendo las ideas q antes hemos estudiado a los tres fotorreceptores
retinianos. Hemos visto que un retinex es un mec hipotético encargado de hacer el cómputo de las razones entre las
luminancias que delimitan los bordes de una escena con el fin de recuperar la reflectancia de las superficies que conforman
un Mondrian. Con respecto al color, Land supuso que existen tres tipos diferentes de mecs retinex cada uno encargado de
llevar a cabo un cómputo de la claridad similar al que hemos estudiado antes pero cada uno de ellos restringido al cómputo
de la claridad correspondiente al rango de sensibilidad espectral de cada uno de los fotorreceptores. Para entender mejor
esta idea, supongamos q tomamos una fotografía en blanco y negro de una escena rica en colores diferentes con un filtro
que sólo deja pasar las longitudes de onda largas. El resultado será una fotografía monocromática en la que los objetos
rojos aparecerán con mucha claridad, los objetos verdes aparecerán más oscuros y los azules aparecerán más oscuros
todavía. Si el filtro con el que tomamos la fotografía sólo deja pasar las longitudes de onda cortas, los objetos más claros en
la escena monocromática serán los azules y los rojos serán más oscuros. Si el filtro favorece a las longitudes de onda
medias, los objetos más claros serán los verdes. Cada filtro producirá una fotografía monocromática pero la claridad de los
objetos en cada fotografía dependerá de la reflectancia de sus superficies o pigmentos. El funcionamiento de cada retinex
en la teoría de Land produciría un efecto parecido, aunque más complicado, al de los filtros. Todos los mecs retinex hacen
el cómputo de razones de luminancia de la misma forma y todos producen como resultado del cómputo y de las
operaciones de anclaje un mapa de las reflectancias - y por tanto de la claridad- correspondientes a cada zona de la escena.
Sin embargo, cada uno de los tres mecanismos retinex se especializa en el cálculo de las reflectancias correspondientes a
un conjunto de longitudes de onda diferentes. El resultado final de estas operaciones da lugar a tres mapas diferentes de
claridad para una determinada escena, cada mapa registrando la claridad de los elementos de una escena para una det banda
de longitudes de onda. La teoría retinex aún necesita asumir otra fase de procesamiento que, mediante la comparación de
los tres registros de claridad para cada parte de la escena, asigna el color dominante a cada parte de la escena sobre la base
de los valores de claridad calculados por cada retinex. Si un determinado objeto tiene mayor claridad en el retinex
correspondiente a la banda de longitudes de onda larga, el objeto aparecerá rojo y de la misma forma se asignará el color a
cada objeto. Zeki (1993) ha resumido la teoría retinex como una comparación de comparaciones. “El color_según la teoría
retinex_es el producto final de dos comparaciones: la 1ª consiste en comparar la reflectancia de distintas superficies para
luz de la misma banda de ondas, generando así el registro de claridad de la escena para esta banda, y la segunda, en
comparar los 3 registros de claridad de la escena para diferentes bandas de ondas, dando lugar así al color”.
Los problemas de la teoría retinex apra explicar la constancia del clor son parecidos a los q tiene para explicar la constancia
de la claridad. Ya hemos visto que los bordes debidos a transiciones bruscas de luminancia no siempre son bordes de
reflectancia, como asume la teoría de retinex, sino q hay bordes de iluminación q son percibidos como tales. Tb hemos
visto que hay fs de agrupamiento y de org de la escena q influyen sobre la asignación de la claridad. Estos fs tb influyen en
el color. La teoría retinex no es una teoría completa de la constancia del color pero ha sido una teoría muy influyente y ha
puesto de manifiesto la importancia de fs relevantes. Un aspecto de la teoría q merece la pena destacar es su capacidad para
generar investigación fisiológica. De la isma forma que las invests psicofísicas de Hurvich y Jameson llevaron a DeValois
a buscar células oponentes en los nucleos geniculados laterales del talamo, asi tb los trabajos de Land sobre la psicofísica
de la constancia del color llevaron a la nvest de células en la cortexa q respondieran específicamente al color propio de la
reflectancia de una superficie por oposición a la longitud de onda. Las invests de Zeki en la uni de Londres apuntan a que
en el área V4 de la cortexa occipital extraestriada existen esas células. Zeki realizó ss invests tanto con técnicas de registro
unicelular en macacos como con técnicas de neuroimagen en personas. En sus invests con macacos comparó la respuesta
de células en V1, V2 y V4 ante Es tipo Mondrian. Comprobó que mientras las células V1 y V2 respondían a las distintas
combinaciones de lonitudes de onda, independientemente del color de las superficies, las células V4 respondían al color de
las superficies del mondrian y no a las distintas combinaciones de ongitudes de onda.
En sus investigaciones con personas Zeki estudio las zonas implicadas en la percepción del color comparando la activación
de distintas zonas cerebrales a un Mondrian acromático con su activación a un Mondrian cromático de formas iguales al
anterior. Encontró que la zona del cerebro que respondía específicamente al color era la formada por el giro fusiforme
situado en la zona ventral de la corteza occipital (ver Figura 2.16 en p. 100).
Zeki se refiere a estas zonas de la corteza cerebral humana como equiva- lentes al área V4 en el macaco, aunque no hay
acuerdo en este punto.
La observación clínica de pacientes ha puesto también de manifiesto que la lesión de estas zonas del cerebro da lugar a una
forma de acromatopsia cortical que reduce al paciente a un tipo de visión exclusivamente acromáti- ca32. Vemos, por
tanto, que existe evidencia fisiológica importante a favor de zonas cerebrales cuya respuesta está asociada con aspectos
importantes de la apariencia del color como es su constancia a pesar de los cambios en luminan- cia que puedan introducir
en una escena las variaciones en iluminación. Zeki (Zeki & Marini,1998) es el investigador que más fuerte ha apostado por
re- lacionar V4 con el cómputo que Land atribuía a sus mecanismos hipotéticos. Según Zeki son los campos receptivos de
V4 los idóneos para llevar a cabo las comparaciones entre zonas remotas de una misma escena como postula la teoría
retinex ya que reciben información no sólo de las células de V1 y V2 del mismo hemisferio sino también las del hemisferio
cerebral contrario a través de conexiones del cuerpo calloso.
Con el estudio de la constancia del color completamos el tratamiento de los principios fundamentales que gobiernan la
percepción del color. Hemos visto cómo una codificación inicial de la longitud de onda de naturaleza tri- cromática da
lugar a una codificación en términos oponentes de los colores fundamentales. También hemos visto cómo, en fases
posteriores de procesa- miento, el sistema visual realiza determinados cómputos que permiten alcan- zar información
acerca de los objetos. La consecución de la constancia del color, y de todas las demás constancias, es uno de los principales
logros del sistema visual para proporcionarnos un mundo objetivo al que poder adaptar nuestro comportamiento con éxito.
En las primeras fases, el procesamiento del color tiene lugar de forma relativamente encapsulada, es decir, relativa- mente
independiente de otros aspectos de la percepción visual, como son la forma o la profundidad. En el establecimiento de la
constancia, sin embargo, el sistema visual utiliza información procedente de otros módulos visuales para resolver el
problema de la asignación de colores a superficies. Una ca- racterística general de los procesos que tiene lugar en las fases
que hemos estudiado es que predomina en ellos el procesamiento de abajo arriba. No excluimos que factores atencionales,
de aprendizaje u otras influencias cog- nitivas puedan modular el funcionamiento de esos procesos33, pero no son
necesarios para llevar a cabo el procesamiento que tiene lugar en esas fases.
Sin embargo, la percepción del color no termina con la determinación de la constancia. Al igual que cualquier otro aspecto
de la percepción, el color tiene que entrar en contacto con nuestro conocimiento del mundo, y en par- ticular con nuestro
conocimiento de los objetos y de los colores, para adquirir significación, para contribuir al reconocimiento de los objetos y
para facilitar la adaptación al medio. A esta nueva fase del proceso perceptivo, en la que la información que fluye desde el
medio ambiente hacia el organismo establece contacto con el conocimiento del organismo, la llamamos de forma genérica
categorización perceptiva y es la fase que vamos a estudiar a continuación.

CATEGORIZACIÓN DEL COLOR


El espectro visible está formado por una banda continua de longitudes
de onda que, en general, se extiende entre los 400 y 700 nanometros.
Toda esta gama de longitudes de onda es codificada 1º por 3 tipos
diferentes de receptores y recodificada dp sobre la base de tres pares de
colores oponentes: rojo-verde, amarillo-azul y blanco-negro. Sin
embargo, nuestro vocabulario está repleto de términos referentes a
colores que van mucho más allá de los seis colores mencionados: rosa,
marrón, malva, naranja, pardo, morado, marfil, oro, púrpura, caqui, cian,
violeta, beige, crema, burdeos, bermellón, etc., son sólo unos cuantos de
los numerosos matices que podemos discriminar entre los colores,
aunque no todas las personas podrían afirmar ser capaces de ello.
El mundo de los colores, está abierto al aprendizaje discriminativo y es tb el resultado de influencias culturales que,
mediante la creación de cats perceptivas, nos enseñan a ver el mundo de una forma det. Debemos preguntarnos por la
naturaleza del conocimiento acerca de los colores porque, en última instancia, el mundo de las cats respecto al color va a
actuar como filtro último a la hora de asignar un nombre a una experiencia particular de color. El problema es el grado de
generalidad o de relativismo particular q cabe esperar en el mundo de las cats del color.
Durante algún tiempo se pensó en términos de mero relativismo cultural:
las personas de distintas culturas aplican nombres distintos a los colores de acuerdo con su experiencia. Es famoso el ej del
antropólogo Franz Boas sobre el nº de palabras que los esquimales tienen para referirse a la nieve. Si eran capaces de
discriminar más de 12 tipos de nieve distintas era debido a su adaptación al medio ambiente polar y a la necesidad de
asignar significación a aspectos q pasan desapercibidos para miembros de otras culturas. La generalización de esta tesis
llevó a pensar q la forma en que las distintas culturas fragmentan el espectro luminoso en cats de color era arbitraria.
Berlín y Kay, antropólogos, hicieron un estudio sobre los términos básicos del color q demostró q hay unas tendencias
comunes entre las distintas culturas. Comenzaron x definir como términos básicos d color los q tuviesen estas condiciones:
- Debían ser términos formados x un único lexema. Esto excluía los nombres compuestos de colores cm azul marino, etc.
- Debían ser términos referidos al color y no a un objeto o material det del que el color tomara el nombre. Esto excluía
términos como dorado, marfil, crema, etc.
- Debían ser ampliamente usados para designar el color de una gran variedad de objetos, lo q excluía términos locales
como rubio o moreno que sólo se aplican a objetos dets como la piel o el pelo.
- Debían tener una frecuencia alta de uso en la lengua de la cultura, excluyendo los términos demasiado técnicos.
Con esta definición de términos básicos de color, Berlín y Kay estudiaron directamente 20 lenguas diferentes con métodos
experimentales y otras 78 por medio del análisis de escritos. Encontraron que en todo el conjunto de lenguas estudiadas se
podían discriminar doce términos básicos de color: rojo, verde, amarillo, azul, blanco, negro, gris, marrón, rosa, naranja,
púrpura, y un azul claro que en muchas culturas tiene un término único para designarlo. Dp Kay y McDaniel ampliaron
este conjunto de 12 a 16 para incluir términos muy comunes en varias culturas q hacen referencia a subconjuntos de los
doce anteriores. Los cuatro términos añadi- dos fueron: cálido, que puede referirse a rojo o a amarillo, frío para el azul o
verde, claro-cálido, que abarca a blanco o rojo o amarillo, y oscuro-frío, para el negro o azul o verde.
El segundo descubrimiento que Berlín y Kay hicieron fue la utilización de únicamente 22 conjuntos diferentes de colores
de entre los millones q pueden hacerse con esos 16 términos básicos. Entre estos 22 conjuntos descubrieron un patrón que
podía interpretarse como un orden det en el desarrollo de los términos de color. Así, si una lengua det tenía solo 2 términos
básicos para designar el color, los términos usados eran claro-cálido y oscuro-frío; si tenía 3 términos básicos, eran blanco,
cálido y oscuro-frío; si eran 4, el oscuro frío se dividía resultando blanco, cálido, negro y frío; si la lengua tenía 5 términos,
el q se dividía era el cálido, dando lugar a blanco, rojo, amarillo, negro y frío; finalmente, si la lengua tenía 6 términos, se
dividía el término frío y los utilizados eran blanco, rojo amarillo, negro, azul y verde. Lejos, por tanto, de un relativismo
cultural, sus resultados pusieron de manifiesto q los términos básicos de color se mueven en torno a los 6 colores funds que
Hering había postulado, aunque el modo de agrupamiento en cada cultura sea diferente.
En el caso de las veinte lenguas que Berlin y Kay estudiaron con métodos experimentales, investigaron con especial interés
la manera de llevar a cabo la categorización de los colores. Para ello utilizaron un gran nº de fichas de distintos colores
tomados del libro del color de Munsell y pidieron a los sujetos q las clasificaran en distintas cats. Encontraron q la
tendencia predominante era agrupar las fichas de colores en torno a un conjunto de colores funds que actuaban como
colores focales mientras q los límites entre las diferentes cats eran mucho más difusos. Parece, por tanto, q las cats
conceptuales referentes a los colores están organizadas de forma q unos colores dets son los más representativos y actúan
de prototipo de la cat, mientras q el resto se categoriza x semejanza con los distintos prototipos q sirven de puntos focales.
Recientes investigaciones de Zeki han dado importantes indicios sobre las estructuras neuronales q pueden estar implicadas
en las fases superiores de procesamiento del color. Recordemos q fueron las investigaciones de Zeki las que relacionaban
la constancia del color con el procesamiento que tiene lugar en V4. Recordemos también que en esas investigaciones los
estímulos utilizados por Zeki fueron conjuntos de colores al estilo Mondrian. En sus últimas invests, Zeki y Marini han
utilizado escenas de objetos reales que en unos casos eran acromáticas y en otros estaban dotadas de color. Además, en este
último caso, los colores podían ser apropiados para los objetos representados (fresas rojas, por ej) o inapropiados (fresas
azules). Utilizaron resonancia magnética funcional para registrar la actividad cerebral ante la proyección de las escenas.
Los resultados mostraron q, al comparar las activaciones producidas por los objetos con colores apropiados con las
producidas por los mismos objetos pero acromáticos, se producía una mayor activación del giro fusiforme pero, en este
caso, implicaba a zonas del giro fusiforme que no se activaban ante la presencia de un Mondrian. Otras zonas que también
se activaron diferencialmente fueron el giro parahipocampal, situado en la zona media del lóbulo temporal, y el mismo
hipocampo. Estas zonas no se activaron cuando los objetos mostraban colores inapropiados. Zeki lo interpretó en el sentido
de q estas estructuras neuronales no llevan a cabo un análisis abstracto del color sino q están reldas con la interacción del
color con los objetos y con la memoria de los colores de los objetos. Es probable q sean estas estructuras las que estén
preferentemente reldas con la categorización del color.

6. RESUMEN Hemos visto q las fases tienen un alto grado de org serial, pero tb en cada una de las fases hay un alto grado
de interacción en paralelo de carácter intramodular, en las primeras fases, e intermodular en las últimas. A medida q el
procesamiento del color se hace más complejo, mayor es la intervención de todo el conocimiento a disposición del sistema
visual para precisar la inf que necesita el organismo.
T.3 PROCESAMIENTO VISUAL INICIAL
La percepción de la forma es central pq la forma el determinante principal del reconocimiento visual de los objetos.
3 aportaciones: (la 1ª) invest fisiológica del sistema visual, la invest psicofísica y la teoría computacional de la visión (la
última). Aunq no sean teorías completas de la percepción de la forma, son determinantes del modo de entenderla pq cada
una plantea un punto de partida diferente xa entender los 1ºs pasos del proces q son la base sobre la q construir los demás.
1. LAS INVESTIGACIONES DE HUBEL Y WIESEL
Kuffler descubrió la org de los campos receptivos de las células ganglionares en términos oponentes entre el centro y el
contorno. En el cap anterior estudiamos el func de este tipo de células. Hubel y Wiesel trataron de extender la invest de los
campos receptivos a las células de la corteza estriada y encontraron diferentes clases de células q tenían difs tipos de
campos receptivos. Clasificaron estas células en 3 clases con el nombre de células simples, complejas e hipercomplejas.
1.1 Tipos de células
- células simples: tienen campos receptivos con una forma más complicada q las ganglionares o las del núcleo geniculado
del tálamo cuyos campos receptivos son circulares. Pero continúa teniendo la estructura antagónica centro-contorno en la q
tanto uno como otro puede ser excitador (on) o inhibidor (off). Un punto de luz proyectado sobre una zona excitadora (on)
es un E suficiente para aumentar la tasa de disparo de una célula y un punto de luz proyectado sobre una zona inhibidora
(off) disminuye la tasa de disparo. Cuando los Es son mayores q un punto de luz la respuesta de la célula aumenta de forma
lineal a medida q aumenta la cantidad de luz que cae sobre una zona excitadora o dism a medida q aumenta la cantidad de
luz q cae sobre una zona inhibidora. Esta naturaleza lineal de la respuesta es una de las caracs principales de las simples.
El estímulo óptimo para una célula simple es aquel que mejor se ajusta a la forma de su campo receptivo y la geometría de
los campos receptivos da lugar a diferentes tipos de células simples. La mayor parte tienen campos receptivos alargados y
responden preferentemente a líneas o bordes de una det orientación y posición en la retina.
- Unas tienen un área excitadora en un lado y otra área inhibidora en el otro lado por lo que responden preferentemente a
bordes de luminancia formados por la transición de luz a oscuridad; por ello se les llama a veces detectores de bordes.
- Otras tienen campos receptivos con una zona central alargada, que puede ser excitadora o inhibidora, flanqueada a uno y
otro lado por zonas antagónicas. Estas células responden preferentemente a líneas claras u oscuras de una det orientación y
posición en la retina y son a veces llamadas detectores de líneas o detectores de barras. En general las distintas formas de
campos receptivos q se han encontrado son pocas y responden a tipos diferentes de bordes, líneas o barras. Pero para cada
una de estas formas se ha encontrado una gran cantidad de células cada una de las cuales responde a una orientación y
posición retiniana particular pero q en conjunto cubren con sus respuestas todas las orientaciones posibles en el campo
visual. El tamaño de los campos receptivos de las simples depende de su posición en la retina con rel a la fóvea. En la zona
de la fóvea los campos receptivos son más pequeños q en la periferia.
Aún no se sabe cómo las células simples se relacionan con las ganglionares y con las de los núcleos geniculados del tálamo
cuyos campos receptivos son circulares. Hubel propuso un modelo sencillo como el de la Fig 3.1.
La fig ilustra las conexiones entre 4 células con campos receptivos circulares y una célula
simple. Cada una de las 4 células que conectan con la simple tiene un campo receptivo de centro
on y contorno off y los centros de estas cuatro células se encuentran dispuestos a lo largo de una
línea. Si suponemos q muchas células como estas 4 se estan conectadas a una simple, podemos
entender que el campo receptivo de la célula simple consistirá en una región excitadora estrecha
y alargada q estará flanqueada por una región inhibidora y que un estímulo luminoso semejante a
una línea será capaz de activar a su máximo nivel a esa célula simple. El modelo de la Fig 3.1 es
solo un modelo hipotético, más adelante veremos q hay otras formas de interpretar el func de las células «simples».
- Las células complejas: las 1ªs descubiertas x Hubel y Wiesel, las más abundantes en la corteza visual estriada; el 75% de
esta corteza está formada por células complejas. Comparten con las simples la cualidad de responder solo a líneas q tienen
una orientación específica. Diferencias respecto a las simples:
l. Tienen campos receptivos algo más grandes que las células simples.
2. No responden de forma específica a la posición de una línea dentro del campo receptivo. Con tal que se mantenga la
orientación de la línea, cualquier posición dentro del campo receptivo es capaz de provocar la excitación de estas células.
3. Son muy sensibles al movimiento de las líneas que sirven de estímulo.
No responden si son estimuladas encendiendo o apagando pequeños puntos de luz estacionarios. Incluso las líneas
estacionarias producen una respuesta débil y no mantenida. Pero si una línea orientada adecuadamente se mueve a lo largo
del campo receptivo, su respuesta es máxima y se mantiene desde q el E entra en el campo visual hasta q lo abandona.
4. Así, la R de las complejas no es lineal respecto a la cantidad de luz recibida, al contrario q la respuesta de las simples.
Fig 3.2 hipotético modelo de las rels entre las células simples y las complejas propuesto por Hubel. Representa una célula
compleja q recibe inf de 3 simples aunq habría q suponer q son muchas más las simples q convergen en una compleja. Los
campos receptivos de las simples tienen todos la misma orientación pero están distribuidos de forma q se solapan sobre la
totalidad del campo receptivo de la compleja.
La célula compleja se activará siempre que su campo receptivo sea estimulado por una línea con la orientación apropiada,
pero la excitación de la célula será breve si la estimulación es estática, pero si el E se mueve a lo largo del campo receptivo
de compleja, un nº mayor de simples disparará sucesivamente, evitando el problema de la adaptación de las simples y
manteniendo de esta forma la excitación sostenida de la célula compleja.
Aunq existe un pequeño porcentaje de las mismas, entre un 10 y un 20% en las láminas superficiales de la corteza estriada,
q muestran selectividad a la dirección del movimiento de forma q tienden a disparar preferentemente cuando el mov del
estímulo va en una det dirección y no disparan o lo hacen menos intensamente cuando el mov es en dirección contraria.
- células hipercomplejas: campo receptivo más selectivo q las complejas. Carac fund: disminución de su R cuando la
longitud de la línea q la estimula aumenta por encima de un límite. Esto es sorprendente pq tanto las simples como las
complejas muestran un aumento en la R cuando aumenta la longitud de la línea q se usa como E. Es como si las nuevas
células respondieran preferentemente a líneas q presentan una terminación. Hoy se llaman células con inhibición final pq
responder a líneas con terminación no está sólo asociada a células q presentan caracs complejas sino tb a células simples.
Es decir, hoy se piensa q las células hipercomplejas son grupos particulares tanto de células simples como complejas q
tienen una sensibilidad gradual a la presencia de una terminación.
1.2 La arquitectura de la corteza estriada Tanto las invests de Hubel y Wiesel, como posteriores, principios de su org:
1) org retinotópica. La corteza estriada preserva la topografía propia de la retina en el sentido de que áreas que son
adyacentes en la retina proyectan sobre áreas en la corteza que también son adyacentes. La representación de la distancia
entre las líneas radiales tiende a igualarse en la autorradiografía a pesar de que en el estímulo la distancia entre las líneas es
muy diferente. Esta diferencia entre las rels métricas de la representación en la corteza y en el estímulo se conoce como
magnificación cortical y es una distorsión característica de la representación retinotópica de la corteza estriada debida a q
la zona central de la retina ocupa un área más amplia en la corteza q la zona periférica. Esta distorsión es una consecuencia
de la mayor densidad de receptores existente en el centro de la retina en comparación con la periferia. El análisis q la
corteza visual realiza en el centro de la retina que es más detallado que en la periferia.
2) columnas de dominio ocular. una de las 1ªs caracs de su arquitectura q fue descubierta. Si se introduce un electrodo en
la corteza estriada de forma perpendicular a su superficie, puede comprobarse q todas las células a lo largo de esa
trayectoria responden de forma preferente a la estimulación presentada a un det ojo y no lo hacen, o en menor medida, a la
presentada al otro ojo. Si el electrodo se introduce de forma oblicua a la superficie, tan en paralelo a la misma como sea
posible, el predominio de un ojo sobre el otro en la excitación de las células alterna. Primero predomina un ojo y luego otro
y la secuencia alternante se repite a lo largo de la trayectoria. Estos resultados obtenidos con técnicas de registro unicelular,
ponen de manifiesto una org de la corteza en columnas, cada una de ellas formada por conjuntos de células que responden
a un ojo con preferencia al otro y todas ellas organizadas de forma alternante respecto al ojo dominante. Fig 3.4 esquema
de un corte realizado tangentemente a la superficie del área V1 de un mono. El corte muestra la org alternante de columnas
claras y oscuras correspondientes al ojo derecho e izquierdo respectivamente. En general, el tipo de transición brusca q se
produce de las zonas claras a las oscuras es propio de la capa 4C de la corteza, en el resto de las capas la alternancia de
columnas de dominio ocular es más suave y gradual pasando de columnas con clara preferencia por un ojo a otras en que la
preferencia es menor y a otras claramente binoculares antes de llegar a las columnas con preferencia por el otro ojo.
3) columnas de orientación. la forma en que se organiza esa preferencia a la orientación (carac tanto de las simples como
de las complejas) tiene tb una curiosa regularidad. Al igual q la preferencia ocular, la preferencia por una det orientación
permanece constante si la penetración del electrodo de registro es perpendicular a la superficie de la corteza. Todas las
capas de la corteza desde la superficie hasta la sustancia blanca muestran preferencia por una det orientación excepto la
capa 4 q no muestra preferencia. Si la penetración del electrodo se hace de forma paralela a la superficie, aparece una
secuencia regular de cambios en la preferencia por la orientación de forma que cada vez que el electrodo avanza unas 50
micras se produce un cambio en la preferencia por la orientación de unos 10 grados de ángulo bien en el sentido de las
agujas del reloj bien en sentido contrario. Esta distribución del cambio hace q en un espacio de aprox un milímetro el
cambio de preferencia en la orientación sea de unos 180 grados.
1.2.4. org modular. Hubel y Wiesel propusieron una org funcional de la corteza estriada q resumía las preferencias
oculares y de orientación. Según Hubel las 6 capas de la corteza están organizadas en módulos o hipercolumnas que se
distribuyen de forma perpendicular a la superficie. Las dims de los módulos varían de una capa a otra, pero la org
funcional es la misma. Fig 3.5: idealización de la org que caracteriza a cada módulo. Como se ve, la org del módulo
resume la estructura de columnas q hemos comentado en 2 y 3. Por un lado el conjunto de
columnas alternantes de dominio ocular I D I D... organizan la inf del ojo izquierdo y
derecho respectivamente. Por el otro, se muestra la org de las columnas de orientación
especificando los cambios en orientación a los q las distintas columnas son sensibles.
Estas unidades funcionales son el mosaico fund q organiza la corteza estriada.
Las invests de Hubel y Wiesel demostraron tb q la org de la corteza visual estriada no sólo depende de fs de herencia sino
tb de fs reldos con el medio. Estudiando la conducta de las células de la corteza estriada de gatos pequeños en condiciones
normales y de privación visual comprobaron que, si bien hay células q responden selectivamente a la orientación en los
recién nacidos, hay tb periodos críticos en las primeras semanas de maduración durante los cuales es necesaria la
estimulación ambiental para lograr un desarrollo normal en el func de las células de la corteza estriada.
El periodo crítico no es el mismo xa todas las propiedades de la estimulación visual q son procesadas x la corteza estriada.
Está reldo con el nivel q ocupan las células en el sistema visual y tiene lugar antes para las células q ocupan un nivel más
bajo, ya q su maduración es un requisito necesario para el desarrollo de células que operan a un nivel más alto. El periodo
crítico de la sensibilidad a la orientación oscila entre la 1ª y la 5ª semana de vida.
El periodo crítico para el dominio ocular entre la 5ª y la 10ª semana de vida.
Los trabajos de Hubel y Wiesel son una de las principales aportaciones al estudio de la percepción visual en el sXX. Su
influencia fue enorme ya que sus descubrimientos parecían apoyar a las teorías basadas en detectores de características.
2. APROXIMACIÓN PSICOFÍSICA
2.1 El análisis de la frecuencia espacial Para Hubel y Wiesel lo q hacen las células de la corteza estriada es responder de
forma selectiva a caracs estimulares simples como la orientación y el movimiento de líneas y bordes. Estas células son
detectores de características. A 1ª vista esta interpretación parece la más simple y ligada a los hechos experimentales.
Pero tiene estas dificultades:
- es verdad q una línea luminosa puede aparecer como el mejor E para una det célula, pero no se puede descartar q otros Es
posibles puedan estimularla tb. Ningún experimento puede agotar el conjunto de Es eficaces posibles para una célula.
- suponer que el análisis más elemental del patrón estimular que realiza el cerebro lo hace en términos de líneas y bordes
requeriría una teoría capaz de mostrar que todo el conjunto de formas y objetos q podemos percibir se puede descomponer
en términos de líneas y bordes. No es negar la existencia de células q responden preferentemente a líneas de una det
orientación; esto es un hecho experimental; sino preguntarse si esa respuesta es el nivel más elemental de análisis.
La teoría de la frecuencia espacial surgió como una alternativa a la teoría de los detectores de características:
- Sostiene q el análisis más elemental de los objetos q realiza el sistema visual es en términos de cs de frecuencia espacial.
- El patrón estimular debe ser considerado como una onda compleja de intensidad luminosa q es analizada por el cerebro
en términos de sus cs elementales de frecuencia espacial. Las células de la corteza estriada llevan a cabo ese análisis de cs
pq actúan como filtros espaciales q responden selectivamente a una det banda de frecuencias espaciales con preferencia a
otras frecuencias.
2.2. El concepto de frecuencia espacial Por muy compleja que sea una onda, siempre se puede analizar en sus cs simples
llamados ondas sinusoidales. Fig 3.6. A: onda sinusoidal referida al dominio
del espacio. En B aparece el E correspondiente a la onda sinusoidal. El eje
horizontal de la onda representa el espacio estimular cuyos cambios en
intensidad están representados en el eje vertical. El E varía en intensidad a lo
largo de la dim horizontal con oscilaciones suaves de zonas claras y oscuras
de igual amplitud que se repiten en intervalos iguales. Este E se llama
enrejado y el de la Fig 3.6 es un enrejado sinusoidal en el q las transiciones
entre las zonas claras y las oscuras son suaves y continuas. Cuando estas
transiciones son bruscas (fig 3.7) el enrejado se llama onda cuadrada. Igual
q las ondas sinusoidales son los els más simples q podemos analizar una onda, los enrejados sinusoidales son los Es más
simples xa estudiar la sensibilidad del S visual a la frecuencia espacial. Todo enrejado sinusoidal 4 parámetros: la
frecuencia, amplitud y fase de las ondas sinusoidales q lo caracterizan y la orientación del patrón respecto a la vertical.
1. La frecuencia espacial de un enrejado viene dada por la anchura de las
zonas claras y oscuras que lo componen. Un enrejado en el que las zonas
claras y oscuras son anchas tendrá menor frecuencia espacial q un enrejado
en el q las zonas son estrechas ya q el nº de ciclos por unidad de distancia
en la onda asociada al enrejado será mayor en el 2º caso. La unidad de
distancia q se usa es el grado de ángulo visual.
El concepto de ángulo visual es sencillo y nos permite relacionar todas las
medidas con el observador. En la Fig 3.8 puede verse q una flecha (h)
colocada cerca del observador (o) produce una imagen retiniana mayor que
otra flecha (h') q está más alejada. Si para cada flecha trazamos dos líneas
q intercepten sus dos extremos y converjan en el ojo del observador,
tendremos dos ángulos visuales alfal y alfa2 tales q alfa1 es mayor que
alfa2. Los ángulos, por tanto, están directamente reldos con el tamaño de la
imagen retiniana y éste, a su vez, está directamente reldo con el tamaño del
E e inversamente reldo con la distancia a la q el E se encuentra. En el caso
de la frecuencia espacial se usa el nº de ciclos por grado de ángulo visual (c/gav), porque nos indica directamente las caracs
espaciales del E q llega al observador independientemente del tamaño del E o de la distancia a la que esté.
2. La amplitud de onda de un enrejado es la mayor o menor intensidad luminosa de sus zonas claras u oscuras. Un
concepto importante derivado de la amplitud es el de contraste: la diferencia entre zonas claras y zonas oscuras y q se
define así: Contraste = (Imax - Imin) / (Imax + Imin)
Donde Imax es el punto de máxima intensidad e Imin el punto de mínima intensidad luminosa en el enrejado. Se puede ver
claramente que el contraste será cero cuando lmax sea igual a Imin y será igual a 1 cuando Imin sea cero. Por tanto, el
índice de contraste oscila entre 0 - cuando no hay diferencias de intensidad luminosa y tenemos un campo uniforme de luz-
y 1, cuando la diferencia entre las zonas sea máxima.
3. La fase de un enrejado se refiere a la posición de la oscilación de la onda sinusoidal en un momento det que sirve de
punto de referencia. La fase se mide en grados en relación con ese punto de referencia. La onda sinusoidal de la Fig 3.6 en
el punto en que comienza está en fase de 0°, también llamada fase seno porque es el punto de comienzo de la inflexión en
sentido positivo. Si la onda comenzara en el punto de su máximo valor positivo de amplitud se diría que está en fase de
90°, también llamada fase coseno. Si comenzara en el punto de comienzo de la inflexión en sentido negativo estaría en fase
de 180° (fase antiseno) y si lo hiciera en el punto de mínimo valor de amplitud estaría en fase de 270° (fase anticoseno). La
fase es, por tanto, una medida de posición y puede variar entre Oy 360 grados.
4. La orientación de un enrejado se refiere al grado de desviación de la vertical que presentan sus zonas claras y oscuras.
Se suele expresar en grados a partir de la vertical y en sentido contrario al de las agujas del reloj.
2.3. El análisis de Fourier una de las grandes ventajas de estudiar el patrón de estimulación visual en términos de ondas,
es q la teoría de análisis de ondas está bien establecida en física y podemos usarla para investigar la validez y el alcance de
esta concepción estimular en la percepción visual. En 1822 Fourier propuso su teorema fund sobre las ondas: cualquier
onda, tenga la forma q tenga, se puede expresar de manera única como la superposición (suma) de ondas sinusoidales de
frecuencias y amplitudes definidas. La fig 3.9: aplicación de este teorema al análisis de una onda compleja como es una
onda cuadrada. En la fila F el gráfico de dicha onda. Teóricamente sus cs armónicos son
infinitos en nº, pero en la práctica una onda cuadrada puede aproximarse mediante la
suma de un nº finito de cs. La fila E en la fig muestra cómo la suma de los cs A, B, C y D
produce una onda compleja q se aproxima a la onda cuadrada. La adición de armónicos
de mayor frecuencia aproximaría la onda compleja al ideal representado en F.
Los cs de una onda cuadrada son ondas sinusoidales que guardan entre sí un conjunto de
rels peculiares. El 1r c es el llamado fundamental que consiste en una onda sinusoidal de
igual frecuencia y amplitud que la onda cuadrada. El resto de los cs se llaman armónicos
cuya frecuencia es un múltiplo impar de la frecuencia fundamental y cuya amplitud varía
en función de su orden. Así, el 2º c corresponde al 3r armónico y tiene 3 veces la
frecuencia del fundamental y un tercio de su amplitud, el 3r c corresponde al 5º armónico
y tiene 5 veces la frecuencia del fundamental y un quinto de su amplitud, etc. Así, cada
nuevo armónico q se añade contribuye al total una amplitud cada vez más pequeña, por lo q en la práctica la síntesis de una
onda cuadrada puede aproximarse de forma bastante satisfactoria usando un pequeño conjunto de armónicos aunq en teoría
el nº de cs sinusoidales de una onda cuadrada sea infinito. Fig 3.9: la suma de los 3 primeros armónicos al fundamental da
una buena aprox a la onda cuadrada aunq necesitaríamos añadir más para hacer regulares los puntos máximos y mínimos.
Igual q una onda cuadrada, la onda compleja correspondiente a la imagen de un objeto puede ser analizada en sus cs
fundamentales. Una idea general del papel que los distintos cs de frecuencia espacial juegan en la determinación de una
imagen, puede obtenerse considerando la Fig 3.10 en la q aparece en el centro una fotografía de Einstein. La imagen a la
izquierda muestra la misma pero una vez se han eliminado los cs de frecuencia espacial alta. La imagen de la derecha es
trás haber eliminado los cs correspondientes a las frecuencias espaciales bajas. Como puede comprobarse, los cs de
frecuencia espacial baja dan inf sobre los aspectos globales de la imagen, mientras q los de alta frecuencia de los detalles.
2.4. El análisis de Fourier como modelo así, la imagen de intensidad luminosa que da un patrón de estimulación visual
puede describirse en términos de análisis de ondas y esta forma de entender el E da un proced preciso para su estudio.
Fourier nos da un instrumento de análisis del E útil pero sin una significación psicológica particular. Pero cabe preguntarse
si el sistema visual tiene filtros diferencialmente sintonizados a un det rango de frecuencias espaciales con preferencia a
otras_ Si éste fuera el caso, cabe pensar q la corteza visual se comporta como un analizador Fourier q, a través del func de
estos filtros, descompone el patrón estimular en sus elementos constituyentes de frecuencia espacial. Vimos cómo 3
receptores q responden diferencialmente a distintas longitudes de onda son suficientes para producir las señales primarias
necesarias para codificar el color. Ahora se trata de asumir la existencia de receptores q responden diferencialmente a
distintas frecuencias espaciales de modo q las frecuencias espaciales altas serían procesadas por canales diferentes a los q
procesan las frecuencias espaciales medias y bajas. La existencia de esos hipotéticos filtros de frecuencia espacial sería un
1r paso para poner la teoría de la percepción de la forma sobre un sólido fundamento. Los defensores de la teoría de la
frecuencia espacial opinan q esos receptores de frecuencia espacial existen y han dado evidencia experimental:
2.5. Evidencia experimental más relevante a favor de la existencia de filtro de frecuencia espacial es psicofísica:
La psicofísica es la parte de la invest psicológica q trata de establecer rels entre las caracs físicas de los Es y la experiencia
consciente usando métodos comportamentales. La carac principal de los métodos comportamentales es q analizan
cuidadosamente la ejecución del sujeto en tareas muy precisas q permiten hacer inferencias sobre la naturaleza de los
procesos que intervienen en la tarea. Se han usado tareas de detección para medir el umbral de contraste de los sujetos y
ha sido el comportamiento del sistema en sits de umbral el q ha permitido inferir la existencia de diferentes filtros de
frecuencia espacial. El umbral de contraste es el contraste mínimo necesario para distinguir un enrejado sinusoidal de una
escena de luminancia homogénea. Para poder determinar la cantidad de contraste necesaria para determinar el umbral es
frecuente usar el método de ajustes como método psicofísico. En éste, el sujeto experimental controla el contraste hasta q
el enrejado resulta mínimamente perceptible. Como valor de contraste correspondiente al umbral suele tomarse el que es
capaz de producir un porcentaje de respuesta correctas det.
2.5.1. La Función de Sensibilidad al Contraste (FSC) Si hacemos un experimento psicofísico de medición del umbral de
contraste utilizando un variado nº de enrejados sinusoidales de diferentes frecuencias espaciales podemos obtener la
función de sensibilidad al contraste de un observador determinado. La sensibilidad al contraste es el valor recíproco del
umbral de contraste ya q la sensibilidad al contraste de una persona será mayor cuanto menor sea el valor de contraste de
su umbral. La función de sensibilidad al contraste es la función q relaciona la sensibilidad al contraste con la frecuencia
espacial de los enrejados utilizados. Fig 3.11: FSC típica de una persona adulta en condiciones de visión fotópica. Como se
ve, la función tiene la forma de U invertida. Todos los puntos en la curva representan la sensibilidad máxima para cada
frecuencia espacial. El punto óptimo de sensibilidad se sitúa entre los 4 y los 5 ciclos por grado de ángulo visual y decae
progresivamente a medida q aumenta la frecuencia espacial, de forma q por encima de aprox los 50 ciclos por grado de
ángulo visual no somos capaces de percibir diferencias entre un enrejado y una superficie de luminancia homogénea.
La función de sensibilidad al contraste permite caracterizar la sensibilidad A de un det sistema visual. Si el experimento de
determinación de umbral de contraste se hiciera en condiciones de visión escotópica la sensibilidad a todas las frecuencias
sería mucho menor pero afectaría más a las altas que a h las bajas frecuencias porque al faltar la contribución de los conos
se perdería b la agudeza visual que permite percibir los detalles de un objeto.
2.5 .2. Predicciones a partir de la FSC la función de sensibilidad al contrate es un instrumento para poder explorar la
posible existencia de filtros especialmente sintonizados a un det rango de frecuencias espaciales. Campbell y Robson
usaron la FSC de sus sujetos experimentales para comparar su sensibilidad a las ondas cuadradas con su sensibilidad a las
ondas sunusoidales. El fundamento de sus invests consistía en suponer q, si el sistema visual posee filtros sintonizados a
diferentes frecuencias espaciales y realiza un análisis del patrón estimular en términos de cs sinusoidales, entonces la
respuesta correspondiente al umbral de detección de un enrejado de onda cuadrada está det por la respuesta de los filtros a
los distintos cs sinusoidales de la onda cuadrada. Una 1ª predicción de este supuesto es que si comparamos el umbral de
detección de una onda cuadrada de 26 c/gav con el de una onda sinusoidal de la misma frecuencia no debe haber ninguna
diferencia pq en ambos casos el sistema visual está respondiendo únicamente a una onda sinusoidal de 26c/gav. Aunq la
onda cuadrada tiene más cs sinusoidales, el sistema visual no es sensible a los mismos ya q incluso el armónico de menor
frecuencia, que tendrá 78 c/gav, no cae dentro del rango de frecuencias que el sistema visual puede detectar. Por otra parte,
si comparamos el umbral de detección de una onda cuadrada de 2 c/gav con el de una onda sinusoidal de la misma
frecuencia, entonces el umbral para la detección de la onda cuadrada debe ser más bajo, es decir la sensibilidad más alta, q
para la onda sinusoidal porque la onda cuadrada tendrá, además del c fundamental de 2 c/gav, un armónico de 6 c/gav cuyo
umbral de detección es más bajo que el correspondiente al fundamental según la FSC. Así, comprobaron que predicciones
como éstas eran confirmadas por los datos experimentales y concluyeron q el sistema visual está dotado de filtros
sintonizados a rangos dets de frecuencia espacial.
2.5.3. Los posefectos de frecuencia espacial al ver el proces oponente dl color vimos q si miramos una superficie de un
color fundamental, ej rojo, y dp miramos hacia una superficie blanca, veremos la superficie blanca coloreada con el matiz
complementario, el verde. Esto se llama posefecto de color, y tiene lugar pq los receptores q responden al rojo, dbido a la
exposición prolongada al E, pierden sensibilidad y se adaptan (se hacen menos sensibles al E). Así, cuando la mirada se
centra en la luz blanca, los receptores del rojo responden con menor intensidad que los de su oponente, el verde. Los
posefectos, en general, son un fenómeno q da inf sobre la existencia y naturaleza de distinto tipo de receptores. En el
estudio de los filtros espaciales, se ha aplicado tb la lógica de los posefectos xa poder inferir la existencia de múltiples
filtros espaciales. El razonamiento se entenderá mejor con la Fig 3.12: posible rel entre la FSC y un conjunto de hipotéticos
filtros espaciales. Lo importante es q la fig hace patente q si hay múltiples filtros espaciales, la FSC es el resultado de la
actividad d todos ellos. Técnicamente se dice q es la envolvente q encierra y reúne el
comportamiento de muchos más canales cada uno de ellos sintonizado a un rango limitado
de frecuencias espaciales.
Supongamos q sometemos a un sujeto a una exposición prolongada de un enrejado
sinusoidal de una frecuencia espacial particular. Si a continuación comprobamos la
sensibilidad al contraste del sujeto verificando el estado de su FSC y lo comparamos con el
estado de la FSC previo a la adaptación, podemos sacar conclusiones acerca de la
existencia o no de múltiples filtros o canales de frecuencia espacial. Consideremos 1º la
hipótesis de q no existen múltiples filtros sino q la frecuencia espacial se procesa por un
único canal y que la FSC refleja el estado de ese canal. Entonces la adaptación producida
por la exposición prolongada al enrejado afectará a todas las frecuencias espaciales y la
FSC posterior a la adaptación mostrará una menor sensibilidad, es decir un umbral más alto, para todas las frecuencias
espaciales del dominio de la función. Sin embargo, si hay varios canales sintonizados a diferentes frecuencias espaciales, la
adaptación producida por la exposición prolongada afectará únicamente a los receptores sintonizados con esa frecuencia
por lo que la FSC posterior a la adaptación mostrará una menor sensibilidad únicamente para las frecuencias iguales a las
usadas en la fase de adaptación, mostrando una especie de bache en la zona correspondiente a esas frecuencias espaciales.
Blakemore y Campbell confirmaron la aparición de baches de sensibilidad en la zona de las frecuencias utilizadas en la
fase de adaptación de sus experimentos mientras q la sensibilidad para las frecuencias q no habían sufrido adaptación
permanecía sin cambio. Estos datos favorecen la existencia de canales múltiples en el proces de la frecuencia espacial.
2.5.4. Manipulación de la fase de los enrejados otro experimento favorable a la existencia de múltiples canales o filtros
en el procesamiento de la frecuencia espacial ha usado el hecho de q la síntesis de dos
ondas sinusoidales q están en la misma fase produce una onda compleja cuya amplitud
es igual a la suma de las amplitudes de los cs sinusoidales; pero la síntesis de dos ondas
sinusoidales cuyos componentes tienen una diferencia de fase de 180° produce una onda
compleja cuya amplitud es igual a la diferencia de las amplitudes componentes. Fig 3.13
muestra la forma de las ondas de los enrejados usados por Graham y Nachmias. La fila
inferior muestra la forma de las ondas complejas usadas como E. Las dos primeras filas
muestran los cs sinusoidales usados para sintetizar los Es. La amplitud y frecuencia de los cs es la misma para ambos Es.
Lo único q varía de un E a otro es la secuencia de fase de sus cs. El razonamiento de Grahamy Nachmias fue: si el sistema
visual funciona de acuerdo con un modelo de canal único en el q el E se procesa como una totalidad, el E correspondiente
a la onda A será más fácil de detectar q el correspondiente a la onda B ya q el contraste es mayor en A que en B. Pero si el
sistema visual analiza el E respondiendo diferencialmente a sus cs sinusoidales, los dos Es mostrarán el mismo umbral de
detección ya q la amplitud y frecuencia de sus cs es la misma. Resultados: el umbral de detección era igual para los 2 Es.
Existe una gran cantidad de experimentos que muestran de forma convincente la existencia de filtros espaciales. No aún no
se ha podido aislar esos filtros en el nivel fisiológico.
2.6. Función de la corteza visual primaria
Algunos autores piensan que las células encontradas por Hubel y Wiesel en la corteza estriada son en realidad filtros
espaciales y proponen una interpretación de lo que hacen las células simples y complejas en términos de análisis de
frecuencia espacial en lugar de en términos de detectores de características. Tal es el caso de Russell y DeValois. En el lab
de los DeValois, Albrecht estudió cuidadosamente la respuesta de células simples de la corteza visual ante una barra
estrechablanca y negra. Observó que la respuesta de las células presentaba oscilaciones adicionales a ambos lados de la
respuesta principal a la barra tal como se muestra en la Fig 3.14.
Curiosamente este tipo de R es el q se puede predecir a partir de la R q estas células
dan a enrejados de diferentes frecuencias espaciales. DeValois han encontrado tb
campos receptivos de diferentes tamaños, unos grandes q responden a una estructura
espacial gruesa y otros pequeños que responden a una estructura espacial fina.
Por otra parte existe una correlación entre el tipo de campo receptivo y el nº de
oscilaciones colaterales que presenta la respuesta de las células.
- células con campos receptivos pequeños tienden a presentar mayor nº de
oscilaciones q las de campos receptivos más grandes.
DeValois interpretaron todos estos resultados en el sentido de q la función de al
menos algunas células de la corteza visual es analizar la frecuencia espacial del patrón
estimular. En opinión de los DeValois estas células serían la realización fisiológica de
los filtros espaciales q llevan a cabo un análisis local de las frecuencias espaciales. El
análisis se llama local pq está restringido a los pocos grados de ángulo visual q
registra el campo receptivo de cada célula. La forma q adoptan estos campos
receptivos puede describirse por medio de una función de Gabor, equivalente a
multiplicar una función sinusoidal por una función normal como se muestra en la
Figura 3.15. Obsérvese la semejanza entre la forma de la función de Gabor en esta
figura con la respuesta de las células de la Fig 3.14. Los DeValois midieron
cuidadosamente la R de las células simples y complejas de Hubel y Wiesel a la
frecuencia espacial. Encontraron q el grado de respuesta a la frecuencia espacial se
extendía en un continuo que iba desde células q tenían un campo receptivo finamente
sintonizado a dets frecuencias espaciales a células con una sintonía mucho más
amplia. En general las células q responden a frecuencias espaciales altas tienen
campos receptivos más estrechos q las sintonizadas a frecuencias espaciales bajas.
Tb suele ocurrir q las células simples tienden a responder a una banda de frecuencias
más estrecha q las complejas aunq la diferencia no es muy grande. El grado de
selectividad a la frecuencia espacial está correldo con el grado de selectividad a la
orientación: las células q responden a bandas estrechas de frecuencia espacial tb responden a un rango estrecho de
orientaciones diferentes y las q responden a un rango amplio de frecuencias espaciales tb lo hacen a un amplio rango de
orientaciones.
Para los DeValois también la corteza estriada está organizada funcionalmente en módulos, pero han propuesto una
ampliación de la idea de Hubel y Wiesel añadiendo una tercera dimensión que es la frecuencia espacial. El módulo cortical
sería parecido al de la figura 2.5 pero ampliando la repre- sentación de la superficie que muestra la orientación de las
líneas. En esta superficie la frecuencia espacial estaría representada desde el centro hacia la periferia de cada orientación.
De este modo las bajas frecuencias espaciales estarían representadas en el centro mientras que la representación se despla-
zaría hacia la periferia a medida que la frecuencia espacial aumentara. Para losDeValois, por tanto, el hecho de que las
células de la corteza estriada procesen frecuencia espacial no es un hecho contrario a la propuesta de Hubel y Wiesel
respecto a las mismas sino complementario. También las implicaciones para una teoría de la percepción no necesitan ser
antagónicas. En el capítulo sobre la percepción del color vimos que la teoría tricromática y la de los procesos oponentes
fueron consideradas antagónicas durante mucho tiempo y poste- riormente se pudo ver que eran complementarias a
distintos niveles de proce- samiento. Es posible que lo mismo pueda ocurrir con las dos interpretaciones que se han dado al
funcionamiento de las células de la corteza estriada. Es posible que en un primer nivel de procesamiento tenga lugar un
barrido del patrón estimular que lo descomponga en términos de frecuencias espaciales y que los detectores de
características representen un nivel de procesamiento posterior. Una propuesta como ésta fue de hecho formulada por
David Marr al exponer su primera fase en el procesamiento de los objetos visuales. Pero la propuesta de David Marr estuvo
hecha desde una perspectiva de carácter computacional y es este tipo de aproximación el tercer punto de interés de este
tema que ahora pasamos a considerar.
3. LA APROXIMACIÓN COMPUTACIONAL
En el capítulo primero vimos que la aproximación computacional ha aporta- do a la teoría de la percepción el interés por la
especificación precisa de los procesos mediante su formalización en términos de programas. También q la teoría de David
Marr fue en su momento un verdadero punto de inflexión dentro de la teoría de la percepción visual, influyendo en la
forma de pensar acerca de los procesos perceptivos. Al exponer la teoría de Marr, mencionamos 3 niveles de org del
procesamiento visual: esbozo primario, el esbozo 2. 1/2-D, y el esbozo 3-D. En este cap estudiamos la fase correspondiente
al esbozo primario en el que Marr abordó el problema referente a la representación perceptiva más elemental o primitiva.
3.1. El esbozo primario
El propósito de la primera fase, llamada esbozo primario, es hacer explícitos tanto los cambios de intensidad de la imagen
que proporcionan las vías vi- suales, como la distribución de esos cambios en la escena y su organización geométrica. La
descripción explícita de esos cambios se hace especificando las características primitivas simbólicas de la imagen que,
según David Marr, son cuatro: bordes, barras, terminaciones y manchas y los parámetros fundamentales de cada una de
esas características primitivas que son: posición, tamaño, orientación y contraste. El punto de partida de esta fase es la
imagenbidimensional proporcionada por los receptores visuales que representa la distribución de luminancia de la escena y
que es una representación analógi- ca7de la misma. El resultado final es una representación simbólica8 formada por los
cuatro tipos de características mencionadas que describen los cambios de intensidad y que, organizadas en conjuntos
resultantes de la aplicación de principios de agrupamiento, servirán como descripción básica9 a los restantes niveles de
procesamiento. Para David Marr, por tanto, el sistema visual se hace simbólico muy pronto, en la primera fase de
procesamiento, dando lugar a una descripción de la imagen considerablemente reducida en comparación con la imagen
original pero que sigue conservando los aspectos importantes necesarios para el análisis de la imagen.
Para lograr los objetivos del esbozo primario, Marr asume que los mecanis- mos visuales operan con un conjunto de
constricciones o supuestos respecto a la naturaleza de las imágenes. Estos supuestos son de carácter general y hacen
referencia tanto a la naturaleza de las superficies en el mundo visual como al modo en que esas superficies se representan
en la imagen. Por ejemplo, Marr cree lógico suponer que el mundo visible está compuesto de superficies lisas que tienen
funciones de reflectancia cuya estructura espacial podemos descu- brir. También piensa que las funciones que describen las
superficies pueden hacerlo en escalas diferentes; unas nos describen los aspectos globales de la
superficie, otras los aspectos referentes al detalle, etc. En general Marr asume que las superficies constitutivas de las
imágenes visuales son estables, tienen un alto grado de homogeneidad y las transiciones de luminancia dentro de ellas
tienden a ser suaves y no bruscas. Estos supuestos generales permiten orientar el funcionamiento del sistema en esta
primera fase.
El esbozo primario incluye dos subfases. En la primera, llamada esbozo primario bruto, Marr estudió los procesos que
permiten pasar de la descrip- ción analógica proporcionada por la distribución de luminancia que describe la escena, a la
descripción simbólica basada en las características primitivas. La segunda, llamada esbozo primario completo, está
dedicada a la exposi- ción de los principios de organización que permiten agrupar las caracterís- ticas primitivas en
conjuntos y zonas que estructuran la escena. Dado que la importancia de estos principios de agrupamiento y de
organización exige un tratamiento detallado que llevaremos a cabo en el capítulo 6, nos centrare- mos aquí en la exposición
del esbozo primario bruto cuya problemática es la que estamos estudiando en este capítulo.
3.2. El esbozo primario bruto
El punto de partida del procesamiento visual es la imagen más simple que pueden producir el conjunto de nuestros
receptores: una representación bidi- mensional de los distintos niveles de intensidad luminosa que tienen los pun- tos que la
componen10. Es una representación monocromática, monocular y estática. Podemos imaginarla como la superficie de una
televisión en blanco y negro compuesta por puntos elementales o píxeles cada uno de los cuales tiene un nivel particular de
intensidad luminosa. Aunque la distribución de los receptores en la retina no tiene la homogeneidad espacial que tienen los
píxeles de una pantalla, la diferencia no es relevante para comprender el fun- cionamiento de esta fase de procesamiento.
El esbozo primario bruto tiene como objetivo proporcionar una descrip- ción de los cambios de luminancia existentes en la
imagen en diferentes escalas y clasificar los que sean relevantes en las cuatro categorías de características primitivas que
hemos mencionado antes. Tanto David Marr (Marr y Hildre- th, 1980) como la mayor parte de los investigadores en
inteligencia artificial han prestado especial atención a la clasificación de los bordes, por ello nos centraremos en su estudio
y nos servirán como ejemplo en la comprensión del esbozo primario bruto.
A partir de la imagen en nivel de gris, la detección de los bordes tiene lugar por medio de un conjunto de operaciones que
pueden ser desglosadas de la forma que a continuación se indica.
3.2.1. Filtrado de la imagen. La imagen es analizada a distintos niveles de detalle, unos más globales y otros más
precisos. En este punto Marr y Hildreth incorporan la idea de los filtros espaciales que hemos estudiado an- teriormente.
Para ellos la forma de los filtros espaciales es parecida al som- brero mexicano propio de una curva normal (gaussiana)
bidimensional, y dependiendo del mayor o menor tamaño del campo receptivo de los filtros, se producirá un mayor o
menor grado de apariencia difuminada en la imagen. La figura 3.1 O permite captar el resultado de la actuación de estos
filtros . La imagen en (a) es la fotografía original, los filtros amplios proporcionan en (b) una imagen más difuminada que
la proporcionada en (e) por los estrechos, debido a que son sensibles a las frecuencias espaciales bajas que son las que
proporcionan información sobre los aspectos globales de la escena. Por el contrario, los filtros estrechos proporcionan
información de los detalles de la imagen ya que son sensibles a las frecuencias espaciales altas. El filtrado de la imagen se
puede entender también por referencia a los píxeles de una pantalla de televisión o de un monitor de ordenador. Un filtrado
de la imagen es equivalente a sustituir el valor de luminancia de cada píxel por el valor de luminancia promedio de un
conjunto de píxeles de su entorno. Cuanto mayorsea el número de píxeles que forman el conjunto de puntos que se
promedian, más ancho será el filtro. El filtrado de la imagen permite un análisis de la misma escena en diferentes escalas y
una determinación de las diferencias en luminancia para cada escala de filtrado de la imagen.
3.2.2. Localización de los puntos de cruce de cero. Para entender su- ficientemente este segundo paso es conveniente
repasar algunos conceptos elementales relacionados con el análisis de imágenes. La Figura 3.16 nos será útil para este
propósito.
El apartado A de la figura presenta una imagen sencilla formada por un borde producido por un cambio brusco en la
luminancia de la escena. En B la figura ha sido digitalizada, es decir sustituida por una matriz cuyas entradas representan
puntos en la imagen y en la que el valor numérico de cada entra- da representa la intensidad luminosa de cada punto.
Podemos observar que el borde está situado en la parte de la figura en la que se produce la transición desde una intensidad
baja (02, en unidades arbitrarias) a una alta (10). En C se presenta el gráfico que muestra la intensidad luminosa para cada
punto en la dirección horizontal de la imagen en A.
Unas nociones elementales de cálculo nos enseñan que la derivada de una función en un punto nos informa sobre el cambio
de los valores de la función en ese punto. El apartado D de la Figura 3.16 nos presenta el gráfico de la función derivada de
la función representada en C. Este gráfico representa el cambio de intensidad que tiene lugar para cada punto en la
dirección hori- zontal de la imagen. En una imagen digitalizada, como la representada en B, se puede hallar la función
derivada a lo largo del eje horizontal calculando la diferencia entre los valores de los puntos vecinos a lo largo de dicho eje.
En el campo de la inteligencia artificial estos cálculos se llevan a cabo por medio de operadores de bordes como los
representados en el apartado E de la Figura 3.16. Un operador de bordes es un esquema de cómputo para integrar los
valores de intensidad de un determinado entorno de píxeles adyacentes en la imagen; el resultado del cómputo es un
número que nos informa sobre la exis- tencia o no existencia de un borde. Por ejemplo, los operados que se muestran en E
indican el peso o signo que debe darse a cada valor de intensidad antes de proceder a la suma de los valores a los que se
aplica. El primero de ellos, El, se aplica a conjuntos de dos puntos e indica que el valor de intensidad del primer punto debe
ir dotado de signo negativo mientras que el valor de intensidad del segundo es positivo. Al aplicar este esquema de
cómputo a dos
puntos contiguos lo que se hace es calcular la diferencia entre las intensidades de los dos puntos. Si no hay diferencia el
resultado será igual a cero. Si hay diferencia, el número resultante nos indicará la magnitud de la diferencia y el signo la
dirección del cambio ya que un número positivo indica un cambio de menos a más intensidad y un negativo indica un
cambio de más a me- nos intensidad. Si se aplica de forma sistemática este operador a la imagen digitalizada del apartado
B, comenzando por la parte superior izquierda yprocediendo hacia abajo, obtendremos los valores que aparecen en la
prime- ra columna de la matriz mostrada en F. El resto de los valores de la matriz se obtiene repitiendo la misma operación
de arriba abajo pero comenzando una columna más a la derecha. Obsérvese que todos los valores de la matriz en F son
iguales a cero para los puntos en que no hay cambio en los valores de intensidad y son distintos de cero en los puntos en
los que se produce el cambio de intensidad con un valor (+8) igual a la magnitud de la diferencia en intensidades y un
signo apropiado a la dirección del cambio. La operación que acabamos de realizar, consistente en hallar la suma ponderada
de sus in- tensidades para cada dos puntos de la imagen a lo largo de todos los puntos de la imagen, recibe el nombre de
convolución de un operador de bordes con una imagen. Obsérvese que si trazáramos el gráfico de los valores de la matriz
en F para los puntos de la matriz en la dirección horizontal, el resultado sería
igual que el gráfico mostrado en D que es el de la derivada de la función de intensidad.
Un operador como el que acabamos de estudiar recibe el nombre de ope- rador diferencial de primer orden porque calcula
la diferencia simple entre píxeles contiguos. El resultado de la convolución del operador con la imagen nos permite
detectar los puntos en los que tiene lugar un cambio de intensi- dad dando lugar a un borde. El borde viene indicado por los
valores extremos de la matriz resultante.
El operador mostrado en el apartado E2 de la Figura 3.16 presenta un esquema de cómputo más complejo que el anterior.
Es un operador diferencial de segundo orden porque su convolución con una imagen equivale a calcular la segunda
derivada de la función de intensidad de la imagen. El apartado G de la Figura 3.16 presenta el resultado de aplicar este
operador a la imagen digitalizada en B11 y el apartado H presenta el gráfico de los valores obtenidos en G que
corresponden a la segunda derivada de la función de intensidad. Al punto en el que la función pasa por el valor cero cuando
baja desde su valor máximo (+8) a su valor mínimo (-8) se le llama punto de cruce de cero. En la figura aparece indicado
por una flecha. Los puntos de cruce de cero son los indicadores de un borde cuando se utiliza un operador diferencial de
segundo orden. Obsérvese que no son puntos de cruce de cero todos los puntos de la imagen en los que el valor de la
segunda derivada de la función de intensidad es cero sino sólo aquellos en los que la segunda derivada cruza un valor cero
flanqueado por valores extremos. Obsérvese también que los puntos de cruce de cero producidos por un operador
diferencial de segundo orden son en la imagen los mismos que muestran un valor extremo como resultado de la aplicación
de un operador diferencial de primer orden. La razón para preferir un tipo u otro de operador depende de criterios
relacionados con las mayores o menores ventajas computacionales de cada algoritmo12, tema complejo que queda fuera de
los objetivos de este libro.
Ahora estamos en condiciones de entender un poco mejor la teoría de David Marr respecto al esbozo primario bruto. Para
cada imagen filtrada a diferentes niveles de frecuencia espacial se lleva a cabo la convolución de esa imagen con un
operador diferencial de segundo orden13 como el mostrado en la Figura 3.17 con el fin de determinar los puntos de cruce
de cero indi- cadores de la presencia de un borde. La figura 3.18 proporciona un ejemplo del resultado de las fases
correspondientes a la diferenciación de la imagen de una planta situada detrás de una alambrada.
En A aparece la imagen en nivel de gris de la planta. En B la imagen resul- tante de la convolución de la imagen en A con
un operador laplaciano, como el de la figura 3.17, después de ser filtrada por un filtro gaussiano con una desviación típica
equivalente a 8 píxeles. En C se muestran respectivamente en blanco y negro los valores positivos y negativos resultantes
de la convolu- ción anterior. En D solamente se muestran los puntos de cruce de cero. Como puede verse, los puntos de
cruce de cero proporcionan una buena base sobre la cual determinar los bordes de la imagen.
La Figura 3.19 proporciona otro ejemplo del valor informativo que pro- porcionan los puntos de cruce de cero. La imagen
de la derecha muestra los puntos de máximo contraste de la imagen de la izquierda hallados mediante un operador
diferencial de segundo orden. En la imagen de la derecha se ha variado la intensidad de las líneas de modo que las que
tienen un mayor contraste sean más intensas. Los puntos de cruce de cero son en la teoría de David Marr el principal
procedimiento por el que el sistema visual sienta las bases para pasar de una representación continua de carácter analógico
a una representación discreta de carácter simbólico.
3.2.3. La determinación de las características. A partir de la determina- ción de los puntos de cruce de cero y con el fin
de llegar a la descripción sim- bólica final, el sistema visual necesita integrar la información que procede de los filtros de
distinto tamaño. Los cambios de luminancia que dan origen a un punto de cruce de cero pueden estar provocados por
factores muy diferentes en el mundo físico: cambios en la iluminación de la escena, cambios en la re- flectancia de las
superficies, en la orientación o distancia de las superficies con respecto al observador, etc. El sistema visual tiene que
discriminar qué puntos de cruce de cero corresponden a un mismo fenómeno físico y cuales a fenó- menos físicos
diferentes. Según David Marr, el sistema visual consigue asignar los puntos a fenómenos físicos integrando la información
proporcionada por los puntos de cruce de cero de las distintas escalas que proporcionan los fil- tros de diferente tamaño. El
principio fundamental que orienta esta fase del procesamiento se conoce como supuesto de coincidencia espacial y dice así:
Si en un conjunto de canales independientes, de una gama continua de tama- ños (filtrados mediante un operador
laplaciano) está presente un segmento de puntos de cruce de cero y este segmento tiene la misma orientación y posición en
cada canal, entonces el conjunto de segmentos de puntos de cruce de cero indica la presencia de un cambio de intensidad
en la imagen que se debe a un único fenómeno físico (un cambio en la reflectancia, iluminación, profundidad u orientación
en la superficie) (Marr, 1982, p. 70).
Si no existiera coincidencia espacial en los distintos canales, probablemen- te los puntos de cruce de cero tendrían su
origen en distintos fenómenos físi- cos o en distintas superficies. Mediante la aplicación de este y otros supuestos
relacionados se acaba logrando, según Marr y Hildreth, la descripción simbó- lica de la imagen en términos de las cuatro
características primitivas: bordes, barras, manchas y terminaciones. La Figura 3.20 muestra la forma que adopta la
descripción final del esbozo primario bruto de la imagen de la Figura 3.18. En A y B se muestran los puntos de cruce de
cero correspondientes a dos fil- tros de tamaño diferente; el utilizado en A es más fino que el utilizado en B. En los
siguientes apartados la figura muestra el resultado de la integración de ambos filtros para generar un mapa de bordes
orientados (D) y de los análisis que originan un mapa de manchas (C) y otro de barras (E). El resultado finaldel esbozo
primario bruto es un conjunto de cuatro mapas con la descrip- ción de las características, cada una de ellas especificada por
los parámetros correspondientes a su posición, orientación, contraste, y tamaño, éste último expresado en términos de
longitud y anchura.
3.3. Bases fisiológicas del esbozo primario bruto
Hasta ahora hemos estudiado los aspectos computacionales y algorítmicos de la teoría del esbozo primario bruto de David
Marr. Sin embargo en esta etapa de procesamiento visual Marr también prestó atención a los aspectos relacionados con la
realización física de estos procesos en el cerebro humano. Especialmente se interesó por los mecanismos capaces de
realizar el cómputo de los puntos de cruce de cero. Marr pensó que el campo receptivo de las células ganglionares y de las
células del núcleo geniculado lateral del tálamo muestran características similares a las del operador utilizado por ellos que
aparece en la Figura 3.17. En el apartado G y H de la Figura 3.16 hemos visto que los puntos de cruce de cero están
flanqueados por valores extremos de la segunda derivada de la función de luminancia. Marr asumió que las células del
núcleo geniculado organizadas como aparece en la Figura 3.21, de for- ma que un conjunto de células con centro off y
entorno on estén alineadasy adyacentes a un conjunto alineado de células con centro on y entorno off, forman la base para
lograr el cómputo de los puntos de cruce de cero.
Siempre que ambas filas de células estén activas simultáneamente se pro- ducirá la presencia de puntos de cruce de cero
entre ellas. Si otro conjunto de células en un nivel de procesamiento superior recibe información de am- bas células y
solamente dispara cuando ambas están activas14 estas células Y actuarán como verdaderos detectores de puntos de cruce
de cero. Si a su vez estas células están sintonizadas a orientaciones diferentes y se organizan entre sí en alineamientos de
una determinada orientación, tendremos la base para la detección de segmentos de puntos de cruce de cero que, como
hemos visto antes, forman en la teoría de Marr la base sobre la cual se lleva a cabo el cóm- puto de las características
primitivas. Para David Marr la función que llevan a cabo las células simples de la corteza estriada es precisamente detectar
los puntos de cruce de cero en la forma que acabamos de explicar.
3.4. Valoración de la teoría de David Marr
Como hemos dicho varias veces en este libro, la teoría de David Marr fue la primera teoría computacional de la visión que
se propuso con carácter general y que trató de organizar las principales contribuciones que las investigaciones en
inteligencia artificial habían aportado al campo de la percepción visual. En el tema que estamos tratando en este capítulo su
aportación también fue pio- nera y el esquema de detección de bordes basado en operadores laplacianos de una gaussiana
continúa dominando en los modelos de sistemas biológicos de detección de bordes15• No obstante en el campo de la visión
de máquinas se han desarrollado muchos algoritmos diferentes que resultan más o menos útiles dependiendo de la
aplicación a la que se dedica. Más problemática para la teoría de Marr y Hildreth ha resultado la forma en que resuelve el
proble- ma de la integración de escalas de puntos de cruce de cero. Sobre este parti- cular Marr y Hildreth nunca ofrecieron
un algoritmo preciso y otras aporta- ciones posteriores parecen preferibles16. Sin embargo es conveniente recalcar que la
principal aportación de David Marr fue la nueva forma de pensar que introdujo al teorizar sobre la percepción visual
apuntando a los problemas centrales que toda teoría debe resolver en cada nivel de procesamiento.
CONCLUSIÓN
En este capítulo hemos visto que en torno a la interpretación de la función de las células de la corteza estriada se han
acuñado las principales teorías de la percepción de la forma. A las investigaciones fisiológicas de Hube! y Wiesel siguieron
las aportaciones teóricas que desde la psicofísica hicieron investigadores como Campbell, Robson, Blakemore, Graham y
los DeValois a favor de la defensa de filtros de frecuencia espacial. La interpretación inicial de Hube! y Wiesel sobre el
funcionamiento de las células de la corteza cerebral se hizo en términos de detectores de características entendiendo este
término de forma demasiado simple, como la respuesta directa de una célula a las características elementales del estímulo.
Cuando la investigación posterior mostró la existencia de células que respondían a características más complejas o incluso
a objetos, se perdió la confianza en un tipo de teoría que todo lo resolviera a base de encontrar una célula para cada objeto
o parte de un objeto.
La investigación se orientó hacia la búsqueda de una descripción del es- tímulo que fuera elemental en sus componentes
básicos, aplicable de forma generalizada a todo estímulo posible y realizable por las células de la corteza