You are on page 1of 48

Manuel de Vega – Introducción a la psicología cognitiva.

Capítulo 1: Introducción

La actual psicología cognitiva es una prolongación continuista del interés por desentrañar y
comprender la mente humana. No es nuevo. Aportes de: Aristóteles, Humé, Descartes o Kant
perduran en nuestra cultura actual.

Hay diferencias sustanciales entre estos:

1. La actual psicología cognitiva utiliza un lenguaje nuevo (Procesamiento de información)


que ha proporcionado perspectivas y soluciones nuevas a los viejos problemas
2. El estudio actual de la mente tiene una fundamentación empírica, ausente en la filosofía
clásica.

El trabajo aun es inconcluso. La dificultad se deriva de algunas peculiaridades del objeto de


estudio:

1. Los fenómenos mentales son inaccesibles a la observación pública. Podemos observar


los productos externos del lenguaje, la memoria o el razonamiento pero no los procesos
mentales subyacentes. El psicólogo debe fiarse de los datos escasamente fiables de la
observación introspectiva.
2. Los fenómenos mentales pueden ser muy veloces, produciendo una impresión engañosa
de simplicidad. (Ejemplo: Percepción Visual): La eficacia y relativo automatismo de
nuestra PV no supone de modo alguno simplicidad.
3. El sistema cognitivo es interactivo, de modo que existe una dependencia funcional de
todos los componentes del sistema. Esto tiene consecuencias engorrosas para el
investigador, ya que la estrategia de fraccionamiento de un dominio complejo en parcelas
de especialización, tiene una eficacia delimitada en psicología cognitiva.

1.1) Procesamiento de Información

No existe una perspectiva unitaria en la psicología cognitiva actual, sino más bien una gran
diversidad de enfoques o paradigmas. Entre ellos los prestigiosos:
 La psicología evolutiva de Jean Piaget.
 La psicolingüística de Chomsky.
 Los nuevos análisis cognitivos del aprendizaje animal y humano.

Sin embargo estos (en este texto) recibirán un tratamiento marginal. En su lugar,
utilizaremos preferentemente la perspectiva del procesamiento de información, sin
duda el paradigma dominante. Trataremos aquí sus orígenes y presupuestos
básicos:

A) Origen del paradigma.

Las primeras décadas de nuestro siglo habían estado dominadas por el conductismo y
el neo conductismo. Estos postulaban análisis asociacionistas y negaban o
minimizaban el valor funcional de los procesos mentales. Hacia mediados de la década
de los 50, se observa un abandono progresivo de los presupuestos asociacionistas, y
una aceptación creciente de los procesos mentales como objeto legítimo de estudio
solo por parte de pocos psicólogos jóvenes. Pero al final de la década, ya se puede
afirmar que un nuevo paradigma ha cristalizado. Especial influencia tuvo la obra de
MILLER, GALANTER Y PRIBRAM, que constituyo un auténtico manifiesto fundacional
de la nueva psicología. Elaboraron ampliamente la analogía mente- ordenador y
ofrecen un programa para la nueva psicología, en el que se manejan conceptos
mentalistas como <imagen menta>, <planes>, <estrategias>, etc.

 El cambio de paradigmas:

-Paradigmas:

Las nociones centrales de Kuhn son la de paradigma y la concepción discontinua de la ciencia. Un


paradigma es una matriz disciplinar que incluye creencias y preconcepciones, hasta prescripciones
aceptadas por la comunidad científica.

Para Kuhn la ciencia no progresa de modo continuo ni acumulativo, como defendía la concepción
racionalista tradicional, sino que la evolución es discontinua jalonada por crisis y revoluciones.
Etapas:

 Ciencia Normal: presencia de un paradigma dominante. Durante este se presenta


anomalías difíciles de interpretar por el paradigma dominante. La acumulación de
anomalías da paso a la etapa de:
 Crisis: periodo de ciencia revolucionaria, algunos individuos gestan bases de un
nuevo paradigma que ira cobrando adeptos hasta desembocar en un nuevo
periodo de ciencia normal.

-Crisis y revoluciones en psicología:

Transición del conductismo al cognitivismo (desde las nociones de Kuhn):

El conductismo un autentico paradigma dominante que sirvió de base a un largo periodo de ciencia
normal. En cierto momento sobreviene la crisis del conductismo seguida de un periodo
revolucionario en el que emerge el paradigma cognitivo. En efecto durante el dominio del
conductismo muchos psicólogos acogen a la matriz disciplinar conductista que prescribe cuales
son los problemas relevantes y como deben investigarse.

Los presupuestos del conductismo son cuestionados desde dentro y fuera de la propia comunidad
conductista. Podemos nombrar tres cuestionamientos fundamentales:

1) El conductismo fue una variante contemporánea del asociacionismo histórico,


emparentado con ARISTOTELES o los empiristas ingleses:

-Los conductistas son:

 Reduccionistas: toda la vida mental se reduce a elementos básicos.


 Conexionistas: los principios asociativos conectan ciertas respuestas a ciertos estímulos.
 Sensorialitas: los términos de la teoría son entidades físicas externas y movimientos
motrices o glandulares.

2) El conductismo asume como toda la psicología científica los principios evolucionistas de


Darwin:
Sin embargo a partir de Thorndike se realiza una lectura particular del evolucionismo, que
podríamos denominar fixista: Aseguran que las leyes de la conducta son universales y
compartidas por todas las especies, incluido el hombre. Las diferencias serian meramente
cuantitativas con respecto a los repertorios conductuales. Pero los principios conductuales
serian comunes.
Este presupuesto fixista permite comprender por qué durante década los psicólogos
experimentales investigaban el aprendizaje de ratas, gatos, perros o palomas, con la
pretensión de generalizar los resultados y modelos del comportamiento humano.
Esto aplazo por un largo tiempo el estudio de los parámetros más complejos de la
conducta humana.

3) Crisis de la concepción epistemológica de la ciencia en que se apoyaba:

Los conductistas habían acogido con entusiasmo el positivismo lógico del círculo de Viena.
Los grandes teóricos se adscribieron a una o varias de estas prescripciones
(operacionismo, axiomatización, leguaje fisicalistas, etc). Sin embargo la mayoría de los
postulados del positivismo lógico han sido rechazados por la siguiente generación de
filósofos de la ciencia de modo que el conductismo perdió también su apoyo
epistemológico.

#4: Además de los motivos profundos de la crisis que acabamos de mencionar también se
suman los motivos internos:
El paradigma se disgrega en varias subescuelas neo conductistas que sustentan
posiciones teóricas muy heterogéneas y con fuerte debate entre ellas.
El paradigma cognitivo emerge en la década del 50 y estabiliza dominando un nuevo
periodo de ciencia normal.

 Factores ajenos a la psicología.

La emergencia del cognitivismo se debe no solo a la crisis del conductismo sino a


ciertos factores sociales, históricos o al influjo de otras disciplinas científicas. Entre los
factores que inciden en la configuración del cognitivismo están:

 Teoría de la comunicación: en 1948 SHANNON formulo la teoría de la comunicación que


establecía una serie de leyes matemáticas para explicar el flujo de información a través de
un canal. Un canal es un dispositivo que recibe una entrada (input) de información externa
y genera una salida (Output). A la correspondencia a la información de entrada se la
denomina información transmitida. Esta no suele ser perfecta pues hay una porción de
información de input que se pierde y hay información añadida por el propio canal. La
naturaleza física del canal es indiferente puede ser un recetor de radio, televisor, etcétera.
Esto resulto muy sugestivo para algunos psicólogos de la época que extendieron por
analogía la noción de canal a la de la mente humana.
La analogía mente-canal es muy imperfecta y pronto fue abandonada. La mente humana
es una sistema extraordinariamente activo, que no se limita a transmitir la información, sino
que la codifica almacena recombina, por lo tanto procesa información. Los psicólogos más
inquietos hallaron en la formulación de Shannon un lenguaje matemático para enfrentar de
modo rudimentario pero eficaz al estudio de la mente. A finales de la segunda guerra
mundial tuvo lugar una revolución en la tecnología electrónica con espaciales
repercusiones en la nueva psicología cognitiva.
WIENER al enfrentarse al problema practico de diseñar un proyectil capaz de autocorregir
su trayectoria en función de la posición cambiante del blanco desarrollo la definición de
retroalimentación (feed back) que describe un proceso de autorregulación y control;
además acuño el termino cibernética para la nueva disciplina que trataría los sistemas de
control.
Mas tarde se construyen los primeros ordenadores digitales que son sistemas de
procesamiento de información. Posee un soporte físico o hardware y un soporte lógico o
software. El hardware incluye el componente físico de la máquina. El software abarca los
aspectos funcionales del sistema.

 Psicolingüística de Chomsky: estaba opuesta claramente al empirismo y reduccionismo


conductista.

Las expresiones gramaticales no se generan como cadenas asociativas. En lugar de ello


propone su gramática transformacional que comprende una serie de reglas generativas y
de transformación. El lenguaje se puede estudiar como un dispositivo de competencia que
incluye un conjunto de reescritura de un conjunto de símbolos capaz de generar todas las
frases gramaticales del lenguaje natural.

Así mismo se estableció una importante distinción entre competencia y actuación


lingüística. La principal labor del lingüista es elaborar un modelo de competencia
gramatical. La competencia es un dispositivo idealizado que se puede estudiar de un modo
formal, al margen de cualquier pretensión psicológica. Y la actuación depende tanto de la
competencia como de un conjunto de variables psicológicas.

 Las ciencias del ordenador:

A finales de la segunda guerra mundial tuvo lugar una revolución en la tecnología


electrónica con especiales repercusiones en la nueva psicología cognitiva. Wiener fue
capaz de diseñar un proyectil capaz de autocorregir su trayectoria en función a la posición
cambiante del blanco, lo que desarrollo la nocion de retroalimentación (feedback).

Más tarde se construyen los primeros ordenadores digitales que son sistemas de
procesamiento de información. La evolución tecnológica de los ordenadores ha sifo
acelerada e ininterrumpida en los últimos 30 años. No obstante cualquiera que sea su grado
de sofisticación en un ordenador se suele diferenciar entre el soporte físico o Hardware y el
soporte lógico software.

El desarrollo del ordenador proporciona a la psicología una analogía mucho mas poderosa
que la teoría de la comunicación. La similitud funcional entre mente- ordenador, fue el facto
más determinante del desarrollo de la psico. Cognitiva actual.

B) La analogía del ordenador:

- Analogía funcional:

La analogía funcional entre mente- ordenador fue el factor más determinante del desarrollo
de la psicología cognitiva actual, fue propuesta incluso antes de inventarse los ordenadores.
El origen se remonta a los trabajos del matemático Turing (1937) el cual describió una
maquina hipotética (la maquina universal) demostrando que esta podría simular cualquier
computo, incluso los comportamientos inteligentes humanos, hasta el punto de engañar a un
observador ingenuo con sus respuestas. La máquina de Turing es una abstracción, pero los
ordenadores digitales son reales, y más o menos equivalentes a la misma. Los
ordenadores se suelen definir como sistemas de propósito general, es decir se pueden
programar para diverso tipo de cómputo. Por su parte el sistema nervioso humano tiene
una gran versatilidad funcional, de modo que se puede categorizar también como un
procesador de propósito general.
La similitud entre los ordenadores y la mente humana es obvia y ha sido explotada en
ambas direcciones:

 técnicos de inteligencia artificial tratan de trasladar intuitivamente sus ideas sobre el


funcionamiento mental al campo del ordenador.
 Los psicólogos cognitivos toman como modelo el ordenador para plantear hipótesis
psicológicas y elaborar interpretaciones teóricas.

Conviene aclarar que la analogía mente ordenador es funcional, no física. En el aspecto


material o hardware las diferencias son considerables. El ser humano por un lado: neuronas
como unidades básicas del sistema nervioso. Por otro lado el ordenador: con circuitos de
silicio distribuidos y escasas conexiones entre sí.
En cambio, desde una perspectiva funcional emergen las similitudes: la mente y el
ordenador son sistemas de procesamiento de propósito general, ambos codifican, retienen y
operan con símbolos y representaciones internas.
- Consecuencias de la analogía:
Gracias a la metáfora del ordenador, la psicología cognitiva ha conocido una rápida expansión. El
mentalismo, desterrado de la psicologia académica desde finales del siglo XIX a causa de sus
debilidades metodológicas y conceptuales, es reasumido con decisión por la nueva psicología
cognitiva. La analogía del ordenador en que se basa presta a los psicólogos un vocabulario, unas
directrices y una instrumentación adecuada para el estudio de la mente.
Vocabulario:
Muchos de los temas tratados por la psicología cognitiva utilizan una terminología de
“procesamiento de información”, común para los ordenadores y los procesos mentales. El
vocabulario asociacionista ha sido sustituido parcialmente por procesos de “codificación”,
“almacenamiento”, “recuperación”, “búsqueda de información”, etc, y por componentes
estructurales como “memoria operativa”, “memoria de largo plazo”, “buffers”, etc. Conviene
establecer una distinción entre la versión débil y la versión fuerte de la analogía mente-ordenador.
La versión débil establece una similitud funcional entre ambos sistemas y utiliza el vocabulario de
procesamiento, corresponde a lo que se denomina con propiedad Psicología cognitiva, y existe un
indicio inequívoco para reconocerla: estudia directamente el comportamiento inteligente de sujetos
humanos.
La versión fuerte de la analogía considera que el ordenador es algo más que una simple
herramienta conceptual. Si el ordenador y la mente humana son sistemas de propósito general, el
objetivo del científico es elaborar una teoría unificada del procesamiento de información que
englobe ambos sistemas. Esta versión ha dado lugar a una disciplina muy pujante denominada
Ciencia Cognitiva.
Directrices:
La analogía computacional no se limita a ser un vocabulario teórico, sino que dicta y legitima
ciertos objetivos de investigación y condiciona la elaboración de teorías y modelos. La analogía del
ordenador ha supuesto un corsé algo rígido para la psicología cognitiva, sesgando las
investigaciones en determinadas direcciones, en función de las características de los ordenadores
actuales.
La psicología cognitiva se está liberando de estas restricciones paradigmáticas y su ámbito
empieza a cubrir las lagunas iniciales, aunque para ellos se vea forzada a veces a despegarse de
la analogía computacional.
Función instrumental:
El ordenador ofrece a la psicología cognitiva la posibilidad de construir modelos formales muy
sofisticados. Existen dos tipos de modelos computacionales: la Inteligencia Artificial (IA) y la
Simulación (S), dependiendo de si se admiten o no restricciones psicológicas. En un extremo
tendríamos los modelos de IA, cuya ejecución es análoga o superior al rendimiento cognitivo
humano en tareas idénticas, pero sin que haya una intención expresa de que el programa IA
reproduzca los procesos cognitivos humanos.
Los modelos de simulación, en cambio, son programas que además de mimetizar el
comportamiento inteligente humano, pretenden emular los procesos y mecanismos mentales.
Los diagramas de flujo constituyen otro tipo de modelación computacional en psicología cognitiva.
Su elaboración es mucho más simple que los modelos IA y S, y de ahí su extraordinaria frecuencia.
Consta de una serie de “cajas” dispuestas secuencialmente unidas por “flechas”. Las cajas
representan operaciones básicas (vg: almacenar, recuperar, codificar, comparar, bifurcar, etc), y
las flechas indican la secuenciación de estas operaciones. La función es representar de modo
simplificado un algoritmo para resolver un determinado tipo de problemas. Los técnicos de
ordenador, antes de construir la minuciosa secuencia de instrucciones de un programa, suelen
elaborar un diagrama de flujo a modo de boceto.

{ 1.2: PSICOLOGIA COGNITIVA Y OTRAS PSICOLOGIAS.


LEER DEL LIBRO CON LOS CUADROS Y EJEMPLOS DE AHÍ. }
1.3- METODOS.

Con respecto a los METODOS de investigación de la psicología cognitiva podemos tratar tres
tipos de técnicas que se han empleado:
1) Introspección: la mente humana es un sistema consciente, es decir dispone de un
conocimiento autorreferencial. Es por este acceso a sus procesos mentales que la auto-
observación o procedimientos introspectivos constituyen una vía legítima para el
investigador de procesos cognitivos.
La introspección ha sido blanco de críticas pero paradójicamente se siguen utilizando en la
psicología actual procedimientos de este tipo.

Introspección clásica: Se remonta a la escuela de Wurtzburgo donde el nacimiento de la


psicología científica supuso florecimiento a las técnicas introspectivas, llegando a su
máximo desarrollo de elaboración técnica y aplicando en el marco de un rudimentario
paradigma cognitivo.
-Estudios como los de Watt miembro del grupo Wurtzburgo: el sujeto recibía una palabra
escrita y debía realizar rápidamente una de las siguientes tareas: *Clasificarlas según su
significado. * Poner un ejemplo de la categoría. *Nombrar el todo al cual pertenecía, etc.
Se trataba de una asociación restringida.
Watt registraba el tiempo de reacción de la respuesta asociativa, e instala al sujeto a
describir detalladamente sus estados mentales. Para ello utilizaba el método de
“fraccionamiento”, pues indicaba al sujeto que dirigiese su atención selectivamente hacia
una de las fases de su experiencia mental.
Introspección Actual: Tiene nuevos argumentos críticos ya que se replantea la idea sobre
el tema de la introspección luego de las grandes criticas realizada por prestigiosos
individuos en lo que se refiere a la introspección clásica. La posición de los nuevos
psicólogos mentalistas en ambivalente:
o Por una parte consideran que los aspectos experimentales y conscientes
de la actividad son objeto lícito de estudio.
o Al mismo tiempo aseguran que la experiencia consciente no proporciona
datos fiables sobre los fenómenos mentales.
La conciencia es un tema de la psicología cognitiva pero no una herramienta de
investigación. La doctrina preponderante establece una dualidad producto- proceso, de
modo que los contenidos de la conciencia son productos finales del procesamiento, pero
los procesos subyacentes son inaccesibles a la conciencia y por lo tanto no susceptibles de
investigación introspectiva.
2) Estudios experimentales: la mayoría de los estudios cognitivos se enmarcan dentro de
la tradición de la psicología experimental.
Los psicólogos cognitivos, como sus antecesores, se ven abocados a manipular estímulos
(E) y registrar respuestas (R) en sus investigaciones, de modo que practican una especie
de conductismo metodológico. Las diferencias con respecto a la anterior psicología se
hallan en la interpretación de los datos E-R:
o Psicología de corte asociacionista (anterior): entre los estímulos y las
respuestas observables se postulaban eslabones asociativos de estímulos
y respuestas mediacionales. Estos requieren menos términos teóricos, su
complejidad es extraordinaria al tener que introducir multitud de eslabones
E-R para explicar comportamientos inteligentes.
o Por el contrario, la psicología cognitiva admite una gran variedad de
estructuras, representaciones, estrategias, etc. Que configuran el sistema
cognitivo.
Dos tipos de paradigmas experimentales:
a) Estudios cronométricos: Índices empíricos que permiten establecer inferencias:

-Medida del tiempo de reacción o latencia de respuesta. El TR es el intervalo


transcurrido entre la presentación del estímulo y el inicio de la respuesta.
Suelen emplear un tipo de tareas muy simples en las cuales la exactitud de las
respuestas está casi garantizada y su demora es del orden de centenares de
milisegundos.
El TR posee una virtud y es que guarda estrecha relación con la complejidad del
proceso mental requerido para ejecutar la respuesta. Es por lo tanto índice objetivo de
los procesos internos que tan inaccesibles resultan al psicólogo.
Generalmente el análisis e interpretación de los TR está ligado a una concepción lineal
del procesamiento y los diseños son convergentes. Lineal supone que en la ejecución
de una tarea interviene una serie de estadios u operaciones mentales discreta,
dispuestas secuencialmente.
Diseños convergentes:
 El método sustractivo: para medir la duración de uno de estos estadios o
eventos mentales, se construyen dos tareas, de modo que ambas comparten
varios estadios mentales, pero una de ellas incluye un estadio adicional,
precisamente el que se pretende medir. La diferencia entre los TR de ambas
tareas corresponde al estadio crítico.

 El método de factores aditivos: el TR empírico es determinado por una


secuencia de estadios independientes dispuestos de modo serial; cada estadio
produce una determinada transformación constante en el flujo de información
que recibe, cada estadio recibe como input el out-put del estadio anterior, la
duración de las operaciones ejecutadas por un estadio se ve afectada por
ciertos factores externos (característica de la tarea), pero no de la naturaleza
de dichas operaciones.

b) Paradigmas de aprendizaje verbal:


-Pueden describirse según 3 criterios:
 Según la estructura del material de aprendizaje: los principales experimentos
de aprendizaje son: la listas seriales, las listas de pares asociados y los
triagramas.
 Según el contenido: silabas sin sentido, dígitos, letras, palabras e incluso
dibujos.
Se creía que de esta manera se podía aislar mejor las leyes de memoria, pues
la experiencia previa del sujeto quedaba controlada. Luego se desarrollaron
estudios normativos con grupos numerosos de sujetos trabajando
esencialmente con palabras.
 Según el procedimiento de prueba de memoria: dos modalidades principales: -
prueba de recuerdo que consiste en exigir a los sujetos el recuerdo del material
previamente expuesto sin ayuda alguna. Y – prueba de reconocimiento: volver
a presentar los ítems del aprendizaje mezclado aleatoriamente con nuevos
debiendo juzgar si es un ítem nuevo o uno viejo.

3) El uso instrumental del ordenador: la aplicación más notable es la construcción de


modelos. Se puede elaborar programas de inteligencia artificial o de simulación que
permiten avanzar en nuestro conocimiento teórico de los procesos mentales.

a) Simulación: el científico que elabora una simulación pretende que el programa


mimetice con fidelidad el comportamiento humano- incluso errores y rasgos- y que el
programa se parezca al sistema cognitivo humano.
Es una representación funcional estilizada de algunos parámetros de la realidad.
Requiere un programa complejo de investigación con varias etapas de las cuales solo
algunas están relacionadas con el empleo material del ordenador:
 Investigación empírica
 Teoría psicológica
 Diseño del programa de ordenador
 Ejecución del programa
 Planeamiento de hipótesis y nuevas predicciones.

b) Inteligencia Artificial: El programador de estos está interesado en reproducir


comportamientos inteligentes. No pretende, en principio, reproducir los parámetros
relevantes de la conducta humana y por ello no realidad estudios psicológicos previos,
ni se interesa por los existentes. Existen algunas contradicciones empíricas en el IA:
Por ejemplo: a veces se eligen dominios de comportamiento claramente relacionados
con la inteligencia humana. De todos modos se puede asegurar que no son en
principio teorías psicológicas, aun cuando se basen en reflexiones intuitivas sobre la
conducta inteligente humana.

CARRETERO, M. “INTRODUCCION A LA PSICOLOGIA COGNITIVA”

Cap. 1 “Historia reciente de la psicologia cognitiva”

La psicologia cognitiva se nos presenta cada vez mas como la ciencia experimental del
conocimiento, como el instrumento que nos perite encontrar la solucion a los grandes debates que
la filosofia y la epistemologia han planteado hace siglos. Surgio en los años 50-60 y a finers de los
70 ya habia dejado de ser una disiplina prometedora para convertirse en un enfoque dominante.

El declive del conductismo como enfoque dominante

El estudio de los procesos cognitivos se inicia de forma sistematica hacia 1956 aprox.
Hasta los 50 la psicologia se caracterizaba por un fuerte auge del conductismo
(que surgio en los años 20 como movimento dominate sobretodo en Norteamerica. Refiere al
estudio metodologico que sento las bases pasra una psicologia cientifica)

Podemos decir que que conductismo se caracteriza por:

 Reduccionismo y asociacionismo:el comportamiento se comprende por elementos


simples (estimulo-respuesta) asociados mediante leyes de contiguidad temporal.

 Continuidad filogenetica: estimaba que entre la conducta animal y la humana no existian


diferencias cualitativas sino cuantitativas. Esta influescia de las teorias evolucionistas
suponia que los metodos y conceptos para investigar eran basicamente los mismos.

 Inductivismo metodologico: los conductistas no partian de formulaciones teoricas sino


de datos empiricos, defendian una metologia claramente inductivista.

La infuencia de los “tiempos modernos”

A mediados de los 50 comienza a producirce la influencia de distintas disciplinas y areas de


investigacion cercanas a la psicologia. La teoria de la comunicacion aporto la idea de
retroalimentacion(feed-back); las investigaciones ciberneticas trajeron al mundo de la Psicologia
toda una analogia del ser humano como manipulador de simbolos, como transmisor y elaborador
de informacion y como sujeto que debe hacer uso de esa informacion no solo para conocer sino
tambien para actuar. El impacto que todo ello tuvo entre los psicologos de la epoca fue tremendo.

Acomienzo de los 60 los psicologos conductistas comenzaron a quedar ”fuera de juego” tanto por
los metodos utilizados como por las tematicas estudiadas. Muchos comenzaron a preguntarse cual
era el sentido de la funcion investigadora. En concecuencia, empezara a ocupar un lugar
influyente en el movimiernto cognitivo la llamada metafora del ordenador. Ambos eran
representativos de la inteligencia , ya fuera esta natura l o artificial.

Guerra de “psiglas ” . La susticion del E-R por T.O.T.E

Uno de los cambios mas importantes en la psicologia desde los años 50/60 fue el referente a lo
que podria llamarse la unidad de analisis.

Bruner es uno de los pioneros de la orientacion cognitiva.

Miller realizo un analisis que consistia en fijar un clavo con un martillo constituyo las bases
conceptuales y teoricas de una nueva manera de hacer psicologia. No se puede prescindir de la
manera en que dicho comportamiento ha sido adquirido y concebido por el propio sujeto .

Los conceptos que Miller, Galanter y Pribram inician un duro ataque al bastíon conductista.
Intentan, nada mas y nada menos, que demostrar la idea de que el par E-R es la unidad de analisis
mas adecuada en la psicologia. Para ello, parten de una critica inicial al concepto de arco reflejo.

Su argumento se basa en dos aspectos:

 El esquema clasico de arco reflejo sustituido por los conceptos de retroaccion y de


servomecanismo.
 No parecia tener sentido seguir utilizando en nuestra disiplina ideas que habian quedado
desechadas en su propio ambito de origen.

De ahi se desprende que resulta mucho mas util la llamada “hipotesis cibernetica” es decir, la
concepcion segun la cual el aspecto esencial en el funcionamiento del sistema nervioso es el
bucle de retroaccion.
Asi se presenta la alternativa al E-R, es decir la secuencia Test- Operation-Test-Exit (T.O.T.E)

Las ideas irracionales

Conviene no olvidar otros desarrollos y movimientos que se empiezan a producir en los 60 que
tienen tambien una fuerte influencuia sobre la forma en la que se entiende nuestra disiplina.

El trabajo de Ellis en él ambito de las cuestiones afectivas y clinicas empieza a aparecer un


enfoque que tiene en cuenta las bases de lo que con el tiempo se convertirá en una de las terapias
cognitivas mas utilizadas. Ellis formula sus planteamientos a comienzos de los 60, realizando una
clara ruptura tanto con las concepciones psicoanaliticas como con las conductistas, y abriendo las
puertas para el analisis de los contenidos que afectan al mundo emocional.

La aportacion de la psicologia europea

La psic. Cognitiva se ha desarrolado en un ambito anglosajon y mas concretamente


norteamericano, lo hace que la vision de su propia historia sea un tanto ”oficial” y no incluya otras
aportaciones realmente sustanciales.De hecho, suelen encontrarse referencias a Piaget o la
Gestalt como simples precursores de cognitivismo, pero sin que se examine con detalle su
aportacion y sus conceptos.

El enfrentamiento entre el conductismo y el cognitivismo es un episodio que se prduce


originalmente en el contexto norteamericano. La llamada revolucion cognitiva.

La reestrucuturacion de la produccion cientifica se produce en el mundo occidental tras la Segunda


Guerra Mundial. Esto supone el fin de la posicion dominante de los psicologos alemanes y
francofonos. Autores como Wertheimer o Lewin tienen que huir a EE.UU y ya no ejerceran una
influencia tan desiva como lo hacian al publicar en lengua alemana, ya que llegan a este pais en
el apogeo del conducti smo y sin el apoyo institucional de pertecer a una escuela que tuvo que
dispersarse. Una de las mayores aportaciones a la psicologia cvognitiva a la concepcion
constructivista del ser humano, en concecuencia, el conocimiento no es una copia de la realidad
sino una construccion del sujeto.

Cap. 2: “Las señas de identidad”


Una vez que se consolidaron en el ámbito anglosajón los cambios de paradigmas, el enfoque
cognitivo sufrió una expansión considerable, tanto en lo que se refiere a temas tratados como a su
influencia sobre otros campos de la psicología de tipo más aplicado, como la clínica, la psicología del
trabajo y la educación.
Podemos considerar lo algunos han considerado como meta postulados generales y fundamentales
que comparten una buena parte de los investigadores y que otorgan sentido a los trabajos empíricos
y teóricos.
Dentro de estos meta postulados son las METAFORAS. El poder de las metáforas y el contenido de
las mismas. Es decir, a las ideas básicas que dieron lugar a la comparación entre la mente humana y
los ordenadores y a la ruptura posterior que ha impulsado la aparición del conexionismo, x un lado; y
de la narratividad x otro.

¿Qué estudia la psicología cognitiva?


Puede hablarse de dos sentidos del termino cognitivo. Por un lado, la psicología cognitiva como
estudio específico de los llamados procesos intelectuales de mayor o menor complejidad –
percepción, atención, memoria, lenguaje y razonamiento- y, por otro lado, como orientación general
para estudiar otros muchos aspectos del comportamiento de los seres humanos.
En el primer caso nos estamos refiriendo a lo que suele entenderse como psicología cognitiva en la
que ha cumplido sin duda un papel muy influyente la tendencia del procesamiento de la información y
la metáfora computacional; x ejemplo, Anderson la define como aquella que “intenta entender la
naturaleza de la inteligencia humana y cómo piensan las personas”. Con respecto a la segunda
posibilidad, Mayer define a la psicología cognitiva como: “el análisis científico de los procesos
mentales y estructuras de memoria humanos con el fin de comprender la conducta humana.” En este
último caso, el término “Memoria” es sinónimo de “Conocimiento”.
A la hora de definir a la psicología cognitiva, hay que tener en cuenta a la ciencia cognitiva,
disciplina que consiste en el estudio de los sistemas inteligentes, ya sean naturales o artificiales. Es
decir, cualquier dispositivo u organismo que lleva a cabo una actividad, que, en el caso de ser
realizada por un humano, supusiera una acción inteligente. Presupone que en todos ellos se da un
procesamiento de la información, la cual presenta en forma de símbolos, que cualquier organismo o
maquina debe transformar y procesar mediante reglas y algoritmos. A su vez ese procesamiento se
puede simular mediante un programa de ordenador. Dicha simulación es útil y necesaria porque es la
manera que tiene el estudioso de la cognición para poder formular una teoría del procesamiento que
ha utilizado el organismo o máquina para llevar a cabo una terminada transformación.
La ciencia cognitiva se diferencia de la psicología cognitiva en que la segunda tiene por objeto
central el estudio de los seres humanos, mientras que la primera pone énfasis en el análisis de todos
los sistemas inteligentes, sean naturales o artificiales. La ciencia cognitiva ha defendido, en líneas
generales, la versión fuerte de la metáfora computacional, mientras que la psicología cognitiva ha
hecho suya la versión débil. Es decir, para la una los procesos cognitivos son idénticos a los procesos
computacionales mientras que, para la otra, estos últimos son solamente una fuente de inspiración.
En síntesis: La psicología cognitiva se encarga del estudio de la cognición, es decir los procesos
mentales implicados en el conocimiento (percepción, atención, memoria, lenguaje y razonamiento).

Cap. 3: “El poder de las metáforas”


En este cap. se trata de las metáforas que han influido y están determinando su desarrollo. Se
describe la manera en se ha establecido la comparación entre el funcionamiento de la mente humana
y una computadora, sobre todo a través de la noción de Programar, así como la influencia que todo
ello ha tenido en el estudio de la memoria, entendida esta como Conocimiento General. La metáfora
computacional no solo ha sido decisiva para el avance de la Psicología y la Cs Cognitiva, sino que ha
sido hasta los años `80, aprox, la característica distintiva de los trabajos de origen anglosajón de las
aportaciones europeas sobre los procesos cognitivos. Ahora bien, en la actualidad la metáfora ha
sufrido criticas importantes y tiene también serios competidores.

La metáfora computacional: ese chip que todos llevamos dentro.


La metáfora computacional se basa, por un lado, en las severas limitaciones que tenemos para
procesar la nueva información o, lo que es lo mismo, para atender simultáneamente, pero de forma
transitoria a toda ella. Solamente si se produce la atención podemos incorporar algo, de manera que
pase a engrosar nuestro bagaje de conocimiento. Es decir, si no hay atención no puede haber
conocimiento. Por otro lado, la citada metáfora incluye la existencia de representaciones perdurables
que se mantienen toda la vida en una suerte de almacén de gran capacidad, pero que pueden llegar
a ser un obstáculo para la modificación de la información que ya poseemos.
Uno de los motivos que impulsaron a los psicólogos a estudiar con detalle todos estos temas fue
precisamente el asombro ante lo q los primeros ordenadores podían llevar a cabo. A primera vista,
puede sonar un tanto deshumanizador que se compare al ser humano con un ordenador, que, al fin y
al cabo, no es + que un aparato y en última instancia, un mero conjunto de cables y dispositivos
eléctricos diseñados por el hombre. Tal como decía Bruner, no deja de ser curioso que el ser
humano haya terminado mirándose en el espejo de un mecanismo creado x el mismo, aunque no
precisamente para ese fin. Por lo Gral. la comparación entre los seres humanos y las maquinas no
goza de buena reputación, es frecuente el escepticismo: “¡Los humanos somos mucho más
complejos q las maquinas! ¡Tenemos sentimientos, pasiones!, etc.”. Pero la comparación con las
maquinas es exactamente eso, una comparación y no una equivalencia. Es decir, se trata de disponer
de un modelo que permita diseñar hipótesis y supuestos precisos acerca de procesos que no son tan
obvios para la experiencia directa.
Cuando los científicos usan una metáfora, están tomando de un modelo al efecto, una seria de
ideas básicas para comprender un conjunto de fenómenos que de otra manera carecerían de sentido.
Por lo tanto, en la actividad científica no se usan las metáforas de la misma manera que en la vida
diaria. No tiene el mismo sentido cuando en la vida diríamos: “fulano es como una computadora” que
cuando usamos los conceptos computacionales para tratar de divisar con mejor perspectiva los
fenómenos que analizamos experimentalmente. Es decir, la utilización de metáforas en la ciencia
posee no solo un sólido valor heurístico, sino también un poder de justificación bastante considerable.
Actúan como modelos generales, no solo proporcionan las situaciones básicas que tradicionalmente
se llevan al laboratorio para un estudio detallado, sino que dan sentido también a los datos que
surgen de dicho examen.
En cualquier caso, independientemente de las insuficiencias que se le puedan atribuir a la metáfora
computacional en concreto, resulta difícil dudar de que ha hecho avanzar el conocimiento actual
sobre los procesos cognitivos básicos del ser humano y, x ende, las situaciones concretas en las que
este se puede encontrar, ya sea como alumno, paciente, trabajador, etc.
En primer lugar, hay que destacar que la idea de que la adquisición de conocimientos (uno de los
objetivos centrales del uso de esta metáfora) se realiza siguiendo una serie de procesos básico que
son similares en el ordenador y en el ser humano. En ambos casos, existe un hardware y un software.
En nuestro caso, el hardware resulta ser el cerebro y el software la mente, aunque es bien cierto a
que su vez podríamos distinguir entre el contenido y las estructuras de dicha mente. El software seria
en realidad algo similar a las estructuras mentales, ya que los contenidos son comparables a la
información que se va introduciendo en el ordenador. La comparación entre el cerebro, con sus
circuitos neuronales y el llamado soporte de un ordenador, con sus circuitos electrónicos, es un símil
que ya tiene algunos años.
Es importante resaltar que a medida que el enfoque cognitivo se fue afianzando, durante las
décadas de los 60 y 70, se va produciendo una versión de la metáfora en la que los paralelismos no
se postulan entre cerebro y el ordenador sino entre este último y los contenidos y estructuras
mentales. Para ello resulta necesario que se formule a su vez una posición de independencia
funcional entre el hardware y el software. Es decir, que resulte posible estudiar los procesos
cognitivos sin tener en cuenta el funcionamiento del cerebro. Dicha posición psicológica se basa
precisamente en la idea de que el estudio de la mente y el de las cuestiones neurológicas se sitúan
en niveles distintos de explicación. Es decir, al igual que los ingenieros electrónicos diseñan cambios
e innovaciones en la estructura electrónica de los ordenadores sin tener que depender de los
expertos en sistemas; se puede estudiar los procesos cognitivos sin entrar adentrarse a sus bases
neurológicas.
En definitiva, el nivel de explicación que interesa a la psicología cognitiva es el que tiene que ver
con dos cuestiones esenciales, la estructura del sistema computacional y las operaciones básicas que
realiza la mente humana. Con respecto a lo primero, nuestra disciplina va a tomar sus modelos
básicos de los diferentes sistemas de almacenamiento de la información de los ordenadores
(memoria transitoria RAM y memoria permanente ROM, ya que sea en forma de disco flexible o duro)
y con respecto a lo segundo en la idea de programa y de procesamiento de la información en serie o
sucesivo, y no en paralelo o simultaneo.
Así las estructuras básicas de estas máquinas tienen dos partes esenciales: una memoria
transitoria o RAM y un almacén donde se guarda permanentemente la información. La primera tiene
una capacidad limitada, por regla general muy inferior a la segunda, y maneja la información durante
un tiempo determinado sin que eso suponga su envío al almacén permanente. Es decir, la entrada de
la información no supone su permanencia en el sistema. Esto es exactamente lo que ocurre cuando
estamos utilizando un procesador de textos y después de trabajar un rato se nos corta la luz y no se
almacena. En este caso, aunque haya habido procesamiento de la información, esta solo ha ocurrido
en la memoria transitoria, x lo que desaparece. De la misma manera, los seres humanos perdemos
una gran cantidad de información que por diferentes razones no se logran enviar a la MLP.
Además de la transitoriedad, la otra característica de la memoria RAM es su limitación con
respecto a su amplitud, lo cual determina el tipo de funciones que puede realizar puesto que no le
es imposible llevar a cabo determinadas tareas para las que son necesarias cierta capacidad. De la
misma manera, los seres humanos podemos advertir con facilidad que si estamos llevando a cabo
una labor rutinaria no nos hace falta mucho espacio mental, pero si la tarea es muy difícil será
preciso poner en funcionamiento todos nuestros recursos atencionales, lo cual hará q podamos
atender a otras informaciones que hay a nuestro alrededor.
Mayer. “El futuro de la Psicología Cognitiva”

 Definición de la Psicología Cognitiva.


“La Psicología Cognitiva es el análisis científico de los procesos mentales y estructuras de
memoria humano con el fin de comprender la conducta humana.” Se puede examinar una por
una de las partes de esta definición:

-Análisis científico. La primera parte de la definición alude al <cómo> de la psicología


cognitiva. Solo puede utilizar los métodos de la ciencia. Esto quiere decir, que los datos
que utilizamos deben ser públicos, para que cualquier persona razonable pueda conseguir
los mismos resultados siguiendo un procedimiento idéntico. Lo cual hace que la tarea de la
psicología cognitiva sea bastante indirecta, por esta razón los psicólogos cognitivos tienen
que diseñar métodos científicos para observar la vida mental indirectamente.

-Procesos y estructuras mentales. Esta parte de la definición se refiere al <qué> de la


psicología cognitiva. Su objeto de estudio es la actividad mental humana. Se encarga de
estudiar lo que ocurre dentro de la cabeza de una persona cuando realiza una tarea
determinada y el modo en que la persona almacena y utiliza su conocimiento para realizar
la tarea.

-Comprender la conducta humana. La ultima parte de la definición atañe al <por qué> de la


psicología cognitiva. El objetivo es describir los sucesos cognitivos con claridad y presión
para describir y comprender mejor la conducta humana.

 Tres psicologías.
La psicología cognitiva se caracteriza por lo siguiente: su objeto de conocimiento es la
actividad racional o mental humana, su método es el análisis científico de las estructuras y los
procesos mentales, y su objetivo es comprender la conducta humana.

El conductismo, al igual que la psicología cognitiva, tiene como objetivo comprender la


conducta humana; a diferencia de ella el conductismo nunca intenta comprender ni estudiar los
procesos internos que subyacen a la conducta. También se atiende a los rigurosos métodos de
la ciencia. Sin embargo las técnicas especificas de la psicología cognitiva son diferentes de las
utilizas en los enfoques conductistas. Finalmente, la principal diferencia entre el conductismo y
el cognitivismo reside en la cuestión de la cual debe ser el objeto de conocimiento de la
psicología. Los conductistas afirman que como los sucesos mentales internos nos son
directamente observables, nunca podrán ser objetos legítimos, dignos de estudio científico.
Según ellos para hacer de la psicología una ciencia rigurosa y útil se deben utilizar métodos
científicos para descubrir las leyes de la conducta.

Los cognitivos consideran que esta postura es demasiado limitada y restrictiva. Las teorías
cognitivas tienen de hecho lugar en la psicología, siempre que se definan de manera que sea
posible contrastarlas de modo directo y observable.

El enfoque psicoanalítico tiene como objetivo el mismo que de la psicología cognitiva y el


conductismo: comprender la conducta humana y utilizar métodos científicos. Pero hay muchas
criticas al respecto, estas criticas aluden a que este enfoque todavía no ha desarrollado
métodos con el necesario rigor científico y que tiene que apoyarse en otros métodos que no
son científicos (la intuición, el juicio clínico). La diferencia principal de este enfoque con los dos
anteriores concierne a lo que debe ser objeto de conocimiento de la psicología. Al igual que el
cognitivo, el psicoanalítico pone énfasis en el estudio de los mecanismos internos que
subyacen la conducta. Pero mientras que los psicólogos cognitivos tienden a estudiar el lado
racional de la vida mental, el enfoque psicoanalítico concede más importantes a los
sentimientos, las emociones y los deseos internos.
 Historia de la Psicología Cognitiva.
Se suele considerar a Wundt como fundador de la psicología científica. Él fundo en 1894 un
laboratorio de psicología en la Universidad de Leipzig y un enfoque original de la psicología: el
estructuralismo. Recibió este nombre porque su objetivo era estudiar y analizar los distintos
componentes de la conciencia humana. Utilizaban el método de la introspección. A principios
de siglo apareció un movimiento opuesto al estructuralismo, denominado conductismo y
liderado por Watson. Los conductistas proclamaban que el objeto de estudio y los métodos de
la psicología debían modificarse para convertir a la psicología en una ciencia respetable y
rigurosa. El único campo propio de la psicología debía ser la conducta, por ser lo único
directamente observable.

La segunda reacción contra el estructuralismo se desarrollo en Europa, la misma recibió el


nombre de psicología de la Gestalt. Está siguió considerando que los procesos y las
estructuras mentales eran objetos dignos de conocimiento para la psicología. Pero también
compartía con el conductismo el interés por la utilización de métodos científicos más rigurosos
y potentes que la introspección. Los instrumentos de análisis científicos todavía no estaban al
alcance de los psicólogos de la Gestal, y fue este fracaso lo que puso fin a la misma.

Por ultimo la obra de Freud domino el campo desde el primer momento. La perspectiva
freudiana era auténticamente revolucionaria. Freud afirma que toda conducta humana tenía su
origen en algo que le había sucedido con anterioridad al paciente. Este enfoque intenta
describir los mecanismos que subyacen a los sentimientos y emociones humanos.

Hacia 1950 se produjo un cambio, había nacido la nueva era electrónica y con ella el
ordenador. A finales de los años cincuenta, la psicología estaba recibiendo influencias de tres
fuentes diferentes. En primer lugar, empezó a sentirse el impacto de los ordenadores. Los
ordenadores podían al hacer muchas cosas que también hacían los humanos: aprender,
almacenar, manipular y recordar información, y además también utilizaban un lenguaje,
resolvían problemas y razonaban.

En segundo lugar, en el campo de la lingüística se estaba operando un alejamiento de las


posiciones y teorías conductistas y un acercamiento al análisis de las estructuras subyacentes
a la comprensión y producción de emisiones. La tercera fuente fue el impacto cada vez mayor
de la obra de Piaget. En estos tres enfoques había un interés convergente por la descripción
de procesos y estructuras cognitivas internas.

En 1956 Bruner, Goodnow y Austin proporciona una interpretación cognitiva de las estrategias
de aprendizajes de conceptos, en ese mismo año Miller publicó un articulo que acelero el
desarrollo del modelo de procesamiento de información. En 1960 aparece otro libro donde la
idea fundamental era que la conducta es generada por un conjunto de tests y procesos
mentales aplicados al medio. El humano se transforma de un ejecutor pasivo de respuestas en
un procesador activo de información.

Hacia 1967 Neisser publicó un primer manual de psicología cognitiva, la idea fue proponer un
modelo general de procesamiento de información compuesto por un conjunto de almacenes de
memoria y de procesos diferenciado. La contribución de este libro consistió en demostrar que
era posible estudiar procesos mentales internos.

En la actualidad lo más interesante es la aplicación de nuevas técnicas de la psicología


cognitiva a problemas antiguos.

 Los instrumentos de la psicología cognitiva.


1 Análisis de los procesamientos de la información: El primero de estos instrumentos cabe
denominarlo <modelo de procesamiento de la información>. Este modelo se basa en la idea
que los humanos somos procesadores de información: la información penetra a través de
nuestros sentidos; gracias a una operación mental modificamos esta información; luego
aplicamos otra operación que vuelve a modificarla, y así sucesivamente hasta que llegamos a
un resultado disponible para su almacenamiento en la memoria o para generar una conducta.
Este modelo alude a diferentes operaciones (o procesos) de lo que hace uso una persona en
una determinada situación.

2 Análisis de procesos cognitivos: Esta técnica de análisis consiste en elegir una tarea
individual como la división de números con bastantes cifras; observar a una persona como
resuelve el problema y preguntarle sobre lo que hace; analizar el proceso en pequeñas partes
consistentes en procesos y decisiones y después confrontar el modelo de proceso que se ha
construido con la conducta humana real. El modelo procesal de la tarea estudiada (en este
caso dividir números de muchas cifras) podrá describirse en la forma de un programa de
ordenador.

3 Análisis de estructuras cognitivas: Este tipo de conocimiento es haciendo uso de las técnicas
analíticas de la psicología cognitiva que es el conocimiento verbal, el conocimiento sobre
algún tema concreto. Estas técnicas analíticas consisten en elegir algún fragmento informativo,
presentárselo al sujeto en forma de párrafo que debe leer o escuchar, y después plantearle
preguntas sobre la información presente en ese fragmento. El paso siguiente es confrontar
este modelo estructural con la actuación real del sujeto.

4 Análisis de estrategias: Esta relacionado con la investigación de las técnicas que utilizan las
personas para controlar los distintos fragmentos de información que poseen. En general, los
psicólogos cognitivos han intentado descubrir las estrategias que usan las personas
preguntándoles problemas complicado, pidiéndoles que los resuelvan en voz alta, intentando
hacer una descripción de las estrategias que utilizan y después contrastando el modelo de la
estrategia con la actuación humana real.
Angel Rivière. El sujeto de la Psicología Cognitiva.

Capítulo 2: “El procesamiento de la información y el sujeto de la psicología cognitiva”

Es en la perspectiva del paradigma del procesamiento de la información donde son más débiles los
supuestos sobre el sujeto cognitivo. Estrictamente, el marco sólo especifica que éste es
descriptible en términos de procesos computacionales, pero esto no equivale a una definición de la
arquitectura del sistema. En el articulo seminal de Newell, Simon y Shaw, estas suposiciones se
limitaban a la idea de que el sistema cognitivo puede asimilarse a una “maquina de manipulación
de símbolos” y varias memorias interconectadas. El supuesto subyacente era el de que la
maquinaria natural de manipulación de símbolos podía asimilarse funcionalmente a los sistemas
artificiales de procesamiento de la información. La noción de un procesador central de propósitos
generales permitía mantener un esquema débilmente articulado de la arquitectura del sistema
cognitivo: el sujeto se asimilaría con un procesador de la información multipropósito, en que sería
posible la implementación de cualquier clase de algoritmos, con la condición de ser
“procedimientos afectivos”.

De igual modo que los sistemas digitales multi-propósito cuentan con un conjunto de algoritmos
generales independientes, que admiten cualquier clase de datos formalmente compatibles con su
estructura, estos modelos han partido de la idea implícita de que es posible estudiar aisladamente
algoritmos secuenciales, independientes entre sí, que constituirían explicaciones funcionales de
procesos cognitivos aislados. La consecuencia ha sido el desarrollo de “mini-modelos”, que son
mas modelos de tarea que de sujeto, y que tienen una generalidad muy limitada, ofreciéndose
implícitamente “un modelo de sujeto bastante semejante a un paquete de software de utilidades,
compuesto por programas difícilmente articulables”.

A pesar de la debilidad de los supuestos sobre la arquitectura funcional del sujeto de esta
investigación, lo cierto es que si nos ha permitido comprender mejor la “arquitectura” o las formas
de organización del conocimiento; los conceptos de “esquema”, “marco”, “guión”, asociados a esa
fase wagneriana de la inteligencia artificial, han pasado a formar parte de las explicaciones
cognitivas de las funciones “menos encapsuladas”
La consideración anterior nos permite entender un rasgo muy importante de la “segunda
generación” de las teorías cognitivas del paradigma de procesamiento de la información: la
propensión a ser cada vez mas molares, a establecer modelos de organización del conocimiento.
En suma, a reconvertir el problema de organización del sujeto en un problema de organización del
conocimiento. Los esquemas, guiones y marcos son expresión de este movimiento, que se ha
traducido por un interés cada vez mayor por el tema de la estructura de la Memoria a largo plazo.

El concepto de Máquina Universal de Turing implica la idea de una manipulación formal de


símbolos, que no está sometida a restricciones o leyes físicas o biológicas. Mientras que el sistema
artificial del procesamiento tiene que cumplir una sola demanda, con recursos energéticos muy
altos, el organismo está sometido a múltiples demandas, con recursos energéticos limitados. La
dinámica relacionada con la limitación, distribución y optimización de tales recursos puede ser tan
pertinente como para obligar a una ampliación del modelo explicativo dominante, que tendría que ir
mas allá de la consideración de la mente como una “maquina de manipulación de símbolos” e
incluir aspectos relacionados con el funcionamiento dinámico del organismo, cuyas imposiciones al
funcionamiento mental podrían ser más altas de lo que presupone el axioma cognitivo clásico de
total independencia entre software y hardware.

El sujeto construye progresivamente su propia arquitectura funcional. Transforma formas de


organización de conocimiento en formas de organización de sujeto. Diferencia progresivamente
una arquitectura especifica a partir de mecanismos mas o menos globales e inespecíficos.

Para comprender el proceso de construcción de una arquitectura funcional, es preciso señalar


algunas limitaciones clásicas del paradigma de procesamiento de la información:

 La reducción de las explicaciones de la conducta a términos micro-genéticos, y el relativo


desinterés por la macro génesis.
 La reducción de la micro-génesis de la conducta a computaciones discretas sobre
representaciones analíticas y discretas.
 El relativo desinterés por los procesos de aprendizaje.
 El supuesto axiomático de que la arquitectura funcional del sujeto está prefijada y debe ser
fundamentalmente innata.
 La suposición de que las distinciones general-modular, automático-controlado y
encapsulado-cognitivamente penetrable son dicotómicas, en vez de expresar dimensiones
graduables, según las funciones, su contexto de adaptación, el momento de desarrollo y un
amplio conjunto de variables individuales y situacionales.

Si el sujeto construye, hasta cierto punto, su arquitectura funcional, modularizando funciones y


liberando recursos generales, para poder adaptarse a un medio cultural cuya complejidad no se
puede limitar de antemano (mediante procesos por los cuales el aprendizaje se convierte en
desarrollo), ello significa que podrá situar sus decisiones sobre la base de niveles cada vez mas
molares de conocimiento, prescindiendo del conocimiento de los propios recursos de atención y
memoria.

El modelo de Atkinson y Shiffrin permitió integrar teóricamente un amplio conjunto de datos sobre
ese sistema de memoria y constituyo la primera formulación explicita de su arquitectura: las
“estructuras de memoria”, constituidas tanto por “el sistema físico como por los procesos de
carácter estructural, y que son invariantes y fijos de unas situaciones a otras”. Es decir:
consideraban necesario establecer una cierta “estructura fija” de las memorias, que delimitaría
realmente una arquitectura invariante del sujeto cognitivo, y unos límites de competencia a sus
posibilidades de tratamiento de la información.

Lo que hacen los teóricos del procesamiento de la información es asignar los límites de
competencia del sujeto al único sistema funcional que parece demarcar esos límites dentro de su
marco teórico, que es la memoria a corto plazo.

La otra fuente de limitaciones que incluye este modelo se origina en los procesos de atención. La
atención no se concibe en términos de un filtro selectivo o atenuado, sino más bien como un
sistema de asignación de recursos de libre disposición o de disposición condicionada por la
organización del sistema cognitivo, o como un sistema de canales múltiples.

En síntesis, los supuestos más generales sobre la estructura del sujeto cognitivo en este
paradigma son: hay un procesador central multipropósito, una memoria permanente, cuyos límites
de competencia no son conocidos, y una memoria de trabajo, que establece serias limitaciones al
sistema como un todo.
Capitulo 5

La génesis del Sujeto y la Estructura de la acción en la obra de Piaget

Para encontrar una teoría general del desarrollo del sujeto cognitivo independiente del "paradigma
duro-2 de procesamiento de la información, nos referiremos al "sujeto epistémico" de Piaget, y al
paradigma del estructuralismo genético desarrollado por la escuela de Ginebra. La posición de
Piaget se define por caracterizar al sujeto en términos de estructuras de sus acciones
virtuales, es decir de las acciones externas o interiorizadas que es capaz de hacer: que entran en
los límites de su competencia.

En el caso de la arquitectura funcional del sujeto se asimila a la forma de organización de sus


acciones. Y esta organización no es fija, sino variante, de forma que delimita una competencia
adaptiva cada vez más poderosa. Las acciones se definen por sus relaciones en estructuras de
conjunto, a la que debe asimilarse el medio para ser "comprendido".

Cuando hablamos de la arquitectura funcional del sujeto en el esquema explicativo de Piaget,


debemos diferenciar con claridad los dos aspectos del concepto: hablar de la arquitectura del
sistema cognitivo, por una parte, y de lo funcional, por otra. Porque el componente funcional es
precisamente el que no varía en el desarrollo del sujeto como ser capaz de conocer. Las funciones
de la inteligencia son siempre las misma y constituyen en realidad una prolongación de funciones
biológicas más elementales. Lo que se modifica es precisamente la arquitectura, la estructura que
permite realizar esas funciones. Entonces encontramos estructuras variables y funciones
invariantes.

Piaget define unas funciones invariantes de adaptación y organización, cuya dinámica permitiría
explicar el desarrollo de "arquitecturas operatorias", es decir de estructuras de operaciones cada
vez más poderosas, reversibles y móviles. El modelo ejemplar de Piaget es el de la evolución
orgánica, el del organismo, que ofrece la imagen de arquitectura variable para funciones fijas,
porque, como dice Piaget, " la vida es una creación continua de formas cada vez más complejas y
un equilibrio progresivo entre estas formas y el medio". La inteligencia crea formas funcionales, que
no implican ya una incorporación material del medio al organismo, sino una asimilación de lo real a
las estructuras de acción del sujeto.

Desde el punto de vista del conocimiento, lo real se construye como resultado de la asimilación del
mundo a sus acciones. Por otra parte, en la medida en que estas acciones tienen que acomodarse
a las propiedades objetivas de las cosas para ser adaptativas, sufren transformaciones que dan
lugar a coordinaciones cada vez mas adaptativas, sufren transformaciones que dan lugar a
coordinaciones cada vez más equilibradas, a estructuras de accione que son cada vez más
capaces de cumplir las funciones invariantes de adaptación y organización. Dice Piaget que las
formas de las acciones superan, en riqueza y fecundidad, a las formas de lo real.

Dice Piaget " la lógica es la axiomática de las estructuras operatorias de las que la Psicología y la
Sociología del pensamiento estudian el funcionamiento real", ello significa que es posible definir en
terminos lógicos la arquitectura operatoria de los sujetos, estableciendo así los límites de su
competencia. Podríamos describir la visión de Piaget del desarrollo como una explicación del
origen de la necesidad en la contingencia, de cómo nacen las necesarias normas de la razón que
piensa sobre lo posible de las acciones contingentes que transforman lo real. Cuando decimos que
Piaget propone una descripción del desarrollo; a saber: no trata de estudiar cualquier forma de
conocimiento, sino justamente aquella que le permite al sujeto ser "racional" en el sentido más
clásico del término, es decir en el sentido logico-matematico de él. Lo que trata de explicar es, la
génesis de la razón. Por ello, no es extraño que reduzca la definición del sujeto cognitivo a la del
sujeto racional.

El desarrollo cognitivo puede definirse por la génesis de arquitecturas logico-pragmaticas cada vez
más poderosas, o de forma estrechamente solidaria con la anterior, por una expansión progresiva
de lo real, desde el momento en que esas arquitecturas configuran mundos reales en el desarrollo
sensorio motor, que luego son comprendidos, de forma cada vez más poderosa, en términos de
propiedades y relaciones invariantes, y finalmente, como realizaciones especificas de los mundos
posibles que puede crear la arquitectura operatoria del sujete lógicamente competente.

En la medida en que las estructuras de acción son cada vez más equilibradas, lo real es cada vez
más estable para el sujeto.

La posibilidad misma de diferencia un mundo real representado y la diferenciación del sujeto


cognitivo resultan de las estructuras de la acción. Estas estructuras, al tiempo que definen al
sujeto, confirman lo real en niveles cada vez más altos de equilibrio, y permiten abstraer rasgos
invariantes cada vez mas "profundos", es decir menos dependientes de las variaciones.

Cuando situamos este enfoque en el contexto de nuestra explicación general de lo que es la


Psicología Cognitiva, nos damos cuenta de que su peculiaridad consiste precisamente en
identificar los "tres términos" que hemos empleado en esa definición: formas de organización del
sujeto, del conocimiento y de la acción. Lo que define al sujeto es, justamente, el modo en que
organiza sus acciones y sus estructuras de conocimiento son resultado de esa organización.
Conocer, es en realidad, hacer. Las estructuras sensorio motoras y operatorias definen conjuntos
de transformaciones que permiten abstraer a los objetos mismos, o sus propiedades y relaciones.

En suma, una de las tendencias mas características de la investigación de Ginebra es la


inclinación a mostrar que el recuerdo, la imagen, las propias formas lingüísticas dependen en
último término de una competencia operatoria global, acentuando hasta el extremo la influencia de
ese sistema que Fodor definía como "isotrópico" y "quineano", y la determinación de lo especifico
por lo general, de lo inferior por lo superior.

En relación con lo anterior, suele establecerse como diferencia esencial entre la psi. genética y el
modelo de procesamiento de la información, el hecho de que en aquella la acción precede al
pensamiento, mientras que en esta es el pensamiento el que antecede a la acción.

Guy Cellerier nos dice " la psicologia genética tiene como objeto el estudio de lo que llamaremos la
transformación epistémica: la construcción del conocimiento a partir de la acción, es decir la
reconstrucción de las etapas intermedias de este proceso, y la inferencia del mecanismo de
transformación de la acción en conocimiento". La psicología del procesamiento de la info. tiene
como objeto "describir como son controladas las acciones por la representación interna de su
entorno que posee el organismo", Cellerier, denomina esto transformación pragmática del
conocimiento en acción.

Queda por explicar el proceso de la transformación epistémica, es decir el proceso que permite la
generación de estructuras más poderosas a partir de otras mas débiles. Piaget (1970) destaca el
papel de los factores clásicos del desarrollo, como la maduración biológica, la experiencia física o
la influencia social, en este desarrollo. Pero esos factores no explican, por si mismo, el mecanismo
de transformación epistémica, ya que este se realiza en términos de "equilibración maximizadora",
que deriva de la naturaleza esencialmente autor regulatoria de la acción adaptativa. En la medida
en que las estructuras " que son formas de autorregulación" son sometidas a desequilibrios,
originados en la resistencia de los objetos a ser asimilados, tienden a re-estructurarse en formas
más poderosas e inclusivas, por recombinación de estructuras previamente existentes, o
construcción de formas nuevas. EL desarrollo del modelo de equilibrarían es uno de los aspectos
más complejos de la teoría de Piaget, al que preocupo hasta sus últimos años.

Podemos decir que los factores del desarrollo contribuyen a modificar la arquitectura funcional del
sujeto cognitivo a través de un mecanismo de equilibrarían, esto quiere decir que tales factores no
determinan esencialmente la forma de organización de esa arquitectura, aunque puedan modificar
el ritmo de su construcción. En otros términos, hay un vector inmanente de construcción cognitiva,
sobre el que los factores exógenos de desarrollo pueden ejercer una función activante, pero no
formante. Pueden contribuir a acelerar o decelerar el proceso de desarrollo, pero no determina la
forma de las estructuras que se construyen en ese proceso.

Por eso emplea Piaget el concepto de "creodas" para referirse al desarrollo epigenético. Las
creodas son "trayectorias canalizadas de desarrollo". En el caso de las estructuras cognitivas, la
canalización se explica por el hecho de que las leyes causales que explican el desarrollo, con
arreglo a un modelo de causalidad circular, se entrañan en las misma naturaleza, con arreglo a un
modelo de causalidad circular, se entrañan en la misma naturaleza, a un tiempo autor regulatoria y
abierta, de las estructuras y los esquemas cuyo desarrollo tratan de explicar.

De ahí proviene la concepción "vectorial" del desarrollo que mantiene Piaget. No hay a prioris
estructurales en el desarrollo, pero si funciones a priori, cuya dinámica es suficiente para explicar la
trayectoria canalizada de la construcción de la inteligencia. Establece la necesidad de atribuir una
veccion al desarrollo de la razón.

Un punto concreto que constituye una de los limites más notables y que nos permitirá remitirnos a
una concepción fundamentalmente diferente del desarrollo y el sujeto cognitivo, es el limitado papel
que tiene los factores de la cultura e influencia social en la definición de esa "veccion" del
desarrollo. Aun cuando aceptemos que la concepción piagetiana permitiera dar el salto de la micro
génesis a la macro génesis de las funciones del conocimiento, permitiendo establecer una génesis
constructiva, lo cierto es que seguimos teniendo la impresión de que no hemos salido del todo del
encierro solipsista al que parece condenada la Psi. Cognitiva en sus paradigmas mas elaborados.
Piaget, habla del conocimiento como producto de una interacción, pero de hecho restringe
fundamentalmente esa interacción a la relación entre el sujeto y los objetos físicos, en la acción
sobre el mundo físico y no en la interrelación con el mundo social. Como hemos visto este juega un
papel activante, pero no formante, no es el mundo social el que define la forma de la arquitectura
de la razón, sino la razón misma.

Es obvio que resulta difícil dar cuenta de las profundas y difusas influencias de la interacción y la
cultura cuando el modelo de sujeto aspira a parecerse a los sistemas artificiales de procesamiento
de la información. Al fin y al cabo, los ordenadores no están en presencia, de nuestras mentes,
sino de nuestros datos y algoritmos.
Teoría del Procesamiento de la Teoría de Piaget Teoría de Vigotsky
Información

Definición de Sujeto: Sujeto procesador, Definición de Sujeto: Es el sujeto Definición de sujeto: El sujeto está dotado
maquina de manipulación de símbolos y epistémico, que construye el de una CC semiótica la cual esta
varias memorias interconectadas. Esquema conocimiento a partir de la acción, que se contextuada en un origen interactivo, es
débil de la arquitectura del sistema corresponde al paradigma estructuralista decir habla de un sujeto consiente e
cognitivo. El sujeto se asimila a un genético. interactuante. Corresponde al paradigma
procesador de información multipropósito. Socio- Histórico- Cultural. Este es
Sujeto paquete de software de utilidades. Caracteriza al sujeto en término de las sencillamente mudo con respecto a las
Corresponde al Paradigma del estructuras de sus acciones virtuales, es formas que no son ni estructuras, ni
procesamiento de la información. decir, por acciones externas interiorizadas organizaciones funcionales del cerebro.
que es capaz de hacer entrar en los límites Con respecto a su definición destacamos
Noción de estructura: las estructuras son de su competencia. Piaget la reduce (a la que:-En primer lugar tiene categoría de
fijas y los procesos son variables. El modelo definición) a la de sujeto racional, en consciencia. En segundo lugar su CC se
contiene un procesador central de sentido lógico matematico. Haciéndose define por su estructura semiótica. En
propósitos generales conectados a dos o este en término de estructuras de Tercer lugar: Sujeto escasamente formal,
más memorias. Y otra fuente general de acciones donde hay operaciones (acciones carente de definición lógica, gramatical,
limitación se origina en los procesos de interiorizadas irreversibles) que expresan computacional. Por último, el sujeto se ha
atención. La arquitectura (esquema, el nivel de equilibrio adaptativo que modelado con procedimientos lejanos a
marcos y guiones asociados de la IA), alcanza el sujeto en su relación con el nuestro método experimental.
tiende a ser mas molar, a reconvertir el medio y desarrollo.
problema de organización del sujeto, en un Noción de estructura: Sus estructuras y
problema de organización de Noción de Estructura: las estructuras son procesos son móviles. La unidad de
conocimiento. Los esquemas, guiones y móviles y los procesos fijos. La construcción de la arquitectura funcional
marcos son expresión de este movimiento arquitectura funcional del sujeto se de la consciencia es la actividad misma:
que se han traducido por el tema de la asimila a la forma de organización de sus una actividad no concebida simplemente
estructura de la memoria a largo plazo. acciones. Para hablar de estructura como una respuesta o un reflejo, si no
funcional se debe diferenciar dos como un sistema de transformación del
Concepción de Aprendizaje: el sujeto aspectos, primero hablar de arquitectura medio con ayuda de instrumentos.
constituye progresivamente su propia del sistema cognitivo, y por otro lado de lo Regulación de la propia conducta y la de
arquitectura funcional. Trasforma formas funcional. Las funciones de la inteligencia los demás a través de signos que median
de organización de conocimiento en siempre son las mismas, lo que se esas relaciones. Estos signos tienen un
formas de organización del sujeto. Hay una modifica es la arquitectura, la estructura origen cultural y al mismo tiempo una
transformación pragmática. Diferencia que permite realizar esas funciones. función instrumental de adaptación. La
progresivamente la arquitectura especifica consciencia humana es contacto social con
a partir de mecanismos más o menos Concepción de Aprendizaje: desde el
uno mismo. Se trata de un modelo de
globales e inespecíficos. punto de vista del conocimiento, lo real se
arquitectura variable en la ontogénesis
construye como resultado de la
pero cuya forma está definida
Influencia del contexto socio- cultural: no asimilación del mundo a sus acciones.
precisamente por la interacción y la
lo plantea. Ya que se considera al sujeto Conocer para Piaget es en realidad hacer.
cultura.
desde la analogía mente-ordenador. Para conocer los objetos el sujeto tiene
que actuar sobre ellos y por consiguiente Concepción de aprendizaje: Ley de doble
Limitaciones: no aborda el desarrollo del transformarlos. formación: toda función en el niño aparece
aprendizaje y deja de lado la emotividad.
dos veces: primero a nivel social y más
Reducción de las explicaciones de la Influencia del contexto socio-cultural:
tarde a nivel individual, es primero
conducta a términos micro genéticos. habla de conocimiento producto de una
interpsicologico y después
Relativo desinterés por la macro génesis. interacción, pero de hecho restringe esa
intrapsicologico.
interacción entre los sujetos y objetos
físicos y enraíza la forma de la razón, las Influencia del contexto socio-cultural: la
estructuras operatorias, en la acción sobre forma de regulación son formas de
el mundo físico y no en la interrelación relación. De modo que la sociedad y la
con el mundo social. cultura no tienen simplemente un papel
activante de estructuras endógenas de la
Limitaciones: el modelo de sujeto aspira a razón si no una función formante, esto
parecerse a los sistemas artificiales del Pr. implica una tendencia a cierto relativismo
De Info. Esto hace difícil dar cuenta de las cultural. (Investigación de Moscú).
influencias de interacción y cultura.

Nicky Hayes.

Capitulo 1: ¿Qué son los procesos cognitivos?

Toda interacción humana tiene lugar a muchos niveles, y si intentáramos comprender todo lo que
sucede, tendríamos que considerar cada uno de ellos. En esta parte lo que interesa es la
cognición, entender que esta sucediendo a nuestro alrededor. La cognición tiene que ver con el
pensamiento y la comprensión: es el estudio de cómo funciona la mente.
A continuación se expondrán los cincos niveles cognitivos:

El proceso cognitivo de la percepción tiene que ver con captar lo que esta ocurriendo a nuestro
alrededor, identificar las figuras y las características del ambiente. Y lo que se esta observando
esta dentro de lo esperable a observar de cualquier “situación”.

Ahora bien cuando dicha “situación” ya no es lo esperado es cuando el sujeto comienza a estar
mas atento, empieza a captar activamente lo que esta sucediendo y este proceso cognitivo se
conoce como atención.

Posteriormente cuando uno piensa en ello, en lo que acaba de suceder, implica poner en juego su
conocimiento previo y su comprensión general de la “situación”. Esto se conoce como, proceso
cognitivo del pensamiento. Pero a demás, uno no tan solo piensa en ello sino que también lo
recuerda, y hace hincapié al proceso cognitivo de la memoria ya que uno tiene un conocimiento
sobre lo que ha sucedido y puede hacer interpretaciones del mismo.

Por último, al contar la “situación” esta haciendo uso del lenguaje

Y para ello se buscan las palabras que expresaran su pensamiento y se elegirán las que cree que
evocaran mejor la “situación” de cómo uno percibió la misma.

MEMORIA

Sobre la definición del término “memoria”

El termino memoria refiere a la capacidad de recordar eventos o informaciones pasados. Abarca


toda una serie de procesos además del acto de recordar.

Está implicada en todos los procesos mentales. La memoria interviene en las formas o modos en
que las personas incorporan y organizan la información que recibe del mundo exterior y de ellas
mismas, en la manera en que esta información se interpreta, combina, almacena, olvida o recupera
y por ultimo influye también en como las perdonas instrumentan esta información.

La memoria no es necesaria solamente para recordar sino también para la percepción, la atención,
el lenguaje, la comprensión y el pensamiento.
Antecedentes históricos de la psicología cognitiva de la memoria.

LA TRADICION DE EBBINGHAUS: El estudio experimental de la memoria humana comenzó en


1879. Hermman Ebbinghaus, impresionado por la aplicación del método experimental al estudio de
la sensación, decidió utilizar el mismo método en el estudio de la memoria.

La reacción ortodoxa de los nuevos psicólogos experimentales frente a esta imposibilidad, fue la de
evitar por completo el tema de la memoria.

Ebbinghaus utilizo silabas sin sentido, trigramas formados por una consonante, una vocal y una
consonante. De este modo pretendía evitar que el sujeto emplease sus conocimientos previos en
la tarea de la memoria.

Este esfuerzo de Ebbinghaus por estudiar la memoria “pura”, es similar al de Titchener .

Las preguntas que intento responder Ebbinghaus fueron principalmente dos: ¿Con que rapidez se
aprende la información? Y ¿con que rapidez se olvida la información? Tanto la taza de aprendizaje
como la taza de olvido fueron estudiadas por Ebbinghaus utilizando un método ideado por el:
METODO DEL AHORRO.

EL ENFOQUE DE BARLETT : En opinión de Barlett Ebinghaus y su escuela ni siquiera consiguen


plenamente su objetivo de control, pues la simplificación del estimulo no conlleva la simplificación
de las espuestas. Hata las silabas sin sentido generan asociaciones particulares en los sujetos.
Los sujetos realizan un esfuerzo por encontrar un sentido en quellos materiales que no los poseen
, leen por ejemplo , CAS y lo asocian con CASA. Realizan un trabajo adicional de dar significado al
material que no lo posee, por lo cual, el material con poco significados, entonces, en lugar de
simplificar la tarea, situaría al sujeto frente a un sujeto a una tarea de aprendizaje especialmente
compleja.

La memoria en la vida real se trata de un proceso constructivo, en el que se entremezclan las


propiedades del material de aprendizaje, el conocimiento convencional del mundo y los factores
contextuales.

Barlett intento demostrar que, este material con significado tambirn podía estudiarse en el
laboratorio.

Bartlett en sus experimentos utiliza historias, fragmentos de prosa, dibujos y jeroglíficos de la


cultura indio-norteamericana, para investigar la retención de material con significado. Su método
experimental más característico fue el de la REPRODUCCION SERIAL, en el que un mismo sujeto
debía intentar recordar el mismo material en varias ocasiones.

Según Bartlett , la modificación más importante que tiene lugar con el transcurso del tiempo
consiste en una reproducción progresiva de la historia y una tendencia a hacerla cada vez ,as
coherente, desde el punto de vista del sujeto. Describe algunas de las formas características de
tales modificaciones:

1. Omisiones.
2. Racionalización
3. Detalle dominante
4. Transformación de los detalles
5. Cambio de orden
6. Importancia de la actitud del sujeto

Barlett acudió al concepto de esquema para referirse a la imagen o modelos corporales


que nos informan de la posición relativa de nuestros miembros. Expandió más el concepto
y sugirió que todo nuestro conocimiento del mundo se compone de un conjunto de
modelos o esquemas basados en la experiencia pasada. Cuando intentamos aprender
algo nuevo, basamos nuestro aprendizaje en los esquemas existentes. Cuando estos
entran en conflictos con los que intenta recordar, aparecen las distorsiones.
El recuerdo incluye un componente importante de construcción: utilizamos lo que
retuvimos, junto con nuestros esquemas pre existente, al intentar recrear al original.

II EL MODELO MULTICOMPONENTE
Luego del aporte fundacional de ebbinghaus el estudio experimental de la memoria fue dominado por la
escuela de aprendizaje verbal y por ahí por El conductismo la escuela produjo una gran variedad de técnicas
experimentales y una enorme masa de datos empíricos pero casi ningún desarrollo teórico.

El conductismo, Por otra parte no estudio directamente a la memoria sino Sólo como un aspecto del
aprendizaje por condicionamiento.Recién en la década de 1950 con el advenimiento del paradigma cognitivo y
sobre la base del modelo del procesamiento de la información tiene lugar la aparición del primer paradigma
teórico de la psicología de la memoria : el modelo multicomponente.

Este modelo que considera la memoria como un sistema de componentes interrelacionados no es una idea
totalmente nueva ya Williams en mil nove cientos había distinguido dos tipos de memoria que es llamo
memoria primaria y memoria secundaria. La primera se refiere a las representaciones de los eventos que
acaban de ocurrir y que durante un tiempo breve son directamente asequibles a nuestra conciencia formando
lo que se llama el presente psicológico. La segunda se aplica a los contenidos de nuestra memoria que no
encuentran en nuestra conciencia y que requieren de ciertos esfuerzos para hacerse conscientes.

broadbent en 1958 presentó un modelo de atención en el cual distingue dos tipos de memoria la memoria a
corto plazo y la memoria a largo plazo principalmente hay que referirnos a los conceptos de estructura
procesos y representaciones las estructuras son los componentes relativamente estáticos del sistema en el
modelo multicomponente que veremos a continuación se distinguen tres estructuras de memoria la memoria
sensorial la memoria a corto plazo y la memoria a largo plazo que poseen propiedades funcionales
específicas relativas al tipo de información que amas que almacenan la capacidad de almacenamiento la
persistencia temporal de la información y el formato simbólico de la información.

Los procesos se refieren a la actividad del sistema de este punto de vista Dinámico distinguiremos una serie
de operaciones que se realizan con la información, la información ingresa, Se almacena, se retiene ,Se
pierde, se recupera, se reconoce ,se analiza ,se codifica y recodifica etc . nos referimos por último las
representaciones es decir a la estructura simbólica de la información que existe en nuestra memoria, nos
preguntaremos desde este nivel de análisis Cuál es el formato que adquiere la información en el sistema de la
memoria.

Descripción de un modelo multicomponente

Cuando un estímulo físico apropiado llega a un órgano sensorial se origina lo que llamamos un input
sensorial, este input sensorial Recibe un procesamiento elemental a nivel periférico y se registra en la
memoria sensorial, la memoria sensorial registra una imagen muy detallada de la información que llegó al
órgano durante unas fracciones de segundos. La información en la memoria sensorial no es afectada por el
guiado conceptualmente es decir por las expectativas y el conocimiento previo el sujeto es una copia fiel de la
estimulación sensorial casi como una fotografía debido que la memoria sensorial conserva todos los detalles
se considera que su capacidad para retener información es ilimitada y debido a que la información no ha sido
todavía afectada por las categorías del sujeto se dice que la memoria sensorial es un registro pre categorial.

En un segundo lugar la información se trata adversa a un dispositivo que turbe y denomina selección y
categorización en el cual la información es analizada hasta ser reconocida y una porción es seleccionada para
pasar a un almacén de capacidad limitada la memoria a corto plazo.

En tercer lugar la información seleccionada por el dispositivo anterior se trasvasa y almacena en la memoria
corto plazo la memoria corto plazo puede retener una cantidad limitada de información durante unos cuantos
segundos en la memoria corto plazo a diferencia de la memoria sensorial la información ya fue afectado por
las categorías del sujeto en la etapa anterior y por lo tanto ya no es una copia fiel del estímulo sino que está
interpretada y posee significado para el sujeto .

Por último la información de la memoria a corto plazo puede trasvasarse aunque no siempre a un dispositivo
de capacidad y persistencia ilimitadas : la memoria largo plazo, la información que alcanza dicho almacén
permanece habitualmente en estado desactivado Y sólo se activa por las demandas de una tarea o situación
determinada y activación tiene lugar en el espacio de la memoria a corto plazo Lo que implica un pasaje de
información desde la memoria a largo plazo hacia este mecanismo .

Memoria sensorial

IR AL TEXTO.

Teorías del olvido de la información de la memoria largo plazo

Para poder recordar un determinado item de información desde la memoria a largo plazo es necesario que
dicho item haya sido almacenado, que haya sido retenido en la memoria a largo plazo y que pueda ser
recuperado.Si no podemos recordar un ítem diremos que lo hemos olvidado, el olvido entonces puede
deberse a fallas en una o varias de estas tres etapas las teoría del olvido, se diferencian en parte por el
énfasis relativo que dan a estas tres etapas de la explicación del olvido, algunas ponen el peso sobre todo en
la segunda etapa el almacenamiento otras la como la teoría del olvido motivado y la teoría de la recuperación
consideran en cambio, que las causas del olvido están relacionados sobre todo con la primera y la tercera
etapa almacenamiento y recuperación.

Teoría del desuso

Según esta teoría el aprendizaje deja una huella o en grama en el cerebro que al no reiterarse por sucesivos
reaprendizaje va sufriendo los efectos naturales del metabolismo con el paso del tiempo está continua erosión
acaba por borrar la huella cerebral correspondiente el recuerdo y el olvido se produce es una teoría análoga
respecto al olvido de la memoria a corto plazo con el nombre de teoría del deterioro temporal.

Aparentemente la pérdida de información que sufren nuestros recuerdos con el paso del tiempo de un cierto
crédito a esta teoría, sin embargo muchos fenómenos químicos la contradicen con frecuencia los ancianos
recuerdan con toda viveza acontecimientos en su juventud a la par que olvidan lo que acaban de hacer un
momento antes motores como la natación , andar en bicicleta que no se olvidan prácticamente jamás aun
cuando dejen de practicarse durante décadas unos recuerdos desaparecen ciertamente con el transcurso del
tiempo , mientras otros permanecen invariables a lo largo de la vida. Es evidente que el recurso el mero pasó
el tiempo y la erosión metabólica de las huellas no basta para explicar este tipo de fenómenos.

Teoría de la huella de la Gestalt

Esta hipótesis era una aplicación de sus principios basados en la percepción de la forma a la memoria y su
confirmación experimental se redujo principalmente a la memoria de forma . Se predecía que la huella de
memoria de una forma cambiaría progresivamente con el tiempo hacia una figura mejor más regular y
simétrica , por ejemplo en uno de los primeros experimentos destinados a comprobar la hipótesis Presenta
una serie de dibujos abstractos a los sujetos y pasado cierto tiempo le pido que lo reprodujeran.

Según GUIPSON durante la retención actuaron Dos procesos : un proceso de agudización que exagero
algunos rasgos de conjuntos y un proceso de nivelación qué uniforme regularizó otro.

Lla principal crítica a experimentos como Estos y otros similares es que es posible que pensar que la
transformación no se debe a cambios espontáneos de la huella durante la retención sino a una categorización
en el momento de aprendizaje es posible explicar estos cambios por un proceso de rotulación durante el
proceso de la figura. los sujetos reprodujeron una flecha no porque durante el intervalo de retención hayan
actuado procesos Desde que deformaron la huella sino porque el momento que recibieron la figura la
categorizaron como flecha este explicación del fenómeno es conocida como hipótesis de la rotulación.

Car Michelle kogan wolter en 1932 intentaron probar la hipótesis de la rotulación utilizando una serie de
dibujos ambiguos a la mitad de los sujetos se le presentaban titulados con las palabras de la lista 1 y a la otra
mitad con la palabra de las listas 2 la reproducción de los dibujos fue claramente afectado por el título. Los
sujetos titulan mentalmente las imágenes y en esta categorización la que deforma la figura en el momento del
almacenamiento titular o rotular mentalmente no es algo diferente de la formulación de hipótesis y
categorización.

TEORIA DE LA INTERFERENCIA IR AL TEXTO

Las teorías del olvido motivado

Suponen Cierto recuerdos porque su acceso a la conciencia provocaría graves conflictos en el sujeto,en virtud
de este proceso de rechazo de los recuerdos inaceptables se establecen Amnesia selectiva que afectan
solamente aquellas zona de la memoria cuya actualización susitaria conflicto.

La teoría que más ha desarrollado esté enfoque del olvido es la teoría psicoanalítica.El olvido es un tema
central en la teoría psicoanalítica de Freud .

GLUCKSBERG Y KING desarrollaron un experimento sobre olvido motivado utilizando asociaciones remotas
de palabras. Los sujetos recibían, en primer lugar, una lista de pares de una sílabas sin sentido y una palabra.

En segundo lugar, recibirían una lista de palabras que incluia asociados remotos de las palabras aprendidas,
alguno de los cuales iban acompañados Por un choque eléctrico por ejemplo las palabras Guerra y olor.

En un tercer lugar se administró a los sujetos una prueba de retención de los pares iniciales, los resultado de
estas pruebas mostraron mayor olvido de aquellas palabras cuyos asociados remotos habían sido
acompañados Por el choque aun cuando éstos últimos se recordaban perfectamente. Este experimento
demuestra un fenómeno análogo al de la represión en el ámbito de laboratorio.

No queda ninguna duda en la psicología cognitiva actual que los factores motivacionales juegan un rol muy
importante en la explicación del olvido Pero también es bastante Claro que las variables motivacionales sí
solas sólo pueden explicar una fracción muy pequeña de todos los Olvidos es un error extender la teoría del
olvido motivado y suponer que todos los Olvidos pueden ser explicados por factores motivacionales.

Teoría de la recuperación

Esta teoría postula que la principal causa del olvido en la memoria a largo plazo se debe a la imposibilidad de
recuperar la información almacenada la versión más extrema de esta teoría sostiene que toda la información
que se almacena en la MLP permanece intacta : ninguna información se pierde, todas las experiencias y todos
los conocimientos que hemos aprendido existen en algún lugar de nuestras memoria.

Esta diferencia es un apoyo a esta teoría: si podemos reconocer muchas mas información de la que podemos
recordar, significa que la cantidad de información DISPONIBLE es muy superior a la ACCESIBLE. Pero esta
diferencia entre reconocimiento y recuerdo no es , sin embargo, suficiente información de la MLP. Las
investigaciones que si podrían, quizá, justificar esta hipótesis son las que realizo el neurocirujano canadiense
WELDER PENFIELD en 1952.

A , B , C de PENDFIEL LEER DEL TEXTO ¡!


Juan Ignacio Pozo Municio. Aprendices y maestros.
Capítulo 5: LA ESTRUCTURA DEL SISTEMA COGNITIVO.
La representación del conocimiento: los sistemas de memoria.

La conducta no puede ser un reflejo directo de los estímulos sino de la forma en que se procesan y
transforman. El interés por las representaciones y la forma en que los sistemas de conocimiento las
adquieren, almacenan y recuperan ha supuesto un retorno a la cultura de la memoria, pero en un
sentido diferente al tradicional. En la nueva sociedad de la información y la representación, la
memoria resurge como una forma de reconstruir o imaginar el mundo más que de registrarlo o
reproducirlo. Conocer es siempre recordar, pero no lo que fuimos o supimos, sino lo que somos y
sabemos ahora. Estamos dotados de varios sistemas de memoria interconectados, los cuales si
bien guardan una cierta analogía con el funcionamiento de otros sistemas artificiales de
conocimiento, es la mente humana el sistema de representación más completo, complejo y versátil
que conocemos.

FIGURA 5.1

El análisis de la mente humana como sistema de conocimiento y aprendizaje puede realizarse en


varios niveles de descripción o explicación diferentes. Habría un primer nivel fisiológico en el que
podrían analizarse las estructuras cerebrales que sustentan la memoria y el aprendizaje. Hay un
nivel cognitivo, en el que podemos analizar los procesos psicológicos mediante los cuales cambian
nuestras representaciones. A su vez, ese nivel cognitivo, puede subdividirse en otros niveles de
análisis diferentes. Cada uno de esos niveles ofrecería un mapa de la estructura cognitiva humana,
desde las redes neuronales a los sistemas de memoria, y desde estos a la conciencia reflexiva y la
interacción social. El nivel adecuado aquí es el de la adquisición y recuperación de
representaciones en la memoria, que suele ser el nivel estándar, la versión clásica de cómo
funciona el sistema cognitivo humano. Según esta versión, la arquitectura básica de la mente
humana consistiría en dos sistemas de memoria interconectados, con características y funciones
diferentes: una memoria de trabajo (durante cierto tiempo llamada memoria a corto plazo) y una
memoria permanente (o memoria a largo plazo); también existiría un tercer sistema de memoria
más elemental, de carácter sensorial, cuya función estaría ligada mas a la percepción y el
reconocimiento de los estímulos

Como un ordenador personal al uso, disponemos de un “espacio de trabajo”, con una determinada
capacidad, en el que activamos (o cargamos) programas para procesar o elaborar información que
puede provenir de “fuera” del sistema (el teclado) o del propio sistema, mediante la recuperación
de información contenida en un almacén o sistema de memoria más permanente.

FIGURA 5.2

La memoria de trabajo (Baddeley)

La memoria de trabajo puede considerarse como un proceso funcional de distribución de recursos,


muy cercano a lo que conocemos por atención. Sería nuestra mesa de trabajo, en la que debemos
disponer todas las herramientas y materiales necesarios para construir nuestro conocimiento.

A) Un sistema de capacidad limitada

Un trabajo de George Miller estableció que la amplitud de la memoria de trabajo, en las


personas adultas con una memoria normal, ronda los siete elementos independientes de
información. Se sabe también que esa capacidad aumenta con la edad y el desarrollo
cognitivo: aumenta un ítem o elemento cada dos años, hasta alcanzar el techo en torno a los
15-16 años con esos siete elementos. La limitación en la capacidad de la memoria de trabajo
es uno de los rasgos más característicos del sistema cognitivo humano y uno de los que más
influye en nuestras dificultades de aprendizaje.

Según Baddeley la memoria de trabajo está compuesta por tres subsistemas especializados en
funciones distintas. Un primer sistema, llamado “lazo articulatorio” sirve para procesar la
información de naturaleza esencialmente fonológica, por lo que su interrupción, bloqueo o
sobrecarga durante la realización de tareas como la lectura o adquisición de vocabulario
producirá una merma considerable de aprendizaje. Un segundo subsistema, una “agenda
visoespacial”, está especializado en procesar información de naturaleza espacial.

Por último, un tercer subsistema, el “ejecutivo central”, ejerce el gobierno del sistema de
memoria, ya que su función es gestionar y distribuir los recursos cognitivos disponibles,
asignándolos a los otros subsistemas o a la búsqueda de información relevante en la memoria
permanente. Dado que es el sistema responsable del control de los recursos cognitivos, lo que
conocemos habitualmente como procesos de atención, su bloqueo reduce notablemente la
efectividad del aprendizaje en muchas tareas, especialmente en aquellas que requieren
comprensión, solo posible mediante una activación selectiva de conocimientos almacenados
en la memoria permanente. También el aprendizaje afecta a la utilización que se hace de la
memoria de trabajo. Una de las funciones del aprendizaje humano es precisamente
incrementar el “espacio mental” disponible, no aumentando la capacidad estructural de la
memoria de trabajo, sino su disponibilidad funcional para tareas concretas (utilizando mejor los
escasos recursos disponibles, organizando mejor la mesa de trabajo, etc)

B) Un sistema de duración limitada

La memoria de trabajo tiene una segunda propiedad o función cognitiva: sirve de almacén
transitorio de la información, por lo que también se la conoce como memoria a corto plazo. Esa
información que esta siendo procesada activamente en un momento dado, la que tenemos
sobre nuestra mesa de trabajo, se retiene durante unos segundos. Por ej: el precio del libro
que vamos a pagar. La memoria humana sufre un apagón cada diez o veinte segundos,
dependiendo no solo de la naturaleza y cantidad del material de aprendizaje, sino de lo que
hayamos hecho entre tanto. Las operaciones de almacenamiento son mucho mas complejas
que las del ordenador. El tránsito de la información desde la memoria de trabajo a la memoria
permanente esta mediado por un conjunto de procesos de adquisición (o aprendizaje). La
esencia del aprendizaje humano reside ahí: que secuencia de operaciones o procesos realiza
nuestro sistema cognitivo para incorporar una información que está siendo procesada a
nuestro bagaje más o menos permanente de conocimientos, hábitos, emociones, etc., y como
podemos intervenir de modo deliberado o intencional sobre esos procesos para hacerlos más
eficientes, de forma que lo que aprendamos sea más duradero y se recupere con más facilidad
y flexibilidad cuando nos sea útil. Prácticamente todo lo que aprendemos pasa por nuestra
memoria de trabajo pero se requiere además, que la información acceda a ese otro sistema de
memoria mas permanente.

La memoria permanente

Se concibe como un sistema casi ilimitado en capacidad y duración. La cantidad de


información de todo tipo que conservamos en nuestra memoria es inabarcable.

Y aunque olvidamos con frecuencia lo que hemos aprendido o vivido, podemos aprender
porque olvidamos: porque nuestra memoria permanente está organizada para cumplir una
función selectiva, que nos permite reconstruir nuestro pasado y aprendizajes anteriores en
función de nuestras metas actuales. Nuestra memoria es un sistema dinamico que revive y
reconstruye lo que hemos aprendido hasta llenarlo de sentido.

Cuando recuperamos aprendizajes anteriores solemos distorsionar el recuerdo por diferentes


procesos: selección (recordando solo los aspectos esenciales y olvidando o deformando los
restantes), interpretación (recordamos no lo que sucedió, sino lo que creemos que sucedió), e
integración (ese aprendizaje de combina a nuestra memoria con otros aprendizajes anteriores
y posteriores, alejando nuestro recuerdo cada vez mas de la situación real de aprendizaje).

A) Olvidar para aprender

El olvido es también un mecanismo adaptativo de nuestro sistema cognitivo, que está


vinculado con el propio funcionamiento de la memoria y no con posibles límites en su
capacidad. La memoria humana no solo sirve para representar y recordar lo aprendido sino
también para olvidarlo cuando deja de ser útil. Las teorías de la memoria destacan dos
explicaciones principales para el olvido: según un primer mecanismo, que podemos traducir
por el desvanecimiento de la huella, el tiempo simplemente borra las huellas de memoria.

La teoría de la interferencia plantea que olvidamos porque nuevos aprendizajes vienen a


depositarse sobre los anteriores, borrando y difuminando su recuerdo. Nuestro aprendizaje se
ve deformado por una interferencia proactiva (o hacia adelante) en la que todo nuevo
aprendizaje se asimila y somete a la fuerza de aprendizajes anteriores; pero también hay una
interferencia retroactiva (o hacia atrás) donde los nuevos aprendizajes modifican los anteriores.

La idea de la memoria permanente como un sistema dinámico debe hacernos concebir el


olvido como un producto de la interacción entre conocimientos, más próxima a la teoría de la
interferencia. Todo nuevo aprendizaje modifica nuestra memoria al tiempo que es modificado
por ella, ya que los resultados de ese aprendizaje modifican la probabilidad de activar o evocar
otros conocimientos anteriores, al tiempo que se modificados por su conexión con otras
unidades de conocimiento activas.

B) La organización de la memoria

Los indicios o estímulos externos nos sirven como pista para facilitar la recuperación de lo
aprendido, haciéndolo más duradero. Si queremos evocar un recuerdo o conocimiento
debemos almacenar esos aprendizajes de forma ordenada. El rasgo más relevante de nuestra
memoria permanente es su organización. Muchas teorías suponen que gran parte de nuestro
conocimiento sobre el mundo estaría “empaquetado” en forma de conceptos, esquemas, que
se encajarían, como en una red semántica, de forma jerárquica, unas en otras, en forma de
arboles de conocimiento. El significado de un concepto dependería de sus relaciones con el
resto de los elementos que componen esa red semántica.

Adquirir el conocimiento de forma organizada, como un sistema explícitamente relacionado, en


vez de cómo unidades de información yuxtapuestas, produce un aprendizaje más eficaz y una
recuperación más frecuente y probable.

La conexión entre ambos sistemas de memoria a través del aprendizaje

La conexión entre ambas memorias multiplica sus posibilidades y nos hace capaces de realizar
las más complejas tareas y diseñar los más eficaces sistemas de “culturales” de amplificación
de nuestra memoria limitada. Hay tres mecanismos básicos de conexión entre los sistemas de
memoria que permiten ampliar la potencia representacional del sistema, haciendo posible
aprendizajes complejos. Se trata de la condensación de chunks o “piezas” de información, a
partir de unidades más elementales, la automatización de conocimientos de forma que su
activación apenas consuma recursos cognitivos y la atribución de significado a la información
mediante su conexión con conocimientos ya existentes en la memoria. Lo que tienen en común
estos tres mecanismos es utilizar los conocimientos almacenados en la memoria permanente
para hacer más eficaz el procesamiento de la información que accede a la memoria de trabajo.
Al unir distintos elementos en una misma pieza de información se reduce la demanda cognitiva
de la tarea. La automatización permite ejecutar sin apenas consumo atencional tareas que
producían gasto, liberando los recursos de la memoria de trabajo para hacer en paralelo otras
tareas. Y por último la búsqueda del significado de las tareas, permite seleccionar y controlar
de manera mas adecuada y estratégica la realización de las tareas y modificar esas
estructuras de memoria evitando que queden obsoletas.
GUSTAVO E. GONZALES.
Temas de psicología cognitiva: PENSAMIENTO

I- Delineación del concepto “pensamiento”. Dos encuadres posibles:


a) pensamiento como discurrir de la consciencia. b) pensamiento como solución de
problemas.

¿Qué es el pensamiento? ¿De qué manera funciona nuestra mente cuando resolvemos
problemas? ¿Cómo razonamos ante una situación problemática? ¿Somos racionales al
razonar? ¿Por qué a medida que vamos creciendo nuestra capacidad para pensar eficazmente
se va acrecentando?

Estas son preguntas muy generales y básicas pero que sin embargo ponen en aprieto al
científico dado que obligan a hacer un resumen integrador, coherente y actualizado. Resulta
aún más difícil en el tema de pensamiento dado que no hay respuesta correcta y concisa
respecto a estos interrogantes, pero no obstante el científico no debe dejar de preguntarse,
plantearse y replantearse los mismos.

¿Qué es el pensamiento? Este interrogante viene acompañado de la dificultad que tenemos de


describir y explicar este fenómeno. Dichas dificultades están fundamentalmente planteadas por
la gran cantidad de aspectos que en general están connotados cuando hablamos de
pensamiento en psicología.

Dos comentarios antes de empezar el tema:

 Distinción entre dos ámbitos de investigación: Psicología del pensamiento y Psicología


cognitiva: No siempre la psicología cognitiva estudio al pensamiento, la atención de los
psicólogos cognitivos estuvo centrada en procesos más básicos como percepción, atención,
memoria. Fue a finales de la década del 60 que comenzó el interés por el abordaje de procesos
cognitivos más complejos. Puede establecerse una diferencia entre lo que seria los diferentes
desarrollos de la Psco Cognitiva y los específicos de la psicología del pensamiento (ejemplo: el
conductismo). Por lo tanto los dos términos no son sinónimos, la psicología cognitiva revitalizo
los estudios de procesos intrapsiquicos pero esta no fue pareja respecto a los estudios de la
psico del pensamiento.

 El estudio del pensamiento es fundamental para la comprensión del funcionamiento mental:


Considero que la manera en que enfocamos este tema no se verá otra vez en otras materias.
Hablaremos fundamentalmente de pensamiento consciente y, si bien haremos referencia a
aspectos inc. involucrados en los procesos de pensamiento nuestro énfasis estará en procesos
conscientes del pensar.

Comencemos con las diversas teorías acerca del pensamiento, de esta manera abriremos un
gran abanico de facetas que estarían dando cuenta de procesos de pensamientos diferentes.
Advertiremos que nos falta aún una teoría unificada que explique de una manera integradora a
la interrelación que tienen estas distintas facetas.

Dijimos que trataríamos de contestar la pregunta: ¿Qué es el pensamiento? Partiremos de


considerar dos ámbitos en los cuales utilizamos dicho término ya que existe una marcada
dicotomía en la comprensión y el entendimiento del término:

 Ámbito del discurso diario: usamos con frecuencia el término pensamiento y no es algo
que produzca ni confusión ni perturbación en la comunicación. No habría nada incierto
en este ámbito sobre el significado del término.
Ejemplos de expresiones del término:

1) Pienso que ya es hora de irnos.


2) Me da temor pensar en cambiarme de escuela
3) Lo hice sin pensar.
4) Pienso que lo que dijiste antes se contradice con lo que decís ahora.

En estas oraciones cortas podría distinguirse connotaciones muy diferentes del término
pensamiento. Todas estas, a pesar de sus diversas maneras en la que se utiliza el
termino pensar, no nos llegan a confundir. Esto es así por que en el discurso diario el
término pensamiento se lo utiliza como termino-condensación que incluye distintos
conceptos al mismo tiempo y consecuentemente, denotaría una pluralidad de procesos
intelectuales. Pues esta condensación no nos perturba porque existe un sentido
común que nos permite entendernos no ambiguamente a través de estas expresiones.
Será el mismo contexto el que le va a dar un determinado significado u otro.
Pero si atendemos detalladamente al lenguaje diario nos toparemos con utilizaciones
mucho más complejas del termino pensar. Ya que como se puede ver que se le
podemos atribuir al mismo diversos significados, presentándose con una gran
ambigüedad y pluralidad.
Ejemplo:

“El lunes estaba leyendo el Clarín deportivo y en la crónica sobre el triunfo de


boca, el periodista afirma que Boca es un equipo que tiene mucha garra, mucho
empuje; pero al cual no se le puede pedir que piense”

En esta frase podría entenderse que el equipo no tiene estrategia o planificación o una
táctica adecuada, que le permita desarrollar juego más atildado y eficiente.
Adviertamos que a pesar de la utilización metafórica del termino la connotación
que se puede descubrir a través del análisis interpretativo está asociada con un
aspecto muy importante del pensamiento como lo son los conceptos de
estrategias, planes o tácticas para resolver problemas.

 Ámbito del discurso científico: es un concepto fundamental en ciencia psicológica y


como tal es objeto de investigación y teorización. Es en este donde los distintos
significados atribuidos al término nos causan perturbación para comprenderlo y sobre
todo para poder abordarlo. Es tan abarcativo, complejo y, tal vez, poco definido que
torna difícil la tarea de hallar la metodología adecuada para estudiarlo.

Ante lo dicho la pregunta que se desprende es: ¿Cómo encarar un estudio científico acerca del
pensamiento? ¿Cómo superar los problemas que trae su naturaleza enigmática?

La respuesta que ha dado la ciencia psicológica a este problema ha sido estudiar


aisladamente cada una de las facetas que estaría involucrada en este concepto. Es por eso
que encontramos diversas líneas teóricas fragmentando el estudio del pensamiento.
1) Una de las líneas más importantes dentro del abordaje de este tema es el que
considera al pensamiento como un intento de solución de problemas que se
desencadena a partir de una situación problemática que el sujeto percibe como tal, y
que le hace poner en funcionamiento determinados procesos cognitivos tendientes
a solucionarla.
Cuando hay falta de información (“a ver, espera un minuto, déjame pensar”),
aparentemente se produce una detención de la acción que da lugar a una reflexión; a esto
se lo suele denominar detención motora que da lugar al pensamiento.
En esta perspectiva, el pensamiento se lo considera un ensayo mental más o menos
consciente, cuya intencionalidad es la de resolver (a nivel simbólico o concreto) una
situación problemática.
Por mi parte (Gonzales, autor) considero esta perspectiva como limitada, puesto que deja
afuera del concepto “pensamiento” un sinnúmero de fenómenos y procesos que no están
relacionados con el intento de resolver problemas; es decir, no presentan una
intencionalidad productiva o adaptativa. No siempre el pensamiento está dirigido a metas
específicas. Ejemplo: libre asociación de ideas, fantasía diurna, cuando miramos por la
ventanilla del colectivo mirando el paisaje, etc.
Vemos que esta propuesta del pensamiento como actividad dirigida a la solución de
problemas es limitada, pero que no debemos de dejar de considerar que es un encuadre
verdaderamente importante puesto que señala un conjunto de fenómenos psicológicos
fundamentales (los que si tienden a la solución de problemas y están dirigidos
conscientemente)

Definiciones de pensamiento correspondientes a esta primera perspectiva:

 Gagne: proceso intencional, dirigido hacia una meta especifica y sobre el cual podría
postularse que está regido por determinadas reglas.
 Haber: Habla de acciones internas o implícitas en los procesos que se efectúan antes
de que la persona que está pensando ejecute.
 Piaget: Acción interiorizada, pero no se describe e intenta explicar esos procesos.
 Newel: Agente causal de la conducta. Distinguiendo conducta identificada
exclusivamente como respuesta motora o ejecución y los procesos cognitivos internos
de carácter intrapsiquico que tienen lugar en el sujeto y que serian los procesos
fundamentales causantes de dicha conducta.
 Enfoque del procesamiento de la información: Considera al pensamiento como un
proceso mental de manipulación y transformación de símbolos. Esa manipulación y
transformación de símbolos se hará, según dicho enfoque, de acuerdo a determinadas
reglas. Los seres humanos cuando piensan siguen determinadas reglas. Así la gente
cuando habla un lenguaje sigue reglas formales gramaticales, utiliza también reglas
formales cuando piensa. Esta sería la tarea de la psicología, indagar esas leyes.
(Primer aporte del P.I)
El esquema estructural del procesamiento de la información distingue tres
componentes:
1. Unidad de Memoria
2. Unidad de procesamiento.
3. Mecanismo de entrada y de salida.

Este esquema permite describir de manera mas clara el compromiso existente entre
pensamiento por un lado y memoria por el otro. Además conceptualiza a la unidad
procesadora como la encargada de realizar todas las operaciones y transformaciones,
de acuerdo a las reglas dadas por el programa y utilizando como base los datos
disponibles en la memoria y los datos que entren. Esta unidad procesadora seria
asimilable al pensamiento reglado propiamente dicho.
De manera separada se describen los mecanismos de la unidad de memoria, los que
están referidos a la manera en que se registra, se almacena y se recupera la
información, y en donde se conceptualiza una memoria permanente, que servirá
eventualmente para una comprensión de los mecanismos actuales en los procesos
mnémicos humanos.
No existe una regla fija respecto de cuál sería el punto optimo entre cantidad de
almacenamiento y cantidad de procesamiento. Existe si un compromiso entre ambas
funciones que determinara algo fundamental: la estrategia que se ha de seguir para
aprender.

 Gonzales propone una definición compuesta tomando los rasgos distintivos presentes y
que sea lo más abarcativa posible para que permita la mayoría de los fenómenos.
Pensamiento es:

1. Un proceso complejo con múltiples facetas.


2. Un proceso sustancialmente interno que implica representaciones simbólicas de
eventos y objetos no presentes en la realidad inmediata
3. Su función es generar y controlar la conducta inmediata.
4. Constituye un ensayo mental más o menos consciente, dirigido a metas
específicas y tendientes a solucionar problemas y adaptar al individuo a su
medio.
5. El pensamiento humano puede ser entendido como un proceso de
manipulación y transformación de símbolos, de acuerdo a determinadas reglas
formales.

Sin dejar de valorar la contribución verdaderamente importante de esta perspectiva,


hemos afirmado que restringe arbitrariamente el horizonte de comprensión del estudio
del fenómeno.

2) Pensamiento como discurrir de la consciencia es el segundo enfoque correspondiente. En


este enfoque tomaremos la definición de pensamiento de Cohen el cual nos dice que:

“El pensamiento es una derivación mental de elementos mentales. La concatenación de


esos elementos constituye lo que se denomina procesos cognitivos, algunos de los cuales
serán controlados, mientras que habrá otros que son descontrolados o desordenados”

Para Cohen el termino pensar se refería a las cogniciones que tienen lugar en los juicios,
en la solución de problemas, en el razonamiento, pero también se refería a los procesos
cognitivos que dan lugar a la fantasía, la creatividad, la libre asociación de ideas, la
imaginación y los sueños.

Por último Neisser expone que el proceso del pensar no siempre esta coordinado hacia
una meta en particular y sigue algún plan estratégico. Señala que la psicología, ha
reconocido dos formas de modus operandi, dos modos de funcionamiento de la
organización mental: Racional VS Intuitiva; Lógica VS Pre lógica. Evidentemente no son
analogables entre si pero hay un hilo conductor que pasa por todas ellas. Hay
pensamientos que son deliberados, eficientes y dirigidos hacia metas que los percibimos
como auto controlados. Pero también hay otra avidente que generalmente la vivenciamos
como involuntaria. Para referirse a esta actividad Naisser utiliza una sentencia de
“Simplemente sucede”. Este segundo tipo de organización mental no está motivada de la
misma manera que lo está el pensamiento racional orientado conscientemente. Mas
dirigida hacia una meta parece estar dirigida hacia una emoción.

Las distintas facetas del pensamiento que nosotros hemos discriminado y que aparentemente
presentan una separada de la otra, en definitiva están siempre presentes en cada conducta del ser
humano. Pensemos que no se puede considerar a este proceso psicológico complejo bajo una
sola óptica. Adoptemos una óptica integrativa, la cual nos servirá para ir intentando formular una
manera integrativa de ver estos distintos aspectos.

V- Resolución d Problemas: Aportaciones Históricas del Conductismo y d las Teorías


Gestalticas.
Definición y Clasificación de “Problema” por su grado de Definición, por su Estructura.

el campo de investigación sobre la solución de problema comienza a desarrollarse y a establecer


un área de jurisdicción propia a partir de los estudios de un grupo de investigadores de la Escuela la
Gestalt, gracias a estudios d Wertheimer sobre el pensamiento productivo; Kohler, con sus clásicas
investigaciones con chimpancés y Dunker con sus importantes aportes respecto a cuales son los
factores que inciden en la comprensión y solución de un problema, se valorizo la indagación de los
procesos que llevan a la solución de un problema + que la solución en sí.
Los trabajos pioneros de Thorndike (entre 1898 y 1911) estudio las conductas d escape d gatos
encerrados en jaulas d madera. La tenía una particular visión d como sus gatos aprendían a escapar
de las jaulas: brevemente consideraba q los gatos se enfrentaban a una situación (escapar de la
caja) para la cual no tenían una respuesta d solución en su repertorio d conductas. X lo tanto dicha
situación constituía un problema para el gato: tenia q alcanzar una meta, escapar, pero no disponía d
una conducta o serie d conductas q lo llevara exitosamente a dicho objetivo. Luego sostuvo q el
animal en un principio realiza una búsqueda x ensayos y error, hasta que x casualidad alcanza, x
1era vez, la solución al problema, en este caso: tirar d la cuerda que levantaba la puerta d la jaula.
Cuando se lo volvía a encerrar, el gato llevaba cada vez + rápido a tirar d la cuerda, es decir, q en
sucesivos ensayos el tiempo requerido para escaparse decrecía gradualmente. Thorndike concluyo q
el comportamiento del gato podía ser explicado a través d un esquema bastante simple: en un 1er
momento el gato alcanza la respuesta x puro azar, pero como esta respuesta (tirar la cuerda) es
recompensada con la escapada, el gato tendera a repetirla en el prox ensayo. La recompensa,
refuerza ciertas vías neuronales y este refuerzo, determina q el animal consolide un nuevo repertorio
de conductas, es decir, q disponga d nuevos hábitos para nuevas situaciones.
D este conjunto de experimentos el autor derivo sus principios del aprendizaje deduciendo 2 leyes
fundamentales:
a) La Ley del ejercicio: que postula que cuando una determinada situación le sigue frecuente// una
cierta respuesta o grupo de respuesta el vínculo entre E-y R se torna + fuerte x la ejercitación. Esta
ley se compaña d la Ley del Desuso x la cual se consideraba q la falta de asociación entre E-R
debilita dicha relación.
b) La Ley del Efecto: la cual hace referencia a q la simple unión o asociación entre E y R x sí sola,
sin una gratificación, no lleva al aprendizaje. Es decir, q, cuando una respuesta o grupo d respuestas
conducen al éxito o satisfacción, la conexión entre estímulos y respuestas se ve reforzada. Si no hay
gratificación la conexión se debilita.
La ley de efecto o reforzamiento, le sirve d base a la ley d ejercicio, dado que para que se dé un
aprendizaje hay q ejercitar una particular o especifica relación entre E y R q ha sido gratificada x ser
la correcta. En consecuencia, la ley del efecto subraya las conexiones que deber repetirse.
“Cualquier comportamiento que sea reforzado, dice Thorndike, queda estampado y cualquier
comportamiento que no sea recompensado o castigado queda suprimido”. Y por último “cd u animal
encuentra una solución a una situación problemática, no hay xq suponer q el animal tenga alguna
comprensión del problema, sino q esto puede explicarse d una manera totalmente mecánica”
Ahora bien, se les han hecho críticas a estas experiencias de Thorndike principalmente x 2
razones: 1er lugar, xq se trata d una teoría q no tiene en cuenta el objetivo y en 2do lugar, se trata d
una teoría del aprendizaje q no tiene en cuenta al $. Es decir, se trata d una teoría mecanicista xq
todo esta llevado a ser interpretado sobre un molde explicativo E-R ¿q es lo q hace y xq lo q hace el
gato en la caja? Jamás lo explico.
Kolher criticó duramente que no se les permitía a los animales q hicieran un relevamiento
perceptivo d la situación, dado q los mecanismos q los llevaban al escape estaba ocultos. Entonces
era el mismo diseño del experimento el q provocaba mov descontrolados, aparentemente sin sentido,
de ensayo y error.
Es decir, q la situación planteada actúa como un “colador”: el animal arroja una serie d
movimientos, en ningún momento se propuso llegar a ese objetivo, solo quería liberarse. Y Thondike
xa explicar esta conducta tuvo q recurrir a una explicación según la cual una sucesión d mov se veía
reforzada a posteriori, cuando el gato al salir d la caja se encontraba con el alimento, luego d varios
días d dieta. Pero el animal era un espectador del refuerzo, d sí mismo y no el actor. El actor era el
refuerzo y la situación era el colador. Y el objetivo no era tal objetivo, el objetivo era lo q aparecía
cuando se abría la puerta, pues lo q le interesaba en la medida en q había una dieta previa era solo
el alimento, el premio. D esta forma el objetivo no era anterior a la conducta, sino aquello q satisfacía
a posteriori una conducta emitida, una necesidad fisiológica.
Esta explicación en su totalidad es totalmente mecanicista: no hay situación en cuenta, no hay
objetivo en cuenta, no hay sujeto en cuenta. Y en cuanto a la Dimensión temporal, la ley de ejercicio,
la ley d efecto están implicando q el futuro, lo q va a pasar, está condenado a ser inevitablemente
igual a lo q paso. Y esto es típico del mecanicismo. D este modo, este esquema explicativo E-R en
progresivas reducciones suprime al $. El esquema E rayita R (E-R) implica un vacío en esa rayita. Si
ahora referimos a las teorías del conductismo clásico, al ámbito de lo humano diremos q este
esquema E-R suprime fundamentalmente al “yo” como agente ejecutivo y causal d la conducta. Y
esta supresión ha dejado muchas cosas atrás: el conductismo logro una psicología desde un punto d
vista no psicológico, ya q ha dejado a la psicología sin $ real y concreto, sin un $ q actúa, q tiene
propósitos y q muchas veces se conduce con arreglo a los mismos.
X último, otra falacia, tal vez + grave del pensamiento conductista, sea el haber querido extrapolar,
sin +, los principios del aprendizaje en animales como esquema explicativo del aprendizaje en
humanos. Justamente Thondike decía que no era necesario suponer q el gato “sorprendía” el
problema, en fin, no hay necesidad de suponer alguna entidad del tipo “inteligente” para explicar los
procesos de solución de problemas. Entonces podríamos decir q tampoco hay ninguna necesidad d
suponer q las conductas que el observo en los gatos tienen una estructura y mecanismo similar a las
conductas humanas complejas e inteligentes, q van mucho + allá d tirar d una cuerda o aprender a
recorrer un laberinto en busca d comida.
No obstante, a pesar de estas innumerables críticas, en su momento, supuso un cambio
revolucionario sobre todo a nivel de metodología de investigación.

Ahora bien, también, podemos considerar como un antecedente clave para el estudio de solución
de problemas, las investigaciones de los teóricos de la Gestalt. Más específicamente los estudios de
Kohler con chimpancés. Este investigador alemán desarrolla sus experimentos entre los años 1917 y
1926. si bien sus experimentos presentaban algunas similitudes con los d los conductistas, en el
sentido d q ambos trataban d observar como resolvían un animal determinadas situaciones
problemáticas, no eran similares las perspectivas teóricas sobre el pensamiento d la q partían Kohler
y los gestalistas x un lado y los conductistas x el otro. D modo q se diseñaron exp con características
diferenciales a pesar d tener un objetivo común.
En 1er lugar, Kohler parte d una crítica a q las respuestas q tenían q dar los gatos no pertenecían a
su repertorio habitual ya q los gatos no andan x la vida apretando botones o tirando cuerdas para
salir d jaulas. X lo tanto, los mecanismos q unían las palancas con la puerta d la jaula estuvieran
ocultos, d tal manera q se dejaba al gato sin posibilidad d percibir todos los componentes d la
situación problemática y ad+ los mecanismos eran demasiado complejos para q un animal los
descifrara. X eso este autor se propone estudiar el comportamiento del animal en situaciones lo +
próximas a lo natural, procurando ad+ plantear problemas q, supuestamente, tengan sentido para el
animal.
Estas exp son d gran simplicidad: se trata d colocar, x eje, algo en una situación en la q el
chimpancé tiene q dar un simple rodeo a alcanzarlo, o d colocarle alimento fuera d su alcance, pero
con elementos a su vista (2 palos) q el chimpancé deberá relacionar y utilizar d manera conjunta
(formando un solo palo + largo) para alcanzar dicho alimento.
Del conjunto d esos experimentos Kohler interpreto q el animal no emprende una búsqueda d
ensayo y error y x lo tanto, la solución no se alcanza x casualidad, sino q se trata d un
comportamiento inteligente, basado en la percepción d lo q se requiere para solucionar el problema
la respuesta d solución implica un Proc d Reorganización d los elementos del problema es decir, el
arribo a la solución involucra una comprensión estructural del problema, q incluye tanto1) la
comprensión d la función d cada elemento como, 2) la relación q existe entre todos ellos. Este autor
sostiene q el animal “se da cuenta” d q para alcanzar la banana tiene q unir los 2 palos,
produciéndose en la una reorganización Perceptual, reorganización del campo perceptivo,
estableciendo distintas relaciones entre los elementos presentes, x ej. los 2 palos y unir con la soga.
Cuando el animal llega a la solución es xq ha producido activamente dicha reorganización, a la que
Kohler denomina COMPRENSION SUBITA O INSIGHT: el animal no llega x azar a la solución del
problema
Estas conclusiones son claramente diferentes a las q llegaron los conductistas. D las diferencias
entre las concepciones conductistas y gestalitas pueden señalarse las siguientes.
En términos grales, y manera d síntesis, podemos afirmar q tanto el conductismo como la Gestalt,
les interesaba el Proceso mediante el cual aparecen conductas nuevas. Sin embrago, mientras que
los conductistas se centraron en la influencia d aquellos aspectos d las conductas q podríamos llamar
externas: recompensas o castigos; los gestalistas anticipándose a lo q seria la PC, se interesaron en
analizar los aspectos internos d la conducta, es decir, la elaboración d la información q realiza un $
xa q parezca la nueva conducta, esto es: xa q resuelva el problema. Además, otra diferencia d
fundamental importancia es q los gestalistas no admitían q la solución a un problema se produzca, en
1era instancia, x casualidad y luego se mantenga x reforzamiento, sino q afirmaban q el $ elabora
soluciones posibles al problema, concibiendo a las mimas como tales desde el 1er momento q las
utiliza.
Dos ideas principales son las que aportaron a los estudios actuales de solución de problema:
a) en 1er lugar, la utilización d modelos procesuales, es decir, la idea d q el pensamiento
procede x etapas o fases. Wertherimer y Duncker, consideraban q el $ procede desde la
formulación d planes grales hasta la búsqueda d soluciones a aspectos específicos
derivados d la aplicación d tales planes. Esta tendencia a analizar los procesos d solución
d problemas paso a paso debe recocerse como una d las influencias + claras d la Gestalt
sobre el actual enfoque del procesamiento d info. Cuandodo Kohler hablaba d
restructuración del campo perceptivo o comprensión súbita o insight incurriría en el error d
postular ciertos proc cognitivos sin estudiarlos d manera directa. Tales conceptos estaban
definidos vagamente y no lograban explicar los mecanismos internos q el $ usa cuando
resuelve un problema
b) En 2do lugar, otra contribución importante es la d haber señalado la importancia del
contexto. La comprensión d un proceso no puede explicarse al margen del contexto o
estructura gral en la que está inmerso. Afirmaban q los $ en función de lo que conocen de
cada situación tienden a formarse representaciones globales y, en consecuencia, la
introducción de cualquier elemento nuevo determina una reestructuración de lo q conoce.
Ahora bien, veamos la Perspectiva teórica contemporánea: La teoría del procesamiento d la
información:
Hay dos procedimientos posibles para estudiar las estrategias de resolución, a los tipos d
problema, que x lo gral, se utilizan y a los supuestos teóricos que se ponen en juego. Pero 1ero hay
que delimitar el área de estudio y definir los términos fundamentales.
En cuanto a la expresión “solución de problemas”, en un sentido laxo, se aplica a los gatos q
aprender a escapar de las cajas de Thornike, las ratas de Skinner que corren x un laberinto hacia la
comida, así como también, a los complejos razonamientos que realiza un psicólogo cuando
precisamente trata de explicar la conducta de dichos animales. Sin embrago, siguiendo los
lineamientos de los teóricos del procesamiento de la info, utilizamos este concepto solo en aquellas
tareas que demandan procesos de razonamiento relativamente complejos, es decir, refiriéndose solo
a aquellas actividades que involucren el desarrollo de cadenas inferenciales de cierta complejidad y
no meras actividad asociativas o rutinarias. Obviamente nos situamos en el ámbito d investigación de
solución de problemas en seres humanos.
La investigación de los procesos de solución de problemas es relativamente reciente, se
comenzaron a hacer estudios de manera + sistemática a partir de la década de los `60 y ad+ la
mayoría de estas investigaciones se han centrado en un determinado tipo de problema. Pero el
grado de complejidad y dificultad del problema q debe afrontar un ser humano es muy variable.
Algunos requieren solo unos cuantos minutos, mientras que otros demandan para su solución hasta
años. Es x esto que se hace difícil postular procesos grales o universales de resolución en el hombre.
Por problema se puede entender:
 Dunvker sostiene q “un problema se presenta cuando se tiene un objetivo, pero no se sabe
cómo alcanzarlo”
 Woodworth y Scholosberg expresan q: “existe un problema cuando la actividad de un $
tiene un fin, pero no encuentra un camino claro o bien aprendido para obtenerlo”
 Newell y Simon afirman q: “una persona se enfrenta a un cuando desea algo y no sabe la
forma inmediata, la serie d acciones q tendría q hacer para alcanzarlo”
 Hunt dice q: “existe un problema. si hay discrepancia entre estado del mundo q se percibe
y el q se desea”
Veamos; dos elementos comunes hay en todas ellas:
a) UN OBJETIVO, META O DESEO
b) EL DESCONOCIMIENTO DEL CAMINO A SEGUIR PARA SU CONCRECION.

Sin embargo, a pesar d este acuerdo, una gran variedad de tareas entra dentro de este concepto:
problemas de creatividad, de memoria, de deducción, inducción, etc. D modo, podemos asignar a
tareas sumamente diversas el rotulo d problemas, siendo muy posible ad+ q dichas tareas den lugar
a procesos mentales d resolución bastante distintos.
Sin duda no es lo mimos resolver un problema d memoria lógico o deductivo. En el 1er caso, el $
necesitara estrategias mnemotécnicas para recordar la info, mientras q en el 2do caso necesitara d
estrategias q le permitan arribar a conclusiones correctas a partir d un adecuado encadenamiento
lógico entre elementos datos. Y en cada caso la complejidad del problema variara d acuerdo a la
cantidad d elementos e interacciones q se pongan en juego.
La eficacia o eficiencia con la q un $ realice los procesos d resolución va a depender tanto del tipo
y complejidad del problema como d su capacidad para la resolución d los mismos. Es decir, no solo
las características del problema influirán en los procesos de resolución, sino q también, los rasgos
particulares d los $, tales como edad, seco, educación, nivel socio-económico, inteligencia, aspectos
emocionales d personalidad, etc.
Todo lo dicho señala con claridad que el campo de la resolución d problema, x + q lo delimitemos
al ámbito humano y nos pongamos d acuerdo en una misma definición, sigue siendo ampliamente
heterogéneo.
Como señala Allwood es notable como los investigadores tienden a sobre generar sus hallazgos y
a hablar de “resolución de problemas” en gral, aun cuando solo una variante especifica de un
problema ha sido investigado, además en relación con determinado tipo de sujetos. Para evitar,
entonces, caer en este tipo d errores se han intentado diversas clasificaciones o taxonomías de
problemas d tal manera d poder delimitar, a partir de las mismas, el área d alcance de cada
investigación.
Para realizar su taxonomía Bourne, Ekstrand y Dominowsk considerar los siguientes criterios:
 Grado de definición del Problema: estos pueden estar bien o mal
definidos. Un problema bien definido es aquel q tiene una meta claramente
establecidas, indicaciones precisas respecto d las operaciones q se
pueden realizar, d las q no se pueden realizar y en el que cualquier intento
d solución puede juzgarse, sin ambigüedad, como correcto o equivocado.
Es decir, poseen una meta concreta y una forma definida d evaluar si la
solución del problema, se ha realizado en la dirección correcta. X ej.,
silogismos, el problema de los Hobbits y Orcos.
En contraste, existen otros problemas en los q no hay una definición clara respecto d la cual sería
la solución, ni tampoco una especificación respecto d lo q el solucionador podría hacer, es decir,
una explicación d las operaciones licitas e ilícitas. En este caso, si la fuente no lo define, el $
solucionador lo va a tener q definir x sí mismo, esperando q sean aceptables, tanto su definición
como su solución; existiendo la posibilidad d q la solución sea juzgada como satisfactoria x algunos
y considerada equivocada x otros. En tal sentido, en problemas más definidos, una parte
importante d la tarea d la persona es definir el problema, con frecuencia en estos tipos de problema
se requiere o espera una Solución Creativa.
Ahora bien, la mayoría de los estudios se han realizado con problemas definidos. X lo tanto, la
mayor parte de lo q se sabe acerca de la solución de problema está relacionada con el logro de
soluciones en situaciones altamente especificadas y en las q los intentos de solución pueden ser
calificadas, confiablemente como correctos o incorrectos.
 Problemas d una o Más Soluciones: la mayoría d las tareas
experimentales que se han estudiado comportan solo una solución y la
tarea del $ es descubrirla. Sin embargo, en algunas investigaciones se le
pide al $ q produzca tantas respuestas como pueda; siendo la variable que
se evalúa, en este caso, el nº y la calidad de soluciones q produce. Parece
q para el solucionador, son bastante diferentes las estrategias que le
demanda la ejecución d una tarea que tiene una sola respuesta correcta
que aquella q le demandan situaciones en las que cualquier respuesta
puede ser correcta. En Gral., los problemas bien definidos admiten una
sola solución correcta, pero hay excepciones como x ej., la resolución de
anagramas.
 Selección o Producción de Soluciones: este cierto se refiere a si el$
debe producir, crear o construir las distintas alternativas de solución, x ej.,
como en el caso d los Hobbits y Orcos. O x el contrario, si deben elegir o
seleccionar la alternativa correcta d entre alternativas posibles que se
presentan. X ej. en el ejercicio evaluativo de múltiple Choise
 De Acuerdo a su Presentación: este criterio hace referencia a que los
problemas pueden estar presentados o bien en diferentes lenguajes,
abstracto, concreto, realista, científico, numérico, etc.; o bien, a través d
materiales concretos como x ej., el problema de la torre de Hanoi: el
material consiste en 6 disco de diferentes diámetros desde el 1 al 6 y 3
postes A, B y C. los discos están colocados, al comienzo del problema
todos en la torre A, ordenados en su diámetro desde el mayor quedando el
menor arriba. La tarea consiste en pasar todos los discos al poste C,
conservando dicho ordenamiento. Para realizar el pasaje hay una serie d
restricciones: solo puede pasarse d aun circulo x vez y jamás se puede
colocar uno d mayor diámetro sobre uno d diámetro menor. Para esto
también se puede usar el poste B. Como verán, este es un problema bien
definido, con una sola solución, en donde el $ debe producir la solución y
se presenta a través d un material concreto. Este problema, permite, dada
esta presentación, analizar las estrategias que adopten el $ a través de
cada mov q realiza con los discos. De esta manera, de acuerdo a este 4to
criterio, también se aprecian diferencias en las estrategias que el
solucionador emplea, ya que este factor incide sobre las estrategias d
resolución del $.
 Soluciones Nuevas o Antiguas: para solucionar algunos problemas solo
se requieren q el $ recuerde algunas cosas aprendidas con anterioridad.
Esto se llama solución al problema reproductivos. Se trata de problemas
de Memoria y, en consecuencia, demandan estrategias mnémicas:
En contraste, la solución de problema Productiva implica la reorganización e integración de
experiencias y conocimientos previos, los cuales hasta ese momento se encentran sin relación.
Aquí las soluciones son + complejas q en problema reproductivos, ya q son problemas q
demandan estrategias analíticas, lógicas, d deducción o creativas.
 De Acuerdo a su Estructura: distinguimos entre aquellos problemas q
presentan una Estructura Lógica, + o – complejas y aquellos otros q están
organizados de tal manera q no permiten q se postule una relación lógica
entre los elementos q lo constituyen. Ej. d estructura lógica tenemos el d
los caníbales y misioneros. Entre los q no tienen una estructura lógica
definida podemos destacar algunos problemas d memoria q impliquen
soluciones creativas x ej., los problemas sociales.

Dentro d este criterio ubicaremos la clasificación de Greeno q toma de Vega para presentar una
posible taxonomía d problemas:

a) Problemas de Transformación: aquellos q presentan una situación inicial, una meta u un


conjunto d operaciones posibles d realizar, q de efectuarlas en una secuencia correcta
permiten transformar el estado inicial en la meta. Estos involucran operaciones d
transformación son x ej., el problema d la torre d Hanoi.
b) Problemas d Inducción d Estructuras: son problema q demandan para su solución q el $
descubra analogías estructurales, es decir, formales y no d contenido; entre los problemas
q tengan dominios distintos. D modo, q lo q fundamentalmente se pone en juego en este
tipo d problema es la capacidad del $ para comprender relaciones d similitud, para realizar
analogías o realizar razonamientos inductivos. Dentro d esta topología Greeno distingue 2
tipo problemas: 1) analogías Verbales, 2) Inducción de estructuras complejas. X ej., hay un
test q se llama “De razonamiento Verbal”, q consta d 50 ítems, c/u d los cuales plantea
realizar un razonamiento análogo de este tipo: “cenar esa noche como desayuno es a…”
se debe completar la línea de puntos, esto va aumentado su complejidad.
c) Problemas d Ordenación: un ej. típico son los denominados problema Criptoaritmeticos.
Uno d los + estudiados son los d Lindsay y Norman: DONALD + GERALD= ROBERT /
D=5. el $ recibe estas 3 series d letras y el dato d q la D equivale a un 5, su tardea es
sustituir las letras x nº, d tal forma q una vez finalizado el reemplazo, la operación
aritmética d suma sea correcta. El problema consiste en descubrir q dígito debería ser
asignado a cada letra. Tb se le pide al $ q diga en voz alta todo lo q le está pasando
cuando intenta resolver el problema
En estos problemas de ordenación, el $ recibe una serie d elementos y su labor consiste
en reorganizar hasta alcanzar un determinado citerior, indicado x la propia fuente del
problema

Ahora bien, esta clasificación q propone Greeno, no es tampoco del todo clara, puesto q algunos
casos es difícil establecer la diferencia entre problema d transformación y ordenación. Incluso, el
último ejemplo, puede también clasificarse d problema d transformación.
Los problemas q pueden considerarse, con + propiedad d ordenación son los q han sido
estudiados x los gestalistas; problema en los q para su solución se requiere una Reorganizacion
Perceptual d los elementos. Dichos problemas han sido denominados “Problema d Insight d la
Figura”. O uno d los conocidos problema., llamado “problema d los 9 puntos”. En este caso, el $
debe unir los 9 puntos, a través d líneas rectas, pero sin levantar el lápiz d la hoja.

Antes d terminar con este 6to criterio (de Acuerdo a su Estructura), incluiremos una última
distinción puesto q también se refiere fundamentalmente a una diferenciación en cuanto a la
estructura d los problemas., aquella q discrimina entre problema con o sin incertidumbre. Esta
clasificación es d relevancia dado q nos permite realizar análisis descriptivos, d estrategias y estilos
cognoscitivos, muy diferentes según se trate d un tipo de problema o de otros.

PROBLEMAS CON CERTIDUMBRE PROBLEMAS CON INCERTIDUMBRE


El planteo del problema incluye: El planteo de Problema incluye:
*datos *datos
*Operaciones: licitas e ilícitas; y *Operaciones: licitas e ilícitas; y
*Meta explicita y Concreta. *Meta explicita y Concreta.
El planteo brinda la info necesaria y suficiente El planteo No brinda la info necesaria y
xa resolver sus incógnitas. suficiente para resolver sus incógnitas.
El $ a través d procesos puramente El $ debe ir en busca d la info faltante q
inferenciales podrá lograr la solución considere relevante. Solo a través d la
interacción entre búsqueda d info e inferencia
Ej.: Hobbits y Orcos o Caníbales y Misioneros. podrá lograr la solución.
Torre d Hanoi y los Criptoaritmeticos Ej.: Problemas de Rimoldi.

Hasta aquí los 6 criterios básicos que tendremos en cuenta para clasificar los diferentes tipos de
problemas q se estudian.
A esta aproximación meramente descriptiva y que, de seguro, en algunas oportunidades nos
encontramos con problemas. que nos resulte difícil adscribir inequívocamente a este conjunto d
categorías. No hay q olvidarse q es necesario restringir las conclusiones al ámbito específico de
problemas q se esté estudiando, evitando la tendencia a generalizar los descubrimientos,
resultados y conclusiones con un tipo particular de problema.
Cuando se formule una teoría acerca d las estrategias d resolución q emplean los $ y esa teoría
pretenda tener una aplicabilidad gral, tendremos q evaluar la tipología de problemas q le dio su
origen y sobre cuyo estudio se formuló. Recién entonces, podremos establecer el verdadero alcance
d la misma.
Cuando se nos hable d estrategias d resolución en gral, indaguemos que problemas se han
empleado. Si se han analizado las resoluciones de problema como el d los caníbales y misioneros y
el d la torre d Hanoi, entonces podremos afirmar críticamente q dichas estrategias solo están
referidas a problemas bien definidos, de una solución, en los que el $ produce la solución, de
estructura lógica medianamente compleja, de transformación y sin incertidumbre.
Entonces ¿solo tenemos micro-teorías en el campo d la solución d problemas? Si. Aun carecemos
d una teoría medianamente abarcativa, no obstante, parece ser q existen algunos procedimientos o
tácticas q son constantes para tipo d problemas disímiles.
VI- Características generales del sistema cognitivo humano respecto a la solución de problemas -
Estrategias en la resolución de problemas: algoritmos y heurísticos - Diferencias individuales:
estudio de los estilos cognoscitivos.

La eficacia con la que el sujeto lleve a cabo los procesos de resolución de problemas va a
depender, como ya dijimos, de dos factores:

 Tipo de complejidad del problema: con la finalidad de analizar el tema hicimos una serie
de precisiones que nos permitieron delimitar el concepto de “problema” y posteriormente
definimos su clasificación. Finalizando que las características de estos problemas inciden
sobre los procesos de resolución.
 Capacidad del sujeto para abordar la resolución que se trate: No solo son sus
características son las que influyen sino también lo van a hacer un conjunto de rasgos
psicológicos (tanto cognitivos, como afectivos) que en esencia son propios y específicos de
cada sujeto.

Pues bien focalizando el segundo factor consideramos algunas características básicas y generales
del sistema cognitivo humano que guardan relación con la capacidad para resolver los problemas,
enumeraremos cuatro características básicas:

1) Representaciones incompletas o inconscientes del mundo: una situación en un sujeto


será llamada como problemática cuando en sus representaciones mentales existan
lagunas o inconsistencias, en caso de que esto no suceda en el sujeto no existe ningún
problema. Siempre es necesario conocer la representación mental que cada sujeto
construye de la misma.
La manera en que el sujeto represente mentalmente la situación, la forma que construya el
modelo interno de problema, incidirá en gran medida sobre las estrategias de solución que
implemente. Cuando este conjunto de inconsistencias se represente de la mejor manera,
las posibilidades de implementación de estrategias adecuadas y eficaces será mayor.
En la vida diaria nos tenemos que enfrentar con tareas ambiguas, débilmente
estructuradas. En tales casos los procesos de solución de problemas no comienzan con un
problema ya formulado. Por el contrario la cuestión reside precisamente en percatarse de
que la situación no es lo bueno que debería ser, que necesita ser perfeccionada, que
presenta alguna inconsistencia. Entonces aquí el primer paso será darse cuenta de que
existe un problema, que es encontrar el problema.

2) Pensamiento Directivo: los procesos de pensamiento que intervienen centralmente en la


resolución de problemas presentan una direccionalidad: se encaminan hacia el logro de
una determinada meta u objetivo.
El percibir una particular situación como problemática actúa como disparador del proceso
cognoscitivo, por medio de una acción consciente y propositiva se dirige hacia una meta,
activamente, teniendo consciencia de ello.
Están dirigidos por un “yo ejecutivo”. Dicha instancia es la encargada de realizar una
aproximación consciente, algunas veces sistemática y racional, en busca de alternativas de
solución adecuadas.
3) Limitaciones estructurales y operacionales: La actividad de resolución de problemas, su
alcance y eficacia están sujetos a las limitaciones inherentes al sistema. Aquellas
limitaciones que inciden directamente sobre los procesos de resolución son:
 Estrechez del foco atencional: el carácter selectivo de los procesos perceptivos y
en general los recursos limitados de la atención van a influir sobre las estrategias
de recogida de información.
 Las limitaciones de la memoria operativa: esta dispone de escasa capacidad de
almacenamiento y que además en su espacio se llevan a cabo “funciones de
control”, las que fundamentalmente coordinan y organizan flujos de información,
siendo en consecuencia las responsables de la adquisición de nueva información y
de la utilización de información vieja en situaciones diferentes.
Pues bien, las estrategias de resolución de problemas se implementan dentro de
este espacio operativo y por lo tanto están sujetas a los limites del propio sistema.
 Características organizativas y funcionales de la memoria de largo plazo: Si bien
esta memoria es un almacén de gran capacidad, muchas veces no se accede a la
recuperación de la información que se necesita, por limitaciones en los procesos
de recuperación y evocación.

4) Operación serial: el sistema cognoscitivo humano, aplicado a la tarea de resolver un


problema, opera de un modo secuencial o serial en el procesamiento de la información
relevante. Es decir: el sistema lleva a cabo un proceso u operación por vez, en lugar de
hacerlo en forma paralela.
Esta es una característica discutible, controvertida puesto que existe evidencia empírica a
favor y en contra de la hipótesis del procesamiento secuencial y procesamiento en
paralelo.
Además hay que tener en cuenta el tipo de problema que se esta resolviendo. Las
características de los problemas afectan muy directamente las estrategias que empleamos
para resolverlos.

Estos son las características básicas y generales del sistema cognitivo humano. A continuación
desarrollaremos algunos postulados de la teoría del procesamiento de la información en lo que
refiere a la resolución de problemas:

Teorías como las de Newell y Simon; Lindsay y Norman; Simon; describen la conducta del sujeto
resolvedor de problema como una interacción entre:

1) Un sistema de procesamiento de la información. En este caso: el sistema cognoscitivo


humano: el sujeto que soluciona problemas.
2) Un ambiente de la tarea. Representado por la tarea real, tal como es presentada y/o
descrita por el experimentador.
3) Un espacio de problema. Con este término hacen referencia a la representación mental
que el sujeto tiene del ambiente de la tarea, es decir al modelo interno del problema que
construye.

Estos tres componentes establecen el marco dentro del cual se puede comprender la conducta
de solución de problemas.

La teoría describe a esta conducta como la resultante de una interacción entre los tres
componentes por que las características generales del sistema de procesamiento de la
información (características 1,2,3 y 4) son suficientes para determinar que el ambiente de la
tarea siempre será representado por un sujeto como espacio problema y que la solución del
problema se realizara en ese espacio.

Además la teoría sostiene que la estructura del ambiente de la tarea en gran parte va a
determinar las posibles representaciones que haga el sujeto, es decir, afectara a las posibles
estructuraciones del espacio del problema. Y a su vez la estructura que adquiera el espacio del
problema determinara las estrategias posibles que el sujeto seleccionara y empleara para
alcanzar la solución.
¿Cuáles son las estrategias que contempla la teoría?

Dos tipos de estrategias:

1) Estrategias Algorítmicas: los algoritmos son métodos muy eficientes que conducen a
una solución segura, pues generan todas las posibles combinaciones de respuesta,
para posteriormente seleccionar la alternativa correcta o mejor.
Un algoritmo es un procedimiento sistemático y exhaustivo que una vez constituido
puede ser considerado, bajo una perspectiva estructural, como un verdadero sistema
de inferencia deductiva.
El algoritmo se constituye (en relación a ese problema) en un conjunto de reglas que
de ser seguidas generan la solución correcta.
La utilización de algoritmos presenta dificultades como estrategias para resolver
problemas, fundamentalmente debido a las limitaciones de la memoria de corto plazo,
la cual restringe las posibilidades de manipulación, combinación e integración de
representaciones mentales. Un ejemplo son las operaciones aritméticas.

2) Estrategias Heurísticas: estos son más análogos a las prácticas de tanteo; son
procedimientos o bosquejos de búsqueda de soluciones, que son relativamente fáciles
de usar y que seleccionan en base a su efectividad en la resolución de problemas
previos.
La utilización de heurísticos permite acortar el camino hacia la solución. Implican atajos
cognitivos o caminos simplificatorios. A diferencia de los algoritmos, las estrategias
heurísticas no garantizan el arribo a la solución correcta. Ejemplo: búsqueda de
analogías entre un problema nuevo y problemas anteriores resueltos.

El análisis de los procesos nos abre la puerta para el estudio de estilos cognoscitivos. Observen
que a través de analizar los procesos de resolución ustedes estarán indagando modos singulares
de razonar, de realizar inferencias, de relevar información, en fin, modos singulares de emprender
el trabajo intelectual (implícito necesario) que tiene lugar en cualquier tarea de resolución de
problemas.

Para una evaluación cualitativa, es decir, si las tácticas se acercan al valor 1 correspondiente a la
táctica ideal o si están relativamente lejos de dicho valor; tomaremos en cuenta dos aspectos
fundamentales en la solución de problemas:

1) Si el sujeto logra o no eliminar la incertidumbre del problema.


2) Si al sujeto logra o no la solución correcta.

Ante la incertidumbre los sujetos pueden adoptar tácticas o estilos cognoscitivos bien diferentes.
Pueden definirse cuatro estilos cognoscitivos:

a) El estilo lógico se postula como el más predominantemente lógico, como el que procesa
inferencialmente la información de manera racional y como el que más se aproxima a la
táctica ideal.
b) El estilo inconsciente se compone de un factor extra lógico de acumulación de información
por llevar a cabo un procesamiento incorrecto. Sus procesos inferenciales deductivos
suelen ser erróneos.
c) El estilo intuitivo o adivinario se supone caracterizado predominantemente por factores
extra lógicos.
d) Finalmente el estilo ineficaz se postula como el más desorganizado extra lógicamente,
pues además de no presentar intentos coherentes de búsqueda de mayor información,
tampoco manifestó un intento de resolver el problema por alguna vía

Los estilos que se caracterizan por no buscar información suficiente tienden a preservarse en la
situación de riesgo y no-certidumbre y eluden el trabajo de búsqueda y reflexión racional. Esto
puede ser atribuido a mucho factores psicológicos.

En cuanto a los estilos que se caracterizan por lo contrario, por ser deferentes, abiertos a la
información, puede postularse que entre ellos se distinguirán los que actúan con exceso o con
justeza, y aun entre ellos habrá quienes usan y quienes no usan inferencialmente la información
para extraer de ella la solución del problema.

You might also like