You are on page 1of 26

METODO EXPERIMENTAL

Es un tipo de método de investigación en el que el investigador controla


deliberadamente las variables para delimitar relaciones entre ellas, está basado en
la metodología científica. En este método se recopilan datos para comparar las
mediciones de comportamiento de un grupo control, con las mediciones de un grupo
experimental. Las variables que se utilizan pueden ser variables dependientes (las
que queremos medir o el objeto de estudio del investigador) y las variables
independientes (las que el investigador manipula para ver la relación con la
dependiente). Además, debemos controlar todas las demás variables que puedan
influir en el estudio (variables extrañas).
Se práctica la mayor parte de las veces dentro del marco ideal del laboratorio,
aunque no está estrictamente ligado a él.
El método experimental está sustentado por dos pilares fundamentales: la
reproducibilidad y la falsabilidad.
Presentamos este artículo como aplicación práctica porque creemos que refleja de
forma clara y precisa el método experimental y sus características.
El estudio se realizó en un contexto de laboratorio,abordando como eje central la
productividad y seguridad en el trabajo, y cómo esta cuestión puede ser abordada
en función de las variables a tener en cuenta. El objetivo del estudio es esclarecer
cuestiones como:
– Las instrucciones hacia la productividad producen un efecto negativo sobre
la seguridad.
– Si un programa de interveción en la seguridad produce efectos colaterales
en la productividad.
– Si existe algún efecto de interacción entre estos dos mecanismos.
Para ello parte de 4 hipótesis previas referidas a los efectos principales de las
Vis ( instrucciones hacia la seguridad y refuerzo social positivo de la conducta
segura):
1ª La influencia de las instrucciones de productividad influirán en el tiempo de
ejecución de la tarea( menor tiempo/mayor productividad).
2ª La influencia de las instrucciones de productividad influirá en la seguridad de la
realización de la tarea( menor tiempo/mayor nº de errores).
3ª Con la influencia del refuerzo de la conducta segura se realizará la tarea de forma
más segura( menor nº de errores).
4ª Con la influencia del refuerzo de la conducta segura se realizará la tarea
empleando mayor tiempo(menor productividad).
Este estudio refleja el método experimental pues emplea un método cualitativo de
tipo experimental factorial intersujeto 2×2 con un grupo control equivalente.
El estudio emplea como variables independientes:
a. Presencia o ausencia de instruciones hacia la productividad.
b. Presencia o ausencia de refuerzo verbal positivo de la conducta segura Y,
determina como variables dependientes:
a. El grado de seguridad de la conducta(nº errores en ejecución).
b. El grado de productividad de la conducta(tiempo total de ejecución de la tarea).

De la misma forma que se presta una especial atención al análisis de las variables
ambientales de modo que no escape al control cualquier tipo de variable extraña
capaz de influir en los resultados.
Así, también presenta un análisis de las variables covariadas para evitar que éstas
puedan influir u oscurecer los resultados de la investigación:
a. Habilidad motora sobre la ejecución de la tarea manual, mediante dos
subescalas( la de punteado y a de marcado) del Test de Aptitudes Mecánicas de
Mac Quarrie.
b. Grado de productividad de la conducta.
c. Grado de seguridad de la conducta.
Finalmente, y una vez realizado el estudio, los
resultados corroboran la primera hipótesis (las
instrucciones hacia la seguridad muestran un
efecto significativo sobre el tiempo empleado);
sin enbargo, no influye en la seguridad de la
tarea(nº de errores), por tanto,se desecha la
segunda hipótesis. de igual forma, se confirma
la tercera hipótesis, el refuerzo verbal positivo
produce un efecto significativoe en la reducción
del nº de errores cometidos; sin embargo, ello
no supone que se emplee más tiempo en la ejecución(desconfirmación de la cuarta
hipótesis).
Como podemos observar, el estudio representa un ejemplo claro de método
experimental, pues partimos de un objetivo claro y marcado: determinar si las
instrucciones de productividad y el refuerzo verbal positivo (VIs) influyen en el grado
de seguridad de la conducta y en el grado de productividad de la conducta(VDs).
REGLAS PARA EL ESTUDIO DE LA BIOLGIA
MICROSCOPIO
Es un instrumento que sirve para ver objetos demasiados pequeños para ser vistos
con claridad por el ojo humano (objetos microscópicos).
Aunque el hombre tenga el sentido de la vista, no puede ver objetos correctamente
demasiados pequeños sin la ayuda de un microscopio.
Si tuvieramos que dar una definición de microscopio la más correcta sería:
"Instrumento óptico que permite ver objetos aumentados".
El microscopio que nosotros vamos a estudiar es el llamado microscopio óptico
o de luz, que se sirve de la luz visible para crear una imagen aumentada del objeto
mediante lentes. Pero....
¿Quien Inventó el Microscopio?
En general, suele atribuirse la invención del microscopio simple a Anton Van
Leeuwenhoek (1632-1723), un comerciante holandés sin apenas estudios, pero
como podemos leer al final de la página fue un proceso de mejora de lentes hasta
llegar al microscopio de Van Leeuwenhoek. Por ejemplo antes que Anton, ya
Zaccharias Janssen y su padre Hans pusieron varias lentes en un tubo y
descubrieron que al colocar un objeto en su extremo se veía mucho más grande.
Realmente ellos fueron los que descubrieron el primer microscopio, aunque se le
atribuya a Anton.
Van Leeuwenhoeck construyó muchos microscopios a lo largo de su vida, que
según cuentan, no prestó nunca a nadie. Son conocidos sus descubrimientos
pioneros sobre los protozoos, los glóbulos rojos, el sistema de capilares y los ciclos
vitales de los insectos. Por todos estos descubrimientos se le llama "El Padre del
Microscopio".
Las Partes principales son:
- Ocular: donde acercas los ojos para ver.
- Platina: es esa especie de pequeño plato, donde se coloca el portaobjeto, donde
está lo que quieres observar.
- Foco: Este control sirve para enfocar el objetivo, para tener mejor nitidez y
observar los detalles.
- Condensador: Es el lente que esta debajo de tu objetivo, sirve para concentrar la
luz sobre el mismo.
- Lentes: Están justo encima del objetivo. Según el modelo de microscopio puede
tener un revolver, con distintos valores de aumentos para seleccionar.
Como Se Usa el Microscopio
Lo primero es preparar lo que queremos mirar a través del microscopio. A esto se
le llama montar la preparación. Para montar la preparación debemos colocar lo
que queremos ver encima de un cristal (portaobjeto) y poner encima otro cristal
(cubreobjeto). Te recomendamos que empieces por ver una gota de agua de un
charco.

A veces se hecha un líquido entre los 2 cristales para que se vea mejor (depende
lo que se quiera ver).
a) Encendemos la luz del microscopio y
comprobamos que vemos la luz a través del ocular.
b) Colocamos la preparación sobre la platina y
movemos el revólver para poner sobre ella el
objetivo de menor aumento.
c) Enfocamos la muestra:
Giramos el tornillo macrométrico hasta que el
objetivo esté lo más cerca posible de la
preparación.
- Mirando por el ocular, giramos el tornillo para ir
separando el objetivo de la preparación hasta ver
una imagen los más enfocada posible.
- Movemos el tornillo micrométrico para conseguir
una imagen más enfocada.

LA CONQUISTA DE AMERICA
La conquista de América fue el proceso de exploración, conquista y asentamiento
en el Nuevo Mundo realizado por España y Portugal en el siglo XVI, y en la que
participaron otras potencias europeas posteriormente, después de que Cristóbal
Colón descubriera América en 1492. La Conquista dio lugar a regímenes°°
virreinales y coloniales muy poderosos, que resultaron en la asimilación cultural de
la mayor parte de poblaciones indígenas, y su sumisión a las leyes de las potencias
conquistadoras.
Las riquezas de América permitieron que toda Europa creciera, no solo España y
Portugal. La Conquista dio lugar a la importación de nuevos productos agrícolas en
Europa como el tomate, el maíz, la papa o el cacao, productos que tuvieron un gran
impacto también en la economía y en los hábitos europeos de otros continentes.
Igualmente, la llegada de las variedades agrícolas y diversidades ganaderas de
Eurafrasia produjo un cambio en el paisaje productivo y alimentario del continente
americano. La introducción de
minerales americanos impulsó
enormemente la economía europea
pero al mismo tiempo creó situaciones
de alta inflación. En los siglos
posteriores, el oro y la plata
desempeñaron una función importante
en el nacimiento del capitalismo,
principalmente en los Países Bajos,
Gran Bretaña y Francia. La Conquista
de América fue un proceso casi permanente, ya que algunas sociedades indígenas
opusieron una resistencia constante mientras que otras nunca fueron asimiladas
completamente.
España fue la que empezó la colonización e incluso la que logró conquistar la mayor
parte de América, debido a que fue el país que obtuvo el patrocinio del viaje de
descubrimiento por medio de los Reyes Católicos. Mediante una bula del papa
Alejandro VI, se declaró legítima la
posesión española de todas las tierras
encontradas más allá de trescientas
leguas al oeste de las islas Azores.2 Más
tarde, una ligera modificación repartió el
continente americano entre las potencias
de España y Portugal, lo cual quedaría
ratificado en el Tratado de Tordesillas. Sin
embargo, otras potencias europeas se
sumaron a la conquista y colonización en
América posteriormente, a menudo compitiendo entre ellas y con los imperios ya
existentes. Entre ellas se encuentran Francia, Gran Bretaña, los Países Bajos, y
hasta Rusia y Dinamarca. También, se formaron pequeñas colonias efímeras de
países escandinavos en la costa oriental de lo que actualmente forman parte los
Estados Unidos.
Varios pueblos americanos intentaron oponerse a la ocupación de los europeos,3 a
pesar de encontrarse en desventaja desde el punto de vista de la tecnología bélica.
Las armas y las técnicas de guerra españolas eran más avanzadas con respecto a
las indígenas. Los europeos conocían la fundición, la pólvora y contaban con
caballos y vehículos de guerra. Los americanos, en cambio, contaban con una
tecnología lítica y carecían de animales de carga, a pesar de ser superiores en
número y en conocimiento del territorio. No obstante, el establecimiento de alianzas
de los capitanes españoles con líderes nativos, fue decisivo para equilibrar el
número de combatientes .4 Las enfermedades que los europeos llevaron a América
—para las cuales los indígenas carecían de defensas— cobraron miles de vidas y
fueron un factor que debilitó las sociedades americanas que, en medio de la guerra,
tuvieron que enfrentarse también con el desastre epidemiológico.[cita requerida] La
historia de la Conquista de América ha sido relatada principalmente desde el punto
de vista de los europeos.[cita requerida] Salvo en el caso de los mesoamericanos,
los pueblos indígenas desconocían la escritura. De hecho, los registros de los
hechos desde la perspectiva indígena consisten principalmente en relatos
recuperados algunos años después por los propios europeos. Se cuenta con ellos
en los casos de Nueva España, Perú y Yucatán.
La evidencia geológica, arqueológica y genética muestra que el continente
americano fue poblado desde el extremo norte de Asia, a través del puente de tierra
de Beringia, lo cual ya existía hace milenios, pero que actualmente está sumergido
bajo el nivel del mar. Existen evidencias de que el continente americano ya estaba
poblado en algunas regiones hace 14 000 años.5 Sin embargo, no se conoce con
precisión la duración y el número de oleadas migratorias desde Asia, aunque sí hay
pruebas de que existieron al menos tres oleadas (aún más).
PERSONAJES DE LA CONQUISTA DE AMERICA
 Don Pedro de Alvarado; fue el capitán conquistador de Guatemala.

 Don Francisco de la cueva fue quien


consolido las riquezas de Don
Portocarrero a lado del obispo Marroquín

 Doña Leonor fue conocida por las


decisiones que tomo en el estado y el en la
política durante la conquista.
También juega un papel importante la madre de
doña Leonor Doña Luisaquien ha enseñado a su
hija a tomar decisiones firmes en la política.
FECHAS IMPORTANTES

Cronología de la conquista de Guatemala ocultar

Departamento
moderno
Fecha Evento
(o estado
mexicano)

1521 Conquista de Tenochtitlán México

1522 Aliados de los españoles Chiapas, México


exploran Soconusco y
Cronología de la conquista de Guatemala ocultar

Departamento
moderno
Fecha Evento
(o estado
mexicano)

reciben a delegaciones de
los quichés y cakchiqueles1

Pedro de Alvarado llega en


1523 Chiapas, México
Soconusco

Retalhuleu,
febrero- Suchitepéquez,
Los españoles derrotan a los
marzo de Quetzaltenango,
quichés
1524 Totonicapán y El
Quiché

8 de
Batalla de Zapotitlán, victoria
febrero de Suchitepéquez
española sobre los quichés1
1524

Primera batalla de
12 de Quetzaltenango resulta en la
febrero de muerte del legendario Quetzaltenango
1524 comandante k'iche Tecún
Uman1

18 de
Segunda batalla
febrero de Quetzaltenango
de Quetzaltenango
1524

Los españoles bajo el mando


marzo de de Pedro de Alvarado
El Quiché
1524 arrasan Q'umarkaj, la capital
de los quichés1

Los españoles entran


14 de abril
en Iximché y se alían con los Chimaltenango
de 1524
cakchiqueles
Cronología de la conquista de Guatemala ocultar

Departamento
moderno
Fecha Evento
(o estado
mexicano)

Los españoles derrotan a los


18 de abril
zutuhiles en una batalla en Sololá
de 1524
las orillas del lago de Atitlán1

Pedro de Alvarado derrota


9 de mayo los pipiles de Panacal o
Escuintla
de 1524 Panacaltepeque cerca de
Izcuintepeque

26 de mayo Pedro de Alvarado derrota


Santa Rosa
de 1524 los xincas de Atiquipaque1

Iximché es declarada la
27 de julio
primera capital colonial de Chimaltenango
de 1524
Guatemala

28 de Los cakchiqueles abandonan


agosto de Iximché y rompen la alianza Chimaltenango
1524 con los españoles

7 de
Los españoles declaran la
septiembre Chimaltenango
guerra a los cakchiqueles1
de 1524

La capital poqomam cae a


1525 Guatemala
Pedro de Alvarado1

13 de
Hernán Cortés llega al lago
marzo de Petén
Petén Itzá
1525

Zaculeu, la capital del pueblo


mam, se rinde a Gonzalo de
octubre de
Alvarado y Contreras Huehuetenango
1525
después de un asedio
prolongado
Cronología de la conquista de Guatemala ocultar

Departamento
moderno
Fecha Evento
(o estado
mexicano)

El pueblo chajomá se rebela


1526 Guatemala
contra los españoles

Capitanes españoles
1526 enviados por Alvarado logran Chiquimula
conquistar Chiquimula1

9 de
Desertores españoles
febrero de Chimaltenango
queman Iximché1
1526

Los españoles abandonan su


1527 capital en Tecpán Chimaltenango
Guatemala1

San Mateo Ixtatán es


1529 encomendado a Gonzalo de Huehuetengo
Ovalle

septiembre Los españoles son


El Quiché
de 1529 derrotados en Uspantán

abril de Rebelión en Chiquimula


Chiquimula
1530 reprimida

9 de mayo Los cakchiqueles se rinden a


Sacatepéquez
de 1530 los españoles1

diciembre Los ixiles y uspantecos se


El Quiché
de 15301 rinden a los españoles

1543 Fundación de Cobán Alta Verapaz

Primeras reducciones de los


1549 Huehuetenango
pueblos chuj y kanjobal
Cronología de la conquista de Guatemala ocultar

Departamento
moderno
Fecha Evento
(o estado
mexicano)

Los mayas de las tierras


1555 bajas matan a Francisco de Alta Verapaz
Vico

Reducción de Topiltepeque y
1560 Alta Verapaz
de los choles del Lacandón1
ESCALA DE MEDICION
Escalas de medición son una sucesión de medidas que permiten organizar datos
en orden jerárquico. Las escalas de medición, pueden ser clasificadas de acuerdo
a una degradación de las características de las variables. Estas escalas son:
nominales, ordinales, intervalares o racionales. Según pasa de una escala a otra el
atributo o la cualidad aumenta. Las escalas de medición ofrecen información sobre
la clasificación de variables discretas o continuas, también más conocidas como
escalas grandes o pequeñas. Toda vez que dicha clasificación determina la
selección de la gráfica adecuada.
Niveles de clasificación
La medición puede definirse como la asignación de numerales a objetos o sucesos
siguiendo ciertas reglas Stevens (1946). El autor de esta definición desarrolló un
método para clasificar los diferentes resultados de las mediciones en lo que llamó
niveles de medición. Un nivel de medición es la escala que representa una jerarquía
de precisión dentro de la cual una variable puede evaluarse, en función de las
características que rigen las escalas. Por ejemplo, la variable estatura puede
analizarse en diferentes niveles de medida.
Un conjunto de personas pueden
clasificarse en altos y bajos, A y B
respectivamente, creando dos grupos. Para
ello no es necesario recurrir a ninguna cinta
métrica, simplemente basta observar
quienes destacan sobre los demás (el grupo
de altos) y el resto completarán el grupo de
bajos. El nivel de medición que corresponde
a esta forma de medir es nominal.
También podrían alinearse a los sujetos y ordenarlos según su altura, el primero
sería el más alto y el último el más bajo, el resto se organizaría de forma que cada
persona tuviese delante a uno más alto y detrás a uno más bajo. El nivel de medición
en este caso es ordinal. Hasta el momento no es posible decir cuánto es una
persona más alta que otra.
A través del número de personas que hay entre dos sujetos, por ejemplo, Andréa y
Juan en la fila ordenada anteriormente. En este caso además del orden se conoce
la magnitud de la altura. Si en lugar de utilizar el número de personas se recurre a
una regla se puede ofrecer otra medida de la altura. Esta forma de medir es propia
del nivel de intervalos, que permite saber la magnitud de los elementos comparando
unos con otros.
La cuarta posibilidad es utilizar un metro que sitúa el cero en el mismo suelo y, por
lo tanto, la altura se define en función de la distancia desde la cabeza al suelo (valor
cero absoluto donde se sitúa la ausencia de altura). En ciencias sociales es poco
frecuente encontrar variables en niveles de razón, normalmente son nominales,
ordinales y en ocasiones de intervalos, rara vez de razón. Una característica de esta
clasificación es que las propiedades de una escala se cumplen en el nivel superior.
En la estadística descriptiva y con el fin de realizar pruebas de significancia, las
variables se clasifican de la siguiente manera de acuerdo con su nivel de medida:
 nominal (también categórica o discreta)
 ordinal
 de intervalo o intervalar (continua)
 de razón o racional (continua)
Las variables de intervalo y de razón también están agrupadas como variables
continuas.
Medida nominal
El nivel nominal de medición, de la palabra latina común (nombre) describe
variables de naturaleza categórica que difieren en cualidad más que en cantidad
(Salkind, 1998: 113). Ante las observaciones que se realizan de la realidad, es
posible asignar cada una de ellas exclusivamente a una categoría o grupo. Cada
grupo o categoría se denomina con un nombre o número de forma arbitraria, es
decir, que se etiqueta en función de los deseos o conveniencia del investigador.
Este nivel de medición es exclusivamente cualitativo y sus variables son por lo tanto
cualitativas.
Por ejemplo, los sujetos que son del curso
de A de 2º de eso y los de B generan dos
grupos. Cada sujeto se asigna a un grupo,
y las variables son de tipo cualitativo (de
cualidad) y no cuantitativo puesto que
indica donde está cada sujeto y no "cuanto
es de un curso y no de otro". En este
ejemplo los números 2 y 3 pueden sustituir
las letras A y B, de forma qu e 2 y 3 son
simples etiquetas que no ofrecen una
valoración numérica sino que actúan como nominativos.
En esta escala hay que tener en cuenta dos condiciones:
 No es posible que un mismo valor o sujeto esté en dos grupos a la vez. No
se puede ser de 2º y 3º a la vez. Por lo tanto este nivel exige que las
categorías sean mutuamente excluyentes entre sí.
 Los números no tienen valor más que como nombres o etiquetas de los
grupos.
En este tipo de medidas, se asignan nombres o etiquetas a los objetos. La
asignación se lleva a cabo evaluando, de acuerdo con un procedimiento, la
similaridad de la instancia a ser medida con cada conjunto de ejemplares o
definiciones de categorías. El nombre de la mayoría de los ejemplares nominados
o definiciones es el “valor” asignado a la medida nominal de la instancia dada. Si
dos instancias tienen el mismo nombre asociado a ellas, entonces pertenecen a la
misma categoría, y ese es el único significado que las medidas nominales tienen.
Esta escala comprende variables categóricas que se identifican por atributos o
cualidades. Las variables de este tipo nombran e identifican distintas categorías sin
seguir un orden. El concepto nominal sugiere su uso que es etiquetar o nombrar. El
uso de un número es para identificar. Un número no tiene mayor valor que otro. Un
ejemplo son los números de las camisetas de los jugadores de un equipo de béisbol.
El número mayor no significa que tiene el mayor atributo que el número menor, es
aleatorio o de capricho personal a quien otorga el número. Para el procesamiento
de datos, los nombres pueden ser remplazados por números, pero en ese caso el
valor numérico de los números dados es irrelevante. El único tipo de comparaciones
que se pueden hacer con este tipo de variables es el de igualdad o diferencia. Las
comparaciones “mayor que”o “menor que” no existen entre nombres, así como
tampoco operaciones tales como la adición, la substracción, etc.
Ejemplos de medidas nominales son algunas de estas variables: estado marital,
género, raza, credo religioso, afiliación política, lugar de nacimiento, el número de
seguro social, el sexo, los números de teléfono, entre otros.
La única medida de tendencia central que se puede hacer es la moda. La dispersión
estadística se puede hacer con tasa de variación, índice de variación cualitativa, o
mediante entropía de información. No existe la desviación estándar.
Medida ordinal
El nivel ordinal describe las variables a lo largo de un continuo sobre el que se
pueden ordenar los valores. En este caso las variables no sólo se asignan a grupos
sino que además pueden establecerse relaciones de mayor que, menor que o igual
que, entre los elementos.
Por ejemplo, se puede ordenar al conjunto de
alumnos del módulo de diversificación curricular
en función de la calificación obtenida en el último
examen sea de Español, Esperantoo de
matemáticas, es lo mismo.
Las variables de este tipo, además de n ombrar,
se considera el asignar un orden a los datos. Esto
implica que un número de mayor cantidad tiene
un más alto grado de atributo medido en comparación con un número menor, pero
las diferencias entre rangos pueden no ser iguales.
Las operaciones matemáticas posibles son: contabilizar los elementos, igualdad y
desigualdad, además de ser mayor o menor que.
Medida de intervalo o intervalar
El nivel de intervalo procede del latín interval lun (espacio entre dos paredes). Este
nivel integra las variables que pueden establecer intervalos iguales entre sus
valores. Las variables del nivel de intervalos permiten determinar la diferencia entre
puntos a lo largo del mismo continuo. Las operaciones posibles son todas las de
escalas anteriores, más la suma y la resta.
En este tipo de medida, los números asignados a los objetos tienen todas las
características de las medidas ordinales, y además las diferencias entre medidas
representan intervalos equivalentes. Esto es, las diferencias entre un par arbitrario
de medidas puede compararse de manera significativa. Estas variables nombran,
ordenan y presentan igualdad de magnitud. Por lo tanto, operaciones tales como la
adición, la sustracción tienen significado. En estas variables el punto cero de la
escala es arbitrario y no signif ica ausencia de
valor. Se pueden usar valores negativos. Las
razones entre valores no tienen sentido pues
dependen de la posición del cero, no puede
decirse que una temperatura es el doble que la
otra, pues usando grados celsius dará un
resultado y usando grados Fahrenheit dará otro.
Las medidas de tendencia central pueden
representarse mediante la moda, la mediana al
promedio aritmético. El promedio proporciona más información.
Las variables medidas al nivel de intervalo se llaman variables de intervalo o
variables de escala.
Ejemplos de este tipo de variables son la fecha, la temperatura, las puntuaciones
de una prueba, la escala de actitudes, las puntuaciones de IQ, conjuntos de años,
entre otros.
Medida de razón o racional
El nivel de razón, cuya denominación procede del latín ratio (cálculo), integra
aquellas variables con intervalos iguales que pueden situar un cero absoluto. Estas
variables nombran orden, presentan intervalos iguales y el cero significa ausencia
de la característica. El cero absoluto supone identificar una posición de ausencia
total del rasgo o fenómeno. Tiene características importantes:
 El valor cero no es arbitrario (no responde a las conveniencias de los
investigadores). Un ejemplo claro es la temperatura. La existencia de un cero
en la escala Celsius no supone la ausencia de temperatura, puesto que el
cero grados centígrados está situado por arbitrio de los creadores de la
escala. Por el contrario, la escala Kelvin sí tiene un cero absoluto,
precisamente allí donde las moléculas cesan su actividad y no se produce
por lo tanto roce entre los componentes moleculares. El cero absoluto de la
escala Kelvin se sitúa a unos -273 grados centígrados.
 La presencia de un cero absoluto permite utilizar operaciones matemáticas
más complejas a las otras escalas. Hasta ahora se podía asignar, establecer
la igualdad (nominal), mayor o menor que (ordinal), sumar y restar (intervalo)
a las que se añade multiplicar, dividir, etc.
Los números asignados a los objetos tienen todas las características de las medidas
de intervalo y además tienen razones significativas entre pares arbitrarios de
números. Operaciones tales como la multiplicación y la división tienen significado.
La posición del cero no es arbitraria para este tipo de medida. Las variables para
este nivel de medida se llaman variables
racionales. La mayoría de las cantidades
físicas, tales como la masa, longitud, energía,
se miden en la escala racional, así como
también la temperatura (en Kelvin) relativa al
cero absoluto. Las medidas de tendencia
central de una variable medida a nivel
racional pueden representarse por la moda,
la mediana, la media aritmética o su media
geométrica. Lo mismo que con la escala de
intervalos, el promedio aritmético proporciona la mayor información.
Por ejemplo; el ingreso; el cero representaría que no recibe ingreso en virtud de un
trabajo, la velocidad; el cero significa ausencia de movimiento. Otros ejemplos de
variables racionales son la edad, y otras medidas de tiempo. En otras palabras, la
escala de razón comienza desde el cero y aumenta en números sucesivos iguales
a cantidades del atributo que está siendo medido.
LA PSICOLOGIA GESTALT
La psicología de la Gestalt (también psicología de la forma o psicología de la
configuración) es una corriente de la psicología moderna, surgida en Alemania a
principios del siglo XX, cuyos exponentes más reconocidos fueron los teóricos Max
Wertheimer, Wolfgang Köhler, Kurt Koffka y Kurt Lewin.
El término Gestalt proviene del alemán, fue introducido por primera vez por Cristian
Von Ehrenfels y puede traducirse, aquí, como "forma", "figura", "configuración",
"estructura" o "creación".
La mente configura, a través de ciertos principios descubiertos por esta misma
corriente, los elementos que llegan a ella a
través de los canales sensoriales
(percepción) o de la memoria (pensamiento,
inteligencia y resolución de problemas). En la
experiencia que tiene el individuo en su
interacción con el medio ambiente, esta
configuración tiene un carácter primario sobre
los elementos que la conforman, y la suma de
estos últimos no podría generar por sí sola la
comprensión del funcionamiento mental. Este
planteamiento se ilustra con el axioma que
dice:
El todo es diferente a la suma de las pa rtes.
Con él se ha identificado con mayor frecuencia a esta escuela psicológica. El axioma
pretende explicar que la organización básica de cuanto percibimos está en relación
con una figura en la que nos concentramos, que a su vez es parte de un fondo más
amplio, donde hay otras formas. En otras palabras, todo lo percibido es mucho más
que información llegada a los sentidos.
En la década de 1930, se generalizaron las críticas a las afirmaciones de
la Gestalt, y entre tales críticas destaca sobre todo la realizada por la
llamada psicología de la Ganzheit, encabezada por Felix Krueger.
La escuela de la Gestalt
Dos universidades fueron las que obtuvieron los primeros resultados
experimentales. Por una parte, estaba la escuela de Graz; por otra, la de Berlín. La
escuela de Graz propuso la teoría de la producción, que consideraba la cualidad
Gestalt, es decir, la forma o todo, como el producto de un acto perceptivo. Por otra
parte, la escuela de Berlín demostró que la Gestalt viene dada de forma inmediata;
no es producto de la percepción, sino que, por el contrario, la percepción es
producto de la Gestalt. La veracidad de esta afirmación quedó demostrada con
el movimiento aparente, con la presentación de dos fenómenos en distintos
tiempos.
Los tres psicólogos iniciadores de esta corriente, Max Wertheimer, Wolfgang
Köhler y Kurt Koffka, desarrollaron las primeras investigaciones de la Gestalt a
principios de la década de 1910, y lo hicieron trabajando sobre el movimiento
aparente y dando lugar a la teoría del fenómeno phi, una ilusión óptica de nuestro
cerebro que hace percibir movimiento continuo en donde hay una sucesión de
imágenes)
Leyes o principios de la Gestalt
Ley de la pregnancia o de la buena forma
Uno de los principios fundamentales de la percepción para los gestaltistas es la
llamada ley de la Prägnanz (traducido generalmente
del alemán como pregnancia o, mejor aún, como principio de la buena forma), que
afirma la tendencia de la experiencia perceptiva
a adoptar las formas más simples posibles. Las
partes de una figura que tiene "buena forma" o
que indican una dirección o destino común
forman con claridad unidades autónomas en el
conjunto. Esta ley permite la fácil lectura de
figuras que se interfieren formando aparentes
confusiones, pero en donde prevalecen sus
propiedades de "buena forma" o destino común,
se ven como desglosadas del conjunto.
Principio de la semejanza
La mente agrupa los elementos similares en una entidad. La semejanza depende
de la forma, del tamaño, del color y de otros aspectos visuales de los elementos.
Además semeja las agrupaciones existentes en nuestra realidad a partir de la
experiencia o praxis vivencial de nuestra memoria icónica.
Principio de la proximidad
Habla del agrupamiento parcial o secuencial de elementos que lleva a cabo la
mente, con base en la distancia. Los objetos adjuntos tienden a ser vistos como una
unidad. Los estímulos que están próximos tienden a percibirse como parte de la
misma unidad.
Principio de simetría
Las imágenes simétricas son percibidas como iguales, como un solo elemento, en
la distancia. Este principio tiene tal trascendencia que va más allá del campo de la
percepción de las formas y constituye uno de los principios o fenómenos
fundamentales de la naturaleza. La biología, la matemática, la química y la física,
incluso la misma estética, se organizan siguiendo las leyes especulares, simples o
múltiples, de la simetría.
Principio de continuidad
Los detalles que mantienen un patrón o dirección tienden a agruparse juntos, como
parte de un modelo. Es decir, percibimos elementos continuos aunque estén
interrumpidos entre sí. Tiene elementos de cierre porque las partículas
independientes tratan de formar figuras, partiendo de la ley de cierre. De igual modo,
toma propiedades de la ley de buena figura o destino común, al generar la elección
de las formas más simples y rotundas. También toma elementos de la ley de
experiencia, pues se decide por aquellas formas que tienen figuras reconocibles o
son más familiares para la persona que percibe (llamado perceptor). Este principio
tiene como caracteres propios la manera de presentarnos las formas. Estas se nos
muestran de manera incompleta, inconclusas, como abreviaturas o como esquemas
de fácil interpretación.
Principio de dirección común
Implica que los elementos que parecen construir un patrón o un flujo en la misma
dirección se perciben como una figura. Por ejemplo, las bandadas de pájaros que
vuelan como un todo, es decir, como si se tratara de un organismo único.
Principio de simplicidad
Afirma que el individuo organiza sus campos perceptuales con rasgos simples y
regulares y tiende a formas buenas.
Principio de la relación figura-fondo
Establece el hecho de que el
cerebro no puede interpretar un
objeto como figura o fondo al mismo
tiempo. Según la experiencia previa
y los intereses del observador,
aparecerá en su mente un elemento
como figura y el otro como el fondo
de la figura o viceversa. Es la de
mayor fuerza y trascendencia de las
hasta aquí expuestas, porque
puede considerarse que abarca
todas las demás, ya que en todas
late este principio organizativo de la percepción, y se ha observado que muchas
formas sólo se constituyen como figuras definidas cuando quedan superpuestas o
recortadas sobre un fondo más neutro.
Principio de igualdad o equivalencia
Dice que, cuando concurren varios elementos de diferentes clases, hay una
tendencia a constituir grupos con los que son iguales. Esta experiencia la
presentamos aislada, para evitar la influencia de otras leyes y por ello están
equidistantes todos los elementos integrantes. Si las desigualdades se basan en el
color, el efecto es más sorprendente que en la forma. Ahondando en las
desigualdades, si se potencian las formas iguales, con un color común, se
establecen condicionantes potenciadores, para el fenómeno agrupador de la
percepción.
Principio del cerramiento o del cierre
Las líneas que circundan una superficie se captan, en igualdad de circunstancias,
más fácilmente como unidad o como figura, en comparación con aquellas otras que
se unen entre sí. Las circunferencias, cuadriláteros o triángulos producen el efecto
de cerramiento. Esta nueva ley parece ser operativa porque señala el hecho de que
las líneas rectas paralelas forman grupos más definidos y estables que los puntos,
que delimitan un espacio con más dificultad.
Principio de la experiencia
Asegura que, desde el punto de vista biológico, el propio sistema nervioso se ha ido
formando por el condicionamiento del mundo exterior.
Ernst Mach definió las propiedades de los formas especiales y auditivas como
totalidades principales perceptuales. Estas formas poseen cualidades que las
distinguen de sus elementos; las sensaciones se organizan en la conciencia y crean
cualidades formales que pueden ser novedosas.
 Pensamiento holístico: el todo es siempre más que la suma de sus partes.
 Fundamentos fenomenológicos: los fenómenos son objeto de estudio de
interés para la psicología. El análisis psicológico debe proceder de los
fenómenos a su esencia.
 Metodología: la psicología de la Gestalt realiza experimentos parecidos a los
sucesos de la vida (realidad)
empleando pocos sujetos.
 Isomorfosis: los procesos
psicológicos se relacionan de
modo directo con procesos
biológicos, en especial
cerebrales.
EL CONDUCTISMO
“Corriente de la psicología que defiende el empleo de procedimientos estrictamente
experimentales para estudiar el comportamiento observable (la conducta),
considerando el entorno como un conjunto de estímulos-respuesta. El enfoque
conductista en psicología tiene sus raíces en el asociacionismo de los filósofos
ingleses, así como en la escuela de psicología estadounidense conocida como
funcionalismo y en la teoría darwiniana de la evolución, ya que ambas corrientes
hacían hincapié en una concepción del individuo como un organismo que se adapta
al medio (o ambiente)”.
“El conductismo asume el punto de vista de que el comportamiento no puede ser
explicado apelando de ningún modo a estructuras internas o procesos dentro del
cerebro. En lugar de ello, los conductistas querían explicar el comportamiento
humano en términos de las relaciones entre entradas
(estímulos) y salidas (respuestas)”.
“El conductismo tiene su origen en torno a la obra de John
B. Watson. Este autor sostuvo que el único medio por el que
la Psicología podía ser científica era estudiando la conducta
manifiesta. Para predecir y explicar dicha conducta, basta
con estudiar los antecedentes y consecuentes”.
El conductivismo, según J. B. Watson, de los primeros en
definir el objeto de estudio de la psicología, es el estudio
experimental objetivo y natural de la conducta.1 Para B. F.
Skinner el conductismo es una filosofía de la ciencia de
la conducta de los estudiantes,2 definió varios aspectos
esenciales de su objeto de estudio y a diferencia de Watson
se centró en describir las leyes generales que rigen la conducta voluntaria. 3 El objeto
de estudio de la psicología y la forma en cómo se concibe la conducta es entendida
de diversos modos, según el enfoque desde el que se vea.
Se pueden identificar más de 10 formas de
conductismo4 desde el propuesto por Watson
hasta nuestros días; pasando por el
conductismo de Tolman, Hull y Skinner, el
interconductismo y la psicología
interconductual de Kantor, el conductismo
teleológico de Rachlin, empírico de Bijou,
teórico de Staddon y biológico de Timberlake,
el contextualismo funcional de Hayes, etc.
J. R. Kantor define el conductismo como
«una renuncia a las doctrinas del alma, la mente y la conciencia», para ocuparse
del «estudio de los organismos en interacción con sus ambientes». En términos más
amplios, lo considera como equivalente al término ciencia (Kantor 1968, cit. por
Campos, 1973, p. 91), dado que se ocupa de la naturaleza a partir del "principio del
comportamiento". Así, la química estudia el comportamiento de los elementos y la
sustancia, la física estudia el comportamiento de la materia y sus propiedades,
la astronomía estudia el comportamiento de los astros y galaxias, y
la psicología estudia las interacciones entre los organismos y su entorno.
Características principales
 Condicionamiento clásico: Proceso de aprendizaje mediante el cual se
asocia un estímulo inicial (por ejemplo el olor a comida) que provoca en el
organismo una respuesta incondicionada regular y mensurable (por ejemplo
salivación), con un evento neutro (por ejemplo un ruido) que no provocaba
respuestas antes del condicionamiento. Luego de varias presentaciones en
contigüidad espacio-temporal, el evento neutro adquirirá las funciones del
estímulo inicial, provocando la misma respuesta que aquel. De este modo,
un ruido podría terminar evocando la salivación del organismo.
 Condicionamiento operante: Proceso de aprendizaje por el cual una acción
en particular es seguida por algo deseable (lo cual hace más factible que la
persona o animal repita la acción) o por algo no deseable (lo cual hace menos
factible que se repita la acción). Un estudiante, por ejemplo, estudia durante
varias horas porque anteriormente el estudio le proporcionó satisfacción
intelectual, notas altas o elogios de sus padres. Su aplicación es
consecuencia del condicionamiento operante.
En suma, "conductismo" constituye una manera de estudiar lo psicológico o
cualquier fenómeno del mundo desde la perspectiva de una ciencia de la conducta,
sin mentalismo (atribuciones dualistas
extramateriales como el alma o la mente), ni
reduccionismos (utilizar explicaciones
tomadas de disciplinas como la neurología,
la lógica, la sociología o el procesamiento de
datos).
Esto no significa dejar de lado los procesos
cognitivos como tantas veces se
malinterpreta, sino considerarlos como
"propiedades de la conducta en función". O
sea, comportamientos sujetos a las mismas leyes que el comportamiento manifiesto
que involucran respuestas lingüísticas y sensoriales de tipo encubierto, las cuales,
para ser investigadas deben especificarse en términos del tipo de interacción,
amplificarse mediante aparatos o acudir al autoinforme del individuo.
Existe también una clase especial de conductismo denominado "metodológico", que
no se guía sobre la base de las precedentes consideraciones filosóficas ni teóricas,
sino simplemente en función a criterios pragmáticos de abordaje objetivo de la
conducta como referente observable inmediato de fenómenos "internos". Este no es
más utilizado.
EDWARD TITCHENER
Edward B. Titchener (Chichester, 11 de enero de 1867 - Ithaca, 3 de agosto de
1927), fue un psicólogo británico, más tarde establecido en Estados Unidos.
Introducción del pensamiento wundtiano en Estados Unidos
Se le considera el impulsor definitivo de la aplicación del método experimental en la
psicología americana y fundador del Estructuralismo. Éste método lo importó de
Alemania, donde fue alumno de Wilhelm Wundt. Titchener era introspeccionista, por
lo que al traducir a Wundt lo presentó como un introspeccionista también, ya que en
Estados Unidos no se diferenciaba la conciencia del inconsciente, pero en Alemania
sí, por lo que para Wundt la introspección no era un método válido por no alcanzar
al inconsciente. La introspección la entiende como la
descripción de la experiencia consciente
desmenuzada en componentes sensoriales
elementales sin referentes externos. Para Titchener, la
conciencia era la suma total de las experiencias de una
persona en un momento determinado, entendiendo
aquellas como los sentimientos, las ideas, los impulsos
experimentados durante toda la vida. A diferencia de
Wundt tenía un estilo didáctico y nunca sobrestimaba
los conocimientos psicológicos de sus lectores.
Titchener era menos flexible que Wundt ante
polémicas y controversias que cuestionaban los
supuestos básicos de su sistema psicológico.
Pensamiento
Se trata de un reduccionista que se basaba en las sensaciones y cuyo objetivo era
analizar el contenido de la conciencia en sus elementos (por leyes de asociación).1
Titchener categoriza los contenidos mentales en tres tipos: imágenes, emociones y
sensaciones puras; para él todo pensamiento complejo puede analizarse en función
de sensaciones elementales.
Obra
Titchener era además un escritor prolífico. Escribió 216 artículos y seis libros
siendo Psicología experimental el más importante.
Discípulos
 Una de los primeros estudiantes más distinguidos fue Margaret Floy
Washburn (1871-1939), quien realizó un estudio sobre las discriminaciones
visuales en peces y conejos. Además escribió La mente animal en 1908, un
texto clásico en la psicología comparativa.
 El alumno más conocido y leal a Titchener fue Edwing G. Boring (1886-1968).
Su libro La historia de la psicología experimental publicado en 1929 fue la
historia definitiva de la psicología durante tres décadas.
EL FUNCIONALISMO
El funcionalismo es caracterizado por el utilitarismo otorgado a las acciones que
deben sostener el orden establecido en las sociedades. Es una corriente teórica
surgida en Inglaterra en el año 1930 en las ciencias sociales, especialmente en
sociología y antropología social. La teoría está asociada a Émile Durkheim y, más
recientemente, a Talcott Parsons, además de muchos otros autores como Herbert
Spencer, Bronislaw Malinowski y Robert Merton. El funcionalismo se caracteriza por
un enfoque empirista que preconiza las ventajas del trabajo de campo. En este
sentido, los teóricos funcionalistas identifican en sus textos comunicación con
comunicación de masas, porque esa es la realidad de la sociedad moderna. Hasta
el siglo XIX, la mayoría de las labores
se realizaban en un gabinete, mediante
relatos sesgados de viajeros. El
funcionalismo abrió el camino de la
antropología científica, desarrollándose
luego con gran éxito en Estados
Unidos. La corriente funcionalista es la
escuela más extendida; se ha llegado a
naturalizar y estudiar el paradigma de
las ciencias de la comunicación. Esta
circunstancia se ha entendido como lógica porque es la perspectiva que mejor se
identifica con la dinámica y los intereses del sistema audiovisual.
La escuela propone una serie de teorías concretas con continuidad basadas en
distintas disciplinas: la teoría hipodérmica, la teoría de los efectos limitados, la teoría
matemática de la comunicación y otros enfoques más particulares. Son esquemas
de acción cuyo objetivo es construir un proyecto integrador que aporte
conocimientos sobre cómo debe funcionar la comunicación social. Bajo esta mirada,
las instituciones sociales serían medios colectivamente desarrollados para la
satisfacción de las necesidades biológicas y culturales; los define, por lo tanto, por
el cumplimiento de una función social, y no —como se hacía generalmente— por
las circunstancias históricas de su desarrollo. Enfatiza, por lo tanto, las medidas que
las instituciones toman para alcanzar los fines socialmente valorados. En la escuela
funcionalista americana, basada sobre todo en la obra de Talcott Parsons, se pone
un énfasis particular en el mantenimiento de la estabilidad social. En el contexto
estadounidense ayuda pensar que EE.UU. es una nación que todavía está
construyéndose a partir de inmigrantes de distintas procedencias (melting pot) y
que, por tanto, era necesario la integración política.
Origen del nombre
El nombre de esta escuela deriva del hecho de que para
el etnógrafo polaco Bronislaw Malinowski, seguidor de las teorías sociológicas del
francés Émile Durkheim, las culturas se presentan como todos "integrados,
funcionales y coherentes". Por lo tanto, cada elemento aislado de la misma sólo
puede analizarse considerando los demás.
Este autor estudia entonces la cultura y
demás hechos sociales, como por ejemplo
las instituciones en que éstos están
"concentrados", en función de cómo se
organizan para satisfacer
las necesidades de un grupo humano, es
decir, todas aquellas tareas u objetivos que
tienden a mantener y conservar los
organismos de la sociedad y a esta como tal,
incluyendo sus modelos culturales.
Planteamientos
Herbert Spencer
La teoría funcionalista propone que las sociedades suponen de mecanismos
propios capaces de regular los conflictos y las irregularidades, así como las normas
que determinan el código de conducta de los individuos, los cuales variarán en
función de los medios existentes y esto es lo que rige el equilibrio social. Por lo que
pasamos a entender a la sociedad como un “organismo”, un sistema articulado e
interrelacionado. A su vez, cada una de estas partes tiene una función de
integración y mantenimiento del propio sistema.
Según Parsons, la teoría de sistemas, se basa en la teoría funcionalista, y establece
que la sociedad se organiza como un sistema social que debe resolver cuatro
imperativos fundamentales para subsistir:
 Adaptación al ambiente.
 Conservación del modelo y control de tensiones.
 Persecución de la finalidad.
 Integración mediante las diferentes clases sociales.
De acuerdo al rol que asuman los subsistemas para resolver estos problemas
fundamentales, actuarán como funcionales o disfuncionales. Los funcionalistas
tienen una visión biologicista de la sociedad, es decir, entienden a la sociedad como
una entidad orgánica cuya normalidad viene postulada por fenómenos que se
repiten regular y sistemáticamente.
El pionero iniciador de la tendencia funcionalista en Latinoamérica fue Gustavo
Mendoza, quien adquirió sus conocimientos en el instituto humano-tecnológico
Humboldt.
Postulados funcionalistas
 Toda cultura tiende a formar una totalidad equilibrada frente a su tendencia
hacia el equilibrio y el cambio.
 La estructura social funciona por una orientación de necesidades básicas,
como en la estructura orgánica.
 Cada parte en el sistema social está unido a los demás.
 El funcionalismo introduce una división
en el trabajo antropológico; distingue
entre Etnografía y Etnología. El primero
describe aspectos particulares de una
cultura, se introduce en el trabajo de
campo, por medio de la observación
participante y crea una síntesis
explicativa de los datos etnográficos. La
etnología es el análisis transcultural de
los datos etnográficos, con el fin de
comparar y establecer regularidades
sustentables empíricamente.
 No se construyen teorías etnológicas
con facilidad, se pretende hacer
descripciones sugerentes que llevan a futuras teorías sobre el hombre.

You might also like