You are on page 1of 18

TEMA 2 INVESTIGACIN EVALUATIVA La evaluacin de programs educativos: conceptos bsicos, planteamientos generales y problemtica. Ramn Prez Juste. UNED.

La educacin como objeto de conocimiento, es considerada desde mltiples perspectivas: Como arte, pero utilizando el saber pedaggico. Como ciencia (pedagoga en las Ciencias Sociales). Como tecnologa, aplicacin de la investigacin a las condiciones de vida del ser humano. La evaluacin de programas y la mejora de la actuacin pedaggica. La evaluacin de programas presenta dos lneas -La reflexin del profesor que evala su propio plan personal lo que conduce a la mejora del sistema educativo. -La evaluacin del experto a travs de la complementariedad metodolgica. La evaluacin evaluativa, suele ser externa, dando lugar a la investigacin evaluativa. Conceptos bsicos: Programa: plan sistemtico diseado por el educador al servicio de las metas educativas. -El programa debe contar con metas y objetivos, relacionados con el contexto y destinatarios. -El programa debe quedar totalmente especificado para ser evaluable. -Ha de incorporar medios y recursos suficientes, adecuados y eficaces -Evaluacin en el programa y del programa. Evaluacin,valoracin, a partir de criterios y referencias preespecificadas, de la informacin tcnicamente diseada y sistemticamente recogida y sistematizada, sobre cuantos factores relevantes integran los procesos educativos para facilitar la toma de decisiones de mejora. Componentes fundamentales de la evaluacin: -Los contenidos a evaluar -La informacin a recoger.

-Valoracin de la informacin en base a criterios (exactitud, precisin, claridad) y referencias (normativa, criterial y personalizada). -La finalidad. La ms coherente es la formativa, sea para el alumno, para el profesor o para el centro educativo. -Integral: al servicio de la mejora de la persona. -Integrada: es una parte ms -Carcter Integrador: dimensin activa y dinmica de la evaluacin Evaluacin de programas- es un proceso sistemtico, diseado intencional y tcnicamente, de recogida de informacin rigurosa(valiosa, valida y fiable),orientado a valorar la calidad y los logros de un programa, como base para la posterior toma de decisiones de mejora, tanto del programa como del personal implicadoy, de modo indirecto, del cuerpo social en que se encuentra inmerso. Componentes bsicos de una propuesta para la evaluacin de programas educativos. Se debe tener en cuenta: -Lo educativo como referencia constante. -El tamao o la amplitud del programa. -La complejidad del programa. -El status del evaluador. -Las unidades de anlisis. -La relacin entre le programa y su evaluacin. -La informacin a recoger. 4- Problemtica: -La existencia de expertos. -Factibilidad -juicios expertos o juicios democrticos? -Los planteamientos ticos -La comparabilidad de los datos.

evaluacin PRIMER MOMENTO (Funcin preventiva de la evaluacin) Establecer su calidad, su viabilidad prctica y su evaluabilidad. Funcin: formativa y en ocasiones sumativa. Documentos Delphi, registros Fundamentacin, formulacin y relacin con necesidades, carencias Calidad, pertinencia y realismo de objetivos y metas, adecuacin a CRITERIOS destinatarios y contexto, calidad, coherencia , congruencia interna, evaluabilidad -Sumativas (mantener o suprimir el DECISIONES Generalmente formativas, en caso grave: sumativas ( retirada del programa) Ajustes parciales, en casos extremos suspensin. programa) -Formativizadas ( mejorar el programa para Cumplimiento (desfases), coherencia institucional, eficacia parcial, satisfaccin de os implicados. SEGUNDO MOMENTO Evaluacin del proceso de implantacin del programa. Facilitar la toma a tiempo de las decisiones de mejora. Formativa, en casos extremos sumativa. Observacin, dilogos, entrevistas Sobre el desarrollo del programa TERCER MOMENTO Evaluacin de los resultados de la aplicacin del programa. comprobar la eficacia del programa formativa y cuando sea posible la sumativa formativizada. REFERENCIAS: PROGRESO, LOGRO DE DOMINIO, SUPERIORIDAD Resultados en relacin con los objetivos.

FINALIDAD FUNCIN METODOLOGA INFORMACIN A RECOGER

Eficacia, eficiencia, efectividad, satisfaccin e impacto.

una nueva edicin) CUARTO MOMENTO: Institucionalizacin de la evaluacin del programa. Ciclos sucesivos de evaluacin/mejora/evaluacin/mejora

La evaluacin de programas sociales: fundamentos y enfoque tericos. Mario de Miguel. Universidad de Oviedo. Investigacin evaluativa: Aplicacin de principios y procedimientos de la

investigacin social para comprobar sistemticamente la eficacia de un programa o intervencin social. Evaluacin de programas: Conjunto de principios, estrategias y procesos que fundamentan la evaluacin de toda accin o conjunto de acciones desarrolladas de forma sistemtica en un determinado contexto con el fin de tomar las decisiones pertinentes que contribuyan a mejorar las estrategias de intervencin social. Se fundamenta en tres pilares: -La evidencia -Los valores. -Las decisiones. La diferencia principal entre ellas es que la investigacin evaluativa constituye esencialmente una estrategia metodolgica orientada a la bsqueda de evidencias respecto a un programa, mientras que la evaluacin de programas requiere, adems, abordar otros problemas relacionados con los criterios a utilizar para emitir los juicios de valor y con los procesos relativos a la toma de decisiones. DELIMITACIN DEL CONTEXTO DE TRABAJO

Principal debilidad de la evaluacin como disciplina cientfica: escasa atencin que se presta a la teora. La evaluacin de programas es algo ms que una metodologa aplicada y requiere de sus propias bases tericas que justifiquen y den sentido a lo que hace un evaluador, cmo lo hace y sobre todo, para qu lo hace. El evaluador debe precisar en cada caso, el marco conceptual que asume a la hora de planificar y justificar su trabajo, ya que las decisiones metodolgicas deben estar siempre supeditadas a los planteamientos tericos.

Justificacin del enfoque terico elegido segn: -El concepto de programa. -Las bases epistemolgicas para la construccin de la evidencia. -Los criterios a utilizar para formular juicios de valor. -La utilidad que se va a dar a los informes. -El enfoque metodolgico que se va a seguir. CONCEPTO DE INTERVENCIN SOCIAL Conjunto de principios interrelacionados, que explican y predicen la conducta de una persona, grupo u organizacin, sobre la que hemos llevado a cabo una accin intencional y sistemtica. a) El programa como verificacin de teoras. Se enfatiza el papel de la teora como fundamento de toda la intervencin social, por lo que el objetivo prioritario se orienta a probar las relaciones causa-efecto que se establecen entre el tratamiento y los resultados. Se habla de resultados o impactos (resultados: los efectos del programa y los impactos: aquellos que tengan indicios razonables de causalidad). b) El programa como tecnologa sistemtica. La evaluacin de programas, antes que los problemas de causalidad de las teoras, se deber centrar sobre los procesos de instrumentacin de las estrategias de intervencin, ya que son las contingencias que se establecen en cada caso, las que, en ltima instancia determinan las diferencias. Es importante distinguir entre: -Efectos debido al desarrollo de los programas. -Efectos determinados por las teoras. Por tanto hay un cambio de enfoque sobre el concepto de programa tipificado como tecnologa instrumental, que debe ser diseado y modificado, de forma constante en funcin de su utilidad y en relacin con los objetivos establecidos. c) El programa como compromiso con el cambio social. La justificacin terica de todo programa, es promover un cambio social y ste debe ser el objetivo de la evaluacin. El evaluador no se sita al margen de del programa, sino que es un elemento del mismo y asume el papel de crtico respecto al cambio social. LA CONSTRUCCIN DEL CONOCIMIENTO La opcin metodolgica elegida por un evaluador, implica implcitamente una toma de postura ontolgica y epistemolgica.

Debido a que ningn paradigma clsico ofrece bases epistemolgicas plenamente satisfactorias, algunos autores, tratan de promover un marco terico adecuado, que justifique esta disciplina. Naturaleza de las evidencias: Datos y opiniones. Algunos evaluadores, inmersos en la lgica positivista, slo aceptan como certezas los datos objetivos obtenidos mediante una metodologa cientfica rigurosa. Otros ms pragmticos, consideran que el rango de un conocimiento viene determinado por su utilidad, y es imprescindible recabar otro tipo de informacin (datos subjetivos) Lo aconsejable es integrar distintas informaciones a partir de estudios y mtodos diversos. Controversia entre deduccin e induccin. (verificacin contra descubrimiento) Hay que considerar sus ventajas y desventajas, en funcin de los propsitos que pretendemos alcanzar con la evaluacin. EL PROBLEMA DE LOS CRITERIOS DE VALOR El evaluador debe especificar en cada caso, los criterios que utiliza, para formular sus juicios respecto a los distintos aspectos del programa. Hay dos tipos de valoracin: -La valoracin Descriptiva. Se asume los valores de otros como criterio de referencia. -La valoracin Prescriptiva. El evaluador define los criterios. En el primer caso , el avaluador mantiene su independencia, y es habitual realizar este tipo de valoracin. Los tipos de criterios que se deben considerar son: -Polticos. (decisiones polticas). Prioridades de actuacin social. -Democrticos (audiencias). Enfocan la evaluacin de forma participativa. -Tcnicos. (aplicacin de procedimientos cientficos adecuados). Precisan normas, estndares e indicadores. UTILIDAD Y CREDIBILIDAD DE LOS INFORMES. Los posibles usos del informe son: -En funcin a explicaciones generalizables. (investigacin rigurosa) -Para facilitar la informacin para la toma de decisiones. -Para identificar los usuarios potenciales de la informacin. -Para clarificar el nivel de operatividad el informe. El informe puede ser:

-Informe Instrumental. Los resultados obtenidos se utilizan de forma directa para tomar decisiones. -Informe conceptual. Indirectamente, influyen en como perciben y valoran las personas las intervenciones. -Informe persuasivo. Informacin utilizada para convencer a las audiencias. La elaboracin y difusin adecuada de los informes. Ni es propiedad de unas minoras, ni todo lo contrario. La utilidad de una evaluacin es mayor en la medida en que tienen posibilidad de acceso a la informacin todos los sectores implicados. DELIMITACIN DEL ENFOQUE METODOLGICO. Se determina el enfoque metodolgico y la eleccin del modelo y diseo de una evaluacin, segn: -La naturaleza de la evaluacin. -La finalidad que se propone. -Las audiencias implicadas. -La informacin necesaria. -La metodologa a utilizar. -Los criterios de evaluacin. -La utilidad de los resultados La eleccin del modelo evaluativo Segn la finalidad, el modelo puede ser: -Segn la funcin. (rendir cuentas, mejora, conocimientos) -Segn los objetivos. (Han sido alcanzados los objetivos?/opinin d el audiencia/informacin cualificada para el futuro/coste-efectividad/coste-beneficio) Concrecin de los parmetros del modelo. -Conceptualizacin del programa como estrategia de intervencin social. -Las bases epsitemolgocas. -El tipo de criterios que se van a utilizar. -La utilidad que pueden tener los informes. -El papel a desempear por el evaluador. -Utilizacin de las taxonomas. (Stecher y Davis: 5 enfoques: experimental, dirigido a metas, orientado a las decisiones, centrado en los clientes Eleccin del diseo y mtodos. Es la estrategia o plan que vamos a seguir. Los diseos se clasifican en: -En funcin de un enfoque terico adaptado (preordenado-efectos, respondientesignificados)

-En cuanto el sistema de control que permitan las variables del programa. (observacionales, beneficio) -En cuanto el sistema de control que se utiliza sobre la informacin recabada: diseos comparativos o de cobertura parcial y diseos no comparativos o de cobertura total. Correspondencia entre modelos y diseos. Propuestas del autor: -Profundizar sobre teoras relacionadas con el cambio social. -Establecer una teora evaluativo explcita adems de la implcita. -Clarificar los fundamentos epistemolgicos de toda evaluacin. -Abordar la evaluacin como una tarea eclctica. -Elegir los mtodos en funcin de la finalidad -Fomentar la diversidad metodolgica. -Promover trabajos de sntesis, antes que individuales. -Velar por la credibilidad de los informes. -Analizar los factores contextuales y informacin. -Realizar estudios de meta-evaluacin sobre los trabajos efectuados. polticos que condicionan el uso de la selectivos, cuasiexperimentales, experimentales, coste-

1-LA EVALUACIN DE PROGRAMAS COMO INVESTIGACIN EVALUATIVA La investigacin evaluativa va ms all de la investigacin, al proponer la aplicacin de procedimientos cientficos, para acumular evidencia vlida y fiable sobre la manera en que el conjunto de actividades produce resultados concretos, determinando el valor de la accin educativa, buscando soluciones o mejorando las estrategias de actuacin. La investigacin evaluativo es un modo de investigacin, que implica un proceso rigurosos, controlado, y sistemtico de recogida y anlisis de informacin fiable y vlida para tomar decisiones sobre un programa educativo.

Caractersticas de la investigacin evaluativo. -Los juicios de valor se acompaan del desarrollo de todo el programa. -Es difcil formular hiptesis precisas. -Es complicada la replicacin. -Algunas variables son difciles de controlar. -Las decisiones importantes no son importantes para el evaluador. -El informe debe adaptarse a quien lo financia. Toda situacin educativa es susceptible a un doble tratamiento:la investigacin y la intervencin. De esta manera, en el diseo de evaluacin de programas, nos vamos a encontrar con una doble acepcin del trmino: -El Diseo de evaluacin.: diseo, como planificacin general del proceso de intervencin. -El diseo de investigacin: diseo, como planificacin puntual del anlisis de los efectos de la intervencin realizada. 2-DISEO DE EVALUACIN Los elementos bsicos de un diseo de evaluacin son: -La determinacin de los datos que se requieren para valorar la eficacia del programa. -La determinacin del plan para obtener la informacin necesaria, que nos permita establecer relaciones entre el programa y los resultados obtenidos. Se consigue, a travs de: -Actividades que se van a evaluar. -Criterios de evaluacin. -Estrategias de obtencin de informacin. -Anlisis de la informacin. -Toma de decisiones. Tipos de diseos 1- Diseos prefijados vs emergentes. Diseos prefijados (positivistas): los objetivos de la evaluacin estn claramente definidos antes de ejecutar el programa. Nos informan de la consecucin de los objetivos del programa y los datos suelen ser de carcter cuantitativo. Diseos emergentes: Estn abiertos a posibles modificaciones y se adaptan mejor a las necesidades de los participantes. Se produce una reformulacin constante de los objetivos y los datos suelen ser de carcter cualitativo. 2-Diseos de evaluaciones formativas vs sumativas

Diseos formativos: La evaluacin se plantea desde una perspectiva interna. Su objetivo principal es la mejora del programa. Se persigue, sobre todo la utilidad. Puede ser fijo o emergente. Diseos sumativos: Su objetivo es ofrecer un juicio sobre la satisfaccin de las necesidades y/o consecucin de los objetivos, siendo el evaluador ajeno al equipo tcnico del programa. El diseo, suele ser de tipo fijo. Proceso de evaluacin a)Evaluacin de las necesidades. b)Evaluacin del diseo (valorar el plan de accin y los recursos del programa) c)Evaluacin de la implementacin. Incluye: -Evaluacin de la cobertura. Analizar si el programa cubre todos los objetivos previstos y si llega a todos los sujetos. -Evaluacin del proceso (seguimiento). Realizacin de un anlisis del funcionamiento y revisin de todos sus elementos. d)Evaluacin de los resultados. Hasta que punto se vinculan los logros obtenidos con los efectos del programa. 2 tipos: -Evaluacin de verificacin (datos cuantitativos/cualitativos) -Evaluacin de comprensin. (datos cualitativos) e) Meta-evaluacin 3-LOS DISEOS DE INVESTIGACIN EN LA EVALUACIN DE PROGRAMAS. 1-Diseos para la investigacin cuantitativa. a) Diseos descriptivos-comparativos. b) Diseos longitudinales (diacrnicos/ sincrnicos) c) Diseos correlacionales. d) Diseos causales e) Diseos experimentales. (preexperimentales, cuasiexperimentales y de campo) 2-Diseos para la investigacin cualitativa. a) La observacin naturalista (estudio de casos, estudio de grupo, etnografa, contextos) b) Diseos de investigacin-accin. 1- Diseos para la investigacin cuantitativa. El diseo experimental Pretende llegar a establecer relaciones causales mediante la manipulacin de las variables y el control.

No se consideran adecuados en la evaluacin por su artificialidad y reduccionismo. Experimentos de campo Se llevan a cabo en marcos naturales (reduccin de VI), pero existen ms variables extraas y la posibilidad de estudiar fenmenos complejos, as como la resolucin de problemas prcticas. El aspecto ms complicado es el control de las variables y la aleatorizacin de las muestras. Cuasiexperimentos. Se emplean escenarios naturales. Existe carencia del control experimental completo, por lo que se utilizan procedimientos para minimizar la falta de control. Tipos: -Diseos simples de series temporales. Medida de VD antes y despus que VI -Diseo de grupo de control no equivalente. (naturales). Medidas pre y posttratamiento. El mtodo psicomtrico El objetivo del estudio no es establecer causalidad sino el anlisis de la covariacin de las variables analizadas. La finalidad , es pues descriptiva.Tipos: -Diseos descriptivos (estudio de encuesta tipo Survey). Comparacin de comportamientos de grupos en diferentes variables , que han ocurrido de forma natural. -Diseos correlacionales (covariacin, predictivos, causales). Determinan las variables relacionadas con el fenmeno de estudio. 2- Diseos para la investigacin cualitativa. La observacin. Se deben utilizar tcnicas que permitan lograr el mximo control y objetividad de la realidad. En el contexto de la evaluacin de programas la observacin cientfica se llama: observacin naturalista. Este mtodo se basa en la observacin de los comportamientos naturales del grupo social de referencia. El objetivo principal es el estudio intensivo de los fenmenos complejos que forman la vida de un grupo de personas, para conducirnos a propuestas de solucin de las carencias percibidas. Las pautas generales del proceso de la observacin naturalista son: -Definir metas y muestras. -Decidir si va a ser participante. -El modo de entrar en contacto con los sujetos. -Muestrear los ambientes.

-Muestrear las unidades temporales. -Procedimiento de recogida de datos. -Fijacin de las categoras de clasificacin de las conductas a observar. -Tcnicas de organizacin y anlisis de datos. 3-El entorno interpretativo-crtico En la investigacin-accin las teoras se hacen vlidas en la prctica, es decir es una actividad desarrollada por grupos con el propsito de cambiar las circunstancias de acuerdo a una idea compartida y mediante la prctica reflexiva. El diseo est vinculado con la intervencin-accin, la secuencia evaluativa es cclica y el anlisis e interpretacin de los datos se hace manera colectiva.

El artculo se estructura en dos partes: el concepto de validez y estrategias de consecucin de la validez. 1-DEL CONCEPTO DE VALIDEZ La evaluacin de programas requiere el mismo grado de control, rigor y sistematizacin que se le puede exigir a cualquier tipo de investigacin. Los diversos tipos de aproximaciones en cuanto a planteamientos epistemolgicos y metodolgicos, influyen en la delimitacin del concepto de validez en la evaluacin de programas. Dentro de la tradicin positivista, encontramos desde un cumplimiento casi absoluto de todas las condiciones del mtodo cientfico naturalista (control,aleatorizacin) Hasta cumplimientos ms laxos . Con el constructivismo, hablamos de comprensin, por tanto, la causalidad y la prediccin es sustituida por la comprensin de las acciones y percepciones de las personas, dentro de la investigacin fenomenolgica, etnogrfica, participacinaccin -Validez en la evaluacin de programas (concepto multidimensional): El grado en que un proceso de evaluacin de programas atiende de forma adecuada los componentes metodolgicos implicados con el fin de: -Representar de forma realista el objeto evaluado.

-Facilitar la consecucin de metas -Respetar los intereses de todos. -Representar el contexto -Contribuir a la mejora. Segn estos componentes, la validez representara la calidad de todo el proceso y es relativa y gradual. Siguiendo a Guttman con su anlisis de facetas. Las facetas de la validez son: 1-Facetas subyacentes metodolgicas de la validez. (propias de cualquier proceso de investigacin) -FACETAS GENRICAS a) Validez interna. La asociacin constatada entre el programa implementado y el efecto medido es causal. Se entiende la validez, como un conjunto de criterios de calidad que se orientan por los principios de consistencia y credibilidad de los elementos. b) Validez externa. (generalizacin de constructo). Conjunto de criterios de calidad que se orientan por el prinicpio de generalidad. -FACETAS ESPECFICAS a)Validez de constructo: realizacin de inferencias acerca de las teoras que han orientado la evaluacin. b)Validez de conclusin. Inferencias acerca de las relaciones entre el programa y su efecto. 2- Facetas adaptativas de la validez. -En relacin con la representacin del objeto. Es central la idea de coherencia entre todos los elementos que componen la evaluacin. Implica, tanto el planteaminto metodolgico como el instrumental. -Adaptacin al proceso evaluado. Se trata de llevar a cabo, los diferentes elementos de la evaluacin, respetando su proceso natural de desarrollo. -Integracin contextual. Son elementos de la validez, otras variables del contexto que influyen en el proceso -Participacin e implicacin de audiencias. La validez depende de la implicacin y expectativas de los participantes del programa. -Compromiso con el cambio. Credibilidad y utilidad. La evaluacin de programas debe aportar mejora e innovacin. 2-ESTRATEGIAS DE CONSECUCIN DE LA VALIDEZ EN EVALUACIN DE PROGRAMAS

-Planificacin de la evaluacin: construccin del plan de trabajo, adaptacin y desarrollo del mismo. Los elementos que pueden ayudar a la consecucin de la validez son: a) Integracin de los diversos implicados de acuerdo con su grado de responsabilidad y rol. Puede ser til la formacin de comits, que sean la base del consenso necesario en otras fases del proceso. b) Definicin del objeto a evaluar y la finalidad de la evaluacin. Determinar qu se va evaluar y definir el uso, mediante la negociacin de los implicados. c) Construir el plan de trabajo. Conexin con la finalidad, las ideas clave y conseguir condiciones de generalidad. d) Recogida de informacin. Asegurar la mxima calidad y representatividad de la misma. Se debe conseguir una relacin adecuada entre la fuente y el procedimiento, se deben seleccionar instrumentos segn fiabilidad, validez y por ltimo recoger la informacin en el momento ms adecuado. e) Anlisis de datos. Garantizar la coherencia (interna/externa) -Gestin de la informacin Se diferencian 3 momentos durante la evaluacin: -Durante el proceso de evaluacin. Flexibilidad para adaptar el plan a las nuevas informaciones. -En la finalizacin del proceso. Coherencia y difusin de la informacin, credibilidad de los medios utilizados para los agentes implicados. -Despus del proceso. Valoracin global del mismo y seguimiento de las consecuencias de la evaluacin (estrategias meta-evaluativas)

1-INTRODUCCIN El anlisis de datos, proporciona la evidencia suficiente a las hiptesis planteadas mediante diferentes tcnicas (generalmente cuantitativas), transformando los datos en resultados. Debido a que la evaluacin de programas presenta como objetivo primordial la intervencin y la mejora, las tcnicas analticas que se utilicen, deben proporcionar

resultados sustantivamente significativos, es decir, deben dar clara respuesta a los problemas planteados. Dos de las caractersticas ms importantes del anlisis de datos en la evaluacin de programas son, su estructura jerrquica o anidada y la complementariedad metodolgica (mltiples enfoques, mtodos y tcnicas). Por ltimo la comunicacin en evaluacin de programas, trata de transmitir al conjunto de los agentes implicados en la evaluacin los resultados de dichos anlisis, para que sean de utilidad para la accin y la mejora. Fases del proceso de evaluacin Tras las decisiones del diseo a utilizar y la recogida de los datos, empieza el proceso de anlisis de los datos, que depende del enfoque que previamente se haya dado a la evaluacin (cuantitativo, cualitativo o mixto), siendo el proceso abierto, cclico e interactivo. Dentro de los distintos tipos de evaluacin que existen (de necesidades, de diseo, de evaluabilidad), la evaluacin de resultados o impactos es donde el anlisis de datos encuentra su mejor uso, aunque puede utilizarse en muchas fases o tipos de evaluacin. Dentro de la valoracin del impacto, las principales funciones del anlisis de los datos son: -Descripcin comprensiva de datos brutos. -Valoracin de si las relaciones detectadas son o no significativas. -La estimacin de magnitudes y diferencias. -La estimacin de la sustantividad de los efectos. 2-ALGUNAS TCNICAS ESTADSTICAS PARA EL ANLISIS DE DATOS El anlisis discriminante, regresin logstica. Regresin y discriminacin no paramtrica. (tcnicas de segmentacin) Las dos primeras tcnicas citadas, se pueden emplear si la variable dependiente es dicotmica y las variables independientes son cuantitativas. Las tcnicas de segmentacin son muy usadas en estudios de mercado, siendo en el campo de la educacin su uso ms escaso. El anlisis factorial tablas mltiples. El anlisis factorial es el modelo exploratorio por excelencia. Cuando la realidad va evolucionando a travs del tiempo, es ms adecuado realizar el anlisis mediante tablas mltiples y diseos de medidas repetidas. Diseos de medidas repetidas y series temporales.

El diseo de medidas repetidas no precisa ni control ni aleatorizacin completa, mientras que el diseo de series temporales, precisa medicin a intervalos regulares de tiempo, que como poco debe ser de 50. Modelos de ecuaciones estructurales. Los modelos de ecuaciones estructurales posibilitan especificar las Variables independientes que predicen cada una de las variables dependientes, siendo una alternativa al modelo lineal, operando con datos no experimentales. Los modelos jerrquicos lineales. Son el principal avance metodolgico de los ltimos aos. Disponen de un conjunto de tcnicas que permiten analizar la estructura multinivel o anidada del mbito educativo. Estos modelos son sencillos de interpretar o comunicar y pueden tratar variables de respuesta cuantitativas y cualitativas. El metaanlisis Es un conjunto de tcnicas estadsticas de integracin de resultados de distintas investigaciones sobre un mismo problema, buscando patrones comunes, consistencia o descripcin de los resultados cuantitativos. Los tipos de metaanlisis son: -Escrutinio del problema-Se confunden el efecto y el tamao de la muestra. -El clsico o glass-Se caracteriza cada resultado por el tamao del efecto. -Pruebas de homogeneidad-Determina si la varianza entre tamaos del efecto es aleatoria. -El meta-anlisis psicomtrico-Se corrige la distribucin de los tamaos del efecto segn una serie de factores que influyen en l. -Modelo jerrquico lineal-La organizacin de los datos, responde a una estructura jerrquica o anidada. 3-DIFUSIN Y COMUNICACIN DE LOS RESULTADOS EN EVALUACIN DE PROGRAMAS. Por difusin se entiende como la presentacin del proceso, datos y resultados de la evaluacin de programas a los miembros de la comunidad cientfica. Por comunicacin se entiende la presentacin de los resultados de la evaluacin a los clientes o implicados. En la comunicacin de resultados y para que stos sean comprensibles por audiencias no expertas, los datos deben ser nuevamente analizados despus de la interpretacin. Incluso, pueden usarse grficos y tablas estadsticas que faciliten el entendimiento.

1-MARCO CONCEPTUAL DE LA EVALUACIN La comparacin y el juicio son los componentes esenciales de la evaluacin, su ncleo conceptual. Adems, la evaluacin tiene un carcter instrumental que la trasciende, pudiendo definirse como el proceso de recogida, anlisis e interpretacin de informacin relevante y fiable para describir un programa educativo o una faceta del mismo, y formular un juicio sobre su adecuacin, a un criterio, que represente un valor aceptado, como base para la toma de decisiones sobre tal programa. 2-LAS FUNCIONES DE LA EVALUACIN -La evaluacin formativa-Se centra en las fases previas de desarrollo del programa, y proporciona la informacin adecuada para la mejora de los procesos educativos, y a travs de ellos, el producto. -La evaluacin sumativaTiene generalmente carcter final. Se centra bsicamente en los resultados inmediatos e impacto de los programas educativos. En las instituciones educativas, se acepta de forma general, dos formas de evaluacin: la orientada al control (evaluacin sumativa) y la orientada a la mejora (formativa) 3-INFLUENCIA DE LA EVALUACIN EN LA CALIDAD DE LA EDUCACIN Si los criterios y los modos de evaluacin que determinan los objetivos y el producto del programa, son coherentes con los objetivos formalmente establecidos, la evaluacin actuar como un poderoso factor de promocin de la calidad educativa. 4-CONDICIONES GENERALES DE LA EVALUACIN COMO INSTRUMENTO DE OPTIMIZACIN EDUCATIVA. Es necesario poder identificar que caractersticas debe tener un modelo de evaluacin para maximizar los efectos positivos y minimizar los negativos. La validez educativa de la evaluacin como base de la calidad significa: -Formulacin clara de los objetivos de la evaluacin. -Los criterios de valuacin deben consistir en una adecuada muestra representativa de los contenidos y conductas especificadas en los objetivos.

-Las

tcnicas

evaluativas

empleadas

deben

estar

relacionadas

con las

caractersticas del aprendizaje deseadas. -Que la evaluacin sea fiable y objetiva. 5-OPTIMIZACIN PROGRAMA Una manera de aumentar la optimizacin de los programas educativos, es asociar la evaluacin a su planificacin, desarrollo, y aplicacin. EDUCATIVA Y EVALUACIN DE LAS FASES DEL

You might also like