Paradigmas

Se muestra la diferencias del paradigma racionalista y el paradigma naturalista.Descripción completa

Views 232 Downloads 10 File size 67KB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

CAPITULO II DE PARADIGMAS Y MODELOS DE EVALUACIÓN

• Los diversos modelos de evaluación son divididos en esta lectura en dos grupos, ubicados de acuerdo con los paradigmas que los gobiernan. ¿Qué es un paradigma de la evaluación? Son las ideologías creativas de los evaluadores. Estos paradigmas determinan el pensamiento y el comportamiento metodológico de los evaluadores.

PARADIGMA RACIONALISTA • Al paradigma racionalista también se le conoce como paradigma del positivismo lógico, demanda una clara definición de los objetivos de evaluación y de las variables, un plan de muestreo, una instrumentación estructurada que genera datos cuantitativos, técnicas estadísticas para el análisis de datos y generalización de resultados.

PARADIGMA NATURALISTA • Asume que la realidad no existe fuera para que cada quien la vea y la experimente de la misma manera, sino que el mundo se encuentra y se elabora. • El evaluador o investigador mismo constituye parte del fenómeno que estudia.

PARADIGMA RACIONALISTA V.S. PARADIGMA NATURALISTA •

PARADIGMA RACIONALISTA.





PARADIGMA NATURALISTA:

RAICES FILOSÓFICAS: Positivista, Reduccionista, Libre de valores.



RAICES FILOSÓFICAS: Fenomenológico, Holista, cargado de valores.



ORIENTACIÓN TEÓRICA: Somete a prueba la teoría existente, Relaciones causales.





DISEÑO: Experimental o cuasi-experimental para asegurar objetividad y validez.

ORIENTACIÓN TEÓRICA: Usa teorías bien fundamentadas, relaciones plausibles, conformación mutua y simultánea.



DISEÑO: El diseño surge asegurando resonancia sin separar a quien conoce de lo que se conoce.



La situación de la evaluación / investigación: Ecológica, en el contexto natural.



MUESTREO: Propositivo, de élite, especializado. El tamaño se determian en la marcha, se completa cuando la información disponible es completa.



ORIENTACIÓN METODOLÓGICA: Libre de objetivos, cualitativa, cargada de descripciones.



La situación de la evaluación / investigación: En el laboratorio o controlada.



MUESTREO: Aleatorio, Tamaño predeterminado.



ORIENTACIÓN METODOLÓGICA: Orientación hacia los objetivos, Cuantitativa.



INSTRUMENTOS: Estructurados, frecuentemente intervencionista, se busca que sean estandarizados e independientes de sesgos del evaluador.



INSTRUMENTOS: No estructurados, con frecuencia que no perturban la situación natural. El evaluador o investigador mismo se convierte en una herramienta en recolección de datos.



PREFERENCIAS POR DATOS EXACTOS.



ANALISIS DE DATOS: Típicamente estadísticos.



TODO CONOCIMIENTO ES ACEPTABLE.



INFORME: Estadístico-analítico.





NATURALEZA DE LAS DECLARACIONES DE VERDAD: Leyes generalizadas.

ANÁLISIS DE DATOS: Temáticos, Análisis de contenidos de entrevistas, documentos y observaciones.



INFORME: Descriptivo, interpretativo, Típicamente un estudio de caso.



NATURALEZA DE DECLARACIONES DE VERDAD: Intuiciones acerca de covariaciones naturales de los acontecimientos, Ideas perspicaces, analogías.



RESULTADOS CONVERGENTES CONDUCENTES A HACER PREDICCIONES: Resultados divergentes, realidades múltiples o una construcción negociada de la realidad en su contexto.



PUNTOS FUERTES: responsivo, adaptable, énfasis, es holista y humaniza la actividad evaluadora.



PUNTOS DÉBILES: El evaluador puede perderse en las complejidades de la vida real, puede carecer de habilidades interpersonales y perceptibilidad indivudual.







RESULTADOS CONVERGENTES CONDUCENTES DE HACER PREDICCIONES: Realidad tangible única. PUNTOS FUERTES: Proporciona buenas estimaciones de las diferencia, variaciones y correlaciones cuando las variables realmente, pueden ser definidas apropiadamente y pueden establecerse controles razonables. PUNTOS DÉBILES: El buscar acomodar preguntas de evaluación a los métodos y modos de análisis aceptables puede llevar a escoger preguntas triviales y artificiales y obtener resultados triviales e inútiles.

MODELOS DE EVALUACIÓN. • Hay muchos modelos de evaluación diferentes debido a que los distintos especialistas han pasado por experiencias diferentes al aprender y hacer la evaluación y al reflexionar sobre sus experiencias han utilizado diferentes puntos de vista y valores. • A continuación se hablarán de algunos:

• EVALUACIÓN ORIENTADA POR OBJETIVOS (TYLER): Busca hacer comparaciones entre los “resultados esperados” y los “resultados reales”. • EXPERIMENTACIÓN SOCIAL: Busca experimentar con grupos sociales ya existentes. • MODELO CONTEXTO-INSUMOS-PROCESOSPRODUCTO (CIPP) Y LA RED EIPOL: Su único propósito es producir información útil para las decisiones. • MODELO DE LAS DOS CARAS DE LA EVALUACIÓN: Se relaciona directamente con la evaluación de efectos en términos de los objetivos establecidos e implica completar dos matrices de datos: Descripción y Juicio.

• EVALUACIÓN RESPONSIVA: Se acerca más a las evaluaciones transaccional y naturalista, responde a las necesidades reales de las audiencias que requieren la información. Se focaliza en las actividades reales, capta el espíritu y el misterio del fenómeno en estudio. • MODELO DE LA DISCREPANCIA: Los principios básicos del modelo son: los estándares, la ejecución y la discrepancia (entre lo esperado y lo ejecutado en un programa) • EVALUACIÓN TRANSACCIONAL: Considera la percepción y el conocimiento como procesos de transacción.

• EVALUACIÓN LIBRE DE METAS: Scriven señaló que con nuestro énfasis sobre las metas establecidas, nuestra búsqueda se había centrado completamente en los efectos esperados. • ENFOQUES INVESTIGATIVOS A LA EVALUACIÓN: sugiere estrategias par captar una situación, infiltrarse, construir relaciones amistosas y de confianza y usarlas en un proceso contínuo de prueba y control. • EVALUACIÓN ILUMINATIVA: Se construyó este modelo sobre la base de dos consideraciones importantes: 1.- Los sistemas de instrucción (sistemas vivos) y 2.- Los programas de capacitación y desarrollo.

• EVALUACIÓN POR EXPERTOS: rompe con el paradigma científico y rescata la tradición estética por las artes. • EVALUACIÓN COMO DEFENSA: utiliza procedimientos casi judiciales para conducir la evaluación. • EVALUACIÓN PARTICIPATIVA: es un recuento existencial profundo de una experiencia en que toman parte todos los interesados conjuntamente, en colaboración. • EVALUACIÓN (3S) COMO ESTRATEGIA PARA LA SITUACIÓN ESPECÍFICA: es un conjunto vacío que nos permite seleccionar el modelo apropiado o la combinación adecuada de modelos y enfoque que se vaya a usar en un programa de estudio evaluativo.