Manual 3 Arreglado

EXAMEN DE GRADO 2015 Manual de competencias 3 1 Competencia 33: Epistemología – Investigación II Paradigmas que está

Views 235 Downloads 11 File size 5MB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

EXAMEN DE GRADO 2015 Manual de competencias 3

1

Competencia 33: Epistemología – Investigación II Paradigmas que están a la base de la metodología cualitativa y cuantitativa Metodología Cuantitativa Positivismo clásico: Comte, Descartes, Locke, Hume, Kant Positivismo lógico: Carnap Postpositivismo: Popper, Kuhn, Feyerabend Metodología Cualitativa Paradigma postpositivista (Teoría fundamentada, por ejemplo). Revisar EgonGuba. Paradigma Constructivista. En cuanto a la clasificación de los paradigmas se observa que existen dos fuerzas bien definidas: el positivista y el interpretativo, definidos por el carácter de su ontología, epistemología, y metodología. Sin embargo, a partir de la teoría crítica de Habermas, se desarrolló el llamado paradigma sociocrítico, cuyos puntos de contacto con el interpretativo hacen que muchos autores lo consideren unido a este. Es por ello que para el presente manual, se considerará tanto el paradigma interpretativo, como el sociocrítico dentro de la metodología cualitativa. Metodología Cuantitativa Paradigma positivista También llamado hipotético-deductivo, cuantitativo, empírico-analista o racionalista, surgió en el siglo XVII y tiene como fundamento filosófico el positivismo. Fue desarrollado para estudiar los fenómenos en el campo de las ciencias naturales, pero después también fue utilizado para investigar en el campo de las ciencias sociales. La investigación positivista asume la existencia de una sola realidad; partiendo de supuestos tales como que el mundo tiene existencia propia, independiente de quien lo estudia y que está regido por leyes, las cuales permiten explicar, predecir y controlar los fenómenos. En consecuencia, la finalidad de las ciencias está dirigida a descubrir esas leyes, desarrollando generalizaciones teóricas que contribuyen al enriquecimiento de un conocimiento de carácter universal. Este carácter también es denominado como “nomotético”, por oposición a lo “ideográfico”, que estudiaría los fenómenos en su singularidad. Para el paradigma positivista, el estudio del conocimiento existente en un momento dado conduce a la formulación de nuevas hipótesis, en las cuales se relacionan variables, cuya medición cuantitativa, permitirá confirmarlas o refutarlas en el proceso de investigación. Se busca una relación causa-efecto, donde los investigadores han de mantener una actitud neutral frente a los fenómenos. El experimento y la observación son considerados los métodos fundamentales del conocimiento científico, los resultados objetivos y cuantificados obtenidos experimentalmente determinarán la validez de la predicción inicial. Para lograr la fiabilidad de los resultados se necesita delimitar con criterios estadísticos una muestra representativa de cada población. Solo así los resultados podrán ser considerados con validez universal, aplicables a cualquier contexto o situación. En síntesis, las características de la investigación positivista serían: 1. Monismo metodológico 2. El modelo de las ciencias naturales exactas 2

3. La explicación causal 4. El interés dominador del conocimiento positivista (control y dominio de la realidad) Positivismo clásico Se sabe que el estudio riguroso del conocimiento, desde la perspectiva filosófica, comenzó con el positivismo lógico, cuyos representantes se agruparon en el Círculo de Viena (1929), sosteniendo que el conocimiento que amerita ser estudiado desde el punto de vista epistemológico era específicamente el conocimiento científico, y no cualquier otro tipo de conocimiento. En ese sentido, los positivistas lógicos distinguieron dos niveles de análisis sobre el conocimiento, que fueron: el contexto de descubrimiento y el contexto de justificación. El primero se refiere al estudio del acto de concebir o inventar una idea, o teoría nueva; o sea, trata de los procesos reales del pensar relacionados con la psicologíadel conocimiento. Mientras que el contexto de justificación trata de la validación lógica de una hipótesis o teoría científica ya estatuida, con el fin de aceptarla o rechazarla. Augusto Comte Según Comte (1798-1857) sólo existe un conocimiento propio de las ciencias, no un conocimiento filosófico, siendo la filosofía solamente una reflexión o teoría acerca de la ciencia. Comte defendía la idea de que el cambio social solo podía surgir a partir del conocimiento. Así, realiza un análisis de la historia del conocimiento, estableciendo tres estadios o etapas en el desarrollo de este, distinguiendo el conocimiento positivo como aquel que proviene de la observación y de la experimentación. Estos estadios son: 1.- Estado Teológico: En la que el hombre hace depender los fenómenos naturales de la voluntad de poderes superiores (p.e. fetichismo, politeísmo, monoteísmo). 2.- Estado Metafísico: Consiste en una forma algo más crítica, que sustituye las creencias del primer tiempo por entidades abstractas (fuerzas, esencias y la naturaleza). 3.- Estado Positivo: Es el definitivo. En él, la imaginación queda subordinada a la observación. La mente humana se atiene a las cosas. El positivismo busca sólo hechos y sus leyes. No causas ni principios de las esencias o sustancias. Los significados son sinónimo de lo real, útil, certero y relativo, al contrario de lo negativo. René Descartes (racionalismo) Descartes (1897-1910), profundo cultivador de la matemática, quedó impresionado por el contraste que se daba entre esta ciencia y la filosofía: el campo filosófico era discorde, desunido, controvertido e incierto; en la matemática, en cambio, no había discordia alguna, sino certeza y unanimidad plena. Por ello, Descartes desea reconstruir todo el saber según un método análogo al de las matemáticas, con una especie de "matemática universal", con un método deductivo, y que considera la extensión como el verdadero ser de la sustancia corpórea que llamamos "mundo". Deseaba que la ciencia se convirtiera en una matemática universal. El objetivo de Descartes no es “injertar o superinducir”, sino comenzar de nuevo, para comenzar señaló “fue necesario descreer todo lo que pensé que conocía hasta el momento”. Así entonces el punto de partida del método científico fue un sano escepticismo según Descartes. Encuentra claridad en las operaciones de la mente pura, y el método que propone para adquirir conocimientos es la geometría, donde el primer paso es el enunciado del problema, que será oscuro y confuso. El segundo paso es dividir el problema en sus unidades más simples, sus partes componente. De esta forma uno puede rearmar la estructura total de una manera lógica y ya no nos es oscuro y confuso. John Locke (empirismo)

3

Locke combate con toda decisión la teoría de las ideas innatas. La mente es un papel en blanco (o tabula rasa) que la experiencia cubre poco a poco con los trazos de su escritura. Distingue entre una experiencia externa (sensación) y una experiencia interna (reflexión). El pensamiento no agrega un nuevo elemento sino que se limita a unir unos con otros los datos de la experiencia. Locke infringe el principio empirista admitiendo verdades a priori. David Hume (empirismo) El empirismo de Locke fue desarrollado por Hume, quien divide las “ideas” (percepciones) de Locke en impresiones e ideas. Por impresiones entiende las vivas sensaciones que tenemos cuando vemos, oímos, tocamos, etc. Hay impresiones de la sensación y de la reflexión. Hume sienta este principio “todas las ideas proceden de las impresiones y nos son nada más que copias de las impresiones. Dicho de otra manera, todos nuestros conceptos han de poder reducirse a algo intuitivamente dado. Hume reconoce en la esfera matemática un conocimiento independiente de la experiencia y por ende universalmente válido. Immanuel Kant Sabemos que la gran revolución en la epistemología la hizo Kant al considerar que en el desarrollo del conocimiento intervienen tanto el objeto que hay que conocer como también el sujeto que conoce. Los empiristas ingleses consideraban el conocimiento proveniente de las sensaciones; en Kant el conocimiento significa formas puras de la sensibilidad y formas puras del entendimiento, en donde relaciona racionalismo y empirismo. Las sensaciones ya no forman parte del conocimiento desde Kant. Kant señaló que había límites para el conocimiento y que esos límites era encuadrarlo dentro de la experiencia, en consecuencia no había nada para el conocimiento humano fuera del fenómeno y el mundo fenomenal contiene en sí lo verdaderamente real. Positivismo lógico El positivismo lógico se consolida como escuela independiente con el Círculo de Viena y el Círculo de Berlín por los años 1920-30. Su objetivo fundamental es establecer los fundamentos del conocimiento científico mediante la obtención de un lenguaje lógico o ideal unificado. Se acentúa el rechazo de la metafísica y de cualquier otro conocimiento que pretenda superar los datos de la ciencia. La filosofía consistirá en una lógica del conocimiento científico. Carnap Propone una filosofía “científica”, basada en hechos, afirman las ciencias experimentales y niegan la metafísica, que no es ciencia y carece de interés. La filosofía ha de limitarse al análisis de los métodos y resultados de las ciencias. En otras palabras, el positivismo lógico postula un empirismo antimetafísico tendente al análisis lógico y lingüístico de las proposiciones del lenguaje común y científico. Lo esencial del positivismo lógico se resume en: 1. No hay más que dos clases de proposiciones que tengan significado: las analíticas (propias de las matemáticas y la lógica) y las sintéticas (propias de las ciencias naturales). El resto de proposiciones carece de significado cognoscitivo. 2. Del primer punto se deriva que las proposiciones filosóficas (sobre todo las referentes a la metafísica) carecen de sentido. Crítica a la metafísica. 3. La "verificación" como criterio de demarcación entre lo que es ciencia y lo que no lo es. 4. El deseo de unificación de la ciencia mediante la utilización de un único método (la inducción) y un único lenguaje (el lenguaje observacional). De esta manera, el papel de la filosofía queda reducido a filosofía de la ciencia.Carnap introdujo algunas modificaciones a los principios positivistas de la verificabilidad y del reduccionismo, para hacer frente a ciertas críticas de Popper y para acercar más su sistema al verdadero carácter de la práctica de la ciencia. En relación con la verificabilidad, Carnap aceptó la crítica de Popper, de que las hipótesis científicas nunca pueden verificarse completamente por medio de la 4

observación, y la cambió por el principio de la confirmación.De acuerdo con este principio, las hipótesis pueden ser más o menos confirmadas, o desconfirmadas, por los datos observacionales. Pero además, Carnap distinguió entre la confirmabilidad, y la noción más fuerte de "experimentalidad". Una proposición es confirmable si existen registros de observaciones que la confirmen o desconfirmen, y una proposición confirmable es también experimentable cuando podemos definir y realizar a voluntad experimentos que conduzcan a su confirmación. De lo anterior se desprende que una proposición dada puede ser confirmable sin ser experimentable (como cuando sabemos que la observación de un grupo de eventos la confirmaría pero no es posible realizar los experimentos pertinentes), mientras que todas las proposiciones experimentables también son confirmables. Postpositivismo: A medida que el positivismo lógico va alcanzando madurez, surgen algunas revisiones, encabezadas por Karl Popper (1902-1994), que pretenden sentar las bases de una renovación de la filosofía y la historia de la ciencia. Tres representantes de esta nueva filosofía de la ciencia son Kuhn, Lakatos y Feyerabend. Orientación postpositivista: se ha consolidado la convicción de que la observación empírica, la misma percepción de la realidad, no es una fotografía objetiva, sino que depende de la teoría. Es decir, incluso el simple registro de la realidad depende de la ventana mental del investigador, de condicionamientos sociales y culturales. En otras palabras, partiendo de que la realidad existe independientemente de la actividad cognoscitiva y de la capacidad perceptiva del hombre, el acto de conocer está condicionado por las circunstancias sociales y por el marco teórico en las que se colocan. Thomas Kuhn Según Kuhn, el paso de una visión teórica a otra es tan global y tiene consecuencias tan radicales sobre la disciplina implicada, que no duda en utilizar el término «revolución» y habla precisamente de «revolución científica», en donde se produce un cambio de los problemas que se proponen a la investigación científica, y también un cambio de los criterios con los que la profesión establecía lo que debía ser considerado como un problema admisible o como una solución legítima del mismo. Se realiza una reorientación de la disciplina que consiste «en la transformación de la estructura conceptual a través de la cual los científicos miran el mundo». Esta estructura conceptual es aquella a la que Kuhn llama paradigma y es este aspecto de su teorización, más que el análisis del proceso de desarrollo de la ciencia, el que nos interesa en este contexto. ¿Qué entiende Kuhn por paradigma? Con este término designa una perspectiva teórica: a) Compartida y reconocida por la comunidad de científicos de una determinada disciplina. b) Fundada sobre adquisiciones que preceden a la disciplina misma. c) Que actúa dirigiendo la investigación en términos tanto de: c1) identificación y elección de los hechos relevantes a estudiar c2) formulación de hipótesis entre las que situar la explicación del fenómeno observado c3) preparación de las técnicas de investigación empíricas necesarias. Sin un paradigma una ciencia no tendría orientaciones y criterios de elección: todos los problemas, todos los métodos, todas las técnicas son igualmente legítimos. De acuerdo con Kuhn, la ciencia es caracterizada de acuerdo a las fases de desarrollo en que se encuentren, y la vigencia de un paradigma en una ciencia determinada será condición de normalidad para ella y señal de madurez disciplinar al mismo tiempo. Así, se distinguen dos estados de ciencia: 1.- Preparadigmático: existe una pluralidad de teorías y metodologías. 2.- Paradigmático: presencia homogénea de un paradigma orientador del pensar y del actuar científico. 5

Por último, una teoría se convertirá en paradigma cuando en la resolución de un problema es exitosa tomando una ventaja instrumental sobre sus competidoras. Karl Popper El falsacionismo, refutacionismo o principio de falsabilidad es una corriente epistemológica fundada por el filósofo austriaco Karl Popper(1902-1994). El paradigma postpositivista de Popper mantiene el rigor de la lógica deductiva por medio de su falsacionismo, pero debilita el realismo por medio de su racionalismo crítico. Para Popper, contrastar una teoría significa intentar refutarla mediante un contraejemplo. Si no es posible refutarla, dicha teoría queda corroborada, pudiendo ser aceptada provisionalmente, pero nunca verificada (nunca tendrá pretensión de verdad). El problema de la inducción nace del hecho de que no se puede afirmar algo universal a partir de los datos particulares que ofrece la experiencia. Por muchos millones de cuervos negros que se vean, no será posible afirmar que «todos los cuervos son negros». En cambio, basta encontrar un solo cuervo que no sea negro para poder afirmar: «No todos los cuervos son negros». Por esa razón Popper introduce el falsacionismo como criterio de demarcación científica. Su tesis central es que no puede haber enunciados científicos últimos, es decir, enunciados que no puedan ser contrastados o refutados a partir de la experiencia. La experiencia sigue siendo el método distintivo que caracteriza a la ciencia empírica y la distingue de otros sistemas teóricos. Para Popper ni existen puntos de partida incuestionables ni la racionalidad científica los requiere. El asunto de la verdad es, pues, cuestión del método de buscarla y del método de reconocer la falsedad. Aunque la ciencia es inductiva en primera instancia, el aspecto más importante es la parte deductiva. La ciencia se caracteriza por ser racional, y la racionalidad reside en el proceso por el cual sometemos a crítica y reemplazamos, o no, nuestras creencias. Popper propone un método científico de conjetura por el cual se deducen las consecuencias observables y se ponen a prueba. Si falla la consecuencia, la hipótesis queda refutada y debe entonces rechazarse. En caso contrario, si todo es comprobado, se repite el proceso considerando otras consecuencias deducibles. Cuando una hipótesis ha sobrevivido a diversos intentos de refutación se dice que está corroborada, pero esto no nos permite afirmar que ha quedado confirmada definitivamente, sino sólo provisionalmente, por la evidencia empírica. Paul Freyerabend - Anarquismo filosófico Aconseja ir en contra de las reglas; por ejemplo, ante los empiristas que creen en la inducción (los científicos que consideran que son los hechos experimentales los que deciden si sus teorías son correctas o incorrectas) debe procederse en forma contraintuitiva, o sea que deben construirse hipótesis que contradigan de manera flagrante y abierta las teorías más aceptadas y confirmadas, o que se opongan a los hechos más contundentes. Sólo así se logrará mantener la frescura y el avance de la ciencia. Consciente de que sus críticos reaccionarían señalando que esto simplemente es la proposición de otra metodología más. En la perspectiva de Feyerabend la ciencia es concebida como un estilo cognitivo coexistente con otras formas de comprender o pensar la realidad, que cuentan, igualmente, con originales modalidades de corroboración y ostentan idéntico rango epistemológico que la ciencia, porque -a su juicio- ningún estilo cognitivo posee superioridad intrínseca sobre sus rivales; sólo se podría adjudicar una calidad superior si arbitrariamente se opta por las pautas de evaluación de uno de ellos y, a continuación, se aplican tales criterios a los estilos alternativos. De esta manera se plantea la idea de inconmensurabilidad de los paradigmas, en el sentido de que no pueden compararse entre sí, porque cada uno tiene sus propios criterios de evaluación. Así, por ejemplo, no sería posible comparar la efectividad de una terapia psicodinámica respecto de una cognitivo-conductual, puesto que tienen distintos criterios de efectividad.

6

METODOLOGIA CUALITATIVA Paradigma postpositivista (Teoría fundamentada, por ejemplo). Este paradigma surge a partir de un intento por solucionar las falencias presentes en el positivismo, pero conservando las mismas creencias básicas de este paradigma, por lo que autores como Guba y Lincoln (1994) y Krausse (1995), denominan que el intento del postpositivismo por superar las críticas hechas al positivismo es limitado. El postpositivismo, se caracteriza por mantener la creencia de que la realidad existe y es una sola, es decir, que existe una realidad universal, sin embargo, manifiesta que la realidad en sí es aprehensible de forma parcial, determinado por las capacidades del investigador, en otras palabras, si bien la realidad existe, solo se puede conocer de manera imperfecta y limitada. Teoría Fundamentada: Hunde sus raíces en el interaccionismo simbólico. En este el investigador busca determinar qué significado simbólico tienen los artefactos, gestos y palabras para los grupos sociales y cómo interactúan unos con otros. El investigador busca construir lo que los participantes ven como su realidad social. Desde su introducción en los años 60 se ha desarrollado hasta convertirse en la metodología cualitativa más usada. Aquí las fuentes de datos son las entrevistas, las observaciones de campo y documentos que contengan información. El investigador cualitativo que hace uso de la teoría fundamentada asume la responsabilidad de interpretar lo que observa, escucha o lee. La principal diferencia entre este método y otros métodos cualitativos, reside en su énfasis en la generación de teoría. A través del proceso de teorización el investigador descubre o manipula categorías abstractas y relaciones entre ellas, utilizando esta teoría para desarrollar o confirmar las explicaciones del cómo y porqué de los fenómenos. Glaser y Strauss (1967) diferencian dos tipos de teorías: Sustantivas: Se relacionan con el área concreta de la investigación. Ej: Escuelas, hospitales, o con el consumo de drogas. Formales: Se refieren a áreas conceptuales de la indagación, tales como estigmas, las organizaciones formales, la socialización y la desviación. Las dos estrategias fundamentales de Glaser y Strauss proponen para desarrollar teoría fundamentada son: El método de la comparación constante y muestreo teórico Método de la comparación constante: El investigador codifica y analiza los datos de forma simultánea para desarrollar conceptos. Su aplicación supone una contratación de categorías, propiedades e hipótesis. Método del muestreo teórico del investigador: Selecciona nuevos casos a estudiar según su potencial para ayuda a refinar o expandir los conceptos y teorías ya desarrollados. Lo importante no es el número de casos, sino la potencialidad de cada uno para ayudar al investigador a desarrollar una mayor comprensión teórica sobre el área que está estudiando. EgonGuba Propone una categorización basada en la forma en que los paradigmas dan respuesta a tres preguntas básicas, las cuales son:  

La pregunta ontológica: ¿Cuál es la forma y la naturaleza de la realidad? Es decir, ¿qué es lo que podemos conocer de ella? ¿Es una sola? ¿Es construida? ¿Se puede conocer todo o solo de manera limitada? La pregunta epistemológica: ¿Cuál es la relación entre quien conoce o busca conocer y lo que puede ser conocido? Entonces posibles respuestas son el distanciamiento, la

7



objetividad, el estar libre de valores o teñido por ellos para acceder y relacionarse con el conocimiento. La pregunta metodológica: ¿Cómo el investigador debe proceder para acceder al conocimiento? Es decir, cual es la metodología apropiada para conocer la realidad, considerando si se debe controlar ciertos factores, si se debe manipular la realidad, realizando experimentos, etc.

Ahora bien, a partir de cómo se responde a estas preguntas, Guba procede a analizar cuatro paradigmas: el positivista, el post-positivista, el crítico y el constructivista. a) El paradigma positivista: Responde a la pregunta ontológica, como una ontología realista (o realismo ingenuo), es decir, la realidad existe, operando según leyes y mecanismos naturales e inmutables, las cuales se pueden generalizar libre de tiempo y contexto, cobrando la forma de leyes causa-efecto. En definitiva, se supone la existencia de una realidad aprehensible. Respecto a la pregunta epistemológica, esta tiene por solución una epistemología dualista/objetivista. El dualismo está presente por la suposición de que el investigador y el objeto investigado son dos entidades independientes, donde el investigador es capaz de estudiar al objeto sin influenciarlo o ser influenciado por él (de aquí lo objetivista). Por esto, se evita que los valores y prejuicios tengan alguna influencia en los resultados, cumpliendo con los procedimientos prescitos rigurosamente. Los resultados entonces son tomados como reales y repetibles en cualquier contexto y tiempo. Finalmente la pregunta metodológica, tiene por respuesta una metodología experimental y manipuladora. Donde las preguntas o hipótesis son presentadas como proposiciones y se sujetan a una prueba empírica para su verificación, donde las condiciones deben ser controladas (manipuladas), para evitar resultados influenciados por otras variables. b) El paradigma postpositivista: Ontología: realismo crítico, supone la existencia de la realidad, pero esta es imperfectamente comprensible, puesto que los mecanismos intelectuales humanos son básicamente defectuosos para acceder a toda la comprensión de la realidad. Por ende, cada aseveración acerca de la realidad debe someterse a un examen crítico, para aprehenderlo de la manera más fielmente posible. Epistemología: dualista/objetivista modificada. Se abandona el dualismo propio del positivismo, pero la objetividad permanece como un regulador ideal, donde la comunidad critica, cumplen la función de árbitros, logrando cierto nivel de objetividad. Los hallazgos repetidos son entendidos como más válidos y probablemente reales, pero sujetos a corroboración. Metodología: experimental/manipuladora modificada. Busca realizar investigaciones en escenarios más naturales, reunir información más situacional, dejando de lado entonces los estudios de laboratorio. c) El paradigma de la teoría critica: Ontología: Realismo histórico. Entiende una realidad que existe y que anteriormente era plástica, pero con el paso del tiempo, ciertos factores o valores sociales, políticos, culturales, económicos, étnicos y de género, le han dado una forma específica que ha sido cristalizada, y que en la actualidad son consideradas (inapropiadamente), como reales, es decir como inmutables y naturales. Las estructuras sociales conforman una realidad virtual e histórica. Epistemología: transaccional y subjetivista. Supone que el investigador y el investigado están vinculados interactivamente, donde los valores del investigador inevitablemente influencian la investigación, por ende los valores están mediados por los valores del investigador.

8

Metodología: dialógica y dialéctica*. Al tener una epistemología transaccional, se requiere de un dialogo entre el investigador y el investigado, y ese dialogo debe tener una naturaleza dialéctica para transformar la ignoracia y los conceptos erróneos en una conciencia más informada. Es decir, se busca que las estructuras vistas como inmutables históricamente, sean aceptadas con una naturaleza o posibilidad de cambio. *dialéctica: por medio de una tesis y antítesis se conforma una síntesis, es decir a partir de dos puntos de vista contrapuestos se llega a una idea nueva que considera e integra ambas ideas posteriores. d) El paradigma constructivista: Ontología: relativista.Las realidades son comprensibles en forma de construcciones mentales múltiples e intangibles, basadas social y experiencialmente, por ende son de naturaleza local y específica, aunque pueden existir elementos compartidos entre individuos y culturas. Epistemología: Transaccional y subjetivista. El investigador y el investigado están vinculados interactivamente, por lo que los hallazgos son creados entre ambos al avanzar en la investigación. Metodología: Hermenéutica y dialéctica. La naturaleza variable y personal de las construcciones sociales, refieren a que estas solo pueden ser refinadas por medio de la interacción entre el investigador y quienes responden, por lo que se utilizan técnicas hermenéuticas convencionales y se comparan y contrastan con un intercambio dialectico para llegar a una construcción consensuada y que sea más sofisticada e informada que cualquiera de las construcciones precedentes (del investigador y del investigado). Paradigma constructivista Corriente epistemológica que asume que el conocimiento es construido socialmente por las personas en interacción con la realidad. La realidad es una realidad construida por medio de representaciones sociales. Por lo que pueden existir realidades múltiples. Se requiere de una interrelación entre El investigador y el objeto de estudio para elucidar las representaciones personales y sociales. Utilización de la inducción. Conceptos emergentes. Utilización de técnicas no estadísticas que permiten una Comprensión profunda del tema estudiado Ontología: Relativista, la realidad sólo existe en la forma de múltiples construcciones mentales y sociales. La realidad como constructo social. Epistemología: Subjetivista, no hay diferenciación entre sujeto y objeto del conocimiento. Ambos se funden en una sola entidad epistemológica. Metodología: Hermenéutica y dialéctica, refinamiento hermenéutico y contrastación dialéctica. Estas metodologías están orientadas por la fidelidad al objeto de estudio, la complementaridad, en el sentido que el investigador complementa la investigación. Y a diferencia de las metodologías cientificistas y críticas, carece de ideal de progreso como criterio regulativo. El principal criterio regulativo de la investigación constructivista es la solidaridad. La metodología de la investigación educativa bajo la influencia del paradigma constructivista está representada, principalmente, por la corriente de metodologías etnográficas: estudio de casos, trabajo de campo, etnografía, descripciones "densas". También se cuenta con una corriente de metodologías hermenéuticas.

Ontología

Positivismo

Postpositivismo

Teoría crítica

contructivismo

Realista, la realidad existe ahí

Realista crítica, la realidad existe pero

Realista crítica, pues declara abiertamente

Relativista, las realidades existen

9

afuera y se conduce por leyes y mecanimos naturales inmutables. Así el conocimiento es generalizado y algunas de estas generalizaciones posteriores toman la forma de leyes causa- efecto

no puede ser nunca completamente aprendida. La realidad se conduce por leyes naturales que pueden ser sólo parcialmente comprendidas

que los valores son de algún modo la vía de entrada a la “realidad”, pues son ciertos valores los que permiten seleccionar un tema de estudio, el paradigma dentro del cual será estudiado, los instrumentos y los modos en que se analizará la información, las interpretaciones, conclusiones y recomendaciones que se hacen

en la forma de construcciones mentales múltiples, fundadas social y experiencialmente , locales y específicas, dependientes en su forma y contenido de las personas que las sostienen.

Epistemología

Dualista, objetivista,para el investigador es tanto posible como esencial adoptar distancia y una postura no interactiva. Los valores y los otros factores predisponentes son autoáticamente excluidos de influenciar los resultados.

Objetivista modificada, la objetividad permanece como un ideal regulatorio. Es relevante el juecio de los pares de la comunidad científica para cada investigación y ésta debe ser consistente con la tradición propia de la disciplina respectiva.

Subjetivista, en el sentido que los valores del investigador median en la investigación.

Subjetivista, investigador e investigado están fundidos en una entidad singular. Los hallazgos son literalmente la creación del proceso de interacción entre ambos.

Metodología

Experimental manipultativa, las preguntas y/o hipótesis son establecidas por adelantado en forma de proposiciones, y sometidas a tests empíricos (falsación) bajo condiciones cuidadosamente controloladas.

Experimental/manip ulativa modificada, enfatiza la multiplicidad crítica. Se compensan los desequilibrios por hacer investigación en contextos naturales usando métodos cualitativos, dependientes más de la teoría fundamentada, y reintroduciendo el descubrimiento dentro del proceso de investigación.

Dialógica transformativa, los teórico-críticos buscan una aproximación dialógica que elimine la falsa conciencia y facilite la transformación en el momento en que los grupos se dan cuenta de cómo están oprimidos.

Hermenéutica, dialéctica, las construcciones individuales son elicitadas y refinadas hermeneuticament e, y comparadas y contrastadas dialécticamente, con el objeto de generar una construcción en la cual existe consenso substancial.

34: Epistemología- Investigación I Fases de un proceso de investigación cuantitativa y cualitativa Fases Investigación: Formulación del problema, 10

Pregunta de investigación Objetivos generales y específicos Marco teórico Definición y operacionalización de hipótesis de trabajo Preguntas directrices Fase de difusión de resultados Comparar formulaciones de problemas de investigación de orientación cuantitativa y cualitativa Resúmenes de los procesos cuantitativo y cualitativo Proceso cuantitativo Fase 1  idea Fase 2  planteamiento del problema Fase 3  revisión de la literatura y desarrollo del marco teórico Fase 4  visualización del alcance de estudio Fase 5 elaboración de hipótesis y definición de variables Fase 6  desarrollo del diseño de investigación Fase 7  definición y selección de la muestra Fase 8  recolección de los datos Fase 9  análisis de los datos Fase 10  elaboración del reporte de resultados Proceso cualitativo Fase 1  Idea Fase 2  planteamiento del problema Fase 3  inmersión inicial en el campo Fase 4  concepción del diseño del estudio Fase 5  definición de la muestra inicial del estudio y acceso a ésta Fase 6  recolección de los datos Fase 7  análisis de los datos Fase 8  interpretación de los resultados Fase 9  elaboración del reporte de los resultados En cuanto a la investigación cualitativa también se definen las fases del proceso como: 1- Acceso al escenario sociocultural que se pretende estudiar 2- Identificación del fenómeno a estudiar 3- Negociación del rol o oposición dentro de la dinámica social cotidiana  “balcón interno” (para entrar y ver el mundo desde dentro) 4- Selección de informantes claves y estrategias de producción de información. 5- Registro, ordenamiento, reducción, validación de la información 6- Análisis e interpretación de la información obtenida 7- Reformulación y reenfoque del estudio basado en el conocimiento y la comprensión obtenidos 8- Preparación del retiro de campo También se agrupan en cuatro grandes fases:  Fase preparatoria: - Etapa reflexiva: o ¿Qué me interesa? (tema); o ¿Qué se sabe? (marco referencial); o ¿Qué no se sabe?: vacío de conocimiento; o ¿Qué quiero saber? (objeto de estudio). - Diseño: la elección paradigmática determina el diseño, que puede tomar la forma de documento escrito (marco teórico, metodología, etc). Acá se debe identificar el

11



 

escenario, se debe determinar el acceso a ésta, las características de los participantes, recursos. Fase de campo: - Trabajo de campo: 1) acceso al campo: se debe pedir permiso para acceder al campo. Se debe escoger un buen informante. - Recogida productiva de datos: se recogen datos más específicos. Se deben tener en cuenta dos criterios para asegurar el rigor: la suficiencia y adecuación. Fase analítica: se inicia tras el abandono del escenario - Reducción de datos: Resultados y conclusiones - Disposición y transformación Fase informativa - Elaboración de informe: se informan los datos, aparte de la comprensión de datos, estos se deben compartir y difundir y la mejor forma de hacerlos es a través de las entrevistas especializadas.

Formulación del problema Según en el proceso cualitativo en la investigación científica el planteamiento del problema se realiza así: -

Existe una orientación hacia la exploración y la descripción y el entendimiento Es general y amplio Dirigido a las experiencias de los participantes.

La recolección de los datos: emergen poco a poco, hay datos en texto o imagen y en un número relativamente pequeño de casos. El análisis de los datos: -

Se realiza el análisis de textos y material audiovisual Descripción, análisis y desarrollo de temas Significado profundo de los resultados

Producto de la revisión de la literatura voy consolidando: - Si mi idea original es interesante, útil y relevante - Si mi idea ha sido investigada - Si mi idea se enmarcan alguna tradición de investigación - Si mi idea constituye un aporte verdadero Proceso de investigación cuantitativa según Roberto Hernández, Carlos Fernández y Pilar Baptista: Paso 1: Concebir la idea de investigación Paso 2: Plantear el problema de investigación: - Establecer objetivos de investigación - Desarrollar las preguntas de investigación - Justificar la investigación y su viabilidad Paso 3: Elaborar el marco teórico: - Revisar la literatura - Detectar la literatura - Obtener la literatura - Consultar la literatura - Extraer y recopilar información de interés - Construir el marco teórico

12

Paso 4: Definir si la investigación es exploratoria, descriptiva, correlacional o explicativa, y hasta qué nivel llegará. Paso 5: Establecer la hipótesis: - Detectar las variables - Definir conceptualmente las variables - Definir operacionalmente las variables Paso 6: Seleccionar el diseño apropiado de investigación (experimental, preexperimental, cuasi experimental o no experimental). Paso 7: Determinar la población y la muestra: - Seleccionar la muestra - Determinar el universo - Estimar la muestra Paso 8: Recolección de datos: - Elaborar el instrumento de medición y aplicarlo. - Determinar la validez y confiabilidad del instrumento de medición. - Codificar los datos. - Crear un archivo o una base de datos. Paso 9: Analizar los datos: - Seleccionar las pruebas estadísticas - Elaborar el problema de análisis - Realizar los análisis Paso 10: Presentar los resultados: - Elaborar el informe de investigación - Presentar el informe de investigación ¿Cómo saber cuándo usar tal o cual método en mi investigación? No siempre se emplea el método científico desde un mismo enfoque para cualquier tema de investigación. Su uso dependerá del objeto de investigación, el problema de investigación, las preguntas de investigación, los objetivos de investigación, y las hipótesis de investigación. Objeto de investigación. Cualquier sistema de la realidad cuyo proceso o estructura resulta de interés para realizar un estudio, pues reporta una necesidad que superar para el ser humano, es decir, un problema de investigación. Problema de investigación. ¿Qué es? Es un hecho, un fenómeno o una situación que incita a la reflexión y al estudio. Su descripción y formulación permite conocer la situación que se va a estudiar mostrando sus principales rasgos. Aspectos del problema: - Descripción: Mostrar la situación general del objeto de investigación. - Formulación: Elaborar preguntas de reflexión sobre el problema Criterios para plantear el problema (Kerlinger y Lee, 2002): - El problema debe expresar una relación entre dos o más conceptos o variables. 13

- El problema debe estar formulado como pregunta, claramente y sin ambigüedad; por ejemplo, ¿qué efecto?, ¿en qué condiciones….?, ¿cuál es la probabilidad de …?, ¿cómo se relaciona con…? - El planteamiento debe implicar la posibilidad de realizar una prueba empírica. Es decir, la factibilidad de observarse en la “realidad única y objetiva”. Ejemplo: No puedo estudiar cuán sublime es el alma de los adolescentes. Preguntas de investigación. Una adecuada formulación de un problema de investigación implica elaborar dos niveles de preguntas: La pregunta general: debe recoger la esencia del problema y, por lo tanto, el título del estudio. Las preguntas específicas: están orientadas a interrogar sobre aspectos del problema y no al problema en su totalidad, pero que en su conjunto conforman la totalidad Ejemplo Si mi problema de investigación gira en torno a los nuevos retos que enfrentan las empresas como consecuencia del nuevo paradigma mundial de la globalización y la competitividad, puedo formularlo así: Pregunta general: ¿Cómo deben prepararse las empresas nacionales y sus gerentes si quieren desenvolverse competitivamente? Preguntas específicas: ¿Cómo favorece el gobierno la competitividad de las empresas nacionales? ¿Cuál es la actitud de los gremios ante los retos que impone el nuevo milenio? ¿Qué están haciendo las universidades para contribuir a la competitividad de las empresas? ¿Qué están haciendo los empresarios para responder al nuevo ambiente de competitividad? Objetivos de la investigación. Son los propósitos del estudio, expresan el fin que pretenden alcanzarse, por lo tanto, todo el desarrollo del trabajo de investigación se orientará a lograr estos objetivos. Deben ser claros y precisos, lo que no implica que no puedan modificarse durante la investigación. Deben usarse verbos en infinitivo, por ejemplo: Determinar, verificar, definir, identificar, diseñar, conocer, evaluar, elaborar, estudiar, describir, formular, proponer, analizar, corroborar, entre otros. Deben evitarse aquellos que impliquen acciones finales: cambiar, motivar, enseñar, entre otros. Objetivos: general y específicos En toda investigación es necesario plantear dos niveles de objetivos: El objetivo general debe reflejar la esencia del planteamiento del problema y la idea expresada en el título del proyecto de investigación. Los objetivos específicos se desprenden del general y deben ser formulados de forma que estén orientados al logro del objetivo general. Cada objetivo específico está diseñado para lograr un aspecto del general. Ejemplos de objetivos de investigación: Título de la investigación: “Análisis de la relación entre el tipo de valores practicados por los estudiantes universitarios y su rendimiento académico”.

14

Objetivo general: Analizar la relación entre el tipo de valores practicados por los estudiantes universitarios y su rendimiento académico. Objetivos específicos: - Identificar el tipo de valores practicados por los estudiantes universitarios. - Analizar el tipo de valores que practican los estudiantes de más alto rendimiento. - Analizar el tipo de valores que practican los estudiantes de más bajo rendimiento. - Analizar la existencia de diferencias significativas entre los valores practicados por estudiantes de alto y bajo rendimiento. - Evaluar la relación entre el tipo de valores practicados por los estudiantes universitarios y su rendimiento académico. Hipótesis de investigación. Definición: “Suposición o conjetura sobre características con las cuales se da en la realidad el fenómeno social en estudio; o bien como una conjetura de las relaciones que se dan entre características o variables de ese fenómeno” Las hipótesis son el centro del enfoque cuantitativo –deductivo (en lo cualitativo). Las hipótesis surgen del planteamiento del problema y de la revisión de la literatura. Las hipótesis tienen las funciones de: - Guiar al estudio - Dar explicaciones - Apoyar la prueba de teorías - Su formulación: depende del alcance de estudio (exploratorio, descriptivo, correlacional, explicativo causal). - Requisitos: establecen correspondencia con la realidad, requieren relación entre variables, técnicas para probarlas. Clasificación de hipótesis: - Hipótesis descriptivas: Se refieren a características que se darían en el objeto estudiado. - Hipótesis tipológicas: Proponen clasificaciones de las personas u objetos estudiados. - Hipótesis relacionales: Suponen relaciones entre dos o más propiedades o variables que se dan en las personas del objeto estudiado. - Hipótesis explicativas o causales: Suponen causas o factores determinantes de un cierto fenómeno. Si bien muchas de las hipótesis explicativas o causales proponen un solo factor, en la complejidad del mundo social sobre todos y cada uno de los fenómenos se dan múltiples influencias. - Hipótesis estadísticas: Las hipótesis estadísticas son supuestos hechos por el investigador acerca del valor que puede tener una cierta medida estadística en una muestra probabilística tomada de una determinada población. - Se distinguen hipótesis nula e hipótesis alternativa, que se rechazarán o aceptarán según la probabilidad de que se dé el valor estimado. Preguntas directrices Las preguntas directrices derivan a partir de los objetivos específicos. Corresponde al eslabón entre objetivos específicos y técnicas de investigación (o producción de información propiamente tal). Reemplaza la hipótesis, especialmente en el enfoque cualitativo, siguiendo el esquema: objetivo general objetivo específico preguntas directrices - técnicas de producción de información. MARCO DE REFERENCIA Para elaborar el marco de referencia de la investigación, cada investigación debe: 15

- Fundamentarse en el conocimiento existente. - Asumir una posición frente al mismo. - Realizarse dentro de un marco de referencia o conocimiento previo (teoría, enfoque, escuela). - Explicitar la concepción de persona que enmarcará la investigación. - Precisar los conceptos relevantes de estudio. Marco de referencia: “Marco general de la fundamentación teórica y antropológica en la cual se desarrolla el estudio” Comprende: - El marco filosófico-antropológico (opcional) - El marco teórico - El marco conceptual - El marco legal (eventualmente) Marco filosófico-antropológico: Especifica el concepto de ser humano dentro de la investigación. Implica enfatizar y relegar algunos aspectos sobre otros. ¿Cómo elaborar el marco filosófico-antropológico? Revisar bibliografía específica relacionada con la concepción de ser humano que tenga relación a su vez con el tema y problema de investigación. Ejemplo El presente trabajo está enmarcado en una concepción de ser humano como una entidad compleja y paradójica y, sobre todo, como un ser pluridimensional, ya que es un ser en sí mismo, es decir, un ser en relación con los otros seres humanos, un ser corpóreo, espiritual, emocional, intelectual, cultural e histórico, libre, trascendente, y un ser en proyecto, que se construye y transforma el mundo en que vive (Polo, 1997, p. 53). Marco Teórico: Tiene la función de orientar y crear las bases teóricas de la investigación. Definición (Briones): “Comprende la ubicación del problema en una determinada situación histórico-social, sus relaciones con otros fenómenos, las relaciones de los resultados por alcanzar con otros ya logrados, como también definiciones de nuevos conceptos, redefiniciones de otros, clasificaciones, tipologías por usar, etcétera”. Funciones del Marco Teórico: - Sirve de base para enunciar o describir el problema de investigación (integración). - Sirve para cuestionar o reformular el problema de investigación (crítica). - Precisión y organización de los elementos contenidos en el problema (delimitación). - Compendia conocimientos del área de estudio (sistematización). - Sirve como base para formular hipótesis, manejar variables y esbozar técnicas y procedimientos. - Ayuda a prevenir errores que se han cometido en otros estudios - Orienta sobre como habrá de llevarse a cabo el estudio - Inspira nuevas líneas y áreas de investigación - Provee de un marco de referencia para interpretar los resultados del estudio. Elaboración del Marco Teórico - Revisión Bibliográfica: Revisar libros, revistas y otros documentos. - Buscar asesoría. - Detallar estado del arte. 16

- Construcción del Marco Teórico - Integración de ideas revisadas. - Enmarcación del estudio dentro de ese marco de ideas. - Se adopta algún enfoque o técnica revisada. - Indispensable: citar y referenciar. Marco conceptual: “Definición precisa de los conceptos relevantes”. “Glosario de términos clave utilizados en la investigación” Fase de difusión de resultados El proceso de investigación culmina con la presentación y difusión de los resultados. De esta forma el investigador no sólo alcanza una mayor comprensión del fenómeno objeto de estudio, sino que comparte esa comprensión con los demás. El informe cualitativo debe ser un argumento convincente presentando los datos sistemáticamente que apoyen el caso del investigador y refute las explicaciones alternativas. Existen dos formas fundamentales de escribir un informe: a) como si el lector estuviera resolviendo el puzzle con el investigador; y b) ofrecer un resumen de los principales hallazgos y entonces presentar los resultados que apoyan las conclusiones. En esta fase se puede entregar un borrador a los participantes, de tal forma que nos devuelvan sus opiniones, como un medio más de verificación de las conclusiones. Además del envío a los participantes de una copia del informe final, la mejor forma de difusión de los hallazgos es la de publicarlos en las revistas especializadas. El investigador habrá culminado así el trabajo de investigación, que sólo será posible si se parte del carácter humano y apasionante de esta tarea, implicándose, comprometiéndose en la misma. Dimensiones Formulación del problema

Enfoque cuantitativo Delimitado, acotado, específico, poco flexible

Marco teórico

La literatura juega un papel crucial, guía la investigación. Es fundamental para la definición de la teoría, hipótesis, diseño y demás etapas del proceso

Definción y operacionalización de hipótesis de trabajo Fase de difusión de resultados

Se prueban hipótesis. Éstas se establecen para aceptarlas o rechazarlas dependiendo el grado de certeza. Los reportes utilizan un tono objetivo, impersonal, no emotivo.

Enfoque cualitativo Abierto, libre, no es delimitado o acotado. Muy flexible. La literatura desempeña un papel menos importante al inicio. En ocasiones provee dirección. Es un elemento que ayuda a justificar la necesidad de investigar un problema planteado. Se generan hipótesis durante el estudio o al final de éste. Los reportes utilizan un tono personal y emotivo.

35.a: Epistemología  Diseños y tipos de investigación cuantitativa Diseños experimentales y No experimentales, transversales y longitudinales Investigaciones descriptivas, correlacionales y causales Investigación experimental y no experimental ¿Cómo definir el diseño de investigación?

17

- Según el tipo de investigación - Por la hipótesis a probar Investigación Experimental. Demuestra que la modificación de una variable (independiente) ocasiona un cambio predecible en otra (dependiente). Diseño: Conjunto de procedimientos con los cuales se manipulan una o más variables independientes y se mide su efecto sobre una o más variables dependientes. a) Diseños experimentales Se distinguen tres diseños: - Pre experimental - Cuasi experimental - Experimental puro (o verdadero) Se clasifican según: - Grado de control ejercido sobre las variables - Grado de aleatoriedad con que se asignan los sujetos de la investigación a un grupo o a varios de ellos a.1) Diseño experimental puro: - Manipulación intencional de una o más variables independientes. - Asignación aleatoria de los participantes a cada uno de los grupos. - Que haya un grupo experimental y un grupo control. - Que haya control de variables objeto y ajenas al estudio (tipo de prueba, condiciones, experiencia de los participantes, etc.). Propósito: Analizar si una o más variables independientes afectan una o más variables dependientes y por qué las afectan. Ejemplo: Estudio sobre la estrategia más adecuada para una psicoterapia en niños autistas. Los investigadores trabajan en una institución con estos niños. ¿Cómo asigno a los niños en grupos? ¿Uso las mismas estrategias para cada grupo? ¿Quién aplica las estrategias? ¿Cómo son las condiciones ambientales para cada grupo? ¿Qué hago al final de la investigación? Tipos: i. ii. iii. iv.

Diseño experimental con post-prueba y grupo control Diseño experimental con pre y post prueba y grupo control Diseño de dos grupos apareados con mediciones antes y después Diseño de Solomon de 4 grupos

a.2) Diseño cuasi experimental: - Poco o ningún control sobre variables extrañas. - Asignación aleatoria o no de los participantes en los grupos. - Algunas veces se tiene grupo de control. - Suele usarse para grupos ya constituidos. Tipos: 18

b.1) Diseño con pre y post prueba y grupo control no equivalente b.2) Diseño de series cronológicas a.3) Diseños pre experimentales: - No se ejerce control sobre las variables extrañas o intervinientes. - No hay asignación aleatoria de los participantes en los grupos. - No hay grupo control. b) Investigación No Experimental El investigador no tiene el control sobre la variable independiente No se conforman los grupos del estudio, están a priori. La variable independiente ya ha generado un cambio, pero se busca describir esa variable como también los efectos que ha producido en la variable dependiente. Reciben el nombre de ex post facto (después del hecho). Suelen llamarse experimentos naturales. No experimentales: no hay manipulación de variables. Fenómenos se observan en su entorno natural - Transversales: recopilación en un momento único - Exploratorios: comenzar a conocer una variable. No se plantean hipótesis -Descriptivos: indagan incidencias de las modalidades de una o más variables de una población - Correlacionales: describen relaciones entre dos o más variables - Surveys: cuestionarios aplicados en distintos contextos. b.1) Encuesta transversal (transeccional o seccional) - Se realiza en cierta población o muestra de ella en un período de tiempo corto. - Son estudios sincrónicos, transeccionales. - Se realizan a informantes claves. b.2) Encuesta longitudinal - Es un estudio diacrónico: sigue en un cierto período de tiempo el desarrollo del fenómeno estudiado. Se clasifican según: a) Período de tiempo - Retrospectivo: reconstruye el desarrollo del fenómeno estudiado sobre un grupo. Depende de la memoria o información proporcionada por los propios entrevistados. Ventaja: Rapidez de recolección de datos Desventaja: Olvido, fallos en la memoria. - Prospectivo: sigue el desarrollo del fenómeno estudiado sobre un grupo. b) Conjunto de participantes - Tendencias: personas que tienen uno o más rasgos comunes (por ejemplo, el curso de Investigación en Psicología II). - Panel: un mismo grupo de personas estudiado en varios momentos (por ejemplo, la generación 2010). c) Amplitud de la población objeto de estudio

19

- Cohorte: grupo delimitado por haber presenciado un determinado elemento o haber nacido entre unas fechas determinadas.Estos examinan cambios a través del tiempo en subpoblaciones o grupos específicos. Su atención son las cohorte o grupos de individuos vinculados de alguna manera, generalmente la edad, que serían grupos por edad. TIPOS DE INVESTIGACIÓN Exploratorios: Es comenzar a ver una variable. Se trata de una exploración inicial en un momento específico. Descriptivos: Corresponde a la indagación de las modalidades o niveles de una o más variables en una población. Tienen como objetivo: - Indagar los valores que se manifiestan una o más variables (dentro del enfoque cuantitativo) o, - Ubicar, categorizar y proporcionar una visión de comunidad, un evento, un contexto, un fenómeno o una situación (describirla, como su nombre lo indica dentro del enfoque cualitativo). El procedimiento consiste en medir o ubicar a un grupo de personas, objetos, situaciones, contexto, fenómenos, en una variable o concepto (generalmente más de una variable o concepto) y proporcionar su descripción. Son, por lo tanto, estudios puramente descriptivos y cuando establecen hipótesis, éstas son también descriptivas. Correlaciónales- causales: describen relaciones entre 2 o más categorías, conceptos o variables en un momento determinado, ya sea en términos correlaciones o en función de la causa – efecto. Se trata también de descripciones, pero no de categorías, conceptos, objetos ni variables individuales, sino de sus relaciones, sean éstas puramente correlacionales o relaciones causales. Los diseños correlacionales pueden limitarse a establecer relaciones entre variables sin precisar sentido de causalidad ni pretender analizar relaciones de causalidad. Cuando se limitan a relaciones no causales, se fundamentan en ideas o hipótesis correlacionales; y cuando buscan evaluar relaciones causales, se basan en ideas o hipótesis causales (Hernández, 2003). Estos pueden ser:   

Investigación causal retrospectiva: se reconstruyen las relaciones a partir de variables dependientes. Investigación causal prospectiva: se reconstruyen las relaciones a partir de variables independientes. Causalidad múltiple: sobre la base de variablidad amplia de las variables independiente y dependiente.

Nota: Tradicionalmente se ha manejado la distinción entre tipo de investigación correlacional y explicativa-causal, como independientes una de otra. Lo importante es tener claro que la primera sólo se refiere al grado de asociación estadística que hay entre una variable y otra(s) (por ejemplo, si aumenta una, aumenta la otra, que sería correlación positiva), mientras que en el tipo de investigación explicativo-causal se busca justamente estudiar un tipo de relación causal entre dos o más variables, es decir, se pregunta por el efecto, impacto, influencia, etc. que tiene una variable sobre otra, y es más propia de diseños experimentales.

Tipo

Hipótesis

Diseño

Método

Exploratorio

No se establece, lo que

Transversal

Cualitativo

20

Aproximación a fenómenos desconocidos Descriptivo

se puede formular son conjeturas inciales Se plantean objetivos

Reseña las características de un fenómeno actual Correlacional Describe relación entre variables/factores Explicativo Intenta encontrar las Causas del problema, por qué sucede

Diferencia de grupos sin atribuir causalidad

Cuantitativo Preexperimental

Cualitativo

Transversal

Cuantitativo

No experimental

Cuantitativo

-Transversal -Longitudinal Correlacional

Diferencia de grupos sin atribuir causalidad

Experimental

Cuantitativo

Cuasi experimental, longitudinal y transversal No experimental

Causalidad

Experimental

Cuantitativo

No experimental, longitudinal y transversal.

35.b: Epistemología  Técnicas de recolección de datos en investigación cuantitativa Cuestionarios Escalas likert Escalas de diferencial semántico Entrevistas: Pauta de observación estructuradas Cuestionario. Es una de las técnicas de recolección de información más usadas, a pesar de que cada vez pierde mayor credibilidad por el sesgo de las personas encuestadas. El contenido de las preguntas de un cuestionario es tan variado como los aspectos que mide. Básicamente se consideran dos tipos de preguntas: cerradas y abiertas. La pregunta cerrada contiene categorías o alternativas de respuesta que han sido delimitadas. Es decir, se presentan a los sujetos las posibilidades de respuesta y aquéllos deben circunscribirse a éstas. En cambio, las preguntas abiertas no delimitan de antemano las alternativas de respuesta, por lo cual el número de categorías de respuestas es muy elevado; en teoría es infinito. Escala Likert. La escala de Likert mide actitudes o predisposiciones individuales en contextos sociales particulares. Se le conoce como escala sumada debido a que la puntuación de cada unidad de análisis se obtiene mediante la sumatoria de las respuestas obtenidas en cada ítem. La escala se construye en función de una serie de ítems que reflejan una actitud positiva o negativa acerca de un estímulo o referente. Cada ítem está estructurado con cinco alternativas de respuesta: ( ) Totalmente de acuerdo ( ) De acuerdo 21

( ) Indiferente ( ) En desacuerdo ( ) Totalmente en desacuerdo La unidad de análisis que responde a la escala marcará su grado de aceptación o rechazo hacia la proposición expresada en el ítem. Los ítems por lo general tienen implícita una dirección positiva o negativa. a. Criterios para la confección de los ítems de una escala - Los ítems deben facilitar respuestas relacionadas con el fenómeno medido, aunque dicha relación no tiene porqué ser necesariamente manifiesta - Cada ítem debe declarar no sólo las dos posturas extremas, sino también graduar las intermedias. A medida que la gente gane en sensibilidad, ganará también en precisión. - Los ítems deben ser fiables y seguros. La fiabilidad con frecuencias se logra a costa de la previsión. Cuanto más refinada es una medición, más probable es que en dos medidas repetidas obtengamos puntuaciones distintas. Escalas de diferencial semántico Serie de pares de adjetivos extremos (bipolares) que sirven para calificar al objeto de actitud, ante los cuales se pide la reacción del sujeto, al ubicarlo en una categoría de una escala de respuestas por cada par. La escala de respuestas puede ser altamente discriminante (siete o más categorías) o poco discriminante (cinco o menos). Esta escala se califica de igual manera que la likert. Ejemplo: Barato: _____,______,_____, ______,______,______,______ Caro Se marca una x en donde se ubica el producto x (Ej: sushi) Entrevistas: Pauta de observación estructurada. La entrevista estructurada se realiza partiendo de un cuestionario previamente elaborado y cuya principal característica es la inflexibilidad, tanto en las cuestiones a plantear al entrevistado como en el orden y presentación de las preguntas. Tiene la ventaja de reducir los sesgos del entrevistador, pero impide indagar al entrevistar con preguntas complementarias. Planificación de un Estudio en base a Entrevistas 1. Definir el propósito del estudio, sus bases teóricas, objetivos, posibles aplicaciones de los resultados, y las razones para utilizar el método de la entrevista. Metodología de la Investigación / Escuela de Psicología 2. Traducir los objetivos generales en objetivos específicos y detallados que puedan, posteriormente, adecuarse a un plan de entrevista y permitan construir preguntas que recojan información útil. 3. Desarrollar una guía tentativa a usar durante la entrevista. 4. Desarrollar un método adecuado de codificación y/o registro de respuestas. Confección de la Pauta de Entrevista 1. Generalmente, las respuestas se pueden pre-categorizar en un estudio piloto, para anticipar los patrones de respuesta más frecuentes. Luego, sólo se escribirán las respuestas que caen fuera de estas categorías. También es posible grabar. 2. Las preguntas deben formularse en un lenguaje que garantice una comunicación objetiva entre entrevistador y entrevistado. Debe evitarse el vocabulario ambiguo. 3. Asegurarse que el entrevistado entienda el propósito de la pregunta. 4. Asegurarse que la población de a que se seleccionará la muestra de entrevistados conocen la información que se busca.

22

5. Evitar formular preguntas que sugieran la respuesta deseada o preferida por el investigador. 6. Asegurarse que el marco de referencia que subyace a cada pregunta es claro, de modo que cada entrevistado escuche la pregunta del mismo modo, evitando malas interpretaciones. 7. Probar la entrevista en un estudio piloto, para eliminar las debilidades. Evaluación de las preguntas 1. 2. 3. 4. 5.

¿Se relaciona la pregunta con el objetivo de la investigación? ¿Es la pregunta clara, o es ambigua? La pregunta, ¿induce respuestas? ¿Se pregunta por información que el entrevistado no tiene? La pregunta, ¿pide información a la cual puede resistirse el entrevistado?

37: Investigación en psicología I - Investigación en psicología cuantitativa  Métodos estadísticos descriptivos e inferenciales: Estadística descriptiva: Distribución Normal Tablas de frecuencia Estadísticos de resumen: localización, variabilidad y forma de la distribución Gráficos: barra, circular, histograma, boxplot, de dispersión Estadística Inferencial: - Intervalos de confianza: concepto de error de estimación y nivel de confianza - Contraste de hipótesis: error tipo 1 y error tipo 2 Estadística descriptiva Distribución normal Corresponde a una forma de distribución de datos en gráficos. Es un modelo teórico y es asintótica (tiende a 0, pero nunca toca el gráfico, es infinito). También es simétrica cuyo eje es – z= 0, debiera distribuirse igual a los dos lados del eje. La moda, mediana y media corresponden a z=0.

Tablas de frecuencia Tablas de distribución de frecuencias: Forma de organizar los datos de una variable con el propósito de conocer qué valores aparecen y con qué frecuencia (localización de los datos) Elaboración: -

Reglas APA: Tabla precedida por el nombre de la tabla (Tabla + número correlativo “Tabla 1”) A continuación del nombre, se presenta una breve descripción del contenido Las tablas sólo presentan líneas horizontales

23

-

Solo se emplean líneas horizontales para indicar: el comienzo de la tabla, separar los encabezados de los datos, indicar el fin de la tabla. Reglas de contenido Primera columna: categorías de la variable + total Segunda columna: corresponde a las frecuencias absolutas N Tercera columna: frecuencia relativa fr Cuarta columna: rango de porcentaje % (1 decimal): se elimina la frecuencia relativa

Frecuencia absoluta: número de observaciones de una categoría particular. (Ej. Mujer, mujer, mujer, hombre, hombre= 3 mujeres y 2 hombres) Frecuencia relativa: Cantidad de observaciones de una categoría en relación al total. Puede ser proporción o percentual. Frecuencia acumulada: cuenta la frecuencia de una categoría dada sumándole las frecuencias de todas las categorías anteriores. Requiere, por lo menos, de variables ordinales (jerarquía) Ej:

Nivel de estudios

N

Na % (acumulado)

Sin estudiar E. básica E. media E. superior Total

54 520 1135 147 1856

54 574 1709 1856

2.91 28.02 61.15 7.92 100

%a (porcentaje acumulado) 2.91 30.93 92.08 100

Estadísticos de resumen Localización: medidas de tendencia central Son estadígrafos de posición que son interpretados como valores que permiten resumir a un conjunto de datos dispersos, podría asumirse que estas medidas equivalen a un centro de gravedad que adoptan un valor representativo para todo un conjunto de datos predeterminados. Estas medidas son: 1. Promedio (Media): cuál es el punto de equilibrio cuantitativo. 2. Mediana: el valor central 3. Moda: el valor que más se repite. 4. Media Armónica: se utiliza para calcular la media cuando el tamaño de las muestras no son iguales entre los grupos. Otras medidas de posición son: Percentiles: Dividen la distribución en 100 partes iguales. P1-P99. Cuartiles: Dividen la distribución en 4 partes iguales (Q1-Q3) Deciles: Dividen la distribución en 10 partes iguales (D1-D9) Variabilidad: Son estadígrafos de dispersión que permiten evaluar el grado de homogeneidad, dispersión variabilidad de un conjunto de datos. Estas medidas son: 1. Amplitud o Rango: evalúa la distancia ente los valores máximos y mínimos (Xmáx – Xmín)

24

2. Varianza: Evalúa la variabilidad de los datos, este estadístico define la variabilidad de un conjunto de datos como el grado de dispersión que estos presentan en torno a su media. 3. Desviación Estándar: representa la desviación típica que los sujetos presentan en torno a la media.un problema con la interpretación de la varianza/cuasi-varianza es que los valores que se obtienen no se encuentran en la escala original de los datos analizados, sino que se encuentran en una escala de “valores al cuadrado”. Por ejemplo, si se hubiera calculado la varianza/cuasivarianza de las estaturas de un conjunto de personas, y las estaturas hubieran sido medidas en metros, entonces, la varianza/cuasivarianza estaría expresada en “metros al cuadrado”. Para evitar este problema de la “escala al cuadrado”, es que se deriva a partir de la varianza/cuasivarianza este nuevo estadístico de dispersión. La DE es la raíz cuadrada de la varianza/cuasivarianza. Al utilizar la desviación estándar, resulta más sencillo interpretar su valor, dado que se encuentra en la misma escala que los valores originales analizados. 4. Coeficiente de Variabilidad: permite comparar la dispersión de variables que aparecen medidas en escalas distintas, sin la necesidad de depender de una de ellas. Forma de la distribución: Evalúa la forma que adopta la distribución de frecuencias respecto al grado de distorsión (inclinación) que registra respecto a valor promedio tomado como centro de gravedad, el grado de apuntamiento (elevamiento) de la distribución de frecuencias. A mayor elevamiento de la distribución de frecuencia significará mayor concentración de los datos en torno al promedio, por tanto, una menor dispersión de los datos. Estas medidas son: 1. Asimetría o Sesgo: mide la distribución en torno al centro de los datos. Pueden ser simétricas (normales) o asimétricas (con sesgo negativo (cola a la izquierda) o sesgo positivo (cola a la derecha).

2. Curtosis: mide la concentración de datos en torno a la media (picudez). Tres clasificaciones: Mesocurticas: normales, coeficiente 0. Platicurticas: planas, valor negativo. Leptocurticas: condensadas, valor positivo sobre lo normal. (Ej. Edades de un curso, son todas

similares) Gráficos Barra: Este gráfico es útil para representar datos categóricos nominales u ordinales. A cada categoría o clase de la variable se le asocia una barra cuya altura representa la frecuencia o la frecuencia relativa de esa clase. Las barras difieren sólo en altura, no en ancho. La escala en el eje horizontal es arbitraria y en general, las barras se dibujan equiespaciadas, por esta razón este tipo de gráfico sólo debe usarse para variables categóricas. Circular: En este gráfico, ampliamente utilizado, se representa la frecuencia relativa de cada categoría como una porción de un círculo, en la que el ángulo se corresponde con la frecuencia relativa correspondiente. Como en todo gráfico es importante indicar el número total de sujetos. 25

Esta representación gráfica es muy simple y permite comparar la distribución de una variable categórica en 2 o más grupos. Histograma: variables numéricas. El área de sus barras representa distribución de las variables, el eje horizontal representa los valores de las variables. Los intervalos son continuos. Permite visualizar fácilmente la moda, dispersión y forma de la distribución. Aspectos a considerar al analizar un histograma:  Uno de los principales usos del histograma, consiste en analizar la forma de la distribución de frecuencias de los valores de la variable.  Dentro de las distintas formas que puede revelar un histograma, una de las más importantes, desde una perspectiva estadística, corresponde a la denominada “distribución normal”  Otra distribución de frecuencias que se puede observar en un histograma, corresponde a la denominada “distribución uniforme”  El siguiente histograma muestra las características de esta distribución:

 Finalmente, un último tipo de distribución que es particularmente importante de reconocer, corresponde a las “distribuciones asimétricas”.  Los siguientes dos histogramas muestran las características de esta distribución:

Un aspecto crucial a considerar, es que aquellas variables que presentan este tipo de distribución son bastante difíciles de analizar con las técnicas estándar, por lo que usualmente, requieren un análisis más pormenorizado. Boxplot: permite graficar las variables numéricas, identifica un minimo, máximo, mediana (cuartil 2 o percentil 50). La caja central representa al 50% central de la distribución. La línea central de la caja representa a la mediana (si es simétrica se encuentra al medio de la caja). Los bigotes se trazan con Limite inferior y Limite superior, fuera de los bigotes se ubican los casos atípicos. Construcción de un boxplot: Para dibujar la caja se procede a calcular los tres cuartiles (Q1, Q2 y Q3) de la distribución de datos. Luego se determinan las fronteras superior e inferior, que separan los valores atípicos de los restantes valores. Para calcular la frontera, en primer lugar se calcula la distancia a la que estas se van a encontrar en relación a la caja 26

El último aspecto a considerar es la forma en la que se deben presentar en el boxplot aquellos datos cuyos valores resulten mayores al valor de la frontera superior, o bien resulten menores al valor de la frontera inferior. Estos datos reciben el nombre de “valores atípicos” (“outliers”). Se tiene la convención de representar los valores atípicos con algún símbolo especial que los individualice. Aspectos a considerar al analizar un box plot: El análisis de un box plot complementa al de un histograma para describir las características de una variable numérica. Las principales características a analizar en un box plot corresponden a: 1. Tendencia central de los datos, a partir del examen de la mediana 2. Los valores que encierran al 50% central de los datos(Q 1=P25 y Q2=P75) 3. Una indicación del grado de variabilidad del conjunto de datos, dado que permite calcular fácilmente tanto los valores máximos como los valores mínimo, y también el rango intercuartil. 4. Permite identificar de manera explícita cualquier valor particularmente alto o bajo (valores atípicos) en relación al resto de los valores del conjunto de datos 5. Finalmente, permite identificar simetrías o asimetrías en la distribución de valores de la variable. Otro uso de los box plot consiste en inspeccionar visualmente las similitudes y diferencias entre distintos grupos en relación a una misma variable de comparación. Cuando se emplean los box plot con este propósito, los aspectos en los que se centran las comparaciones corresponden a: 1. Detectar diferencias en la tendencia central de los distintos grupos bajo comparación 2. Detectar diferencias en la variabilidad manifestada por los distintos grupos bajo comparación 3. Detectar diferencias en la forma de la distribución entre los distintos grupos bajo comparación. De dispersión: Un gráfico de dispersión es una representación de coordenadas numéricas en los ejes X e Y. Los datos de la hoja de cálculo se representan en forma de varios puntos en el gráfico. Los datos se deben incluir en dos o más columnas y deben ser numéricos. La primera columna de datos debe contener los valores del eje X del gráfico, mientras que las demás columnas deben incluir los del eje Y. El contenido de las columnas con los valores del eje Y se representa en forma de varios puntos en el gráfico. (se utiliza para regresiones y correlaciones)

27

Estadística inferencial (análisis estadístico inferencial) 1. Conocer el valor de una característica de la variable 2. Probar la hipótesis  toda la población  censo  no se puede realizar. Se toma una muestra: argumentar que la muestra da una respuesta igual de adecuada al censo. Para esto son necesarios ciertos requisitos: 1.- Muestra seleccionada de forma aleatoria. Muestra representativa 2.- Tamaño muestral aleatorio. Estimación de parámetros Conjunto de procedimientos estadísticos que permiten conocer las características de una población, en base a los datos obtenidos de una muestra aleatoria extraída de ella. a. Parámetro: cantidad que es una función de los valores de la población. Se emplea para describir alguna característica de la población. b. Estadístico: es una cantidad que es una función de los valores de la muestra. Se emplea para describir alguna característica de la muestra. c. Estimador: cantidad que es una función de los valores de la muestra. Se emplea como una aproximación al valor de un parámetro. Lógica de la estimación de parámetros Ej: Supongamos que tenemos una población de 50 alumnos y deseamos estimar el promedio de notas en base a una muestra aleatoria extraída de ella: 1. Decidir tipo muestral: aleatoria simple 2. Decidir cantidad de la muestra Ej.: decidimos trabajar con 5 alumnos. A cada alumno, se le consulta su promedio de notas, los cuales corresponden a los siguientes Decidimos que estimador vamos a emplear para estimar el promedio de la población. Ej.: decidimos emplear la media muestral 3.

Calcular el valor del estimador Ej.: Al calcular la media en los datos de esta muestra se obtiene el valor de 3,66 4. Realizar la estimación del parámetro. Dado el valor del estimador recién obtenido podríamos querer afirmar que el valor del promedio de la población (parámetro) correspondería (cercano a) 3.66 Si hiciéramos lo anterior, estaríamos llevando a cabo una “estimación puntual del parámetro”. ¿Es una buena idea hacer estimaciones puntuales de los parámetros? ¡PROBLEMA! Al seleccionar 3 nuevas muestras a partir de la población original: Como se ve a partir de los resultados obtenidos, cada vez que se obtienen 28

muestras aleatorias de una misma población, las distintas muestras tenderán a arrojar resultados diferentes al estimar el mismo parámetro. Ahora bien, si de la población original continuáramos extrayendo nuevas muestras y, en cada una de ellas procediéramos a calcular el promedio, obtendríamos después de muchas repeticiones de este procedimiento, todos los valores de los promedios muestrales que podrían aparecer a partir de dicha población. El conjunto de todas las medias muestrales obtenidas de la forma anterior recibe el nombre de DISTRIBUCIÓN MUESTRAL DE LA MEDIA (DMM) Qué importancia tiene conocer la DMM? 1. Permite darnos cuenta que diferentes muestras, seleccionadas de una misma población, entregarán diferentes valores para el estimador del promedio poblacional. Esto es, la DMM nos revela que el muestreo aleatorio introduce una FUENTE DE VARIABILIDAD en la estimación del parámetro poblacional. 2. La existencia de esta variabilidad muestral introduce una fuente de incertidumbre al momento de estimar el promedio poblacional. Esta incertidumbre surge debido a que al trabajar con una sola muestra, no podemos igualar el valor del promedio de dicha muestra al valor del promedio de la población, ya que sabemos que otra muestra hubiera arrojado un valor diferente para el estimador. Esto implica que resulta inadecuado realizar una Estimación Puntual del Parámetro, ya que generamos la falsa impresión de que hemos identificado el verdadero valor del promedio poblacional, lo cual es incorrecto. Debido a lo anterior es que se vuelve necesario, al momento de estimar el promedio poblacional en base a los resultados de una muestra, que el procedimiento de estimación que se utilice tome en cuenta el fenómeno de la variabilidad muestral que introduce el muestreo aleatorio. ¿Cómo diseñar un procedimiento de estimación que tome en cuenta el fenómeno de la variabilidad muestral que introduce el muestreo aleatorio? Para poder resolver este problema, debemos analizar con mayor detalle cómo se comporta la variabilidad muestral que introduce el muestreo aleatorio. Concluyendo que: 1. La mayoría de los promedios muestrales no coincidirá con el verdadero valor del promedio de la población (Esto, una vez más, refuerza la idea de lo inadecuado de realizar una estimación puntual) 2. Sin embargo, la mayoría de las muestras que se extraigan de la población de interés, presentarán valores del promedio localizados en torno al verdadero valor del promedio poblacional. Estimación mediante intervalos de confianza Intervalos de confianza: Cuando se obtiene una estimación puntual de un parámetro, es conveniente acompañar dicha estimación por una “medida” de la precisión de la estimación. Un modo de hacerlo es informar el estimador y su error estándar. Otro modo es reemplazar la estimación puntual por un intervalo de valores posibles para el parámetro. Error de estimación: Cuanto mayor sea el tamaño de la muestra, n, menor es el error. Cuanto mayor sea el nivel de confianza , 1-α, mayor es el error. Nivel de confianza: El nivel de confianza se indica por 1-α y habitualmente se da en porcentaje (1-α)%. Es la probabilidad de que el parámetro a estimar se encuentre en el intervalo de confianza. Hablamos de nivel de confianza ya que una vez extraída la muestra,

29

el intervalo de confianza estará definido al igual que la media poblacional (μ) y solo se confía si contendrá al verdadero valor del parámetro o no. Los valores que se suelen utilizar para el nivel de confianza son el 95%, 99% y 99,9% El segundo resultado señalado anteriormente, es la base del procedimiento de estimación de parámetros que se emplea mayoritariamente y que recibe el nombre de estimación por intervalos de confianza. La estimación de un parámetro mediante un intervalo de confianza, consiste en construir, a partir de un valor del promedio que arroja una muestra, un intervalo que se extienda por arriba y por debajo de dicho promedio muestral y, concluir que el valor del parámetro debería ser alguno de los valores que se encuentran dentro de dicho intervalo. El empleo de esta estrategia garantiza que muchas muestras generen un intervalo que logre incluir el valor del promedio de la población. Por ejemplo: Elijamos una muestra, por ejemplo, alguna de las muestras que haya presentado como promedio el valor de 4.0. La comparación directa muestra que el valor 4.0 es diferente al valor del promedio de la población de 4.166. Sin embargo, si ahora procedemos a construir un intervalo de confianza que se extienda 0.2 hacia ambos lados del promedio de la muestra (4.0), habremos definido el siguiente intervalo de confianza para estimar el promedio poblacional: [3.8, 4.2]. Al observar este intervalo, podemos darnos cuenta que esta estimación si logra acertar en localizar el verdadero valor del promedio poblacional, dado que el intervalo incluye el valor 4.166 que es el valor parámetro. a. Construcción de un intervalo de confianza Cómo decidir cuál debe ser el valor que se va a utilizar para construir el intervalo de confianza a partir del promedio de una muestra a objeto de garantizar que este valor logre dar origen a un intervalo de confianza que contenga el parámetro? En principio, se podría pensar que la mejor solución consiste en utilizar un valor muy grande, de forma que cualquiera sea el promedio de la muestra con la que se esté trabajando, el intervalo que se obtenga siempre incluya el valor del parámetro. En el ejemplo un valor que cumple este requisito podría ser 2.2. Para ver que este valor cumple la condición, supongamos que nuestra muestra hubiera sido alguna de las dos que presentaron los promedios más extremos entre todas las muestras que forman la DMM. Dichas muestras corresponden a: 1. La que presenta el promedio más bajo: 2.0 2. La que presenta el promedio más alto: 5.8 Para el caso de la muestra con el promedio más bajo: el promedio de la muestra (2.0) es bastante distinto a un promedio de la población (4.166). Si se procede a construir un intervalo de confianza que se extienda 2.2 hacia ambos lados del promedio de la muestra (2.0) habremos definido el siguiente intervalo de confianza para estimar promedio poblacional [-0.2, 4.2]. Esta estimación si logra acertar en localizar el verdadero valor del promedio poblacional, dado que el intervalo incluye el valor de 4.166 que es el valor del parámetro. Ahora, con la muestra que presento el promedio más alto: el promedio de la muestra (5.8) es bastante distinto de la población (4.166) si construimos un intervalo de confianza que se extienda de 2.2 hacia ambos lados del promedio de la muestra (5.8), habremos definido el siguiente intervalo de confianza para estimar el promedio poblacional [3.6, 8.0]. La estimación si logra acertar en localizar el verdadero valor del promedio poblacional, dado que el intervalo incluye el valor 4.166 que es el valor del parámetro. La elección de un valor grande permite lograr que todos los intervalos que se podrían construir en base a cualquiera de las muestras que forman la DMM, terminarían incluyendo el parámetro, el problema que se presenta es que dichos intervalos inevitablemente van a exhibir una amplitud tan grande, que no van a tener ninguna utilidad práctica. 30

Para solucionar este problema se adopta el siguiente camino: 1. Se decido renunciar a que el valor que se emplee para construir los intervalos, garantice que todas las muestras darán origen a intervalos que contengan un parámetro 2. En un lugar, se establece que el valor que se utilice permita que solo el 95% de todas las muestras den origen a un intervalo que contenga el parámetro Siempre ocurrirá que del total de muestras que se podrían seleccionar, un 5% de ellas darán origen a un intervalo que NO va a contener el valor del parámetro. La consecuencia de la decisión anterior, es que se introduce un margen de incertidumbre inevitable en las estimaciones que se van a realizar empleando este procedimiento. Cuando se elabore un intervalo de confianza a partir de la única muestra con la que se puede trabajar en la mayoría de las investigaciones, se tendrá que asumir que no se tiene un 100% de confianza de que efectivamente el parámetro se encuentre en el intervalo calculado. Lo que si se va a poder afirmar es que hay una alta confianza, corresponde al 95%, de que el intervalo calculado corresponda a aquellos intervalos que si logran incluir el valor del parámetro. ¿Cómo se determina el valor que se emplea en la construcción de intervalos de confianza que garantice que el 95% de las muestras logren incluir el parámetro? Volver a las propiedades de la DMM: la propiedad que permite resolver el problema es aquella que dice que la DMM se caracteriza por presentar una distribución normal. Se puede demostrar que en una distribución normal, aproximadamente el 68% de todas las muestras, se localizan a una distancia del promedio de la DMM, menor o igual a 1 DE en ambas direcciones. De igual modo, se sabe que en toda distribución normal, el 95% de todas las muestras, se localizan a una distancia promedio de la DMM, menor o igual 1.96 veces la DE en ambas direcciones. Este antecedente es el que se utiliza para obtener el valor con el cual se construye el intervalo de confianza a partir del promedio de cualquier muestra obtenida de una población. Para ello se requiere multiplicar el valor de 1.96 por el valor de la DE de la DMM, también denominado ERROR ESTÁNDAR. El valor que se obtiene al hacer esta multiplicación recibe el nombre de ERROR MUESTRAL, ERROR DE MUESTREO o ERROR DE PRECISIÓN.

e: Error muestral 1.96: puntaje Z que permite que el 95% de las muestras de la DMM den origen a un intervalo de confianza que incluya el promedio poblacional. : Error estándar (desviación estándar de la DMM) ¿Cómo se puede obtener el error estándar dado que una investigación real, solo tenemos acceso al resultado de una sola de las muestras que formarían la DMM? El error estándar de una DMM es igual al cociente entre la desviación estándar de la población de la que se obtiene la DMM y la raíz cuadrada del tamaño de las muestras que se extraen

: Error estándar (desviación estándar de la DMM) : Desviación estándar de la población a partir de la cual se obtiene la DMM n:tamaño de la muestra

31

El resultado anterior nos dice que para conocer el valor del error estándar no necesitamos obtener la DMM, sino que basta conocer la desviación estándar de la población en la que se desea llevar a cabo la estimación del parámetro. Ahora bien, esta solución no es del todo práctica por cuanto obliga a tener acceso a los resultados de un censo que nos permita conocer la desviación estándar de la población de interés. Lo cual, en la práctica, sólo se consigue rara vez. Para resolver este último problema vamos a tener que estimar el valor de la desviación estándar poblacional, a partir de los datos de la muestra con la que estamos haciendo las inferencias. El estimador que se emplea corresponde a la desviación estándar muestral:

: Desviación estándar de la población a partir de la cual se obtiene la DMM S: desviación estándar muestral. El cálculo del error estándar se obtiene como:

: Error estándar (desviación estándar de la DMM) S: desviación estándar muestral. n: tamaño de la muestra Mientras tanto que el valor del error muestral se obtiene como:

e: Error muestral 1.96: puntaje Z que permite que el 95% de las muestras de la DMM den origen a un intervalo de confianza que incluya el promedio poblacional S: desviación estándar muestral. n: tamaño de la muestra Una vez obtenido el error muestral, se procede a restarlo y a sumarlo del valor del promedio de la muestra con la que se está trabajando para construir un intervalo de confianza deseado:

Contraste de hipótesis: Hipótesis nula (Ho): implica que no hay efectos o diferencias a nivel de la población. Hipótesis alternativa (H1): Implica que hay efectos o diferencias a nivel de la población (los grupos son distintos). 32

Corresponde al procedimiento mediante el cual se comparan los resultados esperados según lo planteado por una teoría y los resultados obtenidos de la observación de los fenómenos. Ahora bien, los resultados esperados se redactan en la forma de una afirmación, la cual recibe el nombre de hipótesis de investigación. Un aspecto que resulta importante considerar, es que la hipótesis de investigación (y la teoría de la cual emana) plantea la existencia de un cierto resultado para una o varias POBLACIONES COMPLETAS DE ELEMENTOS. Sin embargo, en la mayoría de las ocasiones no es posible observar todos los elementos de las poblaciones de interés, por lo que se presenta el problema de cómo decidir si la hipótesis de investigación es correcta o incorrecta. La solución a este problema, consiste en emplear las herramientas que proporciona la estadística inferencial. Esta solución consiste en inferir/estimar los resultados (parámetros) de la(s) población(es) de interés a partir de los resultados (estadísticos) observados en una o varias muestras aleatorias seleccionadas de dichas poblaciones. De este modo el contraste estadísticos de hipótesis se convierte en la comparación de los resultados predichos por la hipótesis para la(s) población(es), con los resultados inferidos para dicha población a partir de lo observado en una o varias muestras aleatoria(s). Ejemplo de contraste de hipótesis Estudios previos han demostrado que el tiempo de reacción a determinado estimulo luminoso en sujetos normales es de 65 milisegundos (DE=15.4). Una investigadora plantea como hipótesis, que si los individuos reciben cierto tipo de entrenamiento, tenderán a mostrar un tiempo de reacción más corto. Como actividad preliminar se debe plantear explícitamente la hipótesis de investigación: las personas que participen en sesiones de entrenamiento, exhiben menores tiempos de reacción que la población general. A continuación, se presenta un esquema que representa el problema de investigación. De la población con promedio desconocido se extrae una muestra aleatoria. El promedio de esta muestra, estima el promedio de su población. Finalmente, se proceden a comparar el promedio de la población conocida con el promedio de la muestra (el cual cumple la función de estimador del promedio de su población) ¡PROBLEMA! Al hacer la comparación se debe considerar la variabilidad que introduce el muestreo. Continuación del ejemplo: Para evaluar la hipótesis, 45 sujetos normales participaron en 10 sesiones de entrenamiento, luego de lo cual se les midió su tiempo de reacción, obteniéndose un promedio de 55.5 milisegundos (DE=19.3) Lógica de contraste estadístico de hipótesis: 1. Replantear la hipótesis de investigación en términos de una hipótesis nula (H0: plantea que no existe una relación entre las variables en la población) y de una hipótesis alternativa (H1: plantea que existe relación entre las variables en la población). En la mayoría de los estudios de la hipótesis de investigación coincide con la H1. Sin embargo para efectos de trabajo de análisis estadísticos, es la H0 la que se somete a contrastación con los datos obtenidos en la muestra. Dado que la H0 es el opuesto de la H1, solo en el caso de que se pueda concluir que H0 es falsa es que el investigador estará en condiciones 33

de apoyar H1 y, por ende, concluir que su hipótesis de investigación ha sido apoyada por los datos del estudio. Continuación del ejemplo… Elaboremos las hipótesis estadísticas

2. Determinar el estadístico de contraste y su distribución muestral. Existen muchos estadísticos distintos para llevar a cabo los contrastes de hipótesis, por lo que una decisión muy importante consiste en determinar cuál de ellos es el mas adecuado, dada la naturaleza de la hipótesis y el tipo de datos con el que se va a trabajar (nivel de medición). 3. Calcular el valor del estadístico de contraste a partir de los datos de la muestra. Esta actividad implica el uso de las formulas propias de cada estadístico de contraste. 4. Determinar la probabilidad asociada al valor del estadístico de contraste. Empleando la distribución muestral del estadístico, se procede a determinar cual es la probabilidad, también denominada valor p, de obtener para el estadístico un valor igual o más extremo (alejado del centro de la distribución) al observado en la muestra, si es que efectivamente la muestra procediera de una población en la que es verdadera la H0 Para algunos estadísticos, la obtención del valor p a partir de la distribución muestral varía ligeramente dependiendo de si la hipótesis de investigación es direccional o no direccional. En el primer caso se trabajo con una prueba de 1 cola (contraste unilateral), mientras que en el segundo caso, se trabaja con una prueba de 2 colas (contraste bilateral). Si la distribución muestral del estadístico es simétrica, el valor p de un contraste bilateral es el doble del valor p para un contraste unilateral. 5. Reglas de decisión para determinar si se rechaza o no la hipótesis nula. Si el valor p asociado al estadístico de contraste es un valor muy pequeño, esto se interpreta del siguiente modo: es poco probable que la muestra proceda de una población en la que H0 es verdadera. Por lo tanto se concluye que H0 es falsa. De este modo, se concluye que la muestra procede de una población en la que H0 es falsa. En consecuencia se acepta como valida H1 y por ende, se acepta como correcta l hipótesis de investigación. Dado que no existe ningún criterio absolutamente correcto, se tiende a seguir el uso de la costumbre en psicología, que indica que se considere como un valor p pequeño cualquiera que resulte inferior a 0.05 Conclusión: Para someter a evaluación la hipótesis del estudio, se aplico la prueba Z para una media, mediante un contraste unilateral. Al comparar los resultados de los tiempos de reacción de las personas que participaron en sesiones de entrenamiento (M=, DE=) con los tiempos de reacción de la población general (M=, DE=) se concluye que los primeros tienden a mostrar resultados significativamente menores que estos últimos (Z=-4.14, p se acepta hipótesis nula. Mientras

34

menor sea el numero mejor (0.01, 0.001), sin embargo, si es más chico la muestra aumenta considerablemente, por lo que no conviene. Error tipo II o error Beta: Cuando al analiza la muestra concluye que la hipótesis nula es verdadera cuando en la población es falsa. Potencia: 1-B. La potencia es la probablidad de que a partir de la muestra detectemos un efecto, si es que el efecto existe a nivel de la población. Nos va a mostrar de cuanto tiene que ser la muestra. En Psicología se exige un 80% de potencia, la potencia da control al error tipo II y la potencia se controla por la muestra muestra potencia Error tipo II (la probabilidad de cometer un error tipo II tiene que ser menor a 20% y la potencia tendría que ser 80% (o más), para eso la muestra debe ser grande. Cuando se conduce una investigación, el investigador desea arribar a conclusiones que estén libres de error. Esto significa que el investigador/a espera que si el análisis de los datos obtenidos en la muestra indican que se debe aceptar la H0 esto sea lo correcto, y recíprocamente, si es que los datos indican que se debe rechazar la H0. No obstante lo anterior, y dado que se trabaja con muestras, siempre existe alguna probabilidad de cometer un error en las conclusiones a las que se arriba durante una investigación. Esto significa que, si el análisis de los datos obtenidos en la muestra indican que HJ0 es correcta, sea justamente lo contrario lo que realmente esté sucediendo, y recíprocamente, si es que los datos indican que se debe rechazar la H0.  Error tipo I o Error Alfa: Consiste en rechazar H0 cuando esta es VERDADERA EN LA POBLACIÓN. Si bien es imposible reducir a 0 la probabilidad de cometer este tipo de error en una investigación, si se puede lograr que dicha probabilidad sea un numero pequeño.  Esa es la función que cumple en el contraste estadístico de hipótesis el valor que se le asigna al nivel de significación o valor alfa.  Esto explica que en investigación psicosocial, se utilice como alfa el valor 0.05.  Esto implica que si H0 fuera VERDADERA EN LA POBLACION, ocurriría que si se repitiera el mismo estudio 100 veces empleando muestras diferentes, pero del mismo tamaño, extraídas de la misma población, solo en 5 de ellas se obtendría un valor en la prueba estadística que llevaría a RECHAZAR H0 y, por ende, a cometer el error tipo I.  De lo anterior, se puede ver una conexión directa entre el valor p y el error tipo I.  Desde esta perspectiva, se puede interpretar el valor p como la probabilidad de cometer el error tipo I si es que el investigador/a decidiera concluir que H0 es falsa.  Error tipo II o Error Beta: Consiste en aceptar como verdadera H0, cuando en realidad ésta es FALSA EN LA POBLACIÓN.  Al igual como ocurriría con el error tipo I, es imposible reducir a 0 la probabilidad de cometer el error tipo II en una investigación.  Sin embargo, si se puede lograr que dicha probabilidad se aun número pequeño.  En investigación psicosocial se tiende a fijar el Error tipo II en el valor 0.20.  Esto implica que si H0 fuera FALSA EN LA POBLACION ocurriría que si se repitiera el mismo estudio 00 veces empleando muestras diferentes, pero del mismo tamaño, extraídas de la misma población, solo en 20 e ellas se obtendría un valor en la prueba estadística que llevaría a aceptar H0 y por ende, a cometer el error tipo II.  Usualmente, en contextos de investigación, más que considerar el error tipo II se prefiere considerar su complemento. Potencia = 1- beta  De este modo, la potencia de una investigación viene a ser la probabilidad de no cometer el error tipo II es decir, la probabilidad que tiene una investigación de detectar “un efecto” (una relación entre variables, una diferencia entre grupos, etc.) si es que este se encuentra presente en la población.

35

 Es así como la potencia de una investigación, puede ser vista como el grado de “sensibilidad” del estudio para detectar un efecto si es que este existe en la población.  Dado que el máximo valor que se le asigna al error tipo II en la investigación psicosocial corresponde a 0.20, en consecuencia se tiene que el mínimo valor de potencia aceptado es de 0.80  Si una investigación no es capaz de alcanzar una potencia cercana a 0.80, no sería adecuado llevarla a cabo, por cuanto es casi seguro que el estudio va a ser incapaz de detectar la existencia de algún efecto que esté teniendo lugar en la población.  Esto significa que si H0 es falsa en la población, el investigador/a tiene muy pocas probabilidades de lograr rechazar H0 a partir de los datos de su muestra.  El control del error tipo II resulta más complejo que el error tipo I.  Entre los factores que permiten controlar el error tipo II se tienen: 1. Una adecuada elección del tamaño de la/s muestra/s con las que se va a trabajar. Mientras mayor sea el tamaño de la/s muestra/s, mayor serpa la potencia del estudio y, en consecuencia, menor será la probabilidad de cometer el Error tipo II. 2. Una correcta elección del estadístico de contraste 3. Empleo de instrumentos de medición con alta confiabilidad y validez Finalmente, es importante señalar que el error tipo II mantiene una relación inversa con el error tipo I, por cuando, al disminuir la probabilidad de cometer el error tipo I aumenta la probabilidad de cometer el error tipo II.

Conclusión final en torno al trabajo con muestras: La conclusión ultima que se debe tener presente cuando se llevan a cabo generalizaciones en base a muestras, es que nunca se puede saber con total seguridad si el resultado que se obtiene es correcto, o bien producto del azar.Debido a ello es que los estudios deben replicarse en nuevas muestras, a fin de poder identificar qué resultados tienden a ser consistentes a lo largo de los deferentes estudios. 40: Investigación en psicología cuantitativa  Criterios de validez y confiabilidad utilizados en investigación cuantitativa Confiabilidad: Formas paralelas Estabilidad temporal Consistencia interna Validez: Contenido Criterio Constructo Confiabilidad: La confiabilidad se refiere a la ausencia relativa de errores de medición en un instrumento. Es la exactitud o precisión de un instrumento. El ideal es que esté totalmente libre de error, poro ya que esto es imposible, se aspira al menor error posible. ¿Cómo evaluar el error de medición? Se puede entender desde dos conceptos:

36

1) Exactitud: En que medida los valores son cercanos a los verdaderos valores de la variable.  Valor real: Puntaje que una persona tiene para una variable.  Valor real=valor observado + error.



Valor observado=valor real + el valor del error.

Error de medición  No hay un instrumento que mida exactamente los valores de la variable.  Se busca que la variable observada refleje le valor real de la variable, pero también un valor del error.  El valor del error debe ser bajo.  Si el error es bajo (casi 0), el valor observado se acerca al valor real. Por otro lado, si el error es alto, el valor observado no se acerca al real. 2) Estabilidad: Medición del error de medición.  Se calcula restando dos valores de la variable observada, los cuales no deben ser muy distintos para que pudieran ser medidos en una escala exacta, donde los puntajes son similares. Ve= Vo1 –Vo2  El valor observado se obtiene a través de un instrumento.  La Vo1 debe ser similar a la Vo2 para obtener una escala exacta. Determinación del error de medición. Error= Vreal – Vobservado.

¿De dónde se saca? No hay acceso directo.

A través de un instrumento.

Los instrumentos que son exactos tienden a ser estables en sus puntajes. Test 1 Test 2 Vobservado 1 = Vobservado 2.

Exactitud Confiabilidad Estabilidad

Formas para obtener estimadores empíricos del coeficiente de confiabilidad: a) Método de las formas paralelas. b) Método de repetición de test – retest. c) Método de consistencia interna. a) Método de formas paralelas: Fases: - Construir dos formas paralelas y equivalentes del test (mismos ítems o parecidos, misma cantidad de `preguntas, etc.). ej.: 16 pf, cuatro formas. - Aplicar las dos formas a una muestra amplia y representativa de la población de sujetos a la que se destina el test. - Calcular el coeficiente de correlación producto momento de Pearson con los dos conjuntos de puntuaciones, el cual puede considerarse una estimación del coeficente de confiabilidad. Buenos resultados serían de un Pearson de 0,60 hacia arriba. b) Test – retest (con una forma del instrumento): Fases: 37

1) Aplicar el mismo test en dos ocasiones a una misma muestra de sujetos. 2) Calcular el coeficiente de correlación entre los puntajes obtenidos en ambas aplicaciones (Pearson). Este resultado refleja la estabilidad de los puntajes a través del tiempo. Existe una dificultad con este procedimiento y es la de determinar cuál es el tiempo adecuado entre una y otra aplicación del test. Si es muy corto, las personas pueden recordar las preguntas y pueden contestar lo mismo para permanecer coherentes (sobreestima). Si el tiempo es muy largo, la persona puede cambiar en ese lapso (subestima). El tiempo en general utilizado va de 2 semanas a tres meses. c) Consistencia interna: Se mide una sola vez a la persona con el mismo instrumento. Procedimientos: 1) División en mitades. 2) Coeficiente alpha de Cronbach. 1) División en mitades: Una vez aplicada la escala a una muestra de sujetos, se procede a dividir los reactivos en dos grupos. Para cada grupo se obtiene un puntaje total. Finalmente se calcula el coeficente de correlación producto momento de Pearson entre ambos puntajes totales. Este coeficiente permite estimar la confiabilidad de la prueba. 2) Coeficiente alpha de Cronbach: Evita las desventajas del procedimiento de División en mitades. Desventajas de la División en mitades:  Requiere dividir la escala en mitades  No hay una única forma de hacer esta división, y por lo tanto genera incertidumbre de si quedan los dos grupos iguales o no.  El cálculo de Pearson se debe ajustar y por lo tanto es una estimación y no el valor real. Interpretación del Coef. Alpha de Cronbach: VALOR ALPHA DE CRONBACH 0,90 -1,00 0,80 - 0,89 0,70 - 0,79 0,60 - 0,69 0,50 -0,59 < 0,50

INTERPRETACIÓN Muy confiable Adecuada cofiabilidad Moderada confiabilidad Baja confiabilidad Confiabilidad muy baja (Se usa) No es confiable (No se debe usar la escala ni sus puntajes)

Cuando un alpha de Cronbach es malo o muy bajo, ¿Cuáles podrían ser las razones, porque no se llegó a 1? Respuesta a través de un ejemplo: Ej.: Alpha=0,46. 2 posibilidades: - Que todos o la mayoría de los ítems son inconsistentes. - Que solo algunos ítems sean inconsistentes. El alpha de Cronbach posee valores entre 0 y 1. Mientras más cercano a 1 mejor es la confiabilidad del instrumento. ¿Qué se podría hacer? En el caso uno, la escala no sirve, se pierde. En el caso dos, debemos encontrar los ítems que son inconsistentes, eliminarlos de la escala y seguir trabajando con los otros. ¿Cómo sabemos cuál de las dos opciones es? A través del análisis de la capacidad discriminativa (homogeneidad). Para llevar a cabo este análisis se procede a determinar el coeficiente de correlación producto-momento r de Pearson entre cada uno de los ítems de la escala y el puntaje total corregido de la escala. 38

EJEMPLO: R de Pearson con entre los valores de ítem 1 y total corregido 1.

Ej.: ID

Ítem 1

Ítem 2

Ítem 3

Ítem 4

Total

Total corregido (1)

Total corregid o (2)

Total Corregido (3)

1

1

1

2

1

5

(5-1) 4

(5-1) 4

Etc.

2

2

1

2

2

7

(7-2) 5

(7-1) 6

3

1

1

3

2

7

(7-1) 6

6

4

5

4

3

5

17

Etc.

Etc.

5

4

4

4

4

16

Etc.

Etc.

… n …

A cada ítem se le asocia un total corregido. Total corregido (1) = se le resta el ítem uno al total de la fila. Luego se saca el R de Pearson con los valores de la columna ítem 1 y total corregido (1). Para interpretar el resultado de r se debe considerar que puntajes mayores a 0,30 pueden ser considerados confiables. Mientras más lejano a cero en el sentido de los números negativos más inconsistentes y menos confiables. Ej.: r ítem 1= 0,51 Ítem 2= 0,45 ritem 3= 0,04

debe ser eliminado.

Otra opción: la que vimos con el Profesor Fernando Reyes

39

1) Se Seleccionan todos los ítems de la escala que queremos analizar y luego aparecen los siguientes resultados: Analizar->escala->analisis de fiabilidad

40

PD: LA TABLA CON LOS VALORES DE ALFA ES IMPORTANTE SABERSELA

41

42

VALIDEZ: Se define una variable y se construye un instrumento que la mida. Surge el problema de evaluar en qué medida el instrumento o conjunto de operaciones miden adecuadamente la variable.  La validez del procedimiento de medición se refiere a que los datos resulten apropiados para las inferencias y decisiones basados en ellos.  Convencionalmente la definición de validez es el grado en que un instrumento mide lo que pretende medir.  La definición actual: Grado en que la evidencia empírica y las bases teóricas apoiyan la adecuación de las interpretaciones y acciones basadas en las puntuaciones de los test. Esta definición tiene dos implicaciones: 1) Énfasis en las puntuaciones y no en los instrumentos (validez y confiabilidad son propiedad de los datos y no de los instrumentos) 2) Hay diferentes evidencias que permitirán justificar las decisiones que se adopten en base a los datos entregados por un instrumento.  La validez se ocupa para diferentes finalidades (trabajo, aprendizaje, grado de sociabilidad, etc.)  Hay distintos métodos para garantizar la adecuación de los datos (que un procedimiento de medida puede ser válido e inválido al mismo tiempo). 3 TIPOS DE VALIDEZ: a) La validez de contenido consiste esencialmente en el juicio. En forma individual o con otras personas, uno juzga la representatividad de los elementos o reactivos. Su definición puede ser guiada por la siguiente pregunta ¿es el contenido de esta medida representativo del contenido o del universo de contenido de la propiedad que se va a medir? Forma de evaluar la validez de contenido: JUICIO DE EXPERTOS: 4 PASOS Paso 1: Identificación y definición de las dimensiones del constructo. Paso 2: Identificación de expertos en el constructo bajo estudio. Paso 3: Juicio de los expertos acerca del grado en el que el contenido del instrumento es relevante, representativo del constructo por medio de un procedimiento estructurado. Paso 4: Un procedimiento para resumir los datos de la fase anterior. El paso 3 y 4 requiere de:

43

 Entregar a los jueces descripciones claras de las dimensiones o constructo que deben abordar los ítems del instrumento.  Presentación de los ítems a los jueces, quienes compararan cada ítem con las dimensiones, indicando a que dimensión corresponde cada uno. ( un ítem puede tener una o unas o ninguna dimensión)  Registro de la opinión de los expertos, se ocupa una pauta que contiene los ítems, también una columna para cada dimensión del constructo y una columna que diga ninguna.  Porcentaje de jueces que asigne cada ítem a la misma dimensión debe estar en el 75%. Falla en la validez de contenido: 1) Alguna dimensión importante no está siendo medida. 2) Se miden con ítems todas las dimensiones, pero los ítems son poco precisos. 3) Los ítems no tienen nada que ver con el constructo. b) Validez de criterio: Busca establecer la relación entre los resultados que entrega el procedimiento de medición que se trata de validar y los resultados que entrega un proceso de medición distinto. Opciones del criterio: El criterio que se va a utilizar debe poseer una validez y una confiabilidad satisfactoria. 1) Instrumento que mide le mismo constructo que intenta medir el instrumento que se quiere validar. 2) Opinión de un evaluador calificado que evalúa el mismo constructo que mide el instrumento que se intenta evaluar. 3) Instrumento que mide un constructo diferente, pero que se encuentre muy relacionado con el instrumento que se quiere validar. *En la práctica se usa una mezcla de los tres. Procedimiento:

1) Identificar uno o más criterios relevantes. 2) Seleccionar una muestra numerosa de sujetos representativos de la población en la que será usado el instrumento a validar.

3) Obtener para cada sujeto una medición tanto en el instrumento que se está validando como en los criterios. 4) Determinar estadísticamente el grado de relación entre las puntuaciones del instrumento y los resultados obtenidos en el criterio. En este último punto se utilizan dos análisis estadísticos para el procedimiento. R de Pearson y t de Student para muestras independientes. Temporalidad del criterio: Se puede ver de dos formas: 1) Validez predictiva: grado en que las puntuaciones del test predicen medidas del criterio tomadas posteriormente, es decir, las conductas futuras del sujeto en el criterio. 2) Validez concurrente: grado en que las puntuaciones del test correlacionan con las de criterio, medidas al mismo tiempo, es decir, en la situación actual del individuo en el criterio. c) Validez de constructo: La validez de constructo vincula las nociones prácticas y psicométricas con las nociones teóricas. Tiene dos ideas o acepciones: 1. Si la estructura interna de la información (agrupamiento de ítems) es consistente con la estructura (dimensiones/factores) que la teoría plantea para el constructo. Para evaluar esta idea se utiliza el ANÁLISIS FACTORIAL (no es ANOVA).  Procedimiento estadístico multivariado para la reducción de información.  Permite saber cuantos factores mide el instrumento y que ítem mide cada factor. 44

 Tiene dos variantes: a) Análisis factorial exploratorio (EFA): Programa busca cuántos factores mide el instrumento y que ítem mide cada factor. b) Análisis factorial confirmatorio (CFA): Se le indica al programa cuántos factores cree uno que mide el instrumento y que ítem cree uno que mide el factor. 2. Si las mediciones que proporciona el instrumento reproduce la red de relaciones que el constructo evaluado debería mostrar con otros constructos.  Para evaluar se ocupa la matriz multirasgo/multimétodo:  Tiene dos o más modos de medir el constructo de interés (multimétodo)  Se le pide la investigador que identifique otros constructos diferentes que puedan ser medidos por los mismo métodos utilizados por el constructo de interés (multirasgo)  Se selecciona una muestra de sujetos a la que s ele aplican todas las medidas de cada constructo y de cada método.  Obtenido los datos se calculan las correlaciones entre todas las medidas y se presentan e forma de una matriz.  Se analiza el patrón de correlaciones observado y se concluye si el instrumento posee o no una adecuada validez de constructo. Ejemplo análisis factorial exploratorio paso a paso:

45

OJO: Existen unas teorías a la base del análisis psicométrico (que es confiabilidad y validez) estas se llaman teoría de respuesta al ítem y teoría clásica. También es importante que para los instrumentos las validez que se pueden ver es la de contenido, de criterio (pudiendo ser concurrente o predictiva), la aparente y la de constructo (que es la que vemos con el análisis factorial). PD: LO ANTERIOR; NO CONFUNDIR CON VALIDEZ INTERNA Y EXTERNA PORQUE ESTAS SON DEL EXPERIMENTO Y NO DEL INSTRUMENTO.

Tablas análisis factorial (otro ejemplo) 1) KMO y prueba de Bartlett Medida de adecuación muestral de Kaiser-Meyer-Olkin.(para

ver si existen factores latentes, tiene que ser mayor a 0,7 , pero a veces es mayor a 0,5 y también es aceptado) Prueba de esfericidad de Bartlett

(también para ver factores latentes y tiene que ser significativa o sea menor a 0,05)

,773

Chi-cuadrado aproximado 2741,880 gl

Sig.

190

,000

PD: DEBEN EXISTIR FACTORES LATENTES PARA HACER EL ANALISIS

46

47

EXPLICACION TABLA ANTERIOR: Acá nos fijamos en el valor total y cuales van a ser mayores que 1, los mayores que 1 son los componentes que vamos a ocupar para la escala y después cuando se les da nombre se llaman factores, también al lado sale cuanto % de la varianza explican cada uno y en porcentaje acumulado significa la varianza que van explicando cuando se van juntando por ejemplo los tres primeros explican un 48,916% de la variable. También otra opción es que pueden poner el grafico de sedimentación que en ese se tiene que ver cuales valores se escapan de la línea, para ver cuantos componentes tenemos. Varianza total explicada (otro ejemplo)

Componente

Autovalores iniciales % de la Total varianza % acumulado 1 6,592 32,960 32,960 2 1,949 9,747 42,707 3 1,646 8,232 50,939 4 1,269 6,346 57,285 5 1,113 5,564 62,848 6 ,954 4,769 67,617 7 ,875 4,374 71,991 8 ,826 4,130 76,121 9 ,656 3,281 79,402 10 ,641 3,206 82,608 11 ,619 3,095 85,704 12 ,523 2,614 88,318 13 ,486 2,428 90,745 14 ,438 2,192 92,937 15 ,338 1,688 94,625 16 ,313 1,563 96,188 17 ,272 1,362 97,550 18 ,199 ,996 98,545 19 ,152 ,759 99,305 20 ,139 ,695 100,000 Método de extracción: Análisis de Componentes principales.

Acá nos fijamos en el valor total y cuales van a ser mayores que 1, los mayores que 1 son los componentes que vamos a ocupar para la escala y después cuando se les da nombre se llaman factores, también al lado sale cuanto % de la varianza explican cada uno y en porcentaje acumulado significa la varianza que van explicando cuando se van juntando por ejemplo los tres primeros explican un 50,939% de la variable. También otra opción es que pueden poner el grafico de sedimentación que en ese se tiene que ver cuales valores se escapan de la línea, para ver cuantos componentes tenemos.

48

Gráfico de sedimentación

A u to v a lo r

6

4

2

0 1

2

3

4

5

6

7

8

9 10 11 12 13 14 15 16 17 18 19 20

Número de componente

49

Acá en esta tabla aparecen al lado izquierdo los ítems de la escala y en cada componente aparece su carga factorial asociada, acá se tiene que ver donde se carga cada ítem y en el caso de que se cargue en dos componentes ese ítem se queda en el componente en donde su carga es mayor. Por ejemplo el ítem A2 se queda en el componente 2. Luego de esto se agrupan los ítems en relación a cada componente que quedaron y se ve que dice cada uno para así poder darle nombre al componente y llamarse factor!!! Matriz de componentes rotados(a) (otro ejemplo) Componente 1

2

E22 E14

,781 ,600

E21

,597

E15

,590

E9

,555

E16

,536

3

4

5

,336 ,409 ,309 ,479

50

E13

,526

,427

E3

,854

E2

,823

E11

,690

E19

,762

E10 E7

,586 ,422

,348

,300

,471

E17 E8

,542

E20

,501

,542 ,528

E5 E4

,358

,547

,803 ,387

,747

E23

-,847

E1

,678

Método de extracción: Análisis de componentes principales. Método de rotación: Normalización Varimax con Kaiser. a La rotación ha convergido en 9 iteraciones.

Por ejemplo el ítem E22 se queda en el componente 1, pero el ítem E8 carga en el componente 1, 2 y 3 pero como en el 3 tiene carga de 0,542 se atribuye a ese componente. Luego de esto se agrupan los ítems en relación a cada componente que quedaron y se ve que dice cada uno para así poder darle nombre al componente y llamarse factor

42ª: Investigación Cualitativa - Investigación II  Diseños y tipos de investigación cualitativa Enfoque fenomenológico Enfoque etnográfico. Teoría fundamentada. 1. Enfoque fenomenológico Algunos antecedentes de la fenomenología:  La fenomenología se hereda de la filosofía y la sociología, constituyéndose en la corriente filosófica de mayor influencia en el siglo XX.  Contrario al positivismo, en enfoque fenomenológico considera que el conocimiento no es total.  Etimológicamente, fenomenología proviene de “phenomenon”, que significa “que se muestra”. Esto quiere decir que uno no ve la realidad, sino lo que ésta representa.  La fenomenología busca comprender cómo los sujetos experimentan su realidad; se interesa por describir la experiencia de los sujetos, tal cual la viven. Buscando comprender y mostrar la esencia del mundo subjetivo del hombre, conformado por todo el campo de experiencias, percepciones y recuerdos al que un individuo puede acceder en un momento determinado.  El abordaje de la realidad, siempre parte desde el marco de referencia interno del individuo  El enfoque fenomenológico pasa por el desarrollo de técnicas conversacionales, que luego el investigador plasma en un reporte. Orientaciones fenomenológicas: Fenomenología eidética (Husserl, corte filosófico) a. Considera nefasto del positivismo el formalismo (traducir todo el conocimiento a una estructura matemática) y el nominalismo (todo conocimiento científico debe tener correlato medible en la realidad).

51

b. Surgimiento del “mundo social”: “el mundo de la vida” trasciende lo que puede abarcar el formalismo/nominalismo. c. Conceptos: 1) Epoyé: poner la subjetividad entre paréntesis; suspender el propio juicio; acercarse a la subjetividad del otro poniendo entre paréntesis la propia; implica asumir que se puede estar equivocado. 2) Intentio: concepto de “intención”, entendido como “la conciencia de”. 3) Asepsia: aproximación al mundo de los significados alejándose del mundo de la metafísica o lo no científico. Fenomenología hermenéutica (Heidegger) a. Pone énfasis en el rol interpretativo del investigador y del “que está allí” (vivenciar e interpretar). b. El hombre cuando ve el mundo está posicionando en un lugar (lugar social). La sustancia del hombre es la existencia: ser en el mundo. c. Lo que se ve tiene que ver con las experiencias propias y la situación histórica culturalmente determinante: sujeto está histórica y culturalmente determinado. d. Desde esta perspectiva, la fenomenología destaca la intencionalidad humana, que sería la forma en que los significados determinan las acciones hacia los objetos. Estas acciones, a su vez, estarían determinadas por la conciencia, mientras que esta última valora la experiencia subjetiva y estudia los procesos de interpretación (desde el sujeto), es decir, cómo las personas viven y significan su mundo. Fenomenología de Schutz (corte sociológico)  Reformula la fenomenología eidética desde la sociología.  No pone énfasis en las grandes teorías sociales, sino en generar conocimiento desde los sistemas microsociales.  “Interpreta la acción” no desde el sistema, y sí desde la experiencia del actor.  Además de conocer el significado se lo debe cuestionar (crítica a Weber).  Desde el enfoque de Schutz, la investigación social es una investigación fenomenológica, y la realidad está construida por significados objetivados: construidos por alguien, y se llega a ellos a través de la intención (intenciones de la relación sujeto/objeto; relaciones causales para qué/por qué). Aspectos generales de la fenomenología como diseño en investigación cualitativa: (LO IMPORTANTE) Principios teóricos del diseño fenomenológico: 1. Primacía otorgada a la experiencia subjetiva inmediata como base de conocimiento. 2. Estudio de los fenómenos desde la perspectiva de los sujetos, teniendo en cuenta su marco de referencia. 3. Interés por conocer cómo las personas experimentan e interpretan el mundo social. Principios metodológicos del diseño fenomenológico (etapas de la investigación): 1.Clarificación de los presupuestos de los cuales parte el investigador a) Se explicitan los supuestos de la investigación y su influencia en la misma. b) Se observa y reflexiona. c) Se revisa la teoría y se hace referencia a datos de otras investigaciones. 2.Descripción que refleja lo más fielmente posible, la realidad vivida por los individuos. a) Se observa dejando entre paréntesis la teoría y nuestras creencias, para reflejar la vivencia de los sujetos lo más fielmente posible (epoyé). b) Se describe y representa la realidad del sujeto. c) Se hace referencia al espacio y tiempo en el cual se aborda el fenómeno y los datos del sujeto, como la edad, genero etc. (contexto). 3.Estudio y análisis fenomenológico 52

a) Se estudian las descripciones para delimitar los temas centrales, dando paso a la elaboración de categorías, para luego integrar las categorías señaladas en una estructura global que las incluya. b) Analizar, reflexionar y percibir la totalidad. c) Pasar desde lo que dicen los sujetos, a su subjetividad (esencia del significado). Y desde estos significados particulares encontrar similitudes que nos permitan observar lo universal. 4.Discusión del resultado del análisis, en contraste con lo planteado por otras investigaciones. a) Relacionar lo fenomenológicamente descrito, con lo que ha sido teóricamente establecido previamente. b) Comparar, analizar y sintetizar. c) Se reduce lo universalmente esencial para dar paso a lo trascendental e intersubjetivo. Enfoque etnográfico Fenomenología (filosofía, sociología) Visión en torno a un foco. Como la gente experimenta los fenómenos (significados que se le atribuyen).

Etnografía (antropología) Funcionamiento de un grupo contextualizado. Estudio del “etnos” (endogrupo).

1. Objetivo del estudio etnográfico 1. Descripción de un “etnos”, de un grupo claramente definido. 2. Busca describir el modo de vida del “etnos”. 3. Busca indagar en la cultura (cosmovisión, valores, creencias, formas de interactuar) del “etnos”. 4. Estudia el “etnos” desde la perspectiva de los miembros: estudio de un grupo que no es el propio (desde afuera) y aproximación al otro desde su propio lenguaje. 2. Definición de etnografía  Trabajo de describir una cultura.  Comprender la forma de vida de un grupo desde el punto de vista de sus miembros.  Más que “estudiar a la gente” es “aprender de la gente”: “proceso de aculturación controlada”; es más que extraer datos de la gente, por eso depende de las concepciones culturales vigentes y cómo entiendo a los otros. Estos dos últimos aspectos son parte de la evaluación de la etnografía, así como también lo son: 1) La perplejidad (distinciones llamativas). 2) Sobrevalorización de mi cultura. 3) Diversidad (hay otro distinto, todos somos diferentes): estudio de los otros = alteridad. 3. Alteridad (preocupación por el otro o por la “otredad”) La otredad visto como otro distinto a mí pero a la vez igual como humano Varias etapas: 1) Antigüedad/ Medioevo: a) Heródoto (padre de la historia, decripción de distintas culturas). b) Tácito (estudió a los germanos). c) Marco Polo (cuenta las vivencias en china). d) Battuta (relata la vida de los grupos con los que se cruzó). 2) Edad moderna (S. XVIII-XIX): a) Morgan: secuencia evolucionista de la progresión cultural (todas las culturas pasan por tres etapas: salvajismo, tribus; barbarie, domesticación; civilización, escritura).

53

     

b) Le play (quiebre): no hay modelos a priori; visión del fenómeno desde todas las perspectivas posibles (triangulación metodológica y teórica); datos sobre preconcepción. c) Siglo XIX-XX: particularismo histórico de Boas: Crítica al evolucionismo (importancia del ambiente, la psiquis individual y la historia). Considera la “singularidad cultural”. Es riguroso en la recolección de datos. Los datos deben ser contextualizados. d) Siglo XIX-XX/primera guerra mundial: Malinowski, funcionalismo: función social (soluciones colectivas a necesidades individuales); presencia personal y prolongada; perspectiva nativa; cultura como sistema. Benedict, particularismo histórico: culturas son únicas; se comprenden en sus propios términos; estudio de culturas japonesa, polinesia y malari; critica la asociación de la adolescencia y el temperamento a la cultura y género.

4. Características actuales de la etnografía 1) Vinculada a la antropología. 2) Guber: etnografía tiene una triple acepción: a. Como una orientación epistemológica: existiría una óptica etnográfica para aproximarse a la realidad; así se podría decir que toda la investigación cualitativa se basa en epistemología etnográfica. b. Como un método: etnografía puede ser vista como una estrategia de estudio (“diseño etnográfico”). c. Como un texto: informe etnográfico (producto del proceso de investigación; “etnografía como una radiografía cultural”. 3) Presenta principios de investigación que son transversales a todas las formas de investigación social. 4) Es holista: considera la realidad compleja, abarcando todo el contexto del fenómeno; el hecho estudiado está inserto en otros hechos y en el contexto que genera. 5) Es selectiva: hace un trabajo focalizado = elige un foco no definido a priori, primero vagabundea y luego se estrecha hacia el foco. Busca describir cómo se construyen los fenómenos en un grupo. 6) Es naturalista: in situ = estudio en su ambiente natural, porque la cultura es una construcción única que depende de su contexto. Ambiente etnográfico permite definir de dónde se genera la conducta. 7) Contextualizado: perspectiva personal y global; temporal (cuándo), espacial (dónde) y social (con quiénes). 8) Inductivo: no hay datos estructurados. 9) Émico: desde el lenguaje de los protagonistas. 10) Evolutivo: no hay un foco elegido de antemano; se parte de la investigación con una mirada amplia que se va reduciendo progresivamente. 11) Juicios de valor entre paréntesis (epojé). 12) Reflexividad: mutua influencia = en la interacción con los otros hay un proceso de significación bidireccional (cambia y se afecta el investigador por la cultura, y cambian los grupos por la presencia del investigador). 5. Conceptos clave de la etnografía 1) Reflexividad: construcción de significados en la interacción; se debe promover, invitar al grupo a construir información. 2) Aprendizaje del oficio: implica una resocialización controlada (se vive el fenómeno desde adentro, pero no se forma parte de él) de: a. La mirada (flexible, sensible, holística). b. El diálogo (punto de encuentro, no de excavación). c. Del registro (textualizar el campo). 54

6. Estudio etnográfico Distingue entre: Macroetnografía: de las sociedades. Microetnografía: situaciones sociales puntuales. Tiempo de duración: Hasta la saturación de la información. 3 meses (microetnografía), 1 a 10 años (macroetnografía). 7. Fases de la etnografía 1) Acceso al escenario sociocultural. 2) Identificación del fenómeno a estudiar. 3) Negociación del rol o posición dentro de la dinámica social cotidiana: balcón interno o negociación para ver el grupo desde adentro. 4) Selección de informantes claves de estrategias de producción de información. 5) Registro, ordenamiento, reducción y validación (con alguien del grupo) de la información. 6) La información se analiza e interpreta. 7) Reformulación y reenfoque del estudio: basado en el conocimiento y comprensión obtenidos. 8) Preparación del retiro del campo. 8. Método de la etnografía Observación participante: se necesita formar parte del grupo para saber los significados que ocurren en torno a un fenómeno. Debe tener en cuenta: 1. Variedad metodológica (multitécnica, complementando la observación participante). 2. Instrumentos deben generarse in situ. 3. Contacto prolongado y repetitivo (elástico->finaliza con la saturación teórica, no se sabe a priori el tiempo de investigación). 4. Triangulación 5. Producto: narración personalizada en 1ª persona. 6. Flexible (apertura a incorporar procedimientos de recolección y análisis de información) Fenomenología (filosofía, sociología) Visión en torno a un foco.

Etnografía (antropología) Funcionamiento de un grupo contextualizado.

Como la gente experimenta los fenómenos (significados que se le atribuyen).

Estudio del “etnos” (endogrupo).

Teoría fundamentada a) Procedimiento que a partir de los datos permite generar teoría (inductiva-> de lo particular a lo general). b) Ve la experiencia del sujeto, los factores que intervienen, etc. c) Describe la experiencia contextualizada. d) Aborda el fenómeno y se amplía a otros factores. e) Mientras la fenomenología es esencialmente descriptiva, y se queda en el centro del fenómeno, la teoría fundamentada toma en cuenta los factores de afuera considerando las causas del fenómeno, sus factores intervinientes y sus consecuencias. f) Se origina en la sociología, más específicamente en el interaccionismo simbólico. g) Su mayor aporte tuvo que ver con el concepto de saturación teórica y con el uso del método de comparación constante (hasta el momento el análisis comprendía la inducción analítica, es decir, probar una teoría con los datos recolectados; los autores

55

Glasser y Strauss plantean que hay que detenerse en la producción de información cuando el investigador es capaz de predecir lo que va a ocurrir). h) La única forma de llegar a la saturación teórica a través de este método, es el muestro teórico (selección de informantes, el muestreo no es a priori; estratégico, pragmático, por conveniencia). Origen a. Altos recursos económicos para la Universidad de Chicago en los años 30, llevó a un aumento de la producción de investigación cualitativa. b. Luego EE.UU. quiere una visión más general, y para eso la Universidad de Columbia aporta con sus investigaciones. c. En los años 60, las dos escuelas se encuentran en los autores B. Glasser (U de Columbia) y A. Strauss (U de Chicago). Glasser: métodos cuantitativos (Lazarsfeld), operacionalización; teorías de alcance medio (Merton), fenómeno no en general, sino de la sociedad. Strauss: estudio microsocial (Simmel), no en grupos, sino en situaciones; interaccionismo simbólico (Blummer). Influencias teóricas a la base a) Pragmatismo: utilidad práctica de los resultados b) Paradigma post-positivista: las teorías dormitan en los datos que se deben recolectar. c) Interaccionismo simbólico: Interés puesto en los significados interpersonales. Definición  Método general para el desarrollo inductivo de teorías.  Genera modelos conceptuales a partir de la observación del mundo social.  Teoría no es la base, sino el producto del estudio.  En definitiva, la teoría fundamentada es el descubrir teorías, conceptos, hipótesis y proposiciones partiendo directamente de los datos, y no de supuestos a priori, de otras investigaciones o de marcos teóricos existentes. Teoría  Modelos conceptuales, formas de explicación.  Esquema analítico abstracto de un fenómeno vinculado a una situación y un contexto particular.  Forma de la teoría (narración, figura, serie de proposiciones, dependerá de la tradición de la teoría fundamentada).  Requisitos de una teoría: a) Ajuste a los datos: cada cosa dicha en investigación debe calzar con los datos. b) Funcionamiento: explicar el fenómeno. c) Parsimonia: decir cosas de la manera lo más sencilla posible. d) Tipos de teoría: 1. Teorías formales: áreas temáticas o conceptuales, referida a fenómenos universales. 2.Teorías sustantivas: áreas concretas de donde extraer conocimiento; dar sentido a cuestiones prácticas de la vida social; son locales y/o aplicadas. Glasser

Strauss

Teoría formal como meta.

Teoría puede ser formal o sustantiva; no generalizables.

Acumulación de teorías sustantivas, generan una teoría formal.

Teorías no necesitan ser generalizables, sino útiles (generativas).

Método de la teoría fundamentada

56

Teoría fundamentada: forma de hacer investigación con estructura lógica, con su propio muestreo y lógica de análisis. Tiene sus propias formas y producción. 1) No tiene métodos de producción específicos: no dice si elegir uno u otro, no hay una predilección definida, pero hay más uso de entrevistas y observaciones. 2) Selección de participantes: muestreo teórico y muestreo intencional. 3) Análisis: método de comparación constante. 4) Saturación teórica: el análisis y muestreo se hacen en conjunto hasta no obtener más información nueva. 1) Método de comparación constante El investigador, codifica y analiza los datos de forma simultánea para desarrollar conceptos. Su aplicación supone la contrastación de las categorías, propiedades e hipótesis que surgen a lo largo de un estudio en sucesivos marcos o contextos. Este procedimiento se desarrolla en cuatro etapas (Glaser y Staruss, 1967): La primera implica la comparación de los datos, la segunda supone una integración de cada categoría con sus propiedades; la tercera requiere delimitar la teoría que comienza a desarrollarse; por último, en la cuarta etapa, que se produce tras un proceso de saturación de los incidentes pertenecientes a cada categoría; recoge la redacción de la teoría. Durante todo este proceso el investigador, selecciona nuevos cados a estudiar, según su potencial información para ayudar a elaborar la teoría, refinando o expandiendo conceptos. Este proceso se conoce con muestreo teórico. - Glasser: “estar abierto a lo que emerge”: 1) Identificar los fenómenos: categorías, describir el fenómeno; codificación abierta. 2) Codificación selectiva: identifica cómo los elementos se relacionan entre sí. Explicaciones relevantes; modelo de relaciones predefinidas, elección de las categorías más relevantes. 3) Codificación teórica: ser capaces de narrar el proceso, fenómeno en su conjunto; agrupación de todos los códigos selectivos. - Strauss y Corbin (diseño sistemático):  “Mantener el carácter emergente de la teoría fundamentada, pero con una idea preconcebida”. Características del análisis de datos (codificación)  

Concurrente con la recogida de datos Proceso sistemático, ordenado, flexible



Actividad reflexiva –Notas analíticas-



Los datos se “segmentan” en unidades de significado.



Las categorías son tentativas y flexibles



El recurso intelectual es la comparación



El tratamiento de datos es una actividad ecléctica



Los procedimientos ni son “científicos” ni son “mecánicos”



–es una “artesanía intelectual”

57



Los resultados son un tipo de síntesis de orden superior

La codificación es un proceso analítico por medio del cual se fragentan, conceptualizan e integran los datos para formar una categoría. Existen 3 tipos de codificaciones: 1. Codificación abierta: proceso analítico por medio del cual se identifican los conceptos y se descubren en los datos sus propiedades y dimensiones -

Incidentes  categorías  propiedades Acciones identificar: propiedades y dimensiones exhaustivamente. Utilidad de esta etapa: identificar categorías y dimensiones; identificar tipologías. Muestreo teórico abierto.

2. Codificación axial: proceso de relacionar las categorías a sussubcategorías,denominado "axial" porque la codificación ocurre alrededor del eje de una categoría, y enlaza las categorías en cuanto a sus propiedades y dimensiones. Tareas básicas de la codificación axial: - Organización contextual  paradigma de codificación. - Acciones  identificar relaciones y validarlas empíricamente. - Proceso:  Reconocimiento de fenómenos axiales.  Causas del fenómeno.  Factores intervinientes del fenómeno que pueden modificarlo (estrategia de accióninteracción).  Consecuencias  Contexto en el que ocurre el fenómeno. - Utilidad de esta etapa: generar “teorías” parciales; abrir perspectivas. - Muestreo teórico focalizado. ESQUEMA GENERAL DE CODIFICACIÓN AXIAL(no pude encontrar el autor) • • • • • •

FENÓMENO CONDICIONES CAUSALES CONTEXTO CONDICIONES INTERVINIENTES ESTRATEGIAS DE ACCIÓN CONSECUENCIAS

ELEMENTO

DESCRIPCIÓN

Fenómeno

la idea central, evento, suceso o incidente al cual se refieren las acciones o interacciones con el cual se relacionan

Condiciones causales

Son los eventos o variables que conducen a la ocurrencia o desarrollo del fenómeno. Es un conjunto de causas y sus propiedades

Contexto

El set de propiedades específicas con el cual se da el fenómeno. Difícil de distinguir de las condiciones causales. Son las localizaciones específicas (valores) de las variables que lo definen. Un conjunto de condiciones que influyen en la acción/estrategia. Los investigadores hacen frecuentemente 58

una curiosa distinción entre variables activas (causas) y variables de contexto. Tiene más que ver con lo que el investigador encuentra interesante que con distinciones de la naturaleza.

Condiciones intervinientes

las condiciones estructurales que influyen sobre las estrategias de acción/interacción que pertenecen al fenómeno. Ellas facilitan o interfieren las estrategias implementadas dentro de un contexto específico.

Estrategias de acción

Las acciones determinadas, orientadas a metas que los agentes realizan en respuesta al fenómeno y a las condiciones intervinientes. Estrategias para manejar, llevar a cabo o responder ante un fenómeno (bajo un determinado set de condiciones percibidas)

Consecuencias

Son las consecuencias de la acción estratégica, tanto esperadas como inesperadas..

EJEMPLO:

3. Codificación selectiva: proceso de integrar y refinar la teoría. El primer paso que se lleva a cabo para integrar los datos es determinar una categoría central o medular, la cual representa el tema principal de la investigación. Aunque la categoría central va evolucionando a partir de la investigación, también es una abstracción. En un sentido exagerado consiste en todos los productos del análisis, condensados en unas cuantas palabras que parecen explicarnos"de qué trata esta investigación". - Tema central: teoría - Acciones: elaborar una teoría (validarla, sostenerla, podarla). - Utilidad de esta etapa: genera una teoría única que explique comprensivamente el fenómeno. - Muestreo teórico discriminante.

59

Propósitos de los procesos de codificación en general: -Construir teoría más que comprobarla -Ofrecer a los investigadores herramientas útiles para manejar grandes cantidades de datos brutos -Ayudar a los analistas a considerar significados alternativos de los fenómenos -Ser sistemático y creativo al mismo tiempo -Identificar, desarrollar y relacionar los conceptos, elementos constitutivos básicos de la teoría. Tipo de resultados en teoría fundamentada: 1) Descriptivos: obtenidos a partir de la codificación abierta. Pueden originar clasificaciones. 2) Analítico-relacionales: surgen de la codificación axial y selectiva. Aquí se obtienen modelos densos de explicación. b) 1)   2)   3)   

Tradiciones Glasser: diseño emergente Teoría debe tener: ajuste, funcionamiento, relevancia, modificabilidad. No usar ideas preconcebidas. Strauss: diseño sistemático Conjunto de pasos que facilitan la teorización. Inductivo, creativo y sistemático. Chamaz: diseño constructivista Diseño emergente y sistemático serían objetivistas. No hay realidad unidimensional. Observador y observado.

Cuándo usar Metodología CUALI: 1. Estudio de fenómenos poco conocidos. 2. Acceso a los significados que los involucrados le otorgan a la acción social (subjetividad). 3. Reconstruir escenarios psicosociales complejos (ej: representaciones en torno al 11 de Septiembre de 1973). 4. Reconstruir retrospectivamente procesos psicológicos o sociales (ej: episodios de cambio en psicoterapia). 5. Generar nuevos modelos conceptuales o teóricos. 6. Integrar la investigación con la intervención (ej:investigación-acción participativa). 7. Contrastar hipótesis.

Fenomenología

Se requiere comprender significados subjetivos de la experiencias de las personas respecto de un fenómeno

Teoría Fundada

Se requiere generar de teoría a partir de datos

Etnografía

Se requiere describir una cultura y sus significados desde los actores y los investigadores.

Etnometodología

Se requiere describir una realidad social a partir de sus prácticas cotidianas. No busca cuestionar ni explicar significados.

Cuanti

Cuando se requiere medir y predecir comportamientos observables

60

Generalizar a la población Se requiere una explicación causal Cuando se tiene una hipótesis que verificar Cuando hay una realidad objetiva y particular que estudiar No experimental

Observa, no interviene

Experimental

Prueba causalidad. Controla Variables. Grupos aleatorios

Cuasiexperimental

Confirmatoria, Grupos predefinidos.

42b: Investigación CualitativaTécnicas de recolección de datos en investigación cualitativa. Técnicas conversacionales: entrevistas y focusgroup Técnicas observacionales. Planificación, ejecución, calidad, y aspectos éticos relacionadoscon la aplicación de tales técnicas. Técnicas conversacionales: ENTREVISTAS: Tipos de entrevistas a) Entrevistas estructuradas: Consiste en proporcionar cuestionarios estructurados, en los cuales las preguntas están predeterminadas tanto en su secuencia como en su formulación. Es decir, el entrevistador formula -en la mayoría de los casos- un número fijo de preguntas de forma estándar y en el mismo orden. Las respuestas también están prefijadas de antemano. - Situación en la que un entrevistador realiza preguntas a cada entrevistado mediante preguntas a cada entrevistado, mediante una serie de preguntas preestablecido habiendo un set limitado de categorías de respuesta. - Hay muy poco o ningún espacio para preguntas abiertas. - La codificación de las respuestas se realiza con un esquema preestablecido. - Todos los entrevistados reciben el mismo set de preguntas. - Instrucciones: 1) Nunca hablar sobre los objetivos de la investigación, más allá de lo necesario. 2) Nunca se puede desviar de la introducción del estudio, de la secuencia de preguntas y de las palabras de las preguntas. 3) Nunca se debe dejar que otra persona interrumpa la entrevista, ni dejar que otro responda por el entrevistado. 4) Nunca sugerir algún tipo de respuesta o dar algún tipo de expresión a favor o en contra de lo dicho por el entrevistado. No dar opiniones ni indicios de ellas. 5) Nunca interpretar el significado de una pregunta, sólo se repite para clarificarla. 6) Nunca improvisar, ni en las categorías de respuestas, ni en el modo de realizar las preguntas. - Rol del entrevistador es neutral (rapport balanceado: establecer una relación de confianza, pero de distancia). - Errores que se pueden producir en la entrevista estructurada: 1) Conducta del entrevistado: puede entregar respuestas por deseabilidad social, o bien omitir información. 61

2) Tipo de cuestionario: algunos medios de entrevista pueden producir información errónea (ej: por teléfono); modo de hacer las preguntas. 3) El entrevistador cambia el modo de la entrevista: la naturaleza predeterminada de la entrevista está orientada a minimizar los errores. B) Entrevistas semi estructuradas: Al igual que las anteriores las preguntas están definidas previamente -en un guión de entrevista- pero la secuencia, así como su formulación pueden variar en función de cada sujeto entrevistado. Es decir, el/la investigador/a realiza una serie de preguntas (generalmente abiertas al principio de la entrevista) que definen el área a investigar, pero tiene libertad para profundizar en alguna idea que pueda ser relevante, realizando nuevas preguntas. Como modelo mixto de la entrevista estructurada y abierta o en profundidad, presenta una alternancia de fases directivas y no directivas. c) Entrevistas en profundidad (no estructurada o abierta): También denominada por algunos autores como entrevista abierta. Generalmente suelen cubrir solamente uno o dos temas pero en mayor profundidad. El resto de las preguntas que el investigador realiza, van emergiendo de las respuestas del entrevistado y se centran fundamentalmente en la aclaración de los detalles con la finalidad de profundizar en el tema objeto de estudio. Aunque es la que más se caracteriza por la carencia de estructura –salvo la que el sujeto le de- y por la no-dirección, no hay que olvidar que las entrevistas deben desarrollarse bajo la dirección y el control sutil del investigador/a. Lo que se dice en las páginas siguientes puede aplicarse a todas las entrevistas independientemente del enfoque. - Sería una técnica cualitativa “por derecho propio”. - Características: 1) Inexistencia de cualquier pauta de preguntas (no hay preguntas, sino un tema y un foco). 2) No hay estructuración de subtemas previas. - Pasos a seguir: 1) Acceso al setting: acceder al escenario social donde se da el fenómeno; no olvidar que en algunos casos no hay setting (ejemplo: personas que viven en la calle). 2) Comprensión del lenguaje que hablan los entrevistados. 3) Decidir cómo nos vamos a presentar a nosotros mismos (aquí vale mucho la 1ª impresión). 4) Localizar un informante (“informante clave”): será el facilitador para entrevistar a otras personas y acceder al lenguaje. - Aspectos éticos:  Consentimiento informado.  Derecho a la privacidad.  Proteger de cualquier daño a las personas investigadas.  Si la entrevista será abiertamente grabada o no.  Grado de involucramiento de los investigadores. Adecuación de las entrevistas en profundidad en las siguientes situaciones:    

Cuando se desea estudiar acontecimientos del pasado o no se puede tener acceso a un particular tipo de escenario y por tanto los escenarios o las personas no son accesibles de otro modo. La investigación depende de un amplia gama de escenarios o personas. Cuando existen limitaciones de tiempo en comparación con otras técnicas, como la observación participante. Las entrevistas permiten un empleo más eficiente del tiempo. El investigador quiere esclarecer experiencia humana subjetiva. En este caso los autores se refieren a historias de vida basadas en entrevistas en profundidad.

62

La decisión de optar por la utilización de entrevistas, y en caso afirmativo, dictaminar su uso combinado o propio, va a estar determinada por el diseño del estudio de investigación y en concreto por el objetivo o los objetivos marcados en el estudio. Tipos de preguntas •Introductorias. •De profundización. •De sondeo. •De especificación. •Directas. •Indirectas. •De estructuración. •Silencio. •De interpretación. Planificando entrevistas: 7 etapas: 1. Organización temática: por qué y de qué realizamos entrevistas. (por qué, propósito de realizar entrevista y no otro --> podrían ser exploratorias, comprobación de hipótesis, descriptivo, teorizante (teoría fundamentada), investigación acción participativa y como material de apoyo para estudios de carácter práctico. 2. Diseño: tener claro dimensión temporal, sujetos entrevistados (+- 10, mayor entrevistados, menor información nueva) y guión de las entrevistas (semiestructuradas) 3. Ejecución: aplicar entrevistas/producción (introducción informativa propósito de entrevista, tema, objetivo, contexto, consentimiento informado; Sensación de vacío dar espacio a preguntas; sesión de reflexión tiempo breve donde se le da la posibilidad de dar su experiencia durante la entrevista.) 4. Transcripción. 5. Análisis: en función de este se modifican la estructura de las siguientes entrevistas. 6. Paralelamente al análisis: verificación: a medida que se hace el análisis y es posible modificar, puedo volver a los mismos sujetos y a otros para ver si los resultados de la entrevista está libre de sesgos. 7. Informe. Aspectos éticos: Microética: -Consentimiento informado: dar a conocer los objetivos de la investigación, nuestros intereses, quienes tienen acceso a las entrevistas, qué se va a registrar. Puede retirarse de la entrevista en cualquier momento, es confidencial, los resultados se envían. -Confidencialidad: Los datos confidenciales del entrevistado no pueden llegar a ser conocidos. -Consecuencias: Considerar el beneficio o daño que puede causar la entrevista. Algunas pueden gatillar algún evento traumático. Integridad de la entrevista: la experiencia del investigador determina qué información entrega y qué no. La honestidad también es importante. Macroética: Tiene que ver con los resultados, ¿Para quiénes son útiles?¿A quienes les beneficia la información?, es decir, cómo las entrevistas tienen repercusión en la sociedad, en algunos casos

63

pueden llegar a ocasionar efectos negativos. También puede dar que se rompan ciertas éticas con el fin de dar beneficio a la sociedad. D) Focus group o Técnica conversacional dirigida a grupos. Es parte de las entrevistas grupales. o Discusión en la cual un grupo de personas conversa respecto de temas considerados importantes para una investigación, y donde dicha discusión es guiada por un moderador o facilitador. o Morgan: las entrevistas grupales son un modo específico de escuchar a las personas y aprender a ellas. o Número de participantes: algunos señalan que puede ser de 6 a 12 personas; Morgan: un grupo de 6 a 8 es “fácilmente dirigible”. o Trabajo de los moderadores con un set de preguntas preestablecidas, orientadas a temáticas (no a elementos específicos) que se quieren tratar. o El FG no busca necesariamente llegar a acuerdos o a conclusiones grupales, sino más bien busca develar cómo se llega a acuerdos o desacuerdos. La idea es generar un análisis de las interacciones. Focus group es un punto medio en un proceso de 3 etapas: 1) Decisión del equipo de investigación, respecto a qué necesitan oír del grupo focal. 2) Focusgroup propiamente tal. 3) Resumen de lo que se ha aprendido de los personajes participantes. Focus group es un proceso activo y no pasivo. Esto significa que:     

Investigadores eligen el tema. Investigadores dirigen la discusión. Sin embargo, los investigadores tampoco deben ser tan directivos o rígidos. La única manera de escuchar a los participantes, es considerando sus prioridades. El FG es adaptable a distintos propósitos. Por eso se ocupa en distintas instancias.

 1) 2) 3) 4)

4 usos básicos del FG: Para identificar problemas. Para planificar. Para realizar buenas implementaciones. Para evaluar.

 1) 2) 3) 4)

4 aplicaciones del FG: Investigación académica Marketing de productos Investigación evaluativa Mejoramiento de la calidad Investigación académica

Marketing de productos

Investigación evaluativa

Mejoramiento de calidad

Identificación del problema

Generar preguntas investigación.

las Generación Evaluación de Identificar de de nuevas necesidades. problemas ideas de mejora. productos.

Planificación

Diseño investigación.

de Desarrollo Población se de nuevos haga partícipe productos. y lineamientos.

de

Planificar intervenciones para mejorar calidad.

64

Implementación Retroalimentación Monitorear Evaluación de de la investigación. la respuesta procesos. Recolección de del cliente. datos. Evaluación

Análisis de información. Contrastar información

Intervención, aplicación con la organización.

la Refinar el Evaluación de Rediseña el producto. resultados. proceso de la intervención.

Cuándo usar un FG: 1) Se usa para saber cómo las personas construyen significados en torno a algunos temas (los que los investigadores tengan como foco de interés). 2) Para comprender por qué las personas sienten como sienten. Demostrar cómo las personas mantienen sus puntos de vista en grupos, y cómo son capaces de modificarlo. 3) Se usa cuando los investigadores saben que a través de esta técnica pueden aparecer elementos nuevos (que no se pueden obtener por una entrevista individual). 4) Se usa cuando los investigadores quieren encontrar una visión más individualista. 5) El FG ofrece la oportunidad de estudiar la forma en que los individuos colectivamente construyen significados respecto de los fenómenos. Cómo se conduce un FG: 1) Registro y transcripción:  La transcripción debería realizarse terminando el FG. Quien modera no debe tomar notas. Razones: - Porque es muy difícil tomar notas y al mismo tiempo poner atención a lo que se dice. - Es muy difícil atender a dos cosas a la vez, considerando que el FG se interesa por quienes expresan puntos de vista, quienes lideran el proceso de opiniones y quienes dominan el grupo. - El en FG hay interés en lo que se dice y en quién dice las cosas. Si se pierde de vista esto, se pierde el hilo de cómo se construye significado. O sea, no habría razón para elegir un FG antes que una entrevista. 2) Cuántos grupos realizar:  No hay una medida exacta.  Rango medio: 10 a 15  FG no sería muy válido si no se ocupa con otra técnica paralelamente.  Muchos grupos podría ser una pérdida de tiempo (llegar a la saturación teórica).  Importa no tanto la representatividad, como la diversidad de opiniones que surjan. 3) Tamaño de los grupos: - Cuándo usar grupos pequeños:  Cuando los participantes están profundamente involucrados en el tema.  Cuando los temas son controvertidos y complejos. - Cuándo usar grupos grandes:  Cuando las personas no están involucradas en el tema.  En los grupos grandes sería difícil estimular a los participantes no interesados, produciéndose grandes espacios de silencio. 4) Nivel de involucramiento del moderador: - El facilitador no deber ser ni muy intrusivo, ni muy estructurado. - El facilitador tiene 2 funciones: dejar fluir libremente la conversación, y ser capaz de intervenir con objeto de indicar aspectos especialmente sobresalientes que surjan durante la conversación.

65

5) Selección de participantes: - Principalmente sigue la variable sociodemográfica. - Otra alternativa es el grado de involucramiento en con el tema. - Se ha planteado que las personas de un FG no deben conocerse. Limitaciones: -

-El investigador tiene menos control del proceso que en una entrevista individual. -Una enorme cantidad de información puede ser rápidamente producida, puede tomar hasta 8 horas de transcripción. -La información es compleja de analizar. (datos voluminosos, inestructurados y poco manejables.) -Son difíciles de organizar: acuerdo inicial + tiempo específico

Técnicas Observacionales: La observación permite observar directamente, sin mediación, las prácticas de las personas. La mediación está dada por el relato o discurso. Dimensiones de la observación: 1) Encubierta (ejemplo, experimento de Festinger y las sectas) v/s al descubierto. 2) No participante (ejemplo, filmación de una práctica social) v/s participante (el investigador se involucra y se relaciona con los sujetos que investiga). 3) Sistemática (se necesita de una pauta previa y estructurada de lo que se quiere encontrar) v/s no sistemática (“lo que se encuentra”, no estructurada). 4) En situaciones naturales v/s en situaciones artificiales (ejemplo, laboratorios). 5) De sí mismo v/s de otros.   

   -

Es utilizada por investigadores cuantitativos y cualitativos. Sola o en conjunto con otras técnicas. La observación cualitativa intenta capturar la vida tal como es experimentada por los participantes de la investigación más que a través de categorías que han sido predeterminadas por el investigador. La investigación observacional asume que las conductas son intencionales, reflejando valores y creencias profundas. Involucra a menudo el contacto directo, aunque a veces se utilizan instrumentos de registro, tales como audio y video. Es idiográfica más que nomotética. Reconoce el rol subjetivo del investigador La forma de observación debería ser coherente con los objetivos de la investigación. La comprensión efectiva de las prácticas sociales se logra conociendo su significado. Descripción densa: descripción lo más completa posible de las prácticas sociales, viendo lo que está en el fondo, y usando la interpretación para llegar al significado.

Tipos de observación: 1) Observación no participante. 2) Observación participante. 3) Etnografía 4) Fotografía 5) Análisis de películas. Características de la observación: 1) Debiera ser repetitiva y regular: se debe volver al lugar de observación varias veces. 2) No incluye solamente el dato visual: también incluye el sonido, los olores, lo que se toca, lo que se sabe.

66

3) Los observadores cualitativos están libres para buscar las categorías o conceptos que parecen significativos a los sujetos: no están limitados por categorías predeterminadas de respuestas. Ejemplo: limitaciones de género, religión, edad, etc. 4) Puede variar entre diferentes practicantes, a través de la etapa. Observación participante, trabajo de campo, etnografía¿Sinónimos?: •Etnografía es observación participante hecha durante el trabajo de campo •La observación participante y el trabajo de campo como descripciones útiles de la técnica de producción de datos y la locación de la producción de datos. •El trabajo de campo es la fase de producción de datos, cuando los investigadores dejan sus escritorios y se sumergen en el mundo. Rol del observador Tipología de Gold, 3 tipos de membrecías:  



Periférica: faculta al investigador a observar e interactuar lo suficientemente cerca con los miembros para establecer la identidad de un miembro sin participar en aquellas actividades constituyentes de la esencia de la membresía al grupo. Activa: En la postura del participante como observador, el investigador es un miembro del grupo estudiado, y el grupo es consciente de la actividad de investigación. En esta postura, el investigador es un participante en el grupo que observa a los otros, y que se interesa más en observar que en participar, dado que su participación es un supuesto, pues él es miembro del grupo. Este rol también tiene desventajas, en que hay un intercambio entre la profundidad de los datos revelados al investigador, y el nivel de confidencialidad brindado al grupo por la información que ellos ofrecen. Completa: En un extremo está el participante completo, quien es un miembro del grupo que está siendo estudiado, y quien oculta al grupo su rol de investigador para evitar interrumpir la actividad normal. Las desventajas de esta postura son que el investigador puede carecer de objetividad, los miembros del grupo pueden sentir desconfianza del investigador cuando el rol de investigador es revelado, y la ética de la situación es cuestionable, porque los miembros del grupo están siendo engañados. El rol del observador depende de: el propósito de la observación, las características del observador, y la naturaleza del escenario.

Etapas de la observación: 1) Selección del entorno: qué se va a observar; comportamiento de interacciones en los seres humanos; interaccionismo  en ellas están los significados que serán interpretados para la comprensión de los fenómenos psicológicos. 2) Definición del foco: a partir del objetivo de investigación. 3) Formar observadores. 4) Observación descriptiva: es el único de la etapa de observación propiamente tal, evitando los juicios personales. 5) Observación focalizada: observación específica del foco. 6) Observación selectiva: se escoge algo particular, que es clave o lo más significativo del foco. 7) Final de la observación. Dónde comenzar a buscar depende de la pregunta de la investigación, pero dónde enfocar o detener la acción no puede ser determinado de antemano. Problemas de la observación:

67

 Tienen que ver con la validez (que mida lo que tiene que medir) y la confiabilidad (que en repetidas ocasiones de aplicación, se mida lo mismo).  Validez: Para aumentar la validez utilizar múltiples observadores o equipos, diversos en edad y género.  Confiabilidad: para aumentar la confiabilidad se deben realizar observaciones conducidas sistemática y repetidamente en tiempo. Observar varios lugares distintos y observamos el mismo lugar en tiempos distintos.  La primera responsabilidad del observador es saber lo que está pasando, para verlo, escucharlo, tratar de hacer sentido de ello. Esto es más importante que obtener la nota perfecta o una cita. Mucho de lo que deja es una aproximación que podemos mejorar más, si tenemos una buena idea lo que pasó.  En la investigación cualitativa, la observación sería una herramienta que aportaría a la validez (en la entrevista se puede dar el fenómeno de la deseabilidad social, y ese riesgo disminuye en la observación).  Los sesgos en la observación se pueden evitar por: a) Triangulación de los distintos puntos de vista de los observadores. b) Triangulación de métodos (uso de varias técnicas). Rigor en la observación:  Phillips: la observación suministra una calidad “suculenta”.  La técnica de observación es la menos intrusiva de todas las técnicas (no hay mayor influencia en los grupos).  Emergencia de la observación: la investigación cualitativa tiene una lógica inductiva (a partir de las cosas particulares); la observación debería hacer emerger la información.  Combinación de la observación con otras técnicas. Debilidades de la observación •Procesos no observables (procesos mentales se infieren) •Cantidad de tiempo (tienen que producirse en largos periodos de observación y generalmente está asociado con recursos económicos. •Específica a un lugar (no se puede generalizar) •Posibilidad de transferibilidad (no se puede transferir lo que pasa en un lugar a otro) •Dependencia del observador y sus sesgos Fortalezas de la observación •La mayor parte de la observación es no intrusiva lo que la hace propicia para producir información altamente confiable. Es la menos intrusiva de todas las técnicas de investigación. •Su emergencia, permite ir conduciendo la investigación y generado preguntas. (construcción de categorías, libertad de modificar los problemas y preguntas investigadas). •Combinación con otras técnicas. (generalmente la entrevista). •Las prácticas son accesibles sólo mediante observación, mientras que las entrevistas hacen abordables los relatos de las prácticas. •Es adecuada tanto para descubrir nueva información (generación de teoría) como para validar conocimiento existente (confirmación de teoría). Aspectos éticos Una primera consideración en cualquier estudio de investigación es dirigir la investigación de una forma ética, haciendo saber a la comunidad que el propósito que uno tiene al observar es documentar sus actividades. Si bien puede haber casos en que los métodos de investigación cubierta pueden ser apropiados, estas situaciones son pocas y son sospechosas.

68

Otra responsabilidad ética es preservar el anonimato de los participantes en la escritura final y en las notas de campo para prevenir su identificación, en caso de que las notas de campo sean requeridas para inspección. También señalan que hay una preocupación ética en torno a las relaciones establecidas por el investigador cuando dirige una observación participante; el investigador necesita desarrollar relaciones cercanas, y esas relaciones son difíciles de mantener cuando éste retorna a su hogar en un sitio lejano •Engaño. •Observación encubierta, asumir un rol falso podría violar el principio del consentimiento informado. •Confidencialidad, tanto protegiendo la identidad de los participantes como rehusando revelar información sensible recolectada durante el proceso de investigación que pudiera dañar a los individuos involucrados. •Deben ser inclusivos, representando realistamente las voces de todos los participantes en un escenario de investigación. Informantes claves y porteros podrían bloquear el acceso a los menos poderosos y es preciso encontrar formas de by-pasearlos (buscar otras formas para llegar a otro informante). •Usados para investigar conductas desviadas, lo que podría generar el llamado “conocimiento culpable. Paradigmas observacionales: 1) Sociología formal  Porpuesta por George Simmel.  Trabajó con la “estructura relacional”: no hay que fijarse tanto en los contenidos de las interacciones humanas, como en su forma.  Simmel trabajó con las “formas de asociación” (se refería a las formas de interacción).  Tipos sociales: los tipos sociales que le interesaban a Simmel eran 2: 1) Los definidos por su relación con otros: las relaciones triádicas, diádicas, de subordinación o superordinación. 2) Marginales: interés por individuos que parecían marginales en la sociedad.  Rol del observador: puede integrar participación y no participación (saliencia total v/s membrecía completa); importancia del distanciamiento del observador o “posicionamiento”.  Introdujo la acción del vagabundeo. 2) Sociología dramatúrgica  La propone ErvinGoffman.  Perspectiva respecto a que las personas juegan roles en la sociedad.  Las personas, con estos roles presentan su self o identidad (lo que ellos quieren mostrar que son)  “autopresentación del sí mismo”.  Las presentaciones del self son intencionales y no naturales en nosotros.  Metodológicamente, Goffman señala que la observación tiene algunas limitaciones: es no sistemática (no tiene pautas previas) y es naturalística (tal como está dada). No explicitó estas dos como fortalezas y debilidades de la observación, sino como parte de sus limitaciones.  Goffman se interesó por mostrar un amplio espectro de las relaciones humanas (“atrapar al personaje social”). Quería ver todas las partes del rol que el hombre cumple en la sociedad.  Incluyó la observación de los pequeños movimientos a los grandes rasgos (rango de actos). 3) Estudios en el reino público  Son investigaciones con foco en el orden moral, relaciones interpersonales, etc.  Descripción de las características propias de diversos tipos de individuo.  Es un desarrollo de la teoría de Goffman.

69

 Por “reino público”, se entendería “sociedades urbanas y modernas”.  El objetivo de la técnica es obtener datos de grandes grupos de personas en un lugar y aislar patrones de la conducta grupal.  Investigaciones en el reino público: 1.- Lofland - Observaciones externas y posterior escritura de sus observaciones. - Su investigación era individual. - Señala el elemento del peligro y los límites de la observación (noción de no quebrar los límites de la observación, no involucrarse o ser impertinente; adscrito a la línea menos participante). 2.- Nash - Aquí el observador tampoco participa mucho. - Trabajó con equipos de investigación y vio el problema de los “investigadores novatos” (involucramiento de prejuicios). - Destaca la importancia de la “epojé” (poner entre paréntesis). 3.- Humphreys - Observación rigurosa con pautas de registro sistemáticas. - Pudo describir formas de funcionamiento y normas de relación entre los individuos extraños, y diferentes categorías de individuos. - Su investigación usó una observación participante. - Puso tensión al menos en dos aspectos: el tema ético y la confidencialidad. Auto-observación:  Herramienta de investigación en niveles más íntimos de análisis.  Noción de reciprocidad de perspectiva: el observador puede exponer una situación para observarse a sí mismo, y eso le ayuda a ver aspectos más íntimos.  Desde el concepto psicológico: se busca lo que le pasa a una persona frente a una determinada situación; observación de los propios sentimientos; propone ir a las experiencias, ir a vivir la misma situación que otros y observar cuáles son los sentimientos, y ver qué me produce lo que veo (ejemplo: ir al lugar donde alguien vivió el terremoto). Etnometodología:  Su autor inicial fue Harold Garfinkel.  Parson: los seres humanos vivíamos en una sociedad que estaba construida socialmente, y ahí se funcionaba.  Garfinkel: efectivamente vivimos en mundos sociales, pero no somos autómatas sociales. Propone que lo que hacemos es construir persistentemente la sociedad, a través de pequeñas cosas.  Objetivo de la etnometodología: 1) Cómo se construye la vida social de las personas. 2) Interesa más la estructura de las relaciones en función de normas, relaciones, roles. 3) Interesa la estructura subyacente de la realidad social.  Los etnometodólogos rechazan las entrevistas y prefieren el registro de observaciones lo más fidedigno posible. Utilizan audio, video y otros, para registrar.  Los etnometodólogos prefieren observar lejos, lo más objetivos posible.  Utilizan el análisis de conversaciones: esto sirve para ver cómo se produce la vida social. Requiere de observaciones con detalle.  Los detalles y el rigor hacen un buen registro. Si esto es así, las conclusiones son las mismas que puedan tener otros.  Algunos aspectos éticos:

70

-

Investigación encubierta o no. Publicación de los resultados. Grado de participación.

44: Investigación CualitativaMuestreo y criterio de saturación en investigación cualitativa Muestreo teórico Muestreo Estratégico Saturación teórica Muestreo teórico: Se basa en el método de comparación constante es decir en la conexión que se produce entre los datos, esto permitiéndole ir hacia una determinada fuente de datos y no hacia otras. No se parte con muestreo a priori. Según Strauss es el proceso de recogida de datos para generar teoría por medio del cual el analista recoge, codifica y analiza sus datos conjuntamente y decide que datos recoger después y donde encontrarlos, para desarrollar su teoría a medida que surge. Este proceso de recogida de datos esta controlada por la teoría emergente. Para seleccionar informantes que puedan entregar información por medio de la entrevista, se puede utilizar la “técnica de la bola de nieve” la cual consiste en conocer a algunos informantes que presentarán a nuevos informantes y estos últimos a otros (acceder a los informantes por redes sociales naturales) Selecciona nuevos casos a estudiar según su potencial para ayuda a refinar o expandir los conceptos y teorías ya desarrollados. Lo importante no es el número de casos, sino la potencialidad de cada uno para ayudar al investigador a desarrollar una mayor comprensión teórica sobre el área que está estudiando. Muestreo estratégico: También llamado pragmático o por conveniencia, apuntan a la posibilidad concreta de llegar a una muestra con ciertas características que nos interesan, respecto de otras de la posibilidad de llegar a otras. Muestreo a priori, donde uno se enfoca en cierta manera en determinadas poblaciones.  Muestreo estratégico o de conveniencia responde a una modalidad de muestreo no probabilístico, en el que la selección de la muestra responde a criterios subjetivos, acordes con los objetivos de la investigación. Por lo que comparte las ventajas y los inconvenientes básicos de cualquier muestreo no probabilístico.

 Muestreo de bola de nieve: las unidades muestrales se van escogiendo, sucesivamente, a parir de las referencias aportadas por los sujetos a los que ya se ha accedido. Como a su vez, los nuevos casos identifican a otros individuos en su misma situación, la muestra va aumentando, como una bola de nueve hasta que el investigador decida cortar. Saturación teórica: 71

A grandes rasgos es cuando la información comienza a ser redundante, no aportando ningún nuevo punto de vista analítico. Por lo que se decide la conclusión de la recogida de información. Para comprobar una hipótesis como una teoría potencialmente robusta, uno se debe detener en la producción de información cuando como investigar uno es capaz de predecir la información que se dará a continuación si se siguiera analizando o extrayendo información (es decir se repite la información). Alcanzar el punto en el que nuevos datos no son iluminadores. Utilizando los términos de la codificación, la saturación teórica sería el punto en la construcción de la categoría en el cual ya no emergen propiedades, dimensiones, o relaciones nuevas durante el análisis. Cuando una categoría está saturada solo corresponde ir hacia nuevos grupos para obtener datos sobre otras categorías e intentar saturar también estas nuevas categorías. Cuando ocurre la saturación, el analista por lo general encontrará que alguna brecha en su teoría, especialmente en sus categorías mayores, está casi, si no completamente, saturada. Al tratar de alcanzar la saturación, maximiza las diferencias en sus grupos para maximizar las variedades de datos contenidos en una categoría; y de esta manera desarrolla tantas propiedades diversas de la categoría como es posible. Los criterios para determinar la saturación son, entonces, la combinación de los límites empíricos de los datos, la integración y la densidad de la teoría y la sensibilidad teórica del analista. La sensibilidad teórica refiere a la capacidad del investigador de pensar los datos en términos teóricos. Requiere que el investigador interactúe constantemente con las operaciones de recopilación y análisis, en vez de elaborar hipótesis respecto de posibles resultados y suspender sus juicios hasta que todos los datos estén analizados 45: Investigación CualitativaCriterios de rigor científico aplicados a la investigación cualitativa Criterios planteados por Guba (1985): credibilidad, transferibilidad, dependencia y confirmabilidad. Otros criterios de calidad, por ejemplo, Marshall (1990). Procedimientos o estrategias para alcanzar los criterios de calidad. Criterios de calidad planteados por Guba: • Credibilidad (validez interna) • Transferibilidad (validez externa) • Dependencia (confiabilidad) • Confirmabilidad (objetividad) Credibilidad • Cuánto “crédito” es posible darle a los resultados. • El grado en que los hallazgos hacen sentido. • Si lo que se reporta corresponde al fenómeno y no al sesgo del investigador. Se refiere a cómo los resultados de una investigación son verdaderos para las personas que fueron estudiadas y para otras personas que han experimentado o estado en contacto con el fenómeno investigado. Es importante tener en mente que los informantes son los que conocen su mundo, el cual puede ser completamente diferente al mundo del investigador. Éste tiene la tarea de captar el mundo del informante de la mejor manera que él lo pueda conocer, creer o concebir lo cual a menudo es un reto difícil para el investigador. Captar lo que es “cierto”, “conocido” o la “verdad” para

72

los informantes en los contextos o en la situación social en que viven los informantes requiere escuchar de manera activa, reflexionar y tener una relación de empatía con el informante. El criterio de credibilidad se puede alcanzar porque generalmente los investigadores, para confirmar los hallazgos y revisar algunos datos particulares, vuelven a los informantes durante la recolección de la información. La experiencia indica que, por lo general, a los informantes les gusta participar en esa revisión pues ellos quieren reafirmar su participación y desean que los hallazgos sean lo más creíbles y precisos para ellos. La mayoría de los informantes son capaces de corregir los errores de interpretación de los hechos y para ello se ocupan de dar más ejemplos que ayudan a clarificar las interpretaciones del investigador. Propuestas: • Chequear con participantes. • Involucrarse en el campo: contactos extensos, observaciones continuas. • Triangulación de datos. • Informe transparente. • Exposición intermedia a par. Transferibilidad • Es el grado en que los sujetos analizados son representativos del universo al cual pueden extenderse los resultados obtenidos. • El objetivo es dar al lector la suficiente información para juzgar si los resultados son aplicables a otros escenarios. • En cualitativa la transferibilidad es una función de los grupos o sujetos comparados (muestreo teórico). Este criterio se refiere a la posibilidad de extender los resultados del estudio a otras poblaciones.. En la investigación cualitativa la audiencia o el lector del informe son los que determinan si pueden transferir los hallazgos a un contexto diferente del estudio. Para ello se necesita que se describa densamente el lugar y las características de las personas donde el fenómeno fue estudiado. Por tanto, el grado de transferibilidad es una función directa de la similitud entre los contextos. Propuestas: • Muestreo teórico. • Descripción densa. • La generación de modelos densos y complejos del objeto de estudio. • Un modo de conocer el nivel de transferibilidad de un estudio es considerar los resultados de un estudio como hipótesis de otro estudio próximo semejante Dependencia • Se refiere a la exactitud de los reportes del fenómeno. Propuestas: • Triangulación. • Realizar auditoria (chequeo de la calidad de las decisiones en la producción de información y su análisis, por parte de expertos). La dependencia o consistencia lógica es el grado en que diferentes investigadores que recolecten datos similares en el campo y efectúen los mismos análisis, generen resultados equivalentes. De acuerdo a Franklin &Ballau (2005) existen dos clases de dependencia, la interna (Grado en el cual diversos investigadores, al menos dos, generan temas similares con los mismos datos) y la externa (Grado en que diversos investigadores generan temas similares en el mismo ambiente y

73

período, pero cada quien recaba sus propios datos). En ambos casos, ese grado no se expresa por medio de un coeficiente, sólo se verifica la sistematización en la recolección y el análisis cualitativo (Citado por Hernández, Fernández & Baptista, 2006). Confirmabilidad • Captar el mundo del mismo modo que lo haría alguien sin prejuicio ni llevado por intereses particulares. La habilidad de otro investigador de seguir la pista o la ruta de lo que el investigador original ha hecho. Otro investigador examine los datos y pueda llegar a conclusiones iguales o similares a las del investigador original siempre y cuando tengan perspectivas similares. . Para ello es necesario un registro y documentación completa de las decisiones e ideas que el investigador haya tenido en relación con el estudio. Esta estrategia permite que otro investigador examine los datos y pueda llegar a conclusiones iguales o similares a las del investigador original siempre y cuando tengan perspectivas similares. (Diario de campo) Propuestas: • Juicio de expertos que hagan chequeo sobre calidad de las transcripciones, notas de campo, memos, calidad de las interpretaciones, etc. • Triangulación de datos, analistas. • ¿Están los descubrimientos basados en los datos? • ¿Las inferencias realizadas son lógicas? • ¿Las decisiones metodológicas son apropiadas? • ¿Cuál es el grado de sesgo del investigador y en qué se transparenta? (por ejemplo, no busca casos negativos, sobreinterpreta). • ¿Qué estrategias se utilizaron para aumentar la credibilidad?

Cuadro resumen: En resumen los índices de calidad dignos de confianza se pueden lograr mediante los criterios anteriores. Esto Incluye los siguientes aspectos: • Se explicita el modo de producción de información. • Se reconocen los propios sesgos del investigador. • Se documentan las decisiones. • Se utilizan ejemplos específicos de los datos. • Se evalúa la garantía de los informantes. • Se triangula. • Se va y regresa entre recogida e interpretación de la información. • Se obtiene retroalimentación de los informantes. • Se acepta la apertura a posibles cambios.

74

Criterios de calidad según Marshall: 1. El método es explicado en detalle a fin de que el lector pueda juzgar si es adecuado y si hace sentido (que nada aparezca “por obra de magia”). 2. Los supuestos son explicitados (incluyendo los sesgos personales y teóricos) y se analizan. 3. Se evitan juicios de valor en la recolección y el análisis de información. 4. Existe abundante evidencia proveniente de los “datos brutos”. 5. Las preguntas de investigación son explicitadas y el estudio las responde, y genera preguntas adicionales. 6. La relación entre el estudio actual y estudios previos es explícita (y se da un paso más). 7. El estudio es reportado de manera accesible para otros investigadores, profesionales y generadores de políticas. 8. La evidencia se presenta mostrando que el investigador fue tolerante frente a la ambigüedad, buscó explicaciones alternativas, contrastó con evidencia negativa y usó variedad de métodos para chequear sus hallazgos. 9. El reporte señala las limitaciones de la generalización mostrando al mismo tiempo a los lectores la transferibilidad de los hallazgos. 10.Se realizaron observaciones en un amplio rango de actividades y sobre un ciclo completo de éstas. 11.Los datos están almacenados y se encuentran disponibles para un re-análisis. 12.Se aplicaron métodos para chequear la calidad de los datos (veracidad, conocimiento de los informantes, etc.) 13.El trabajo de campo está documentado. 14.El estudio se adecua a los estándares éticos (consentimiento informado, por ejemplo). 15.Los participantes se benefician, de algún modo, de la investigación. 16.El investigador tiene un mirada holística. Para profundizar en el tema; Otros autores que proponen diversos criterios de calidad son: Whittemore, Chase y Mandle: Desarrollo de términos y definiciones más novedosos de criterios de calidad tales como: autenticidad, explicitud, creatividad, vivacidad, minuciosidad, sensibilidad, etc. Calderón:lleva a cabo un intento de integración flexible y abierto de las propuestas previamente publicadas, en torno a cuatro criterios principales: adecuación epistemológica y metodológica, relevancia, validez y reflexividad, y que por considerarlos todavía vigentes pasamos a exponer brevemente a continuación. El criterio de adecuación epistemológica y metodológica. Conforme a dicho criterio, antes de valorar cómo se ha llevado a cabo la obtención de información, el análisis, o la presentación de los resultados, lo primero que hemos de preguntarnos es qué se pretende investigar, si la perspectiva cualitativa es la que mejor se corresponde con la pregunta y con los objetivos de la investigación, y si el diseño y modo de desarrollo de la investigación responde en su conjunto a dicha metodología. La necesidad de dicha adecuación requiere subrayar la importancia de la teoría en la investigación, así como un sentido bidireccional en el proceso evaluativo, de lo global a lo particular y valorando el grado de coherencia entre los presupuestos teóricos de partida y el conjunto del trabajo de investigación. El criterio de relevancia depende del grado de abstracción/profundidad a que lleguemos en la interpretación del fenómeno y también de la minuciosidad en la descripción de las circunstancias en que se ha realizado el trabajo de investigación. El criterio de validez responde, en primer lugar, a la preocupación del quehacer investigador por la fidelidad para con el comportamiento del fenómeno investigado en la realidad, lo cual requiere el máximo rigor en el diseño, obtención y validación de la información. Pero a su vez, la validez ha de centrarse en su componente de análisis interpretativo, lo cual ha sido expuesto en términos de "plausibilidad" o "credibilidad", y que nosotros hemos denominado como "complicidad interpretativa", con la finalidad de destacar la

75

importancia de que las audiencias puedan sentirse partícipes de dicho proceso de interpretación creativa llevado a cabo a partir del referente empírico. Por último, la consideración de la reflexividad representa la autoconsciencia por parte del investigador respecto de sus propios planteamientos y perspectivas teóricas tanto en el diseño, como en las relaciones con los participantes y en el desarrollo del conjunto de la investigación. El no ocultamiento del investigador permite además valorar mejor su impronta o huella en el resultado final de la investigación y subrayar la necesidad de tener en cuenta los aspectos éticos como componentes fundamentales de la evaluación no sólo a lo largo del desarrollo de la investigación sino también en lo que respecta a su justificación y aplicabilidad. Triangulación y saturación como método para alcanzar los criterios de calidad: La triangulación es entendida como la combinación en un estudio único de distintos métodos o fuentes de datos. Es un método para protegerse de las tendencias del investigador y confrontar y someter al control reciproco, relatos de diferentes informantes. De esta forma también se puede tener una comprensión mas clara y profunda de la información. También es definida como la utilización de múltiples métodos, materiales empíricos, perspectivas y observadores para agregar rigor, amplitud y profundidad a cualquier investigación. Se proponen 4 tipos de triangulación: 1. triangulación de datos: utilización de diversas fuentes de datos en un estudio. 2. triangulación de investigadores: utilización de diversos investigadores o evaluadores. 3. triangulación de teorías: utilizar múltiples perspectivas para interpretar un mismo grupo de datos. 4. triangulación metodológica: utilización de diferentes métodos para estudiar un mismo problema. Algunos autores agregan un quinto tipo que seria la triangulación interdisciplinaria entendida como la participación de diferentes profesionales, de diversas disciplinas, para enriquecer la interpretación.  OJO: la saturación teórica ya ha sido definida en las páginas anteriores. 46a: Investigación Cualitativa Pertinencia y adecuación del método cuali (fenomenología, teoría fundada, etnografía, etnometodología) en función de la características del problema planteado y su objeto de estudio. Enfoque fenomenológico. Enfoque etnográfico. Teoría fundamentada. Distinción entre una perspectiva interpretativa o fenomenológica de base. ***Considerar planteamiento de preguntas de investigación, objetivos cualitativos, planteamiento de preguntas directrices Diseños de Alcance Exploratorio, Descriptivo y Relacional Preguntas, Objetivos y Preguntas Directrices Fenomenología

Se requiere comprender significados subjetivos de la experiencias de las personas respecto de un fenómeno

Teoría Fundada

Se requiere generar de teoría a partir de datos

Etnografía

Se requiere describir una cultura y sus significados desde los actores y los investigadores.

Etnometodología Se requiere describir una realidad social a partir de sus prácticas cotidianas. No busca cuestionar ni explicar significados. ENFOQUE FENOMENOLOGICO:

76

Las raíces de la fenomenológica hay que situarlas en la escuela de pensamiento filosófico creada por Husserl en los primeros años del siglo XX. Según Husserl, la tarea de la filosofía fenomenológica es constituir a la filosofía como una ciencia rigurosa, de acuerdo al modelo de las ciencias físico-naturales del siglo XIX, pero diferenciándose de esta por su carácter puramente contemplativo. Como diferencia fundamental de la investigación fenomenológica, frente a otras corrientes de investigación cualitativas, destaca el énfasis sobre lo individual y sobre la experiencia subjetiva: “la fenomenológica es la investigación sistemática de la subjetividad”. Para Van Manen, el sentido y las tareas de la investigación fenomenológica se pueden resumir en los siguientes 8 puntos: 1.- la investigación fenomenológica es el estudio de la experiencia vital. Del mundo de la vida., de cotidianidad. Lo cotidiano en sentido fenomenológico, es la experiencia no conceptualizada o categorizada. 2.- La investigación fenomenológica es la explicación de los fenómenos dados a la conciencia. Ser conciente implica una transitividad, una intencionalidad. Toda conciencia es conciencia de algo. 3.- la investigación fenomenológica es el estudio de las esencias. La fenomenológica se cuestiona por la verdadera naturaleza de los fenómenos. La esencia de un fenómeno es un universal, un intento sistemático de desvelar las estructuras significativas internas del mundo de la vida. 4.- La investigación fenomenológica es la descripción de los significados vividos, existenciales. La fenomenológica procura explicar los significados en los que estamos inmersos en n nuestra vida cotidiana, y no las relaciones estadísticas a partir de una serie de variables, el predominio de tales o cuales opiniones sociales, o la frecuencia de algunos comportamientos. 5.- La investigación fenomenológica es el estudio científico humano de los fenómenos. La fenomenológica puede considerarse ciencia en sentido amplio, es decir, un saber sistemático, explicito, autocrítico e intersubjetivo. 6.- La investigación fenomenológica es la práctica atenta de las meditaciones. Este estudio del pensamiento tiene que ser útil e iluminar la practica de la educación de todos los días. 7.- La investigación fenomenológica es la exploración del significado del ser humano. En otras palabras: que es ser en el mundo, que quiere decir ser hombre, mujer o niño, en el conjunto de su mundo en la vida, de su entorno socio-cultural. 8.- La investigación fenomenológica es el pensar sobre la experiencia originaria. En definitiva la fenomenológica busca conocer los significados que los individuos dan a su experiencia, lo importante es aprehender el proceso de interpretación por el que la gente define su mundo y actúa en consecuencia. El fenomenólogo intenta ver las cosas desde el punto de vista de otras personas. La fenomenológica trata de desvelar que elementos resultan imprescindibles para que un proceso educativo pueda ser calificado como tal y que relación se establece entre ellos. El resultado de un estudio fenomenológico es una narración que dibuja un modelo, una descripción de las invariantes estructurales de un determinado tipo de experiencia. Al analizar distintas aproximaciones al estudio de las prácticas en la educación permanente, se presenta al enfoque fenomenológico como el desarrollo de 6 etapas: 1. 2. 3. 4. 5.

descripción de fenómeno búsqueda de múltiples perspectivas búsqueda de la esencia y de la estructura constitución de la significación suspensión de enjuiciamiento

77

6. interpretación del fenómeno La fase de descripción supone partir desde la experiencia concreta y describirla de manera mas libre y rica posible, sin entrar en clasificaciones o categorizaciones pero trascendiendo lo meramente superficial. Al reflexionar sobre los acontecimientos, situaciones o fenómenos, se puede obtener distintas visiones: la del investigador, la de los participantes, la de los agentes externos, etc. Se trata de obtener toda la información posible desde diversas perspectivas y fuentes, incluso si estas son contradictorias. A partir de la fase de reflexión, el investigador intenta captar las estructuras del hecho, actividad o fenómeno objeto de estudio, y las relaciones entre las estructuras y dentro de las mismas. Es el momento de encajar las piezas del puzzle, establecer categorías y las relaciones existentes entre ellas. Durante la constitución de la significación, el investigador profundiza mas en el examen de la estructura, centrándose en como se forma la estructura de un fenómeno determinado en la consciencia. La quinta fase se caracteriza por la suspensión de los juicios mientras se recoge información y el investigador se va familiarizando con el fenómeno objeto de estudio. Se trata de distanciarse de la actividad para contemplarla con libertad, sin las contricciones teóricas o las creencias que determinan de una manera u otra la forma de percibir. Por último la fase de interpretación, se trata de sacar a luz los significados ocultos, tratar de extraer de la reflexión una significación que profundice por debajo de los significados superficiales y obvios presentados por la información acumulada a lo largo del proceso. No obstante debemos ser conscientes de la diversidad metodológica que se da en el seno de la aproximación fenomenológica. Bajo esto se presentan 3 corrientes fundamentales: la descriptiva, la interpretativa o una combinación de ambas. Una buena forma de conocer el método fenomenológico es a través del análisis de las investigaciones que se han realizado con el mismo, sobre todo aquellas que explicitan de manera clara el proceso metodológico seguido. ETNOGRAFIA: La etnografía se entiende como el método de investigación por el que se aprende el modo de vida de una unidad social concreta. A través de la etnografía se persigue la descripción o reconstrucción analítica de carácter descriptivo de la cultura, formas de vida y estructura social del grupo investigado. También bajo el proceso de etnografía, nos referimos al producto del proceso de investigación como un escrito o retrato del modo de vida de una unidad social. Una familia, una escuela, una clase, un claustro de profesores, son algunos ejemplos de unidades sociales educativas que pueden describirse etnográficamente. Desde la unidad de análisis que se escoja la etnografía clasifica en un conjunto que va desde la macroetnografia, cuya unidad de análisis es la sociedad compleja, hasta microetnografia, interesada por una situación social dada. La preocupación fundamental del etnógrafo es el estudio de la cultura en si misma, es decir, delimitar en una unidad social particular cuales son los componentes culturales y sus interrelaciones de modo que sea posible hacer afirmaciones explicitas acerca de ellos. Cuando hacemos la etnografía de una determinada unidad social, estamos intentando construir un esquema teórico que recoja y responda lo más fielmente posible a las percepciones, acciones y normas de juicio de esa unidad social. Desde una dimensión práctica se conceptualiza la etnografía como una unidad social que se caracteriza por los siguientes rasgos: 1.- un concreto énfasis en la exploración de la naturaleza de un fenómeno social concreto, antes que ponerse a comprobar hipótesis sobre el mismo

78

2.- una tendencia a trabajar con datos no estructurados, es decir, datos que no han sido codificados hasta el punto de recoger datos a partir de un conjunto cerrado de categorías analíticas. 3.- se investiga un pequeño numero de datos, quizás uno solo, pero en profundidad. 4.- el análisis de datos implica la interpretación de los significados y funciones de las actuaciones humanas, expresándolo a través de descripciones y explicaciones verbales, adquiriendo el análisis estadístico de un plano secundario. Como requisito de una buena etnografía educativa se presenta una primera característica como es el requerimiento de la “observación directa”. No importa con que instrumento, sistema de codificación, aparato de registro o técnicas se utilizadas, la primera obligación del etnógrafo es permanecer donde la acción tiene lugar y de tal forma que su presencia modifique lo menos posible tal acción. En segundo lugar el etnógrafo debe pasar el tiempo suficiente en el escenario, aunque no existe una forma rígida que nos indique el tiempo de permanencia en el escenario. Lo importante aquí es la validez de la observación etnográfica, que se consigue permaneciendo durante el tiempo que permita al etnógrafo ver lo que sucede en repetidas ocasiones. Descubrimientos significativos se pueden conseguir tras dos semanas de observación, pero debemos permanecer en el campo mientras sigamos aprendiendo: en el momento en que la ocurrencia sucesiva no nos aporte nada nuevo, podemos alejarnos. No obstante, resulta difícil que tras dos semanas se realice una etnografía cultural seria. Desde la antropología se considera un periodo razonable el de un año para llevar a cabo el estudio de un fenómeno o una unidad social compleja. Como tercera condición de una buena etnografía encontramos la necesidad de contar con un gran volumen de datos registrados. El papel del observador en este sentido será fundamental, recogiendo todo tipo de información a través de notas de campo o utilizando los recursos tecnológicos disponibles en la actualidad. Además el etnógrafo debe ser un buen recopilador de artefactos, productos, documentos o cualquier otra cosa u objeto que este relacionado con el objeto de estudio. Una cuarta condición es el carácter evolutivo del estudio etnográfico. En un principio el etnógrafo debe introducirse en el campo con un marco de referencia lo suficientemente amplio que le permita abarcar con una gran amplitud el fenómeno objeto de estudio. Al menos al comienzo de su trabajo el etnógrafo no debería trabajar con hipótesis específicas, sino con la mente totalmente abierta, atendiendo de esta forma la mayor cantidad posible de relaciones. Como quinta condición nos encontramos con la utilización de instrumentos en el proceso de realizar una etnografía. Los registros de las observaciones y entrevistas son la base del trabajo etnográfico, pero pueden utilizarse otros instrumentos tales como cuestionarios. En cualquier caso los instrumentos deben emplearse cuando el investigador conozca realmente lo que es importante descubrir, y cuando se haya elaborado específicamente un escenario concreto y el foco de indagación se juzga como significante. La utilización de la cuantificación cuando sea necesaria se constituye en la secta condición de una etnografía. La cuantificación no es el punto de inicio, ni el objetivo ultimo. Tanto la instrumentación como la cuantificación han de entenderse como procedimientos empleados para reforzar ciertos tipos de datos, interpretaciones o comprobación de hipótesis en distintos grupo. La siguiente condición se refiere al objetivo de estudio de la etnografía. En este sentido entienden que es descubrir el conocimiento cultural que la gente guarda en sus mentes, como es empleado en la interacción social y las consecuencias de su empleo. Por último, es preciso considerar un holismo selectivo y una contextualización determinada en la realización de la etnografía educativa. El holismo es un ideal deseable, siempre y cuando lo reduzcamos operativamente, al entorno inmediato donde se centra nuestra investigación. En ocasiones se olvida contextualizar el trabajo etnográfico en el tiempo, de tal forma que se presentan como estudios de lo que sucede aquí y ahora. Los estudios longitudinales corregirán 79

este error. Además de esta serie de condiciones se propone como criterios para una buena etnografía los siguientes: 1. las observaciones son contextualizadas, tanto en el lugar inmediato en el que la conducta es observada como en otros contextos relevantes mas alejados. 2. Las hipótesis emergen in situ en la medida en que el estudio se desarrolla en el escenario seleccionado para la observación. El juicio en torno a lo que es relevante para estudiar en profundidad se aplaza hasta que la fase de orientación del estudio de campo haya finalizado. 3. La observación es prolongada y repetitiva. Para llegar a establecer la fiabilidad de las observaciones es preciso observar en varias ocasiones las cadenas de sucesos. 4. el punto de vista nativo de la realidad se atiende a través de las inferencias realizadas a partir de las observaciones y por medio de las diferentes formas de indagación etnográfica (incluyendo la entrevista y otros procedimientos de explicitación); sin embargo, en la propia etnografía, las localizaciones se realizan a partir de lo que las voces nativas pueden haber escuchado. Las traducciones culturales se reducen al mínimo. 5. el conocimiento cultural guardado por los participantes sociales constituye la conducta y comunicación social apreciables. Por lo tanto, una gran parte de la tarea etnográfica reside en explicitar ese conocimiento de los informantes participantes. 6. los instrumentos, códigos, esquemas, cuestionarios, agendas de entrevistas, etc. Deberían generar in situ, como resultado de la observación y la indagación etnográfica. 7. siempre esta presente una perspectiva comparativa, transcultural, aunque con frecuencia como una Asunción no afirmada. Esto es, la variación cultural a lo largo del tiempo y el espacio se considera una condición humana natural. 8. parte del conocimiento cultural que afecta la conducta y la comunicaron en cualquier escenario concreto que se este estudiando es implícito o tácito, no conocido por parte de algunos participantes y solo conocido ambiguamente por parte de otros 9. debido a que el informante (cualquier persona que se entrevistada es alguien que tiene el cocimiento cultural nativo, el entrevistador etnográfico no debe predeterminar las respuestas por los tipos de cuestiones preguntadas. La conducción de la entrevista debe realizarse de tal forma que se promueva el despliegue del conocimiento cultural en su forma más natural posible. 10. se utilizara cualquier aparato que permita recoger datos más inmediatos, naturales y detallados de la conducta, tales como cámaras, grabaciones y videos. 11. la presencia del etnógrafo debería reconocerse y describirse su situación de interacción personal y social. Como resumen podemos destacar ciertos rasgos de la etnografía:  el problema jeto de investigación nace del contexto educativo en el tiempo, lugar y participantes desempeñan un papel fundamental  la observación directa es el medio imprescindible para recoger información realizada desde un punto de vista holistico  la triangulación constituye el proceso básico para la validación de los datos. TEORIA FUNDAMENTADA: La presentación de la teoría fundamentada hunde sus raíces en el interaccionismo simbólico, en donde el investigador intenta determinar que significado simbólico tienen los artefactos, gestos y palabras para los grupos sociales y como interaccionan unos con otros. Desde esta perspectiva el investigador espera construir lo que los participantes ven como su realidad social. El enfoque de la teoría fundamentada es el de descubrir teorías, conceptos, hipótesis y proposiciones partiendo directamente de los datos y no de supuestos a priori, de otras investigaciones o de marcos existentes.

80

Al igual que otros métodos cualitativos, en la teoría fundamentada las fuentes de dato son las entrevistas y las observaciones de campo, así como los documentos de todo tipo y las grabaciones audiovisuales. Así mismo, puede utilizar cualitativos, cuantitativos o una combinación de ambos. El investigador cualitativo que hace uso de la teoría fundamentada asume la responsabilidad de interpretar lo que observa, escucha o lee. La principal diferencia que existe entre este método y otros cualitativos reside en su énfasis en la generación de teoría. A través del proceso de teorización el investigador descubre o manipula categorías abstractas y relaciones entre ellas, utilizando esta teoría para desarrollar o confirmar explicaciones del como y por que de los fenómenos. Se diferencias dos tipos de teorías: las sustantivas y las formales. Las primeras se relacionan con un área sustancial o concreta de investigación por ejemplo, con escuelas, hospitales o consumo de droga. Las teorías formales se refieren a áreas conceptuales de indagación, tales como los estigmas, las organizaciones formales, la socialización y la desviación. Las dos estrategias fundamentales que se proponen para desarrollar la teoría fundamentada son el método de comparación constante y el muestreo teórico. A través del método de comparación constante el investigador codifica y analiza los datos de forma simultánea para desarrollar conceptos. Su aplicación supone una contrastación de categorías, propiedades e hipótesis que surgen a lo largo del estudio en sucesivos marcos teóricos y contextos. Este procedimiento se desarrolla en cuatro etapas:

ETAPAS

TIPO DE COMPARACIONES

1.- Comparar incidentes aplicables a cada Incidentes-incidentes categoría. /categoría/ 2.- Integrar categorías y sus propiedades.

Incidentes-Propiedades /categoría/

3.- Delimitar la teoría.

Categoría-teoría /saturación/

4.- Redactar la teoría.

Temas-Teoría

A través del muestreo teórico el investigador selecciona nuevos caos a estudiar según su potencial para ayudar a refinar p expandir los conceptos y teorías ya desarrollados. Lo importante no es le numero de casos, sino la potencialidad de cada uno para ayudar al investigador a desarrollar una mayor comprensión teórica sobre el área que esta estudiando.  



Inducción analítica: Uno tiene que llegar a probar una teoría con los datos que uno llega a recolectar, así llegar al 100% de los datos disponibles. (Usado anteriormente, este término va evolucionando hasta la saturación teórica). Saturación teórica: continuar para comprobar una hipótesis como una teoría potencialmente robusta, uno se debe detener en la producción de información cuando como investigar uno es capaz de predecir la información que se dará a continuación si se siguiera analizando o extrayendo información (es decir se repite la información). Alcanzar el punto en el que nuevos datos no son iluminadores. Comparación constante: Corazón de la teoría fundamentada. Procedimiento de comparación de datos e información constante y paulatina dentro de un mismo documento primario; y comparando a la vez distintos documentos primarios, y como todo esto tiene una vinculación de alguna manera con las teorías que se están construyendo. También es definido como el proceso de sostener una conexión estrecha

81

entre los datos y la conceptualización, es decir, la correspondencia entre conceptos y teorías con sus indicadores no esta pérdida. DISTINCION ENTRE UNA PERSPECTIVA INTERPRETATIVA O FENOMENOLOGICA DE BASE: Enfoque fenomenológico: basado en tradición en bases filosóficas, desarrollado inicialmente por Usserl, filósofo germánico y posteriormente desarrollada por vertientes más bien sociológicas. Su centro es describir las experiencias o vivencias de los sujetos tal cual ellos la viven o experimentan. -

Busca el desarrollo de técnicas conversacionales o de entrevista, para que el sujeto exprese sus vivencias en donde el investigador busca plasmar lo más autentico posible de lo que expresa el sujeto, sin añadir sus propias interpretaciones o valoraciones.

Enfoque interpretativo: tiene un componente con el análisis y proceso hermenéutico que realizan los investigadores. A punta a generar interpretaciones. (Enfoque hermenéutico o interpretativo es lo mismo). PREGUNTAS DIRECTRICES: Preguntas que el investigador quiere resolver. Son eslabones entre objetivos específicos y las técnicas de producción de información propiamente tal. Según este punto se podría decir que es el equivalente de la hipótesis en psicología cuantitativa. 

Estas preguntas son de tipo más bien generales y más bien sofisticadas.

DISEÑOS DE ALCANCE EXPLORATIO, DESCRIPTIVO Y RELACIONAL: Tipo

Hipótesis

Diseño

Exploratorio

No se establece, lo que se puede formular son conjeturas

Transversal

Se plantean objetivos

Preexperimental

Aproximación a desconocidos

fenómenos

Descriptivo Reseña las características de un fenómeno actual Correlacional Describe relación variables/factores

entre

Transversal Diferencia de grupos sin atribuir causalidad

No experimental -Transversal

82

-Longitudinal Correlacional Explicativo Intenta encontrar las Causas del problema, por qué sucede

Diferencia de grupos sin atribuir causalidad

Experimental Cuasi experimental No experimental

Causalidad

Experimental No experimental

Diseño exploratorio: Los estudios exploratorios se efectúan, normalmente, cuando el objetivo es examinar un tema o problema de investigación poco estudiado o que no ha sido abordado antes. Es decir, cuando la revisión de la literatura reveló que únicamente hay guías no investigadas e ideas vagamente relacionadas con el problema de estudio. Por ejemplo, si alguien desea investigar lo que opinan los habitantes de alguna ciudad sobre su nuevo alcalde o gobernador y cómo piensa resolver los problemas de ella, revisa la literatura y se encuentra conque se han hecho muchos estudios similares pero en otros contextos (otras ciudades del mismo país o del extranjero). Estos estudios le servirán para ver cómo han abordado la situación de investigación y le sugerirán preguntas que puede hacer; sin embargo, el alcalde y la ciudadanía son diferentes, la relación entre ambos es única. Además, los problemas son particulares de esta ciudad. Por lo tanto, su investigación ser exploratoria -al menos en sus inicios-. De hecho, si comienza a preguntarle a sus amigos lo que opinan sobre el nuevo alcalde, está comenzando a explorar. Los estudios exploratorios son como cuando viajamos a un lugar que no conocemos, del cual no hemos visto ningún documental ni leído algún libro (a pesar de que hemos buscado información al respecto), sino simplemente alguien nos ha hecho un breve comentario sobre el lugar. Al llegar no sabemos que atracciones visitar, a que‚ museos ir, en qué‚ lugares se come sabroso, cómo es la gente; desconocemos mucho del sitio. Lo primero que hacemos es explorar: preguntar sobre qué‚ hacer y a dónde ir al taxista o al chofer del autobús que nos llevar al hotel donde nos instalaremos, en la recepción, al camarero del bar del hotel y en fin a cuanta persona veamos amigable. Desde luego, si no buscamos información del lugar y‚ esta existía (había varias guías turísticas completas e incluso con indicaciones precisas sobre a que‚ restaurantes, museos y otros atractivos acudir; que‚ autobuses abordar para ir a un determinado sitio) podemos perder mucho tiempo y gastar dinero innecesariamente. Por ejemplo, vemos un espectáculo que nos desagrade y cueste mucho, y perdemos uno que nos hubiera fascinado y hubiera costado poco (por supuesto, en el caso de la investigación científica la inadecuada revisión de la literatura tiene consecuencias más negativas que la frustración de gastar en algo que finalmente nos desagrade). Los estudios exploratorios nos sirven para aumentar el grado de familiaridad con fenómenos relativamente desconocidos, obtener información sobre la posibilidad de llevar a cabo una investigación más completa sobre un contexto particular de la vida real, investigar problemas del comportamiento humano que consideren cruciales los profesionales de determinada área, identificar conceptos o variables promisorias, establecer prioridades para investigaciones posteriores o sugerir afirmaciones (postulados) verificables (Dankhe, 1986). Esta clase de estudios son comunes en la investigación del comportamiento, sobre todo en situaciones donde hay poca información. Los estudios exploratorios en pocas ocasiones constituyen un fin en si mismos, "por lo general determinan tendencias, identifican relaciones potenciales entre variables y establecen el `tono' de investigaciones posteriores más rigurosas" (Dankhe, 1986, p. 412). Se caracterizan por ser más flexibles en su metodología en comparación con los estudios descriptivos o explicativos, y son más amplios y dispersos que estos otros dos tipos (v.g., buscan observar

83

tantas manifestaciones del fenómeno estudiado como sea posible). Asimismo, implican un mayor "riesgo" y requieren gran paciencia, serenidad y receptividad por parte del investigador. Diseño descriptivo: Muy frecuentemente el propósito del investigador es describir situaciones y eventos. Esto es, decir cómo es y se manifiesta determinado fenómeno. Los estudios descriptivos buscan especificar las propiedades importantes de personas, grupos, comunidades o cualquier otro fenómeno que sea sometido a análisis (Dankhe, 1986). Miden o evalúan diversos aspectos, dimensiones o componentes del fenómeno o fenómenos a investigar. Desde el punto de vista científico, describir es medir. Esto es, en un estudio descriptivo se selecciona una serie de cuestiones y se mide cada una de ellas independientemente, para así -y valga la redundancia-describir lo que se investiga. Es necesario hacer notar que los estudios descriptivos miden de manera más bien independiente los conceptos o variables con los que tienen que ver. Aunque, desde luego, pueden integrar las mediciones de cada una de dichas variables para decir cómo es y se manifiesta el fenómeno de interés, su objetivo no es indicar cómo se relacionan las variables medidas. Así como los estudios exploratorios se interesan fundamentalmente en descubrir, los descriptivos se centran en medir con la mayor precisión posible. Como mencionan Selltiz (1965), en esta clase de estudios el investigador debe ser capaz de definir qué‚ se va a medir y cómo se va a lograr precisión en esa medición. Asimismo, debe ser capaz de especificar quién o quiénes tienen que incluirse en la medición. Por ejemplo, si vamos a medir variables en empresas es necesario indicar que‚ tipos de empresas (industriales, comerciales, de servicios o combinaciones de las tres clases; giros, tamaños, etc.), La investigación descriptiva, en comparación con la naturaleza poco estructurada de los estudios exploratorios, requiere considerable conocimiento de la realidad que se investiga para formular las preguntas especificas que busca responder (Dankhe, 1986). La descripción puede ser más o menos profunda, pero en cualquier caso se basa en la medición de uno o más atributos del fenómeno descrito. Diseño correlacional: Los estudios correlaciónales pretenden responder a preguntas de investigación tales como: ¿conforme transcurre una psicoterapia orientada hacia el paciente, aumenta la autoestima de éste?;¿a mayor variedad y autonomía en el trabajo corresponde mayor motivación intrínseca respectó a las tareas laborales?; ¿los niños que dedican cotidianamente más tiempo a ver la televisión tienen un vocabulario más amplio que los niños que ven diariamente menos televisión?; ¿los campesinos que adoptan más rápidamente una innovación poseen mayor inteligencia que los campesinos que la adoptan después?; ¿la lejanía física entre las parejas de novios está relacionada negativamente con la satisfacción en la relación? Es decir, estos tipos de estudios tienen como propósito medir el grado de relación que exista entre dos o más conceptos o variables (en un contexto en particular). La utilidad y el propósito principal de los estudios correlaciónales son saber cómo se puede comportar un concepto o variable conociendo el comportamiento de otra u otras variables relacionadas. Es decir, para intentar predecir el valor aproximado que tendrá un grupo de individuos en una variable, a partir del valor que tienen en la variable o variables relacionadas. Un ejemplo tal vez simple, pero que ayuda a comprender el propósito productivo de los estudios correlaciónales, sería el correlacionar el tiempo dedicado a estudiar para un examen de estadística con la calificación obtenida en él. En este caso se mide en un grupo de estudiantes cuánto dedica cada uno de ellos a estudiar para el examen y también se obtienen sus calificaciones en el examen (mediciones en la otra variable); posteriormente se determina si las dos variables están o no correlacionadas y, si lo están, de qué‚ manera. En el caso de que dos variables están correlacionadas, ello significa que una varía cuando la otra también varía (la correlación puede ser positiva o negativa). Si es positiva quiere 84

decir que sujetos con altos valores en una variable tenderán a mostrar altos valores en la otra variable. Por ejemplo, quienes estudian más tiempo para el examen de estadística tienden a obtener una más alta calificación en el examen. Si es negativa, significa que sujetos con altos valores en una variable tienden a mostrar bajos valores en la otra variable. Por ejemplo, quienes estudian más tiempo para el examen de estadística tienden a obtener una calificación más baja en el examen. Si no hay correlación entre las variables, ello nos indica que éstas varían sin seguir un patrón sistemático entre sí: habrá sujetos que tengan altos valores en una de las dos variables y bajos en la otra, sujetos que tengan altos valores en una de las variables y valores medios en la otra, sujetos que tengan altos valores en una variable y altos en la otra, sujetos con valores bajos en una variable y bajos en la otra, y sujetos con valores medios en las dos variables. En el ejemplo mencionado, habrá quienes dediquen mucho tiempo a estudiar para el examen de estadística y obtengan altas calificaciones en él, pero también quienes dediquen mucho tiempo y obtengan bajas calificaciones, quienes dediquen poco tiempo y saquen buenas calificaciones, quienes dediquen poco y les vaya mal en el examen. Si dos variables están correlacionadas y se conoce la correlación, se tienen bases para predecir -con mayor o menor exactitud- el valor aproximado que tendrá un grupo de personas en una variable, sabiendo qué‚ valor tienen en la otra variable. Diseño explicativo: Los estudios explicativos van más allá de la descripción de conceptos o fenómenos o del establecimiento de relaciones entre conceptos; están dirigidos u responder a las causas de los eventos físicos o sociales. Como su nombre lo indica, su interés se centra en explicar por qué ocurre un fenómeno y en qué condiciones se da éste, o por qué dos o más variables están relacionadas. Por ejemplo, dar a conocer las intenciones del electorado es una actividad descriptiva (indicar -según una encuesta de opinión antes de que se lleve a cabo la elección- cuántas personas "van" a votar por los candidatos contendientes constituye un estudio descriptivo) y relacionar dichas intenciones con conceptos como edad y sexo de los votantes, magnitud del esfuerzo propagandístico en los medios de comunicación colectiva que realizan los partidos a los que pertenecen los candidatos y los resultados de la elección anterior (estudio correlacional) es diferente de señalar por qué alguna gente habrá de votar por el candidato 1 y otra por los demás candidatos" (estudio explicativo). OJO: IMPORTANTE SABER QUE UNA INVESTIGACION Y OTRA COSA EL ALCANCE.

COSA

ES

EL

DISEÑO

DE

PLANTEAMIENTO DEL PROBLEMA Es resultado de una profunda y serena reflexión realizada por el investigador después de haber revisado detalladamente la literatura correspondiente (antecedentes teóricos y empíricos) e interiorizado los principales conceptos y proposiciones teóricas que le permiten formular con toda claridad y dominio el problema que se pretende resolver con la investigación. ¿Qué realidad me interesa investigar? OBJETO DE ESTUDIO Es consecuencia del planteamiento del problema, delimita aquella parte de la realidad que interesa estudiar. La precisión del investigador, en este sentido, se demuestra en la redacción minuciosa y cuidada con la cual formula el objeto de estudio. ¿Qué parte de esa realidad deseo investigar? PREGUNTAS DE INVESTIGACION Son las interrogantes básicas que se derivan de la justificación y el problema planteado y, consecuentemente, pretenden ser resueltas por la investigación. ¿Qué cuestiones me interesan de esa parte de la realidad? 85

OBJETIVOS Representan las acciones concretas que el investigador llevará a cabo para intentar responder a las preguntas de investigación y así resolver el problema de investigación. Se puede notar que todos los subtítulos hasta ahora señalados tienen una consistencia entre sí (coherencia interna), por ello, los objetivos deben ser concretos, claros, realistas y modestos, en la medida en que realmente reflejan la contundencia del investigador en su intención de aportar en el conocimiento del objeto de estudio. ¿Qué debo hacer para desarrollar la investigación? 46b: Investigación en psicología I - Investigación Cuantitativa Pertinencia y adecuación del método cuanti (modelo univariado, bivariado y multivariado) en función de las características del problema planteado y su objeto de estudio. Objetivos descriptivos: análisis univariados. Hipótesis bivariadas: prueba t de student, anova de un factor, chi-cuadrado de Pearson, correlación de Pearson, regresión lineal simple Hipótesis multivariadas: anova factorial Para recordar:   

En el análisis univariado se describen las características de una variable por vez. También se le llama estadística descriptiva. En el análisis bivariado se investiga la influencia de una variable que es independiente, por vez, con respecto a la variable dependiente. En el análisis multivariado se investiga la influencia de dos o más variables independientes con respecto a la variable dependiente.

Además existen pruebas paramétricas que corresponde a trabajar con muestras obtenidas aleatoriamente, las observaciones distribuyen de forma normal (o cercana a la normal) y existe un parámetro de interés que deseamos estimar; y pruebas no paramétricas que se utilizan cuando la variable dependiente no distribuye de manera normal. Ejemplo: La prueba t de student para muestras independientes se utiliza cuando tengo una variable dependiente y una variable independiente; si mi variable dependiente distribuye normal puedo usar esta prueba pero si la variable no distribuye de manera normal se utiliza el análogo a esta prueba que se denomina U de Mann Whitney. (se adjunta cuadro donde se especifica cuales pruebas son paramétricas y cuales no paramétricas)

86

Tipos de variables

  

Las nominales no jerarquizan (por ejemplo: sexo) Las ordinales ordenan de acuerdo a algún criterio; es decir jerarquizan (por ejemplo: la altura dividirla en estatura alta, media y baja) Las variables numéricas trabajan con cantidades expresadas en una unidad de medición. Acá encontramos todas las escalas; por ejemplo escala de autoestima, de satisfacción, etc. También la edad, la altura, etc.

Hipotesis planteadas: segun el tipo de prediccion

87

Por ejemplo en correlaciones (R de pearson).

88

Por ejemplo en anova, t de student. Hipótesis causales: Por ejemplo en las regresiones (simple y múltiple) porque buscan predecir; “cuanto cambio en x (variable independiente) produce un cambio en y (variable dependiente)”

89

Por lo anterior en las pruebas cuando existe lo siguiente:

p (significancia) 0,05= se acepta H0  no existen diferencias estadísticamente significativas (esto si es el caso tienen que decirlo, son las palabras fundamentales) Ahora sabiendo todo lo anterior podemos pasar a describir bien de que se trata cada prueba y si tiene a la base un análisis univariado, bivariado o multivariado. 1) Objetivos descriptivos: Análisis univariados (se usan para describir a la muestra, en general es estadística descriptiva, describir la variable; por ejemplo el numero de participantes, lo que mas se repite, cual es la media, moda, etc . Por ejemplo cuando queremos saber como les fue en la PSU a los niños del establecimiento X, con este análisis podemos decir “el rendimiento de los alumnos del establecimiento x fue bajo, o fue de 600 puntos” 2) Hipótesis bivariadas: -T de Student: prueba paramétrica, permite la comparación de medias de 1 variable categórica con dos grupos (hombre y mujer por ejemplo). Ve la relación entre las variables categóricas y una numérica (nivel de estrés por ejemplo). Existen tres formas: 

T de student para una muestra (caso especial): Prueba si las medias de la muestra de una variable difiere significativamente de la media conocida de la población. Acá se tiene una media poblacional conocida y se comparan con la media de una población específica. Ejemplo de cuando podemos usar esta prueba:

90



T de student para muestras relacionadas: Mide diferencias de la media estimada de la población en un mismo grupo, en distintos momentos. Por ejemplo, nivel de estrés en psicólogos cuando están en baja y alta demanda. Ejemplo de cuando podemos utilizar esta prueba:



T de student para muestras independientes (es una de las mas utilizadas): Mide si hay diferencias entre las medias estimadas de la población en muestras que no se relacionan, ve diferencias en grupos distintos, por ejemplo, medir estrés en hombres y mujeres Ejemplo de cuando podemos utilizar esta prueba:

NOTA: La variable dependiente es NUMERICA (sintomatología depresiva en una escala de puntaje) y la variable independiente es CATEGORICA (el sexo; ser hombre o mujer  2 grupos) ; es una variable categórica con dos grupos o categorías.

91

-Anova de un factor (análisis de la varianza): Prueba paramétrica. Se utiliza en aquellos casos en que el investigador desea comparar el promedio de tres o más poblaciones, pero desconoce dicha información. Para 1 variable categórica con 3 o mas grupos (a diferencia de T de student; aca se puede poner como variable categórica el NSE en alto, medio y bajo; en T de student tendría que ser solo alto y bajo). Permite evaluar diferencias entre una variable dependiente (numérica ya sea de intervalo o razon) y una variable independiente o factor (categórica ya sea nominal y ordinal).

IMPORTANTE: El estadístico F permite poner a prueba esta hipótesis. Refleja el grado de parecido entre las medias que se están comparando. Si las medias poblacionales son iguales, las medias muestrales serán parecidas, existiendo entre ellas tan sólo diferencias atribuidas al azar. 

El valor de F será mayor mientras más diferentes sean las medias.



Si la significancia del estadístico F es menor que 0,05, se rechaza la hipótesis de igualdad de medias y se concluye que no todas las medias poblacionales comparadas son iguales.



Al contrario, si la significancia del estadístico F es mayor que 0,05, se acepta la hipótesis de igualdad y no podemos afirmar que los grupos comparados difieran en sus promedios poblacionales.

Pd: en la competencia que viene se explicita un ejercicio con la interpretación de cada tabla y cuales son los pasos a seguir para realizar esta prueba Ejemplo de cuando podemos utilizar esta prueba:

92

NOTA: La variable dependiente es la ansiedad en una escala de tipo NUMERICO y la variable independiente es los tratamientos divididos en CATEGORIAS y se tienen 4 grupos en este caso. -Chi cuadrado de Pearson: Prueba no paramétrica para dos variables categóricas. Evalúa si existe relación entre dos variables categóricas que se evalúa a partir de las frecuencias de las variables. Ejemplo, relación entre asistencia a preuniversitario y si queda seleccionado en la carrera a la que postula. Ejemplo de cuando podemos utilizar esta prueba: **siguiendo el mismo ejemplo que para la prueba t para muestras independientes. El mismo investigador hipotetiza que en alumnos universitarios, el trast. Depresivo es mas frecuente en mujeres que en hombres

NOTA: las dos variables categóricas son: SEXO (hombre y mujer) TRASTORNO DEPRESIVO (PRESENTA Y NO PRESENTA)

Correlación: Mide la relación entre dos variables numéricas, se usa sólo cuando existe una relación lineal. El valor de r va de 1 a -1, Signo positivo indica relación directa (si una aumenta 93

la otra aumenta) signo negativo indica relación inversa (si una aumenta la otra disminuye), el valor numérico indica la intensidad de la relación, mientras más cercano a 1 o -1 mayor es la relación. Se tiene una variable dependiente o y; y una variable independiente o x. (ambas numéricas). Se ve a través de los gráficos de dispersión (diagrama de dispersión o Scatterplot). Se mide con R de pearson; también existe el tau b de Kendall para cuando se quiere hacer correlaciones con variables ordinales. Además existe el Rho de Spearman que también es un coeficiente para hacer correlaciones; se emplea como alternativa al de Pearson cuando las variables son categóricas generalmente ordinales o no se cumple el supuesto de normalidad. IMPORTANTE:  r de 0 a 1= correlación directa (si una variable sube la otra también sube o si una baja la otra también baja)  r de 0 a -1: correlación inversa (si una variable sube la otra baja o si una variable baja la otra sube)  r entre 0 y 0.30= relación baja entre las variables  r entre 0,31 y 0,70= relación media entre las variables  r entre 0,71 y 1= relación alta entre las variables

Ejemplo de cuando podemos utilizar correlación: Cuando el investigador quiere saber la relación que existe entre las horas de entrenamiento y el rendimiento deportivo. -Regresión lineal simple: Se utiliza para predecir los valores de una variable dependiente o criterio (y) a partir de una variable independiente o variable predictora (x), esto cuando hay relación entre las variables. En general lo fundamental es que “cuanto un cambio en x impacta o predice o explica un cambio en la variable y”. Se busca ver de que manera se relacionan las variables, deque manera están relacionadas, el impacto. Se usan dos variables numéricas Por ejemplo, predecir puntajes PSU a partir de las horas de estudio semanales. Se utiliza un grafico de dispersión. También puede ser una relación directa o inversa. (sigue la misma dirección el grafico que en las correlaciones cuando es directa o inversa). Mayor porcentaje sobre el modelo mayor predicción.La significancia tiene que ser menor a 0,05 para que el modelo sea estadísticamente significativo. Esto se ve en un diagrama de dispersión o Scatterplot. OJO: También existe la regresión lineal múltiple (no aparece en las competencias pero la describiremos igual porsiacaso a grandes rasgos); en este caso la diferencia con la regresión lineal simple es que se utiliza para predecir los valores de una variable dependiente o criterio (y) numérica a partir de 2 o mas variables independientes o variables predictoras (x) numéricas. Por ejemplo cuando

94

un investigador intenta predecir el rendimiento académico a través de las horas de estudio y de las horas de sueño.

Ejemplo de cuando utilizar la regresión lineal simple: Por ejemplo cuando un investigador intenta predecir el rendimiento académico a través de las horas de estudio; por lo tanto se ve de que manera están asociadas, el impacto que tienen las notas en este caso en el rendimiento académico y así se puede hacer una predicción. Por ejemplo decir que el estudiar más horas va a predecir o generar que las personas tengan un mejor rendimiento académico. Supuestos:

95

3) Hipótesis multivariadas: ANOVA Factorial (también análisis de la varianza): Prueba paramétrica que evalúa diferencias de medias entre dos o más variables categóricas o factores (niveles de factores (Ej. Género (hombre y mujer) y nivel educacional (básica, media y superior) que actúan como variables independientes (es decir esta prueba tiene 2 o mas variables independientes que son categóricas) sobre una variable dependiente que es numérica a través del análisis de la varianza. Acá cada variable categórica puede tener dos o más grupos y no necesariamente tres como en Anova de un factor. Ejemplo: Factor 1: sexo: hombre y mujer Factor 2: nivel de ansiedad: bajo, medio y alto.

Permite evaluar dos tipos de efectos sobre la variable dependiente (numérica): -Efecto principal: Efecto de un factor que no se ve moderado por la presencia de un segundo factor. Ver el efecto independiente del factor (Ejemplo: si estudio nivel de materialismo en relación al género (hombre y mujer) y ansiedad (alta, media y baja) el efecto principal sería que hay diferencias entre los hombres y mujeres respecto al nivel de materialismo, o que hay diferencias respecto a los que tienen ansiedad alta baja y media en relación a su nivel de materialismo) -Efecto de interacción: Efecto conjunto, combinado de los factores. Su efecto se ve alterado por el segundo factor. (Ejemplo: si estudio nivel de materialismo en relación al género (hombre y mujer) y ansiedad (alta, media y baja) el efecto de interacción sería que cuando se es mujer y hay alta ansiedad el nivel de materialismo es mayor que si se es hombre y con alta ansiedad, no así cuando presentan baja ansiedad) 96

En Anova factorial si se tiene un factor con 3 o mas grupos y este resulto:  ser un efecto principal o  ser parte del efecto de interacción En ambos casos seria necesario realizar un ANALISIS POST HOC que se utiliza para ver entre que grupos de ese factor están las diferencias; para esto es necesario realizar lo siguiente (este análisis también se hace en Anova de un factor ya que si el resultado sale significativo tenemos que ver entre cuales de los tres grupos se encuentran las diferencias): 1) Realizar la prueba de LEVENE

2)     3)     

Si el valor es < o igual a 0,05 se utilizan las pruebas: T3 DUNETT Games-howell T2 de Tamhane C de Dunett Si el valor es > a 0,05 se utilizan las pruebas: HSD TUKEY SIDAK SHEFFE BONFERRONI DUNCAN

Pd: en la competencia que viene se explicita un ejercicio con la interpretación de cada tabla y cuales son los pasos a seguir para realizar esta prueba. Ejemplo de cuando utilizar Anova factorial: Cuando un investigador quiere evaluar si existe o no relación entre el sexo (variable categórica: 2 grupos mujer y hombre) y el estado civil (variable categorica: 3 grupos o categorias alto, medio, bajo) en los niveles de depresión de estudiantes universitarios. 48: Investigación en psicología I -Investigación cuantitativa Interpretar resultados estadísticos desde la perspectiva del problema estudiado. Interpretar salidas del programa SPSS para dar cuenta de los siguientes tipos de problemas: Objetivos descriptivos: análisis univariados. Hipótesis bivariadas: prueba t de student, anova de un factor, chi-cuadrado de Pearson, correlación de Pearson, regresión lineal simple. Hipótesis multivariadas: anova factorial. a) OBJETIVOS DESCRIPTIVOS: ANALISIS UNIVARIADO La estadística descriptiva: Conjunto de datos (población o muestra) a los que se les saca resultados a través de métodos numéricos y tablas.

97

 Se diferencia de la estadística inferencial, en que esta última entrega herramientas para inferir a partir de los resultados que arrojó la muestra de lo que debería ocurrir en la población.  Cuando el análisis presenta característica por característica, aisladamente, estaremos en presencia de un análisis estadístico univariado. Ejemplo, cuando decimos que una persona pesa 95 k. independientemente de cualquier otra característica estaremos en presencia de análisis univariado.  Los estadísticos básicos que conocemos, como la media, la mediana, la moda, la varianza, los porcentajes, entre otros, miden una variable. Es decir, fueron hechos univariados. En esta tabla podemos ver las frecuencias; por ejemplo podemos identificar que la Moda es ser soltero.

En esta tabla podemos identificar medias, mediana, moda, desviación estándar, etc.

En esta tabla podemos identificar por ejemplo que ningún pasajero tuvo retraso para una aerolínea x.

98

b) HIPOTESIS BIVARIADAS: B1. PRUEBA T DE ESTUDENT: Prueba T de Student para una muestra: Es una alternativa a la prueba Z para una muestra, ya que se utiliza cuando el investigador desea comparar el promedio de dos poblaciones, pero solo conoce el promedio de una de ellas. Esta prueba posee ventajas sobre la prueba Z. Estas son que no requiere el valor de la DE (desviación estándar) de la población y que es más precisa en muestras inferiores a N=30. Una de las características de la distribución t es que el valor p varía según el tamaño de la muestra. Más específicamente, varía según los grados de libertad. Por tanto, después de calcular el estadístico es necesario calcular los Grados de libertad (gl) para determinar el valor p mirando la tabla de distribución t.

La tabla anterior es una salida de SPSS donde podemos observar el valor de t en la segunda columna y la significancia en la cuarta columna; en este caso la significancia es ,000 (generalmente antes de la coma no se pone un 0; decir ,000 es lo mismo que decir 0,000) lo que significa que p es MENOR que 0,05 por lo tanto se aprobaría H1 (hipótesis de investigación); si la significancia fuera MAYOR que ,05 significa que p es mayor a 0,05 por lo tanto se rechazaría H1 y se aprueba H0 (que es la hipótesis nula). NOTA: Existe otro caso que es cuando nos dan el valor de t (t observado; que siempre se compara en VALOR ABSOLUTO) y no aparece la significancia; por lo tanto uno la tiene que sacar; esto se hace asi: 1. Sacar los grados de libertad con la formula: G. l = n-1 (grados de libertad es igual al numero de participantes menos 1) 2. Ver la tabla de valores críticos para t: dependiendo si se realizo contraste unilateral o bilateral Recordar: el contraste unilateral es cuando por ejemplo yo digo en mis hipótesis :

99

A diferencia del contraste bilateral:

3. En la tabla vemos cuales son los grados de libertad y nos ubicamos en el grado de significancia que estamos aceptando (generalmente es 0,05 lo que significa que aceptamos un 5% de error) para poder sacar el t critico; entonces por ejemplo si nuestra t tuviera grados de libertad 2 con un contraste unilateral el t critico seria 2,920. 4. Comparamos nuestro t observado con el t critico y se ve lo siguiente: Si t observado > t critico  se asume que p es < que 0,05 por lo que se aprueba H1 y se rechaza H0 Si t observado < t critico  se asume que p es > que 0,05 por lo que se aprueba H0 y se rechaza H1 DATO IMPORTANTE: lo anterior explicado también puede suceder en la prueba t para muestras relacionadas; ya que los grados de libertad se sacan de la misma manera; en la prueba t para muestras independientes también se puede utilizar esta tabla pero los grados de libertad se sacan con la siguiente formula: G.l = na + nb -2 (grados de libertad es igual al numero de participantes de la muestra 1 mas el numero de participantes de la muestra 2 menos 2). Ejemplo de un ejercicio y de conclusión:

100

Luego se aplica la formula para t de una muestra (no es necesario saber sacar la formula, solo interpretar resultados porque lo mas probable es que van a poner la tabla del spss que se puso al principio de empezar a explicar esta prueba) y el t es = -4,965 y la significancia o valor p= 0,001 Por lo que tenemos que comparar este valor p con el valor de significación especificado que es el % de error que vamos a aguantar y generalmente es un 5% de error por lo que se aguanta hasta que p < o igual a 0,05 para aceptar la hipótesis H1. DATO FREAK E IMPORTANTE: en algunos estudios se acepta solo un 1% de error, entonces la significación para aceptar h1 debería ser que p tiene que ser < o igual a 0,01 y en otros estudios se acepta solo el 0,1 % de error y acá la significación para aceptar h1 es que p tiene que ser < o igual a 0,001. (el investigador lo estipula, pero generalmente es 0,05)

En este caso p< 0,05 por lo tanto se concluye que:  H0 se rechaza  H1 se acepta Para someter a evaluación la hipótesis del estudio, se aplicó la prueba t de Student para una muestra en base a un contraste unilateral. Al comprar la edad de inicio del habla entre los niños del grupo experimental (M=10 meses; DE=2.34) y los niños de la población (M = 13 meses) se concluye que los primeros tienden a iniciar el habla a una edad significativamente inferior a estos últimos (t(14)= -4.965; p < 0,001). Prueba T de student para muestras relacionadas: Se utiliza cuando queremos comparar dos aplicaciones de una prueba hechas a la misma muestra en períodos sucesivos o cuando tenemos dos muestras pareadas en las cuales se ha medido la misma variable numérica. En el primer caso, el objetivo es comparar si hubo cambios en los puntajes de los sujetos de entre las pruebas, en cambio en el segundo caso, el objetivos es saber si existen diferencias entre los puntajes de los sujetos pareados. Parear las muestras o también llamado emparejamiento, consiste seleccionar una muestra y dividirla aleatoriamente en dos grupos. Es decir, se seleccionan los casos que van a un grupo y al otro de manera aleatoria.

101

La tabla anterior es una salida de SPSS donde podemos observar el valor de t en la sexta columna y la significancia en la octava; en este caso la significancia es ,011 (generalmente no se pone el 0 antes de la coma pero recuerden que va un 0; decir ,011 es lo mismo que decir 0,011) lo que significa que p es MENOR que 0,05 por lo tanto se aprobaría H1 (hipótesis de investigación); si la significancia fuera MAYOR que ,05 significa que p es mayor a 0,05 por lo tanto se rechazaría H1 y se aprueba H0 (que es la hipótesis nula). Ejemplo de t para muestras relacionadas con conclusión: Se lleva a cabo un estudio para determinar si el nacimiento del primer hijo aumenta la cohesión en las parejas. Se selecciona una muestra de 10 personas sin hijos, a las que se les pide que evalúen los niveles de cohesión con su pareja. Luego de un año del nacimiento del primer hijo, se les vuelve a aplicar la misma escala. Los resultados aparecen a continuación:

Hipótesis de investigación: El nacimiento del primer hijo produce un aumento en la cohesión de las parejas.

Luego se aplica la formula para t para muestras relacionadas (no es necesario saber sacar la formula, solo interpretar resultados porque lo mas probable es que van a dar la tabla del spss que se pego antes al empezar a explicar esta prueba) y el t es = 2,472 y la significancia o valor p= 0,001. Por lo que tenemos que comparar este valor p con el valor de significación especificado que es el % de error que vamos a aguantar y generalmente es un 5% de error por lo que se aguanta hasta que p < o igual a 0,05 para aceptar la hipótesis H1.

102

Alfa es el 5% de error que estamos aceptando y para que sea asi p tiene que ser menor a 0,05.

Prueba T de Student para muestras independientes. Esta prueba se utiliza cuando se tienen dos muestras en las cuales se ha medido una misma variable numérica y se desea determinar si dichas muestras provienen de una misma población o de poblaciones distintas sin tener ningún dato de las poblaciones.Mide si hay diferencias entre las medias estimadas de la población en muestras que no se relacionan, ve diferencias en grupos distintos, por ejemplo, medir estrés en hombres y mujeres Ejemplo de esta prueba con la interpretación de las tablas del spss y conclusión:

103

En la tabla anterior es necesario fijarse en 3 cosas: a) En la columna donde dice prueba de levene para igualdad de varianza porque esta dependiendo de que valor tenga la significancia nos va a decir si se asumen o no varianzas iguales y cual de los dos valores de t que aparecen en la columna de al lado es el correcto para este ejercicio. La prueba de levene mide lo siguiente y se interpreta de la siguiente manera: b) En la columna de t (luego de haber visto la prueba de Levene) en este caso nos tenemos que fijar en el resultado de t que aparece arriba porque como la prueba de Levene arrojo una significancia de 0,404 eso significa que p es > que 0,05 por lo que se asumen varianzas iguales; por lo tanto el valor de t = -3,464 c) Fijarse en la significancia (p) que aparece en la tabla al lado de donde sale el valor de t y los grados de libertad; ya que si p>0,05 se rechaza h1 y se aprueba h0; y si p a 0,05 se utilizan las pruebas porque se asume que las varianzas son iguales o que no son distintas:  HSD TUKEY: Esta prueba determina el mínimo valor entre los promedios para que la diferencia de los promedios sea significativa.  SIDAK  SHEFFE  BONFERRONI  DUNCAN Ejemplo con tablas SPSS y conclusión:

109

Acá podemos ver cuales son la media (promedio) y desviación estándar de cada uno de los niveles de nuestro factor (en este caso el factor es tratamiento)

Acá podemos ver cual es la significancia (valor p) de la Prueba de Levene; en este caso es 0,557 por lo que p es > a 0,05 entonces se asume que las varianzas son iguales por lo que si nuestro valor F (anova) tiene un valor significativo (p Relación directa (altos con altos /bajos con bajos) Signo negativo->Relación inversa (bajos con altos/altos con bajos).

El valor absoluto de un coef. Indica la intensidad: -

Valor cercano a 1,0 -> relación muy intensa Valor cercano a 0 –> ausencia de relación lineal

Valores de referencia:  r entre 0 y 0.30 o entre 0 y -0.30= relación baja entre las variables  r entre 0,31 y 0,70 o entre -0,31 y -0.70= relación media entre las variables  r entre 0,71 y 1 o entre -0,71 y -1= relación alta entre las variables Ejemplos de salidas de datos SPSS: a) Bivariada S1 S1

S2

Correlación de Pearson (R) Sig. (bilateral) N Correlación de Pearson Sig. (bilateral) N

S2 1

,052 ,325

356 ,052

356 1

,325 356

356

112

Correlación entre s1 y s2= 0,052 OJO: También es importante evaluar la significancia si p< o = 0,05 esto es significativo y la relación puede ser aplicada a la realidad; de lo contrario (si p> 0,05 esto es poco confiable). b) Parcial Variables de control S3

S1

S2

Correlación Significación (bilateral) gl Correlación Significación (bilateral) gl

S1 1,000

S2 ,039

.

,460

0 ,039

353 1,000

,460

. 0

353

Correlación entre s1 y s2 controlado por s3= 0,039

EDAD

SOLEDAD

EFICIENC

DESESPE

SUICIDIO

Analizar gráficos de dispersión y matriz de correlación: ejemplo

SUICIDIO

DESESPE

EFICIENC

SOLEDAD

EDAD

 Suicidio y edad, no hay linealidad clara…se puede aplicar r de person pero puede salir que las variables no se relacionan.  Suicidio y desesperación es directa. A mayor suicidio mayor desesperanza.  Suicidio y soledad hay curvatura, no se aplica pearson por no linealidad.  Suicidio y eficiencia, son de relación inversa.

113

Estrés post traumático en Niños

70

60

50

40

30

20 10

20

30

40

50

60

70

80

Estrés post traumático en Cuidadores

EJEMPLO: Grafico de dispersion: Directa y lineal. Repaso r de pearson y análisis en computador: Este estadístico se emplea cuando se tiene una muestra en la que se han medido dos variables numéricas distintas y lo que se desea es determinar si existe una relación lineal entre estas variables. El coeficiente producto-momento r de Pearson puede variar de –1,0 a +1,0. Para interpretar el significado de un coeficiente de correlación de Pearson

SIGNO (positivo o negativo)

Valor numérico

(+)existencia de una relación lineal directa. Es decir altos valores de una variable, se asocian a altos valores de la otra variable.

Cercano a 1,0 indica existencia de una relación lineal muy intensas de la variable.

(-)existencia de una relación lineal inversa. Es decir, a altos valores de una variable, bajos valores de la otra.

Cercano a 0 indica ausencia de una relación lineal de las vaiable (lo que no implica que no haya relación entre variables)

Un aspecto importante a considerar al momento de aplicar esta prueba, consiste en especificar el tipo de contraste que se va a realizar: Contraste Unilateral:se emplea en aquellos casos en que la hipótesis de investigación plantea la existencia de relaciones directas o inversas entre las variables. Contraste Bilateral:se emplea en aquellos casos en que la hipótesis de investigación sólo plantea la existencia de una relación entre las variables, sin indicar la forma de ésta. OTRO EJERCICIO COMO EJEMPLO

114

H1: Las personas con mayor apoyo social presentan menor soledad

Valor r de pearson (fijarse signo y n°)

Conclusión:

Valor p asociado al coeficiente de correlación producto-momento de Pearson

Paraevaluar la hipótesis de que las personas con mayor apoyo social presentan menor soledad, se empleó el coeficiente de correlación producto-momento de Pearson en base a un contraste unilateral. Los resultados obtenidos permiten apoyar esta hipótesis, r(77) = −.52; p< .001, observándose una relación lineal inversa, de intensidad fuerte, estadísticamente significativa entre ambas variables. r(GL=n-2) = valor r; significancia p -

R de Pearson es sólo para relaciones lineales. Primero se debe identificar si la relación es lineal. Forma de la relación: (Gráfico) si la relación entre variables es lineal, no lineal o no existe relación y por tanto no existe una relación determinada para ordenar los datos. (no existe una tendencia, los datos están dispersos)

Dirección: Puede ser: directa o positiva negativa.

o lineal inversa o

Intensidad (de un gráfico): -

Si se tienen los datos que calzan perfectamente con la línea recta, sería una correlación de 1 (una tendencia lineal perfecta). Si se dispersan un poco, el valor de R ya no será 1. Intensidad: intensa mayor a 0.50 Moderada; mayor a 0,30 Leve: mayor a 0.10 Si la relación lineal que se observa es fidedigna en la población (esto entrega el p)

B.5 REGRESION LINEAL SIMPLE: La regresión lineal simple, es utilizada para predecir valores de una variable dependiente a partir de una variable independiente. Ambas deben ser numéricas. A la variable dependiente se le denomina también variable criterio y a la independiente, predictora. Es necesario considerar que la variable independiente no necesariamente es causal de la dependiente, sino que a partir de la relación lineal que poseen las variables es posible predecir los valores de una a través de la otra construyendo una ecuación.

115

Etapas en un análisis de regresión Lineal: (ESTO NO CREO QUE LO PREGUNTEN; ES PARA PRIFUNDIZAR Y ENTENDER A FONDO EL MODELO) 1) Obtener el modelo lineal. 2) Determinar la capacidad explicativa del modelo de regresión lineal. 3) Evaluar la significación estadística del modelo de regresión lineal. 4) Evaluar la significación estadística de cada uno de los parámetros del modelo de regresión lineal. 5) Evaluar el cumplimiento de los supuestos de regresión lineal. Ejemplo: Queremos ver la relación que se da y como predice el salini (salario inicial) como variable independiente o predictora el salario (salario actual) como variable dependiente.

116

Esta tabla muestra el modelo (paso 1); luego es necesario determinar la capacidad explicativa del modelo de regresión lineal (cuan bien predice, paso 2) y esto se ve a través del valor del coeficiente de correlación múltiple (R) y de su cuadrado (R2)

Este modelo tendría una alta capacidad explicativa (en la vida real) y seria directa alta; por lo tanto el cambio en el salario actual estaría altamente explicado por el salario inicial “explica cuanto un cambio en x (salario inicial) explica o predice un cambio en y (salario actual)” por lo tanto podríamos decir que a mayor salario inicial de las personas esto va a predecir que la persona tenga un mayor salario actual; o que mientras mas salario inicial tengan las personas mas se explica que tengan un mas sueldo actual. Luego tenemos que evaluar la significancia del modelo (tiene que ser significativo, paso 3); para determinar si el modelo es significativo, se debe aceptar H1. Si se llegase a aceptar H0 quiere decir que los valores son 0, por lo que los valores del predictor no resultan útiles en la predicción de la variable dependiente a nivel de población. Para eso se observa la TABLA ANOVA: El valor del estadístico F, con su valor asociado: si p de 15 años. ¿Cuál es la más probable Unidad de muestreo en este estudio? Respuesta: Hogares de Santiago de Chile ¿Cuál es la Unidad de análisis de este estudio? Respuesta: La persona, la familia 2.En el caso anterior sobre maternidad: 1) La población (en contexto) son las mujeres que asisten a tratamientos de reproducción asistida en la salud publica de Chile 2) La muestra (especifica, características de participante especifico) es las mujeres con esterilidad primaria que asisten al centro xxxx a tratamiento de reproducción asistida 3)

La unidad de análisis es la mujer (como sujeto) en tratamiento de reproducción asistida.

PD: lo anterior cambia dependiendo de cual es el problema de investigación, la finalidad del estudio y los objetivos. Las unidades de análisis pueden corresponder a las siguientes categorías o entidades: personas, grupos humanos, poblaciones completas, etc. Por ejemplo en investigación cuando es la relación profesor-alumno lo que se quiere investigar esa relación seria la unidad de análisis (seria la diada de la relación).

OJO (DATO FREAK): En estudios de caso y en estudios de población no hay muestreo; por ejemplo “conocer como perciben el liderazgo los trabajadores de una consultora y sabemos que son 30” o estudiar el Liderazgo en Hitler, liderazgo en Piñera (son estudios de caso, biográfico)

Diferencia entre diseño de investigación y el alcance (fuente: profe C. Herrera) Son cosas diferentes, una tiene que ver con las características del método y lo otro con el alcance del objetivo propuesto. Por tanto no es que siempre un investigación sea de cierto alcance, depende de lo que cada investigación se propone, pero en general las investigaciones etnográficas y fenomenológicas son de alcance descriptivo, y las de teorías fundamentada tienen un alcance relacional o comprensivo (lo que sería un ximili de investigación correlacional y explicativa respectivamente en investigación cuantativa).

Diferencia entre metodología y método (fuente: profesora Constanza Herrera) Respecto del uso del concepto método hay muchas acepciones, de modo que alguna vez alguien podría preguntar por el tipo de método refiriéndose al enfoque (cuanti -cuali). Pero lo que sería más pertinente sería decir que el hecho de que una investigación sea cualitativa o cuantitativa se refiere al enfoque o estrategia teórico-metodológica de la investigación. Metodología es otra cosa, refiere a la reflexión acerca de qué características debería tener el método de una investigación para determinados problemas de investigación; y el método a la descripción de

138

distintos elementos que marcan la ruta de cómo se desarrollará la investigación, incluyen el diseño de la investigación, el diseño muestra, las técnicas de recolección de datos, entre otras.

139