Escala de likert

Universidad de Viña del Mar Escuela de Ciencias Sociales Carrera de Sociología TECNICAS CUANTITATIVAS ESCALA LIKERT La

Views 154 Downloads 0 File size 166KB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

Universidad de Viña del Mar Escuela de Ciencias Sociales Carrera de Sociología

TECNICAS CUANTITATIVAS ESCALA LIKERT

La escala Likert, creada en 1932 por el psicólogo norteamericano Rensis Likert (1903-1981), es el instrumento más usado para medir actitudes. La escala Likert es un conjunto de aseveraciones (items) ante las cuales la persona expresa su grado de acuerdo o desacuerdo o indecisión. Cada ítem tiene habitualmente cinco opciones de respuesta: Muy de acuerdo (MA), De acuerdo (A), Indeciso (I), En desacuerdo (D) y Muy en desacuerdo (MD). No hay respuestas correctas o incorrectas. Hay items positivos, que expresan actitud positiva hacia el objeto, e items negativos, que expresan actitud negativa hacia el objeto. Si estamos midiendo actitud hacia la televisión, un ítem positivo sería “la televisión sirve para estar al día en muchos temas” y uno negativo sería “ver televisión es perder el tiempo”. Es conveniente que la escala tenga ambos tipos de items para controlar la tendencia a estar de acuerdo con las aseveraciones o a contestar mecánicamente. Los puntajes van de 1 a 5, dando mayor puntaje a la opción de respuesta que indica actitud positiva hacia el objeto. Si el ítem es positivo, la opción MA recibe 5 puntos; si es negativo, la opción MD recibe 5 puntos. En el ejemplo del párrafo anterior, recibe puntajes máximos quien está muy de acuerdo con que la televisión sirve para estar al día, y muy en desacuerdo con que ver televisión es perder el tiempo. El puntaje de una persona en la escala es la suma de los puntajes que ha obtenido en los items. A mayor puntaje en la escala, más positiva es su actitud. La escala Likert se aplica habitualmente como parte de un cuestionario, que puede contener varias escalas y otros instrumentos. La escala Likert es una escala sumatoria: sus puntajes son la suma de los puntajes de los items. Otras escalas sumatorias son las de items con opciones de respuesta de 0 a 10, y las de items dicotómicos (1=sí, 0=no). La escala Likert fue diseñada para medir actitudes pero, por lo fácil que es construirla, contestarla y analizarla, y porque sus propiedades psicométricas (validez, confiabilidad) son relativamente fáciles de evaluar, es usada para medir opiniones, percepciones, valores, aspectos de personalidad y otras variables. Por ejemplo, la ----------------------------------------------------------------------------------------------------------J. Rodríguez Cano, U.de Viña del Mar, [email protected]

pregunta “¿Qué le pareció la selección de fútbol en el último partido?” puede tener las opciones de respuesta “muy bien”, “bien”, “regular”, “mal” y “muy mal”, con puntajes 5 a 1 respectivamente. Un problema de esta escala radica en el elemento conductual de las actitudes: es la distancia que hay entre la respuesta a palabras escritas en un papel y la conducta real. Las palabras aíslan la conducta, la sacan de contexto real. Revelan en parte el deber ser. Son la respuesta verbal a una situación simbólica. La conducta se da en una situación concreta, en un contexto con muchos otros elementos, no equivalente a la respuesta escrita. Pero no tenemos mejor alternativa: una buena medición debe contextualizar lo más posible el estímulo que aparece en el papel. Una limitación de toda medición en papel es que exige un grado mínimo de comprensión de lectura. En general, es problemático aplicarla a niños o a personas de muy bajo nivel educacional o con grados de analfabetismo. Hay varias recetas para escribir items. Aquí hay unas cuantas: • • • •

• • •

Evitar aseveraciones que se refieran a hechos del pasado. Las personas suelen contestar tratando de ser consistentes con su actitud actual. Si simplemente no recuerdan, suelen idealizar el pasado o inventarlo. Evitar items que contengan dos o más aseveraciones. En vez de un ítem con dos aseveraciones, es preferible dos items con una cada uno. Los items deben ser cortos, estar escritos en forma directa, con palabras simples, entendibles y familiares para el que contesta. Evitar items extremos, en que todos o nadie estarán de acuerdo. Los items extremos no discriminan y, por lo tanto, no entregan información. Las diferencias en los extremos de la escala no se detectan con items extremos sino con el uso de las opciones de respuesta de los items. Evitar palabras como ‘sólo’, ‘solamente’, ‘principalmente’, y similares. No usar, salvo que se justifique, palabras como ‘todos’, ‘nadie’, ‘siempre’, ‘nunca’, ‘ninguno’, etc. Evitar aseveraciones de hechos objetivos o de conocimientos.

¿Cuántos items debe tener una escala? No se recomienda más de quince o veinte items. Una escala larga puede aburrir y hacer que las respuestas al resto de la escala no sean contestadas o lo sean mecánicamente. Esto depende de las características de las personas a las que se les va a aplicar y del lugar donde se hará. Por otra parte, cuantos más items haya, mayor será la confiabilidad, porque el error sistemático tenderá a compensarse. Aunque la confiabilidad de una escala aumenta al tener más items, el aumento va disminuyendo al agregar (ver más adelante el coeficiente Spearman-Brown). También se supone que una escala mide una sola dimensión y esto es menos sostenible al haber más items. ----------------------------------------------------------------------------------------------------------J. Rodríguez Cano, U.de Viña del Mar, [email protected]

Las etapas en la construcción de la escala son: 1. Definir el concepto nominal y operacionalmente. 2. Construcción de items. Escribir items positivos y negativos. (Crear más de los necesarios, para posibles reemplazos.) 3.

Aplicar un pretest. Los sujetos del pretest, de características similares a los que se les va a aplicar la escala definitiva, contestan los items e indican qué problemas han tenido al hacerlo.

4. Se analizan los items, la validez y confiabilidad de la escala y, si corresponde, se modifican. 5. Se aplica la escala. Para cada persona se suman los puntajes que obtuvo en los items. La suma es su puntaje en la escala. Esto se hace porque, aunque las opciones de respuesta de los items son variables ordinales, se les considera cuantitativas porque tienen más de tres categorías de respuesta. Esto se justifica además, teóricamente, en que la actitud que la subyace es continua, cuantitativa.

ANALISIS DE LOS ITEMS El análisis de los items sirve para determinar cuáles se mantendrán en la escala y cuáles se han de eliminar. Se espera que los items discriminen y que se correlacionen positivamente entre sí. Un ítem discrimina si separa a los sujetos en el ítem en forma similar a como los separa en la actitud, expresada en el puntaje de la escala. Para evaluarlo se pueden tomar los grupos de los cuartiles extremos (4° y 1°) en el puntaje total y comparar sus promedios en el ítem mediante un Anova. Otra forma de hacerlo es correlacionar los puntajes del ítem y la escala.

Likert indica algunas posibles causas de que un ítem no discrimine: •

Es poco entendible.

----------------------------------------------------------------------------------------------------------J. Rodríguez Cano, U.de Viña del Mar, [email protected]



Se refiere a algo diferente del resto de los items (por lo tanto, personas en diferentes posiciones de la escala tienen igual probabilidad de estar de acuerdo).



Es respondido igual (o casi igual) por todo el grupo. Esto se da habitualmente en items muy extremos. La correlación disminuye si los items tienen poca varianza. Esta atenuación también ocurre cuando se disminuye el número de opciones de respuesta de los items.

Los items deben estar correlacionados entre sí. Por lo tanto, deben estar también correlacionados con la escala, que es la suma de los items. Un ítem que discrimina adecuadamente está también correlacionado con los demás items y con la escala. Si dos items están correlacionados, quiere decir que miden lo mismo, el mismo concepto. Cuanto más alta es la correlación, mayor es la medición común del concepto. Sin embargo, si la correlación entre dos items, y de cada uno con los demás, es extremadamente alta, conviene eliminar uno porque está midiendo lo mismo que el otro. Además de alargar inútilmente la escala, da doble ponderación al aspecto medido. Los items que están poco correlacionados miden cosas diferentes. Hay que tener presente que aunque un ítem no esté correlacionado con ninguno otro, su correlación con la escala no será 0 porque el ítem es parte de la escala. Cuando hay pocos items conviene correlacionar cada ítem con la escala sin el ítem. Se deben eliminar los items que están poco correlacionados con los demás y con la escala. Si la correlación es negativa hay que considerar invertir su codificación. Un ítem debe ser también eliminado si está correlacionado positivamente con algunos items y negativamente con otros; además, probablemente su correlación con la escala será baja. Un ítem poco correlacionado no aporta a la escala y disminuye su validez y su confiabilidad. Un peligro al eliminar muchos items es que algunas dimensiones pueden quedar con muy pocos items o con ninguno.

CONFIABILIDAD: CONSISTENCIA INTERNA

Se han analizado antes dos formas de confiabilidad: la estabilidad del instrumento y el grado de acuerdo entre jueces. Se verá aquí otra forma de confiabilidad, la consistencia interna, especialmente aplicable a escalas y tests. La consistencia interna de un instrumento consiste en que cada parte de la escala mida lo mismo, produzca resultados similares, de manera que sea indiferente cuál parte del instrumento usamos en nuestra medición. Los primeros métodos usados fueron los de equivalencia, como el ‘split-half’, que correlaciona los puntajes de las dos mitades del test. Si miden lo mismo, si son ----------------------------------------------------------------------------------------------------------J. Rodríguez Cano, U.de Viña del Mar, [email protected]

equivalentes, la correlación será alta. Ésta no indica la confiabilidad del instrumento sino la de cada una de las mitades. Está atenuada porque cada parte tiene la mitad de los items del test. (Se sabe que la confiabilidad aumenta al alargar un test.) La fórmula de Spearman-Brown sirve para estimar la confiabilidad al alargar o acortar un instrumento, al aumentar o disminuir el número de items:

r=

kr ' 1 + (k − 1)r '

en que r’ es la confiabilidad de la escala inicial, k es el tamaño de la nueva escala con respecto a la escala inicial (por ejemplo, k=2 si se aumenta al doble, k=.5 si se acorta a la mitad), y r es la confiabilidad de la nueva escala. Por ejemplo, se quiere acortar un test de treinta a veinte items, eligiéndolos al azar. Si la confiabilidad del test de treinta items es .85, la confiabilidad estimada del nuevo test será: 2 (.85) 3 r= = .79 2 1+ − 1 (.85) 3

( ) ( )

en que k = 20/30 = 2/3. El nuevo test tendrá una confiabilidad de .79. Si se duplica el tamaño del test, como cuando sabemos la confiabilidad de las mitades y queremos conocer la del test entero, k = 2. Se puede ver que en este caso, la fórmula del coeficiente de Spearman-Brown se simplifica a:

r=

2r ' 1+ r '

Por ejemplo, si la correlación de las mitades ( r ' ) es .60, la confiabilidad del test 2(.60) entero será r = = .75 1 + (.60) Se puede también usar la fórmula de Spearman-Brown para estimar cuántos items se necesitan para conseguir una determinada confiabilidad: k=

r (1 − r ') r '(1 − r )

Por ejemplo, si un escala de quince items tiene confiabilidad .70, ¿cuántos items se estima debería tener para que la confiabilidad fuera .80? La respuesta es 26 items. ----------------------------------------------------------------------------------------------------------J. Rodríguez Cano, U.de Viña del Mar, [email protected]

No hay una relación proporcional entre el aumento del largo del test y el aumento de la confiabilidad. Ésta crece en menor proporción, y es aun menor al continuar aumentando k, y también menor cuanto mayor sea r. Esto se debe al factor ‘techo’: r no puede ser mayor de 1. La objeción que se hace al método de ‘split-half’ es que el cansancio o la reactividad pueden hacer diferentes las respuestas de cada mitad. Esto se puede superar correlacionando los puntajes de los items pares e impares. Pero, dado que la ubicación de los items en la escala es arbitraria, pueden haber muchas correlaciones. Si se parte un test en todos las posibles pares de mitades y se calcula una correlación para cada par, el promedio de estas correlaciones es numéricamente igual al coeficiente α creado por Lee Cronbach en los años 50. El coeficiente α es la medida más usada para medir confiabilidad de escalas y tests. Mide el grado en que los items son consistentes, en que miden lo mismo, que van en la misma dirección. El cálculo de α no se realiza correlacionando todos los pares de mitades, sino de una manera más fácil, usando la matriz de covarianza de los items. Es sabido que si x = x1 + x2 , la varianza de x es igual a la suma de la varianza de x1 más la de x2 más dos veces la covarianza de x1 y x2 . Si x es la suma de k elementos, su varianza es: k

k

s = ∑ s + 2∑ 2 x

i =1

2 i

i =1

k

∑ Cov j=1

ij

,

en que i