Condicionamiento Operante Skinner

Condicionamiento operante De Wikipedia, la enciclopedia libre ads not by this site Saltar a: navegación, búsqueda El co

Views 173 Downloads 4 File size 531KB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

Condicionamiento operante De Wikipedia, la enciclopedia libre ads not by this site

Saltar a: navegación, búsqueda El condicionamiento operante, también llamado condicionamiento instrumental, es una forma de aprendizaje mediante el que un sujeto tiene más probabilidades de repetir las formas de conducta que conllevan consecuencias positivas y, por el contrario, menos probabilidades de repetir las que conllevan consecuencias negativas. El condicionamiento operante es un tipo de aprendizaje asociativo que tiene que ver con el desarrollo de nuevas conductas en función de sus consecuencias, y no con la asociación entre estímulos y conductas como ocurre en el condicionamiento clásico. El término “condicionamiento instrumental” fue introducido por Edward Thorndike y sugiere que la conducta sirve de "instrumento" para conseguir un fin. Sin embargo, en la actualidad se utiliza con más frecuencia el término “condicionamiento operante”, introducido por B.F. Skinner, que implica que la conducta simplemente "opera" sobre el medio pero sin hacer alusión a intenciones. La investigación sobre el condicionamiento operante ha dado lugar a una tecnología muy minuciosa para la enseñanza, denominada modificación de conducta.

Contenido [ocultar]       

1 Primeras investigaciones 2 Procedimientos de condicionamiento 3 Tipos de refuerzos 4 Fases del condicionamiento operante 5 Programas de reforzamiento 6 Distinción entre condicionamiento clásico y operante 7 Bibliografía

[editar] Primeras investigaciones El psicólogo Edward Thorndike (1874-1949) fue uno de los pioneros en el estudio del condicionamiento instrumental. Para ello, ideó sus denominadas “cajas de solución de problemas”, que eran jaulas de las que los gatos (que eran los animales con los que trabajaba) podían escapar mediante acciones simples como manipular un cordón, presionar una palanca o pisar una plataforma. Como incentivo para resolver el problema, el gato podía ver y oler que fuera de la caja había comida, pero no podía alcanzarla. Al principio, el gato comenzaba a hacer movimientos azarosos, hasta que casualmente resolvía el

problema, por ejemplo tirando de la polea que abría la jaula. Sin embargo, cada vez que Thorndike metía al gato en la jaula, tardaba menos en salir. Esto se debía a que se estaba produciendo un condicionamiento operante: la conducta de tirar de la polea estaba siendo reforzada por su consecuencia (la apertura de la caja y la obtención de la comida). Esta conducta, al ser reforzada, se convertía en la conducta más probable en un futuro cuando las circunstancias eran similares.

Caja de Skinner A partir de estos experimentos, Thorndike estableció un principio que denominó Ley del efecto: «Cualquier conducta que en una situación produce un efecto satisfactorio, se hará más probable en el futuro». Si la respuesta va seguida de una consecuencia satisfactoria, la asociación entre el estímulo y la respuesta se fortalece; si a la respuesta le sigue una consecuencia desagradable, la asociación se debilita. En otras palabras, Thordike defendía que todos los animales, incluyendo al ser humano, resuelven los problemas mediante el aprendizaje por ensayo y error. También los estudios de Pávlov sobre condicionamiento clásico tuvieron una gran influencia en el estudio del condicionamiento operante. Si bien se trata de procesos de aprendizaje diferentes, el condicionamiento clásico y el operante comparten varios de sus principios, como la adquisición, la extinción, la discriminación o la generalización. El autor más importante en el estudio del condicionamiento operante es B.F. Skinner. A finales de la década de 1920 empezó a trabajar con palomas. Para ello, utilizaba un ambiente libre de distracciones denominado caja de Skinner, en el que se podían manipular las condiciones en las que se proporcionaba alimento a los animales. Sus exhaustivos estudios utilizando este artefacto permitieron a Skinner descubrir muchos de los factores que influyen en el condicionamiento operante.

[editar] Procedimientos de condicionamiento Existen cuatro procedimientos o tipos de condicionamiento instrumental: 

Refuerzo positivo o condicionamiento de recompensa: Un refuerzo positivo es un objeto, evento o conducta cuya presencia incrementa la frecuencia de la respuesta

por parte del sujeto. Se trata del mecanismo más efectivo para hacer que tanto animales como humanos aprendan. Se denomina “refuerzo” porque aumenta la frecuencia de la conducta, y “positivo” porque el refuerzo está presente. Refuerzos positivos típicos son las alabanzas, los regalos o las aportaciones monetarias. Sin embargo, hay que tener en cuenta que en ocasiones algo que ordinariamente se considera desagradable puede funcionar como refuerzo positivo, ya que de hecho incrementa la probabilidad de la respuesta (como cuando se grita a un niño ante una rabieta, y este se siente reforzado porque así llama la atención). 

Refuerzo negativo: Un refuerzo negativo es un objeto, evento o conducta cuya retirada incrementa la frecuencia de la respuesta por parte del sujeto. Al igual que el anterior, se denomina “refuerzo” porque aumenta la frecuencia de la conducta, pero “negativo” porque la respuesta se incrementa cuando el refuerzo desaparece o se elimina. En el refuerzo negativo se pueden distinguir dos procedimientos: - Condicionamiento de escape: En este caso, la frecuencia de una respuesta aumenta porque interrumpe un estímulo aversivo, es decir, un suceso que está ocurriendo y que el sujeto considera desagradable. Un ejemplo típico sería el de un animal que aprieta una palanca porque así elimina una corriente eléctrica o el de un padre que le compra una chuchería a su hijo para dejarle de oír llorar. - Condicionamiento de evitación: En este caso, la frecuencia de una respuesta aumenta porque pospone o evita un estímulo aversivo futuro. Un ejemplo típico sería el de un alumno que estudia para evitar una mala nota.



Entrenamiento de omisión: Se produce cuando la respuesta operante impide la presentación de un refuerzo positivo o de un hecho agradable; es decir, consiste en retirar el estímulo positivo de una conducta para así provocar la extinción de la respuesta. Un ejemplo importante es el de “tiempo fuera”, en el que se retira la atención de un niño aislándolo durante un cierto período de tiempo.



Castigo: El castigo provoca la disminución de una conducta porque el suceso que la sigue es un estímulo aversivo. Un ejemplo típico es castigar a una rata con una pequeña corriente eléctrica cuando pulsa una palanca. Aunque el castigo puede ser en ocasiones muy eficaz para hacer que desaparezca una conducta, se recomienda utilizarlo lo menos posible, ya que tiene muchos efectos adversos o no deseados. En muchas ocasiones la conducta solo desaparece temporalmente o únicamente en los contextos en los que es probable el castigo. Además, genera gran cantidad de consecuencias secundarias (como frustración, agresividad, etc.) que pueden hacer que se detenga el proceso de aprendizaje. Por eso, en la aplicación de castigos es importante seguir ciertas reglas, como reforzar al mismo tiempo conductas alternativas a la castigada, aplicarlo inmediatamente después de la conducta que se quiere suprimir, o ser constante (ya que castigar una conducta solo a veces produce un efecto contrario al que se desea).

[editar] Tipos de refuerzos

Lo que es o no es un refuerzo durante el condicionamiento operante depende del individuo y de las circunstancias en que se encuentra en ese momento. Por ejemplo, unas galletas pueden suponer un refuerzo para un perro hambriento, pero no para uno que acaba de comer carne. Los refuerzos se pueden dividir en dos grandes grupos: los primarios o intrínsecos y los secundarios o extrínsecos. 

Se dice que un reforzador es primario o intrínseco cuando la respuesta es reforzante por sí misma, es decir, cuando la respuesta es un sí una fuente de sensaciones agradables y la acción se fortalece automáticamente cada vez que ocurre. Existen varios tipos de conductas que son intrínsecamente reforzantes. Por ejemplo, las respuestas que satisfacen necesidades fisiológicas, como beber cuando se tiene sed o comer cuando se tiene hambre, son intrínsecamente agradables para la mayoría de los organismos. Muchas actividades sociales o que brindan estimulación sensorial o intelectual son también con frecuencia intrínsecamente reforzantes, al igual que la sensación de progreso en una habilidad. También pueden ser reforzantes por sí mismas todas las conductas que ayudan a un organismo a evitar algún daño. Sin embargo, las actividades intrínsecamente gratificadoras no siempre son reforzantes desde el principio; por ejemplo, se necesita cierta habilidad antes de que una actividad que requiere competencia (como tocar un instrumento musical, por ejemplo) se vuelva inherentemente satisfactoria.



Los refuerzos secundarios o extrínsecos son aprendidos, y en ellos el premio o gratificación no es parte de la actividad misma, sino que obtienen su carácter de refuerzo por asociación con los reforzadores primarios. Por ejemplo, las recompensas monetarias se convierten en refuerzo porque permiten a su vez conseguir refuerzos primarios. Un tipo de reforzadores extrínsecos especialmente importante, que pueden influir enormemente cuando se trata de modificar la conducta humana, son los reforzadores sociales como el afecto, la atención o la aprobación.

En la vida real, diversos reforzadores intrínsecos y extrínsecos se encuentran habitualmente entremezclados en un mismo suceso reforzante.

[editar] Fases del condicionamiento operante 

Adquisición: La adquisición de la respuesta se refiere a la fase del aprendizaje en que la respuesta es seguida por reforzadores. Durante la adquisición la respuesta se vuelve más fuerte o más frecuente, debido a su relación con la consecuencia reforzante.



Generalización: Las respuestas fortalecidas mediante procedimientos operantes en un conjunto de circunstancias tienden a extenderse o a generalizarse en situaciones similares, al igual que ocurre en el condicionamiento clásico. Cuando más parecidos sean los contextos, más probable es la generalización.



Discriminación: Los individuos desarrollan también discriminaciones al reforzarse las respuestas en una situación, pero no en otra.



Extinción: Cuando se retira el reforzamiento para alguna respuesta particular, dicha conducta disminuye su frecuencia gradualmente hasta que solo ocurre con la misma frecuencia con que ocurría antes del reforzamiento. Sin embargo, es importante advertir que en muchas ocasiones, después de que se retiren los reforzadores, se advierte inicialmente un aumento de la cantidad de respuesta y de la frustración antes de que empiece la disminución.



Recuperación espontánea: Al igual que en el condicionamiento clásico, las respuestas que se han extinguido vuelven a aparecer algunas veces, es decir, se da una recuperación espontánea después de un descanso

[editar] Programas de reforzamiento Los programas de reforzamiento son reglas que indican el momento y la forma en que la aparición de la respuesta va a ir seguida de un reforzador sobre la administración del reforzador. Estos programas influyen en distintos aspectos del aprendizaje, como la rapidez con la que se aprende inicialmente la respuesta, la frecuencia con la que se ejecuta la respuesta aprendida, la frecuencia con la que se hacen las pausas después de los reforzamientos, o el tiempo que se sigue ejecutando la respuesta un vez que el refuerzo deja de ser predecible o se suspende. Existen dos tipos básicos de reforzamiento: el reforzamiento continuo y el reforzamiento intermitente. En el reforzamiento continuo cada una de las respuestas da lugar a la aparición de un reforzador, como en el caso de una paloma que recibe comida cada vez que picotea una tecla. Este tipo de reforzamiento parece ser el modo más eficaz para condicionar inicialmente la conducta. Sin embargo, cuando el refuerzo cesa (por ejemplo, cuando desconectamos la entrega de alimento) la extinción también es rápida. Por su parte, en el reforzamiento intermitente las respuestas solo se refuerzan algunas veces, como en el caso de una persona que juega a las máquinas y recibe el refuerzo o premio cada varias jugadas. Este tipo de programa produce un patrón más persistente de respuestas que un programa continuo cuando el reforzamiento se vuelve impredecible o cesa. Una combinación de reforzamiento intermitente y de refuerzo continuo es muy eficaz cuando se trata de enseñar a los sujetos mediante condicionamiento operante: al principio se utiliza un reforzamiento continuo, para que se adquiera la respuesta, y luego se pasa a un reforzamiento intermitente, para que sea más difícil que se extinga. El reforzamiento intermitente da lugar a los programas de reforzamiento, que pueden ser de dos tipos: de razón (en función del número de respuestas) y de intervalo (en función del tiempo). A su vez, cada uno de ellos admite dos tipos de administración: fija o variable. 

Razón fija: El refuerzo se obtiene después de un número fijo de respuestas. Un ejemplo se da cuando las fábricas pagan a sus obreros después de producir un determinado número de productos. En realidad, el reforzamiento continuo es un

programa de este tipo de razón 1. Los individuos responden con una tasa relativamente mayor de respuestas cuando operan bajo programas de razón fija superior a 1 (dependerá del caso aplicar la razón más adecuada), pero por lo general hacen una pausa para descansar después de recibir el reforzamiento, antes de proseguir con la respuesta. 

Razón variable: En este caso, el número de respuestas para conseguir el reforzador varía aleatoriamente, aunque siempre dentro de un promedio determinado. Un ejemplo son las máquinas tragamonedas, que están programadas para otorgar el premio conforme a un programa de razón variable. Muchos reforzadores naturales, como el logro o el reconocimiento, se acercan mucho a este tipo de programas. Los programas de razón variable producen una tasa de respuesta global elevada sostenida, y los individuos no hacen pausa después del refuerzo. Aparentemente, la incertidumbre de no saber cuándo va a llegar el siguiente reforzador mantiene a los organismos produciendo la respuesta constantemente.



Intervalo fijo: El refuerzo aparece cada vez que trascurre una determinada cantidad de tiempo, siempre que durante el intervalo se haya dado la respuesta. Un ejemplo sería el de un padre que verifica cada media hora que su hijo está estudiando, y cuando es así le hace un halago. Los problemas de intervalo fijo producen una tasa de respuestas desigual. Una vez que se administra el refuerzo, la tasa de respuestas tiende a ser baja. Durante el intervalo, la conducta aumenta típicamente hasta alcanzar un nivel elevado inmediatamente antes del siguiente reforzador programado. La cantidad global de respuestas en un programa de intervalos fijos es moderada.



Intervalo variable: El refuerzo está disponible después de un tiempo que varía aleatoriamente, pero alrededor de un promedio. Un ejemplo es el de un profesor que realiza exámenes sorpresa aproximadamente cada semana. Este tipo de programa por lo general produce una tasa de respuesta constante, pero moderada.

Por lo general, los programas de tasa (razón) producen una adquisición más rápida, pero fácilmente extinguible una vez suspendida la administración de reforzadores; y los de intervalo producen una adquisición más estable y resistente a la extinción. En la vida real, estos programas básicos a menudo se combinan.

I. INTRODUCCIÓN En el presente trabajo nos enfocaremos en El condicionamiento operante o Teoría de los Refuerzos, explicando los planteamientos de su autor y descubridor, el Sr. B.F Skinner, considerado como uno de los psicólogos más influyentes dentro de las teorías del aprendizaje. Skinner, según lo escrito en su libro "Más allá de la libertad y de la dignidad" de 1971, tendiente a erradicar en nombre de la ciencia determinista y naturalista, la concepción tradicional de occidente, que ve en el hombre a un ser libre y responsable; afirma que la lucha del hombre por su libertad personal, no se debe a su inalienable voluntad, sino a una serie de procesos conductuales, característicos del organismo humano, cuyo principal efecto consiste en la tentativa de evitar lo que llama caracteres aversivos del ambiente; recondicionando adecuadamente estos procesos conductuales. Así, la conducta no es ningún proceso interno, sino que es la acción del organismo ante las condiciones del mundo exterior, por esto considera Skinner que "no existe el hombre autónomo". La conducta, la cual es el objeto de estudio de Skinner, también hace posible relacionar al hombre con una vida social y armónica que proporciona al individuoseguridad y felicidad, por lo que él considera a la Libertad, no una ventaja sino más bien una amenaza. Su influencia de genero neo-conductista, introdujo el concepto Condicionamiento operante; proceso mediante el cual se aumenta o disminuye la probabilidad de dar una respuesta, designando Skinner a esto como Reforzamientos, el cual consiste en un Estimulo Reforzante, que incrementa la posibilidad de un comportamiento, pudiendo ser este negativo o positivo, dependiendo de la relación que el individuo tenga con el medio ambiente. Consiste en que un organismo haga algo influenciado por una serie de actos. En este trabajo, veremos su estructura, analizando los distintos tipos de refuerzos y factores que influyen en ellos, también sus programas de reforzamiento que pueden ser parciales o continuos. Skinner también plantea que toda la conducta humana es producto de reforzamientos, atribuyendo una importancia fundamental al aprendizaje aplicado a la educación y a la vida diaria. Por ultimo sabremos cual es el aporte de esta teoría a la Educación tradicional, a través de los programas más significativos de reforzamiento, clarificando lo que Skinner planteaba al decir que el profesor es un constructor de conductas. Finalmente se realizaran observaciones a las objeciones y desacuerdos de esta teoría y se darán a conocer algunas diferencias con otras teorías. II. BIOGRAFÍA

Burrhus Frederic Skinner nace en un pequeño pueblo de Pennsylvania llamado Susquehanna, el 20 de marzo de 1904. Su padre era un abogado y su madre una fuerte e inteligente ama de casa. Durante su crecimiento fue matizado con la idea del trabajo duro y las costumbres muy tradicionales (Boeree, 1997). B. F había sido un niño muy activo, niño extrovertido que adoraba el estar al aire libre y construir cosas, y disfrutaba, igualmente, la escuela; sin embargo, su vida no estuvo exenta de tragedias. Específicamente, su hermano a la edad de 16 años muere de un aneurisma en el cerebro (Boeree, 1997). Asistió a la Universidad de Hamilton en Nueva York, esperando ser narrador y poeta. En ese tiempo, sólo tomó un curso en psicología, el cual era impartido por William Squires, pero lo único que Burrhus recordaba del curso era la demostración de Squires del umbral de discriminación de dos puntos (Hothersall, 1997). Asimismo, por lo general no encajó muy bien allí, no disfrutaba para nada las fiestas de la fraternidad o los juegos de fútbol. Escribe para el periódico escolar con el seudónimo de Sir Burrhus de Beerus (Hothersall, 1997), incluyendo artículos criticando a su propia escuela, la facultad, e incluso a la fraternidad Phi Beta Kappa. Además, era un ateo en una escuela que requería asistencia a las misas (Boeree, 1997). En 1926 se gradúa con honores Phi Beta Kappa (Hothersall, 1997). Con la idea de desarrollarse como poeta y narrador, luego de graduarse, construye un estudio en el ático de la casa de sus padres para concentrarse, pero en realidad nunca fue así (Boeree, 1997). Posteriormente, escribe artículos periodísticos sobre problemas laborales, y vive en la Villa Greenwich en Nueva York como bohemio. Luego de viajar algunas veces y haber leído el libro de Pavlov, Reflejos condicionados, decidió que su futuro estaba en la psicología, especialmente en el condicionamiento (Hothersall, 1997), por lo que decidió regresar a la universidad, esta vez a Harvard. Se gradúa con su maestría en psicología en 1930 y su doctorado en 1931. Luego, se queda allí para realizar investigaciones por cinco años más (Boeree, 1997), trabajando como asistente en el laboratorio de biología del profesor Crouzuer (DiCaprio, 1997). En 1936, se muda a Minneapolis para dictar clases en la Universidad de Minnesota. Es aquí donde conoce a su futura esposa Yvonne Blue. Tuvieron dos hijas, una de ellas, la menor, se convierte en la primera infante criada en una de las invenciones de Skinner, la camita de aire. Sin embargo, no era más que la combinación de una camita de niño con lados de vidrios y aire acondicionado, se parecía mucho a tener un niño en un acuario (Boeree, 1997). En 1938 publica su primer libro importante, The Behavior of Organisms (DiCaprio, 1997). En 1945, es designado director del departamento de psicología en la Universidad de Indiana. En 1948, es invitado a regresar a Harvard, donde trabajaría el resto de su vida. Era un hombre muy activo, haciendo investigación y guiando cientos de estudiantes para conseguir su doctorado y; por supuesto, escribiendo muchos libros (Boeree, 1997), entre los que se pueden mencionar Cumulative record, Manual de la conducta operante, Terapia conductual, y descubrimientos empíricos, A primer of operant conditioning (DiCaprio, 1997), Disfrutando la edad adulta publicado en 1983 (Hothersall, 1997). Skinner muere de leucemia el 18 de agosto de 1990 (Boeree, 1997) III. DESCRIPCIÓN DE LA TEORÍA Primero que todo, el condicionamiento operante, llamado también instrumental y hoy en día; análisis experimental de la conducta(AEC) desarrollado por el psicólogo neoconductista B.F Skinner, se puede definir de la siguiente forma:

Es la teoría psicológica del aprendizaje que explica la conducta voluntaria del cuerpo, en su relación con el medio ambiente, basados en un método experimental. Es decir, que ante un estimulo, se produce una respuesta voluntaria, la cual, puede ser reforzada de manera positiva o negativa provocando que la conducta operante se fortalezca o debilite. Es la operación que incrementa la probabilidad de la respuesta o conducta en relación a un Estímulo discriminativo y a otro llamado estimulo reforzador: Para ver el gráfico seleccione la opción "Descargar" del menú superior Es siempre una relación de contingencia. Skinner también considera al aprendizaje por castigo y por extinción de los refuerzos, como influyentes en la conducta. Para ejemplificar lo anterior, describiremos uno de los experimentos llevados a cabo por este psicólogo de pennsylvania, llamado la "Caja de Skinner". Estos tipos experimentos fueron realizados en su mayoría con ratitas y pichones, los cuales se encontraban en el interior de una caja de simple fabricación, que tenia por dentro una palanca llamada "manipolandum", la cual podía ser bajada con una liguera presión, y que al ser accionada provocaría que el alimento contenido en un tazón al interior de esta cayera. En un principio el "animalito" , que ha sido privado de alimento durante unas horas, se desplazará de un lado a otro, apoyando su cuerpo en los costados de la caja, picoteando y rasguñando la pared transparente, etc. En algún momento, y solamente por "casualidad", la palanca será accionada por la patita o pico del animalito, provocando que el alimento caiga para en ese momento comer el alimento. Este proceso se repetirá varias veces voluntariamente, hasta que el animalito descubrirá que el hecho de accionar la palanca es retribuida con una recompensa, por lo cual esta acción se ira repitiendo con mayor frecuencia, dejando de lado a aquellas en la que no es recompensado. Así, el refuerzo (Alimento), es el que lleva a repetir al animalito esa conducta que en un momento era accidental. Lo anterior, es una muestra clara de cómo funciona el CONDICIONAMIENTO OPERANTE. IV. CONCEPTUALIZACIÓN DE LA TEORÍA A continuación abarcaremos todo lo que se relaciona a esta teoría del aprendizaje, con sus conceptos, procesos, programas etc. Como iremos viendo más adelante, la palabra "Refuerzo" es piedra angular en el planteamiento de Skinner, y este puede ser definido como el estimulo que al aumentar o desaparecer, aumenta la posibilidad de una respuesta. Entonces una serie de estas acciones refuerzan la conducta en un sentido positivo o negativo. Los refuerzos se pueden clasificar en Primarios (incondicionados), Secundarios (condicionados) y Generalizados: REFORZADORES PRIMARIOS:Son aquellos que no dependen de la historia del sujeto, sino de las características biológicas; son comunes a todos los sujetos de la especie y tienen un carácter altamente adaptativo, guardando relación directa con la supervivencia del sujeto y la especie.

REFORZADORES SECUNDARIOS: Al contrario que los Primarios, éstos no tienen relación directa con la supervivencia y dependen, más bien, de la historia individual del sujeto. REFORZADORES GENERALIZADOS: Son todos aquellos reforzadores que mientras más son presentados no reducen su efectividad, sino que, se mantiene. Son independientes de la intensidad o frecuencia que tienen y tienen una relación estrecha con la historia individual. Los dos tipos de refuerzos básicos en la teoría de skinner son: 

Refuerzo positivo Refuerzo negativo REFUERZO POSITIVO: Este tipo de refuerzo provoca que la presencia de ellos aumente la probabilidad de una conducta, es decir, que añadir un estimulo al entorno trae consigo que esa respuesta aumente o se repita en el futuro. Unos ejemplos de esto seria:

o o 

-Un alumno al finalizar su disertación de psicología, obtiene las felicitaciones del profesor y los aplausos objetivos de sus compañeros. Aquí las felicitaciones y aplausos son refuerzos positivos, ya al resultar gratificante para el alumno este refuerzo, su respuesta será estudiar con más dedicación aun, para el próximo trabajo. -Si María le dice a pedro que lo quiere mucho más después de haberle regalado chocolates, la consecuencia de la conducta de pedro, será tan gratificante para él, que su conducta se verá reforzada a que aumente o se repita en el futuro. El "Refuerzo positivo" incorpora una conducta nueva, aumenta una existente o elimina una conducta inapropiada incompatible. Según investigaciones realizadas, las aplicaciones de reforzamiento positivos, no podrán ser aplicadas en todas las situaciones, por lo que el reforzador a seleccionar, deberá tener una capacidad de refuerzo que se haya demostrado para el individuo concreto bajo condiciones específicas. Es importante aclarar que, la expresión "Positivo", no tiene una connotación ética, valórica o moral. 

REFUERZO NEGATIVO: Se llama refuerzos negativos al aumento de probabilidad de una conducta, como consecuencia de la omisión de un estimulo.

A diferencia del refuerzo positivo, aquí se omite o retira un estimulo que antecede a la respuesta o conducta, y como consecuencia aumenta dicha conducta. Es importante señalar que la omisión de la conducta, no basta para que se refuerce negativamente la conducta, sino que será fundamental que a través de la respuesta se elimine dicho estimulo de un entorno, es decir, la desaparición de la contingencia es consecuencia de la conducta. Ejemplos de reforzamiento negativo seria: -estudiar de manera responsable para pasar las asignaturas sin problemas y así eximirse de las pruebas de repetición. De manera clara se entiende que el refuerzo exime de la prueba, y la diferencia con el refuerzo positivo, es que aquí se esta eliminando (eximir de la prueba) algo del entorno.

-Una persona al presentar fuerte dolores de cabeza, toma algún analgésico que haga desaparecer esa molestia. Acá, el estimulo (dolor de cabeza) que antecede a la conducta, es eliminado tomando un analgésico. En resumen, el Refuerzo Negativo a través de la respuesta o conducta, elimina el estímulo aversivo que le antecede, por consiguiente se da un incremento a la conducta que causo la eliminación o desaparición de este estímulo. Hay ocasiones en que los Refuerzos Negativos son una vía interesante para motivar a personas a realizar cosas que le resultan difíciles como: -Aceptar un billete de dinero no hará que un joven se zambulla en agua fría, se pare sobre un par de patines, monte en motocicleta o se interne en una caverna, pero el ridículo ante sus amigos, lo que ellos pueden decirle a manera de insulto o evocando a la cobardía, puede ser lo suficientemente aversivo para que el sujeto desee eliminarlo y acepte el reto y termine realizando la conducta negada El Reforzador Negativo, tiene importancia en dos tipos de aprendizaje:   

Condicionamiento de Escape Condicionamiento de Evitación CONDICIONAMIENTO DE ESCAPE: Es cuando se aplica un castigo, pero este se termina cuando se produce una conducta, es decir, es cuando se aprende a dar una respuesta que elimina o hace desaparecer una situación que resulta desagradable. Ejemplo :

-Los niños aprenden con rapidez que al acercar sus manos hacia algún objeto caliente, como la estufa o cocina, las deben alejar rápidamente para evitar quemarse. 

CONDICIONAMIENTO DE EVITACIÓN: Es cuando, se eliminan o reducen estímulos que anteriormente han estado seguidos de estímulos aversivos. La diferencia con el condicionamiento de escape, es que aquí el organismo no recibe el estimulo aversivo, en cambio en el condicionamiento de escape el organismo termina o reduce el estímulo aversivo a través de la respuesta, que vera aumentada su frecuencia. Un ejemplo de condicionamiento de evitación seria:

-Un automovilista ya tiene experiencia de que si conduce a una velocidad de 150 k/h en una carretera permitida a 100k/h será detenido por carabineros y se le cursara la multa correspondiente, por lo cual, a través de su conducta evita ese estímulo aversivo. Otros procedimientos importantes dentro del control de la conducta son: el Castigo y la Extinción de los refuerzos. 

CASTIGO: Consiste en presentar un estimulo aversivo o retirar un reforzador inmediatamente después de una conducta, disminuyendo o eliminando la probabilidad de repetición de dicha conducta. Ejemplo :

-Prohibir a un niño a salir a recreo, debido a que no ha terminado sus ejercicios durante la clase por motivos de indisciplina. Aquí se ejemplifica correctamente lo que dice la definición, ya que se aplica un Castigo (estimulo aversivo) inmediatamente después de una conducta. -La policía detiene a una persona que se dedica a robar en tiendas comerciales, por lo cual, es Castigado a 5 años de cárcel.

Aquí se dan las condiciones para catalogar el ejemplo anterior como Castigo, pero existe la posibilidad que el individuo, según las condiciones del ambiente (sociedad, rehabilitación, necesidades,etc.) vuelva a reincidir en su conducta. 

EXTINCIÓN: Proceso mediante el cual una conducta deja de emitirse al descontinuar el reforzamiento que la mantenía. Una conducta o respuesta se acaba por que deja de recibir lo que la hace existir. Ejemplos:

-Un joven de un pequeñísimo poblado al cabo de un mes deja de recibir sus clases de guitarra debido al fallecimiento del único músico del pueblo. Acá el refuerzo que mantenía la conducta la conducta del joven se ha "terminado", por lo cual la conducta dejara de producirse. -En una clase se comprobó que la mala conducta aumentó cuando los maestros prestaron atención a ella y disminuyó por debajo del nivel usual cuando la pasaron por alto y prestaron su atención a los niños que no se estaban portando mal A pesar de que el efecto de disminución o desaparición de la conducta es igual en el procedimiento de Castigo como en el de Extinción, se diferencian en que en el primero no se rompe el proceso de contingencia, cosa que si sucede en el otro. Otros procedimientos importantes desde el punto de vista del control de las conductas son:  

La discriminación La generalización  o

LA DISCRIMINACIÓN: Proceso en el cual la frecuencia de una respuesta es más alta ante la presencia de un estimulo, que ante su ausencia. Es decir es el proceso en que la presencia de un Estimulo discriminatorio hace posible que una respuesta dada, sea reforzada, pero importante es señalar que para que esto ocurra, debe existir por lo menos un Estimulo delta, que es en cuya presencia no existe refuerzo y funciona para suprimir o inhibir la conducta. Así, si un Estimulo discriminatorio, logra reforzar la conducta, los demás estímulos serán Estímulos delta. Un ejemplo de el Procedimiento de discriminación es :

-En el metro se señalan a través de imágenes los asientos que son de preferencia para minusválidos, embarazadas o tercera edad. Aquí estas imágenes actúan como Estimulo discriminatorio, ya que discriminan una respuesta de ocupar un asiento destinado para otras personas. 

LA GENERALIZACIÓN: Proceso en el cual se refuerza una conducta, por medio de la mayor cantidad de estímulos posibles. Ejemplo :

-se ha enseñado a un niño a decir "buenos días" a su padre, para lograr que esa conducta se reproduzca con otros adultos, es decir, se generalice ante la mayor cantidad de estímulos denominados "adultos", basta con reforzar sistemáticamente la respuesta "buenos días", cada vez que se emita ante cualquier adulto. Ambos procedimientos se complementan entre si, dentro de toda discriminación hay una generalización y viceversa. V. FACTORES QUE INFLUYEN EN LA EFECTIVIDAD DEL REFORZAMIENTO

Para el control de una conducta, no basta con haber elegido el reforzador apropiado, sino que además se deberán tomar en consideración importantes factores como: Inmediatez, Cantidad de refuerzo, condiciones, probación y exposición, entre otros, que ayudaran a acrecentar la efectividad del refuerzo. 

INMEDIACIÓN DEL REFORZAMIENTO: Según lo dicho por el propio Skinner, un principio fundamental sobre el control de la conducta es que un refuerzo inmediato es más efectivo que el retrasado. Por ejemplo:

-Ante el recibo de un obsequio por parte de una amiga, resultaría mucho más efectivo reforzar esa conducta con un gracias de inmediato, que con retraso, ya que de lo contrario, el organismo tendría el tiempo para producir otra conducta, entre el lapso de la conducta original y el reforzamiento retardado, por lo que el reforzamiento seria en la conducta derivada de otra. 

CANTIDAD DE REFORZAMIENTO: La decisión sobre que tanto reforzamiento se debe suministrar depende de varios factores: el tipo de reforzador usado, las condiciones de privación y el esfuerzo necesario para dar la respuesta. Se debe tener en cuenta los conceptos de:  o o

Privación Saciedad o 

Privación: Es cuando se retiene el reforzador por un espacio de tiempo o reduce su acceso, a favor de de la efectividad del refuerzo. Por ejemplo:

-Cuando un animal es privado de su alimento por un tiempo, cuando este se le vuelve a mostrar, este refuerzo será más efectivo. 

Saciedad: Aquí es cuando el reforzador pierde su valor como tal, ya que la cantidad inapropiada del refuerzo termina por saciar al organismo. La supresión de la conducta, es por causa del reforzador que la mantiene. Ejemplo :

-Si se le recrimina reiteradas veces a un alumno cuando fuma cigarrillos, este terminara por saciarse y acabará cambiando alguna conducta de obediencia que haya tenido. Así una buena opción es proporcionarle tantos cigarrillos para que fume, que luego termine mareado y con náuseas y por no querer saber nada a cerca de los mismos. 



CONDICIONES DE SITUACIÓN: Cuando el reforzamiento se suministra de inmediato, los individuos pueden identificar con mayor facilidad las conductas que conducen al reforzamiento y las que no. Otro factor que puede facilitar la discriminación es la especificación clara de las condiciones ambientales, o estímulos, bajo las cuales se suministrará el reforzamiento. PROGRAMACIÓN: Esto es la regla que sigue el medio ambiente, para determinar cual de las numerosas respuestas, será reforzada.

Existen varios programas reforzadores, los cuales pueden ser ajustados a procedimientos diseñados a moldear, incrementar, reducir o mantener una conducta.





PROBACIÓN: Es utilizado generalmente, cuando este refuerzo no esta familiarizado con el sujeto al cual se le aplica, es decir, si algún cuerpo no se ha enfrentado a una determinada situación, el refuerzo que podría ser aplicado resultaría desconocido. EXPOSICIÓN: Esto significa que cuando un organismo, no puede recibir directamente un refuerzo, como en el caso de la probación, Entonces, se procede a exponerlo a las condiciones más parecidas que se pueda a aquellas en las cuales se utiliza el reforzamiento. Incluso si es necesario ocupar a otra persona a la cual se le ha aplicado el refuerzo. VI. PROGRAMAS DE REFORZAMIENTO

Los programas de reforzamiento son "reglas", que determinan cuando seguirá la entrega o presentación contingente de un reforzador a la presentación de una respuesta o conducta. Existen diferentes tipos de programas de reforzamiento, de los cuales, definiremos los más significativos. 

PROGRAMA DE REFORZAMIENTO CONTINUO: Se llama a este tipo de programa, cuando el refuerzo es manifestado en cada momento de ser producida una respuesta. Ejemplo:

-Cuando en una clase, un alumno levanta la mano para dar su opinión, el profesor pronuncia su nombre dándole la palabra. 

PROGRAMA DE REFORZAMIENTO PARCIAL O INTERMITENTE: Este reforzamiento se da cuando son reforzadas solo algunas de las conductas emitidas por el organismo, no todas. En la vida cotidiana, en el colegio, universidad, etc., se dan estos tipos de programas. Ejemplo:

-Cuando llamamos a una persona por teléfono, y esa persona no se encuentra, la conducta no ha sido reforzada; no queriendo decir con ello que no ocurra la próxima vez. Según los experimentos realizados por Skinner, los programas de reforzamiento parcial, son bastante estables y mantienen la conducta por periodos más largos que los programas de reforzamiento continuo. Los programas de reforzamiento parcial o intermitente, pueden programarse teniendo en cuenta el número de respuestas o también el tiempo que transcurre. Por lo tanto hay que tomar en consideración: -Programa de razón -Programa de intervalo 

PROGRAMA DE RAZÓN: Estos programas consideran el número de respuestas antes de presentar un reforzador, es decir, el reforzador depende de la conducta del organismo en base al número de respuestas de este.

Este programa se subdivide en dos: Razón fija: Que es cuando el reforzamiento se da cada vez que el sujeto cumple con un determinado numero de repuestas que se ha establecido de antemano. Ejemplo : -Si se le dice a un vendedor, que por cada diez helados que venda, uno será para el, la razón fija será 10.

Razón variable: los reforzamientos ocurren después de una cantidad variable de respuestas, no después de un número fijos. Esta cantidad difieren de reforzamiento en reforzamiento. Ejemplo : -Si al mismo vendedor se le dice ahora, en base a un establecimiento previo de la cantidad variable, que se le dará el reforzamiento (dar el helado) cuando venda el primer helado, el segundo reforzamiento le será dado cuando venda el tercer helado, el tercero cuando venda el cuarto y el cuarto cuando venda ocho. Así el valor de la razón variable se designa por el promedio de estas, (1-3-4-8) cuya suma seria 16 en este caso, siendo el promedio cuatro 

PROGRAMA DE INTERVALO: son aquellos que toman la cantidad de tiempo transcurrido antes de proporcionar el reforzador.

Los programas de intervalo se definen en función del tiempo, pero se refuerzan en base a la primera respuesta que se obtiene luego de transcurrido el tiempo previsto; es decir, el reforzamiento, cualquiera que sea el programa seguido (de razón o de intervalo) siempre debe ser consecuencia de una respuesta. Existen dos tipos de programas de intervalo: Intervalo fijo: que son aquellos en donde se establece un intervalo, donde al término de este, se refuerza la primera respuesta que se emita. Intervalo variable: es cuando se establece un determinado intervalo variable, por ejemplo 24-7; y en donde se refuerza la primera conducta transcurrido el tiempo. Ejemplo : -Si el intervalo es 2-4-7 se reforzara la primera conducta transcurridos los dos primeros minutos, luego se refuerza la primera conducta pasados cuatro minutos y finalmente se reforzará la primera conducta pasados siete minutos. El promedio de estos será el valor del intervalo variable Otros programas de reforzamiento: PROGRAMA DE REFORZAMIENTO MULTIPLE: Consiste de dos o más programas independientes, los cuales se presentan al organismo en forma sucesiva, cada uno de ellos en presencia de un estímulo característico. Los programas múltiples son programas combinados, en los que se agrega un estímulo discriminativo característico. PROGRAMA CONCURRENTE: Están formados, también, por dos o más programas. A diferencia del múltiple, los programas no son sucesivos, sino simultáneos; es decir, que el sujeto puede emitir dos respuestas distintas que se refuerzan simultáneamente por programas independientes, pero paralelos en el tiempo. Los reforzamientos previstos en cada programa son independientes entre sí. Este tipo de programa se utiliza cuando se desea reforzar más de una respuesta a la vez, como ocurre en los programas de conducta social. PROGRAMA DE CONJUGADO O PROPORCIONAL: En estos programas, se establece una proporción entre cierta medida de la conducta e cierta medida del reforzamiento. Por lo general, estas medidas están dadas por la frecuencia del reforzamiento, pero también pueden seguir propiedades tales como la magnitud de la respuesta y la magnitud del reforzamiento. En este programa, cuanto más responde el sujeto, más reforzamiento recibe, hay una proporción directa entre conducta y reforzamiento. La relación también puede ser inversa; dependiendo de los propósitos del programa. Es adecuado permitir al sujeto establecer el criterio de reforzamiento a través de la propia emisión de su conducta. Por ejemplo: si un niño realiza dos ejercicios de matemáticas, recibe un caramelo; si realiza cuatro, recibe dos caramelos, etc.

VII. CUESTIONAMIENTOS A LA TEORÍA DE SKINNER Entre las críticas que se hacen a la teoría de skinner, están aquellas que la acusan de hacer una comparación abusiva, al tratar de explicar los procesos de la vida real en experimentos de laboratorio con animalitos. Uno de sus principales detractores en relación a esto es Chomsky, ante lo cual Skinner responde que estos ataques no eran más que una manifestación del "mentalismo" característico de los estructuralistas, los cuales quieren explicar la conducta humana sin prestar atención a las circunstancias dentro de las cuales tiene lugar dicha conducta. Otros psicólogos y personas del mundo de las ciencias, dicen que se pueden aceptar los resultados de sus experimentos, sin necesidad de generalizar. Un aspecto fuertemente criticado a los experimentadores de la conducta es el reducido número de sujetos que utilizan en las experiencias. Para los críticos (generalmente ajenos al que hacer experimental), parece inconcebible, e incluso inexplicable, la tendencia conductista a la utilización del caso único, un lugar de emplear grandes muestras representativas con el fin de poder justificar "quizás" convenientemente el generalizar los resultados, ante lo cual Skinner responde que estas no son generalizaciones indebidas, sino que son resultados de estudios científicos comprobados. Incluso algunas críticas tratan de dejar en ridículo a nuestro psicólogo en cuestión, como fue la realizada por el sociólogo Andreski: "en contraste a tal pretensión (hacer ciencia) la más grande realización de Skinner, en el dominio de la tecnología de la conducta ha sido la de amaestrar a dos palomas para que lancen una pelota de ping- pong hacia adelante y hacia atrás. Este logro exige, probablemente, mucha perseverancia e imaginación, pero justifica apenas su pretensión de ser tomado en serio como experto de la civilización y la política. El inventor de la célebre caja de Skinner merece sin duda ser reconocido como amaestrador de animales, aunque no sea evidente a simple vista que valla más allá de logros de los amaestradores del circo". En definitiva, se le critica que tiende a destruir la noción de la naturaleza humana, reduciéndola a un conjunto de mecanismos que no hacen sino asemejarla a una maquina o los animales. Consideran, además, que las actividades propias del ser humano es decir, justamente aquellas que lo diferencian de lo animal (virtud, creatividad, altruismo, imaginación, amor, etc.) son simples relaciones entre estímulos y respuestas, sin valor intrínseco alguno. VIII. DIFERENCIAS Y SIMILITUDES ENTRE LA TEORÍA DE LOS REFUERZOS Y EL CONDICIONAMIENTO CLÁSICO La principal diferencia se hace sobre las bases de operación. El condicionamiento clásico es una forma de aprendizaje estímulo- estímulo-preparación de respuestas, en cambio que el condicionamiento operante (teoría de los refuerzos) el aprendizaje es un estimulo-respuesta-se fija la respuesta. Una diferencia relevante es que en el condicionamiento clásico la respuesta condicionada o incondicionada será siempre la misma, a diferencia del operante, en donde las respuestas suelen ser distintas. También en el condicionamiento clásico se videncia una ley de continuidad, mientras que en el otro se implica además una ley de efecto, es decir, la concreción de una respuesta. Por otro lado, también encontramos similitudes entre estos dos tipos de condicionamientos. Uno de estas similitudes seria que según los estudios realizados hasta ahora, tanto en el

condicionamiento operante como en el clásico una respuesta que se ha extinguido, recupera su fuerza con el descanso. También en ambos tipos de condicionamiento se presenta una característica de discriminación de los estímulos, tanto si el sujeto es reforzado para que responda a un estímulo, como si se le condiciona para que produzca una respuesta condicionada. En síntesis el condicionamiento de clásico de Watson da importancia al estimulo y el condicionamiento operante de skinner da importancia a la respuesta que hay que reforzar. IX. APORTES DE LA TEORÍA DE LOS REFUERZOS A LA EDUCACIÓN Skinner al poner de manifiesto a través de su condicionamiento operante que la conducta humana es manipulable, logro que su teoría fuera introducida en la educación para el proceso enseñanza-aprendizaje. Los educadores tienen una marcada influencia de la teoría conductista operante, ya que para ellos el comportamiento de los estudiantes es una respuesta a su ambiente pasado y presente, en la cual todo ese comportamiento es aprendido. Por lo tanto cualquier problema de conducta es el reflejo de los refuerzos que dicho comportamiento ha tenido. Como la teoría de los refuerzos tiene que ver con el control de las conductas, los maestros deben proveer a los educandos un ambiente adecuado para el refuerzo de las conductas deseadas. Por consiguiente las conductas no deseadas que el alumno tenga en el aula, pueden ser modificadas utilizando los principios básicos del control de estas explicados anteriormente en el presente trabajo. Las posiciones más comunes adoptadas por los profesores en los establecimientos, son las siguientes:   

Todo estudiante necesita ser calificado con notas, estrellitas, y otros incentivos como motivación para aprender y cumplir con los requisitos escolares. Cada estudiante debe ser calificado en base a los estándares de aprendizaje, que la profesora traza para todos los estudiantes por igual. El currículo debe estar organizado por materias de una manera cuidadosamente y en secuencia y detallado.

Algunas técnicas para cambiar las conductas no deseadas del alumno en el establecimiento serian:   

 

Refuerzo de las conductas deseadas, que de esta manera competirá con la conducta no deseada hasta reemplazarla por completo. Debilitar las conductas no deseadas eliminando los refuerzos de estas. La técnica de la "saturación" que implica envolver a un individuo en la misma conducta no deseada, de manera repetitiva hasta que el individuo se sienta hastiado del comportamiento. Cambiando la condición del estímulo que produce la conducta no deseada, influenciando al individuo a tomar otra respuesta a dicho estimulo. Usando castigos para debilitar a conducta no deseada.

Una de los más importantes aportes a la educación es cuando se aplica un aprendizaje programado. En donde la materia a impartir, se separa en partes simples y se empieza por

ejemplo; preguntando cosas en que el alumno tiene conocimiento, ante cuya respuesta (conducta) se le refuerza con felicitaciones o puntaje para el examen final. Así de a poco y ante la conducta del alumno por esforzarse y estudiar mejor, se van introduciendo preguntas con un mayor grado de dificultad, reforzando las correctas. X. CONCLUSIONES A continuación se expondrán las conclusiones de cada uno de los integrantes del presente trabajo. 

Catherine Zavalla:

La conducta humana, esta guiada y dirigida por refuerzos, los cuales son de carácter motivador para dirigir una conducta. Son fundamentales en el aprendizaje sabiendo utilizarlos, para lograr una respuesta esperada hacia los alumnos. Así, se comprueba que el comportamiento es de carácter manipulable, ya sea por la familia, iglesia, etc. Como estudiante de pedagogía y futura profesora, es indispensable manejar este tema, como estrategia para el mejor logro de la educación, no solamente hablando de materia, sino también reforzar en los educandos sus valores, metas, intereses; ayudando también a tener una buena relación. Es un tema cotidiano que influye directamente en nuestra forma de comportarnos, así nos dejan experiencias en nuestras relaciones, para en otra ocasión aprender de ellos. 

Malka Sepúlveda naranjo:

La teoría de los refuerzos es una conducta aprendida, ya que para que exista el aprendizaje según esta teoría, se debe reforzar la conducta ya sea por un estímulo positivo o también un estímulo negativo. Así se logra aumentar la probabilidad que se repita un comportamiento de aprendizaje en su entorno. 

Gustavo Flores:

Después de haber analizado y leído el tema, puedo llegar a la conclusión que el organismo siempre esta en movimiento o en proceso de operar. Se encuentra con un determinado tipo de estímulo, llamado estimulo reforzador. La teoría de Skinner acerca de los refuerzos, explica que cuando una respuesta otorga satisfacción o placer al ejecutante, esta tiene más posibilidades de ser repetidas, como lo demuestra el ratón encerrado en la caja. Skinner como buen conductista manifiesta su interés grandísimo por el estudio de los procesos de aprendizaje, aunque sus ideas han provocado muchas polémicas, sobre todo cuando atacan sus obras que se refieren a los estímulos y los refuerzos. 

Germán Passi Alfaro:

A pesar de la validez en las críticas que se le realizan al conductismo operante, como el reduccionismo y simplismo, ha sido innegable el aporte que ha tenido este, a la vida del

hombre. Ayudándole en todo tipo áreas. El saber controlar bien una conducta a través de los refuerzos ayudara a las personas a vivir en un mundo más placentero, ya que se podrán por ejemplo eliminar o reducir todas esas conductas aceptadas socialmente como inadecuadas. Sin embargo, creo que para que lo anterior sea efectivo, tenemos que tener un total conocimiento de esta teoría, de manera que podamos conocer el real alcance que tienen los estímulos reforzadores en el control de la conducta, conociendo su potencial. Como decía Skinner, toda la vida esta plagada de refuerzos, sin embargo el común de la gente, ante el desconocimiento de ellos los pasa por alto, con la imposibilidad de aplicarlos o aplicarlos de la forma más conveniente. Es por eso, que los profesores quienes son uno de los pilares fundamentales en el proceso de enseñanza - aprendizaje que hacen suyo los alumnos, deben tener un conocimiento cabal de la teoría operante, para poder controlar la infinidad de conductas que operan en los alumnos, en post de una sociedad mejor.

Biografía Burrhus Frederic Skinner nació el 20 de marzo de 1904 en la pequeña ciudad de Susquehanna en Pensilvania. Su padre era abogado y su madre una inteligente y fuerte ama de casa. Su crianza fue al viejo estilo y de trabajo duro. Burrhus era un chico activo y extravertido que le encantaba jugar fuera de casa y construir cosas y de hecho, le gustaba la escuela. Sin embargo, su vida no estuvo exenta de tragedias. En particular, su hermano murió a los 16 años de un aneurisma cerebral. Burrhus recibió su graduado en Inglés del Colegio Hamilton en el norte de Nueva York. No encajó muy bien sus años de estudio y ni siquiera participó de las fiestas de las fraternidades de los juegos de fútbol. Escribió para el periódico de la universidad, incluyendo artículos críticos sobre la misma, la facultad e incluso contra ¡Phi Beta Kappa!. Para rematar todo, era un ateo (en una universidad que exigía asistir diariamente a la capilla). Al final, se resignó a escribir artículos sobre problemas laborales y vivió por un tiempo en Greenwich Village en la ciudad de Nueva York como “bohemio”. Después de algunos viajes, decidió volver a la universidad; esta vez a Harvard. Consiguió su licenciatura en psicología en 1930 y su doctorado en 1931; y se quedó allí para hacer investigación hasta 1936. También en este año, se mudó a Mineápolis para enseñar en la Universidad de Minesota. Allí conoció y más tarde se casó con Ivonne Blue. Tuvieron dos hijas, de las cuales la segunda se volvió famosa como la primera infante que se crió en uno de los inventos de Skinner: la cuna de aire. Aunque no era más que una combinación de cuna y corral rodeada de cristales y aire acondicionado, parecía más como mantener a un bebé en un acuario. En 1945 adquirió la posición de jefe del departamento de psicología en la Universidad de Indiana. En 1948 fue invitado a volver a Harvard, donde se quedó por el resto de su vida. Era un hombre muy activo, investigando constantemente y guiando a cientos de candidatos doctorales, así como escribiendo muchos libros. Aunque no era un escritor de ficción y poesía exitoso, llegó a ser uno de nuestros mejores escritores sobre psicología, incluyendo el libro Walden II, un compendio de ficción sobre una comunidad dirigido por sus principios conductuales. Nos referiremos a partir de aquí al término conductual, por ser más apropiado dentro del campo de la psicología.N.T. El 18 de agosto de 1990, Skinner muere de leucemia, después de convertirse probablemente en el psicólogo más famoso desde Sigmund Freud.

Teoría

El sistema de Skinner al completo está basado en el condicionamiento operante. El organismo está en proceso de “operar” sobre el ambiente, lo que en términos populares significa que está irrumpiendo constantemente; haciendo lo que hace. Durante esta “operatividad”, el organismo se encuentra con un determinado tipo de estímulos, llamado estímulo reforzador, o simplemente reforzador. Este estímulo especial tiene el efecto de incrementar el operante (esto es; el comportamiento que ocurre inmediatamente después del reforzador). Esto es el condicionamiento operante: el comportamiento es seguido de una consecuencia, y la naturaleza de la consecuencia modifica la tendencia del organismo a repetir el comportamiento en el futuro.” Imagínese a una rata en una caja. Esta es una caja especial (llamada, de hecho, “la caja de Skinner”) que tiene un pedal o barra en una pared que cuando se presiona, pone en marcha un mecanismo que libera una bolita de comida. La rata corre alrededor de la caja, haciendo lo que las ratas hacen, cuando “sin querer” pisa la barra y ¡presto!, la bolita de comida cae en la caja. Lo operante es el comportamiento inmediatamente precedente al reforzador (la bolita de comida). Prácticamente de inmediato, la rata se retira del pedal con sus bolitas de comida a una esquina de la caja. Un comportamiento seguido de un estímulo reforzador provoca una probabilidad incrementada de ese comportamiento en el futuro. ¿Qué ocurre si no le volvemos a dar más bolitas a la rata? Aparentemente no es tonta y después de varios intentos infructuosos, se abstendrá de pisar el pedal. A esto se le llama extinción del condicionamiento operante. Un comportamiento que ya no esté seguido de un estímulo reforzador provoca una probabilidad decreciente de que ese comportamiento no vuelva a ocurrir en el futuro. Ahora, si volvemos a poner en marcha la máquina de manera que el presionar la barra, la rata consiga el alimento de nuevo, el comportamiento de pisar el pedal surgirá de nuevo, mucho más rápidamente que al principio del experimento, cuando la rata tuvo que aprender el mismo por primera vez. Esto es porque la vuelta del reforzador toma lugar en un contexto histórico, retroactivándose hasta la primera vez que la rata fue reforzada al pisar el pedal. Esquemas de refuerzo A Skinner le gusta decir que llegó a sus diversos descubrimientos de forma accidental (operativamente). Por ejemplo, menciona que estaba “bajo de provisiones” de bolitas de comida, de manera que él mismo tuvo que hacerlas; una tarea tediosa y lenta. De manera que tuvo que reducir el número de refuerzos que le daba a sus ratas para cualquiera que fuera el comportamiento que estaba intentando condicionar. Así que, las ratas mantuvieron un comportamiento constante e invariable, ni más ni menos entre otras cosas, debido a estas circunstancias. Así fue como Skinner descubrió los esquemas de refuerzo. El refuerzo continuo es el escenario original: cada vez que la rata comete el comportamiento (como pisar el pedal), consigue una bolita de comida.

El programa de frecuencia fija fue el primero que descubrió Skinner: si, digamos, la rata pisa tres veces el pedal, consigue comida. O cinco. O veinte. O “x” veces. Existe una frecuencia fija entre los comportamientos y los refuerzos: 3 a 1; 5 a 1; 20 a 1, etc. Es como una “tasa por pieza” en la producción industrial de ropa: cobras más mientras más camisetas hagas. El programa de intervalo fijo utiliza un artilugio para medir el tiempo. Si la rata presiona el pedal por lo menos una vez en un período de tiempo particular (por ejemplo 20 segundos), entonces consigue una bolita de comida. Si falla en llevar a cabo esta acción, no consigue la bolita. Pero, ¡aunque pise 100 veces el pedal dentro de ese margen de tiempo, no conseguirá más de una bolita!. En el experimento pasa una cosa curiosa si la rata tiende a llevar el “paso”: bajan la frecuencia de su comportamiento justo antes del refuerzo y aceleran la frecuencia cuando el tiempo está a punto de terminar. Skinner también habló de los programas variables. Una frecuencia variable significa que podemos cambiar la “x” cada vez; primero presiona tres veces para conseguir una bolita, luego 10, luego 1, luego 7 y así sucesivamente. El intervalo variable significa que mantenemos cambiante ese período; primero 20 segundos, luego 5; luego 35 y así sucesivamente. Siguiendo con el programa de intervalos variables, Skinner también observó en ambos casos que las ratas no mantenían más la frecuencia, ya que no podían establecer el “ritmo” por mucho tiempo más entre el comportamiento y la recompensa. Más interesantemente, estos programas eran muy resistentes a la extinción. Si nos detenemos a pensarlo, verdaderamente tiene sentido. Si no hemos recibido una recompensa por un tiempo, bueno, es muy probable que estemos en un intervalo o tasa “errónea”…¡sólo una vez más sobre el pedal; Quizás ésta sea la definitiva!. De acuerdo con Skinner, este es el mecanismo del juego. Quizás no ganemos con demasiada frecuencia, pero nunca sabemos cuando ganaremos otra vez. Puede que sea la inmediatamente siguiente, y si no lanzamos los dados o jugamos otra mano o apostamos a ese número concreto, ¡perderemos el premio del siglo!. Modelado Una cuestión que Skinner tuvo que manejar es la manera en que llegamos a fuentes más complejas de comportamientos. Respondió a esto con la idea del modelado, o “el método de aproximaciones sucesivas”. Básicamente, consiste en primer lugar en reforzar un comportamiento solo vagamente similar al deseado. Una vez que está establecido, buscamos otras variaciones que aparecen como muy cercanas a lo que queremos y así sucesivamente hasta lograr que el animal muestre un comportamiento que nunca se habría dado en la vida ordinaria. Skinner y sus estudiantes han tenido bastante éxito en enseñar a animales a hacer algunas cosas extraordinarias. Mi favorita es aquella de ¡enseñar a las palomas a tirar los bolos!. Una vez utilicé el modelado en una de mis hijas. Tenía tres o cuatro años y tenía miedo de tirarse por un tobogán en particular. De manera que la cargué, la puse en el extremo inferior

del tobogán y le pregunté si podía saltar al suelo. Por supuesto lo hizo y me mostré muy orgulloso. Luego la cargué de nuevo y la situé un pie más arriba; le pregunté si estaba bien y le dije que se impulsara y se dejara caer y luego saltara. Hasta aquí todo bien. Repetí este acto una y otra vez, cada vez más alto en el tobogán, no sin cierto miedo cuando me apartaba de ella. Eventualmente, pudo tirarse desde la parte más alta y saltar al final. Desdichadamente, todavía no podía subir por las escaleritas hasta arriba, de manera que fui un padre muy ocupado durante un tiempo. Este es el mismo método que se utiliza en la terapia llamada desensibilización sistemática, inventada por otro conductista llamado Joseph Wolpe. Una persona con una fobia (por ejemplo a las arañas) se le pedirá que se sitúe en 10 escenarios con arañas y diferentes grados de pánico. El primero será un escenario muy suave (como ver a una araña pequeña a lo lejos a través de una ventana). El segundo será un poquito más amenazador y así sucesivamente hasta que el número 10 presentará algo extremadamente terrorífico (por ejemplo, ¡una tarántula corriéndote por la cara mientras conduces tu coche a mil kilómetros por hora!. El terapeuta luego le enseñará cómo relajar sus músculos, lo cual es incompatible con la ansiedad). Después de practicar esto por unos pocos días, vuelves al terapeuta y ambos viajan a través de los escenarios uno a uno, asegurándose de que estás relajado, volviendo atrás si es necesario, hasta que finalmente puedas imaginar la tarántula sin sentir tensión. Esta es una técnica especialmente cercana a mí, ya que de hecho tuve fobia a las arañas y pude liberarme de ella con desensibilización sistemática. La trabajé tan bien que después de una sola sesión (tras el escenario original y un entrenamiento de relajación muscular) pude salir al exterior de casa y coger una de esas arañitas de patas largas.¡Genial!. Más allá de estos sencillos ejemplos, el modelado también se ocupa de comportamientos más complejos. Por ejemplo, uno no se vuelve un cirujano cerebral por solo adentrarse en un quirófano, cortar la cabeza de alguien, extirpar exitosamente un tumor y ser remunerado con una buena cantidad de dinero. Más bien, estás moldeado sensiblemente por tu ambiente para disfrutar ciertas cosas; ir bien en la escuela; tomar algunas clases de biología; quizás ver alguna película de médicos; hacer una visita al hospital; entrar en la escuela de medicina; ser animado por alguien para que escojas la neurocirugía como especialidad y demás. Esto es además algo que tus padres cuidadosamente harán, como la rata en la caja, pero mejor, en tanto esto es menos intencionado. Estímulo adverso (aversivo) en psicología iberoamericana se ha traducido el término como aversivo, N.T. Un estímulo adverso es lo opuesto al estímulo reforzador; algo que notamos como displacen tero o doloroso. Un comportamiento seguido de un estímulo adverso resulta en una probabilidad decreciente de la ocurrencia de ese comportamiento en el futuro.

Esta definición describe además del estímulo adverso, una forma de condicionamiento conocida como castigo. Si le pegamos a la rata por hacer x, hará menos veces x. Si le doy un cachete a José por tirar sus juguetes, los tirará cada vez menos (quizás). Por otro lado, si removemos un estímulo adverso establecido antes de que la rata o José haga un determinado comportamiento, estamos haciendo un refuerzo negativo. Si cortamos la electricidad mientras la rata se mantiene en pie sobre sus patas traseras, durará más tiempo de pie. Si dejas de ser pesado para que saque la basura, es más probable que saque la basura (quizás). Podríamos decir que “sienta tan bien” cuando el estímulo adverso cesa, que ¡esto sirve como refuerzo!. Un comportamiento seguido del cese del estímulo adverso resulta en una probabilidad incrementada de que ese comportamiento ocurra en el futuro. Nótese lo difícil que puede llegar a ser diferenciar algunas formas de refuerzos negativos de los positivos. Si te hago pasar hambre y te doy comida cuando haces lo que yo quiero, ¿es esta actuación positiva; es decir un refuerzo?; ¿o es la detención de lo negativo; es decir del estímulo adverso de ansia?. Skinner (contrariamente a algunos estereotipos que han surgido en torno a los conductistas) no “aprueba” el uso del estímulo adverso; no por una cuestión ética, sino porque ¡no funciona bien!. ¿recuerdan cuando antes dije que José quizás dejaría de tirar los juguetes y que quizás yo llegaría a tirar la basura?. Es porque aquello que ha mantenido los malos comportamientos no ha sido removido, como sería el caso de que hubiese sido definitivamente removido. Este refuerzo escondido ha sido solamente “cubierto” por un estímulo adverso conflictivo. Por tanto, seguramente, el niño (o yo) nos comportaríamos bien; pero aún sentaría bien tirar los juguetes. Lo único que tiene que hacer José es esperar a que estés fuera de la habitación o buscar alguna forma de echarle la culpa a su hermano, o de alguna manera escapar a las consecuencias, y de vuelta a su comportamiento anterior. De hecho, dado que ahora José solo disfruta de su comportamiento anterior en contadas ocasiones, se involucra en un esquema (programa) variable de refuerzo y será ¡aún más resistente a extinguir dicho comportamiento!. Modificación de conducta La modificación de conducta (usualmente conocida en inglés como mod-b) es la técnica terapéutica basada en el trabajo de Skinner. Es muy directa: extinguir un comportamiento indeseable (a partir de remover el refuerzo) y sustituirlo por un comportamiento deseable por un refuerzo. Ha sido utilizada en toda clase de problemas psicológicos (adicciones, neurosis, timidez, autismo e incluso esquizofrenia) y es particularmente útil en niños. Hay ejemplos de psicóticos crónicos que no se han comunicado con otros durante años y han sido condicionados a comportarse de manera bastante normal, como comer con tenedor y cuchillo, vestirse por sí mismos, responsabilizarse de su propia higiene personal y demás. Hay una variante de mod-b llamada economía simbólica, la cual es utilizada con gran frecuencia en instituciones como hospitales psiquiátricos, hogares juveniles y prisiones. En éstas se hacen explícitas ciertas reglas que hay que respetar; si lo son, los sujetos son

premiados con fichas o monedas especiales que son cambiables por tardes libres fuera de la institución, películas, caramelos, cigarrillos y demás. Si el comportamiento empobrece, se retiran estas fichas. Esta técnica ha demostrado ser especialmente útil para mantener el orden en estas difíciles instituciones. Un inconveniente de la economía simbólica es el siguiente: cuando un “interno” de alguna de estas instituciones abandona el centro, vuelven a un entorno que refuerza el comportamiento que inicialmente le llevó a entrar en el mismo. La familia del psicótico suele ser bastante disfuncional. El delincuente juvenil vuelve directamente a la “boca del lobo”. Nadie les da fichas por comportarse bien. Los únicos refuerzos podrían estar dirigidos a mantener la atención sobre los “acting-out” o alguna gloria de la pandilla al robar en un supermercado. En otras palabras, ¡el ambiente no encaja muy bien!. Walden II Skinner empezó su carrera como filólogo inglés, escribiendo poemas y relatos cortos. Por supuesto, también ha escrito numerosos artículos y libros sobre conductismo. Pero quizás sea más recordado por la población general por su libro Walden II, donde describe una comuna casi utópica operando bajo sus principios. Algunas personas, especialmente los derechistas religiosos, atacan al libro diciendo que sus ideas alejan nuestra libertad y nuestra dignidad como seres humanos. Skinner respondió a la ola de críticas con otro libro (uno de sus mejores) llamado Beyond Freedom and Dignity (Más Allá de la Libertad y la Dignidad). Aquí pregunta: ¿Qué queremos decir cuando decimos que queremos ser libres?. Con frecuencia queremos decir que no queremos estar en una sociedad que nos castigue por hacer lo que queremos hacer. Bien los estímulos adversos no funcionan muy bien, por tanto, ¡tirémoslos! - , entonces solo usaremos refuerzos para “controlar” la sociedad. Y si escogemos los refuerzos correctos, nos sentiremos libres, ya que ¡haremos lo que creamos que debemos hacer!. Lo mismo para la dignidad. Cuando decimos “murió con dignidad”, ¿qué queremos decir?. Que mantuvo sus “buenos comportamientos” sin aparentes motivos ulteriores. De hecho, mantuvo su dignidad dado que su historial de refuerzos le condujo a considerar el comportarse de esa manera “digna” como algo más reforzante que montar una escena. El malo hace lo malo porque lo malo es compensado. El bueno hace lo bueno porque su bondad es recompensada. No existe una verdadera libertad o dignidad. Actualmente, nuestros refuerzos para los comportamientos malos y buenos son caóticos y están fuera de nuestro control; es una cuestión de tener mala o buena suerte en nuestra “elección” de padres, profesores, parejas y otras influencias. Mejor tomemos control, como sociedad, y diseñemos nuestra cultura de tal forma que lo bueno sea recompensado y lo malo se extinga. Con la correcta tecnología conductual, podemos diseñar la cultura. Tanto la libertad como la dignidad son ejemplos de lo que Skinner llama constructos mentalistas (inobservables y por tanto inútiles para la psicología científica). Otros ejemplos lo constituyen los mecanismos de defensa, estrategias adaptativas, autoactualización, el inconsciente, la conciencia e incluso cosas como la rabia y la sed. El

ejemplo más importante es aquello a lo que llama homúnculo (latín para “pequeño hombre”) que supuestamente reside en todos nosotros y es usado para explicar nuestro comportamiento e ideas como alma, mente, yo, juicio, self y, por supuesto, personalidad. En vez de los anterior, Skinner recomienda que los psicólogos se concentren en lo observable; esto es el medio ambiente y nuestro comportamiento en él.