Swenson - TEORIAS DEL APRENDIZAJE

TEORIAS DEL APRENDIZAJE -SwensonCAPITULO 1: PRINCIPIOS FUNDAMENTALES Y ANTECEDENTES DEL CONDICIONAMIENTO PAVLOVIANO. Ent

Views 126 Downloads 1 File size 137KB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

TEORIAS DEL APRENDIZAJE -SwensonCAPITULO 1: PRINCIPIOS FUNDAMENTALES Y ANTECEDENTES DEL CONDICIONAMIENTO PAVLOVIANO. Entre la psicología Rusa y la psicología que se elaboró en EEUU hay muchas similitudes. Ambas ponen de relieve los factores ambientales de la conducta antes que los genéticos (innatos), y probablemente ambas lo hayan hecho así en virtud de similares creencias sociopolíticas acerca de la perfectibilidad del hombre. Pavlov (1849-1936) Se considera que la actividad mental humana representa una reacción a estímulos ambientales en el mismo sentido en que el reflejo rotuliano es una reacción ante el estiramiento de un tendón, o en que el ladrido del perro puede ser un reflejo desencadenado por la intrusión de un extraño. Así, Pavlov vio toda la conducta como reflexiva y supuso que las mismas leyes básicas gobernaban tanto la conducta humana como la animal. Condicionamiento clásico. El primer tipo de aprendizaje sometido a intensa investigación científica fue el que hoy llamamos clásico, respondiente o pavloviano. El experimento pavloviano prototípico es el siguiente: sobre una plataforma hay un perro, se le pone carne en polvo en la boca y el animal saliva. Esta salivación es un reflejo hereditario. Después se hace sonar una campana inmediatamente antes de poner la carne en polvo en la boda del perro. Este procedimiento se repite varias veces. Entonces se hace sonar la campana sin dársele al perro la carne en polvo. El perro vuelve a salivar. Esta salivación ante el sonido de la campana es lo que Pavlov llamó primero “secreciones psíquicas”. Se dice, entonces, que el perro ha sido condicionado para que salive al sonar la campana. Ese condicionamiento se opera como consecuencia de una estrecha asociación entre dos señales: una que puede ser tanto innata, y deber a esto su efectividad, como haber sido aprendida antes, y otra que es nueva. La primera señal se llama estimulo incondicionado (EI), y la nueva, estimulo condicionado (EC). Antes de que se haya producido cualquier condicionamiento, el animal responde al EI con un reflejo apropiado. Tal es la causa por la cual el condicionamiento así se llama a veces condicionamiento respondiente. Se supone que la causa por la cual un EI especifico provoca siempre un reflejo particular reside en que aquella parte de la corteza cerebral activada por el EI esta físicamente conectada por fibras nerviosas con la parte del cerebro que controla el reflejo. Debido a que no hace falta condicionamiento alguno para que aparezca en respuesta al EI, este reflejo se llama reflejo incondicionado (RI). La producción del reflejo por el EC está condicionada a las repetidas asociaciones de ambas señales, este reflejo (o respuesta) se denomina reflejo condicionado o condicional (RC). Pavlov consideró que la función de proceso de condicionamiento tiene estrecho nexo con la adaptación biológica. Para responder al mundo exterior, todo organismo necesita detectar y contestar las señales de acción que emite este mundo exterior. Este sistema de estímulos o señales ambientales (como la carne en polvo o la campana) fue denominado por Pavlov primer sistema de señales.

El condicionamiento clásico es un tipo de aprendizaje que se opera cuando una señal nueva (EC) es apareada con una señal (EI) que tiene la propiedad de provocar un reflejo (RI). Después del apareamiento, también el EC adquiere la propiedad de provocar un reflejo (RC) más o menos similar al RI. Los reflejos: base fisiológica del condicionamiento clásico. El punto esencial es que los reflejos son reacción predeterminadas a estímulos. Este punto de vista determinista ha penetrado en la mayor parte de las posteriores teorías conexionistas sobre el aprendizaje. Los reflejos pueden clasificarse por orden de complejidad. Los reflejos pueden ser simples o complejos. Pavlov investigó además los que llamó reflejos inhibitorios (-), es decir, aquellos que intervienen para defender otra actividad refleja. Al clasificar todos los reflejos como de índole inhibitoria, o, por el contrario, excitarorios (+), también clasificó todos los estímulos según que actuaran para propagar reflejos inhibitorios o excitatorios. Según la teoría de Pavlov, las unidades básicas de la respuesta son los reflejos, provocados por los estímulos. Estos pueden ser innatos o aprendidos, simples o complejos, y pueden suscitar acciones o detener acciones en curso de ejecución. Inhibición. Pavlov considero que el proceso de inhibición es tan importante como el de la excitación. Distinguió entre dos tipos básicos de inhibición: 1) inhibición externa e 2) inhibición interna. Inhibición externa: puede ser ejemplificada por el importante tipo de reflejo no aprendido de componentes inhibitorios, llamado reflejo de orientación (RO). Cualquier estimulo que despierte el RO detiene toda la actividad en curso e infiere con la continuación del condicionamiento previo. Esto a su vez prepara las cosas para que sobrevenga el nuevo condicionamiento siguiente. Inhibición interna: Pavlov supuso que los analizadores corticales distinguen de algún modo entre los estímulos nuevos y/o importantes y los estímulos conocidos poco importantes. De este proceso interno resulta la inhibición de las respuestas de atención (el RO) ante señales conocidas poco importantes. Este proceso se denomina habituación. Los efectos inhibitorios de la habituación pueden ser a su vez inhibidos por la aparición de un estímulo inhibitorio suave en el ambiente. Este último proceso se llama desinhibición. También se puede transferir la inhibición ante nuevos estímulos mediante el condicionamiento. En la inhibición condicionada de este tipo, algo que antes era un EC o un EI débil para un reflejo excitatorio puede llegar a inhibir ese reflejo si se lo aparea frecuentemente con un fuerte EI inhibitorio. Este cambio de respuesta suscitado por un EC determinado también se llama contracondicionamiento. Según hemos visto, el condicionamiento inhibitorio supone el proceso activo de interferir con la provocación de algunos reflejos.

Los reflejos inhibitorios son de dos tipos básicos: 1) los provocados por señales ext3ernas que pueden tener eficacia sin aprendizaje (inhibición externa), y 2) los que exigen alguna suerte de proceso de aprendizaje (inhibición interna). Las etapas del condicionamiento y la extinción. Según se dijo antes, el reflejo de orientación desempeña un papel vital en el condicionamiento. No puede haber aprendizaje si no se presta antes atención al EC y al EI y después se pone en marcha el proceso de ser condicionado. En consecuencia, la primera etapa de ese proceso consiste en la aparición del RO y la habituación a éste. Sucedido ello, y después de varios apareamientos más del EC y el EI, el EC se torna capaz de suscitar el reflejo (que ahora se llama RC). Si se presenta varias veces seguidas el EC sin que lo siga el EI, el RC se desvanece. Este proceso se denomina extinción experimental. Ello no significa, sin embargo, que el sujeto haya olvidado la relación EC-EI o que haya vuelto a su estado anterior al condicionamiento. Si los ensayos de extinción son seguidos por un periodo de descanso, al ser presentado de nuevo el EC provocara otra vez efectivamente el RC, aunque por lo general no con la misma fuerza de antes. Este fenómeno se llama recuperación espontanea. La fuerza del condicionamiento puede depender también de la intensidad del EI original. Cuanto más fuerte sea el EI, mayor será la probabilidad de que el aprendizaje resista a la extinción. Para que haya condicionamiento, es preciso en primer término que sea provocado el RO y que después sobrevenga habituación a éste. La presentación de un solo EC (extinción experimental) determina que deje de provocar un RC. Sin embargo, después de un periodo de descanso el EC recobrará espontáneamente algo de su capacidad para suscitar el RC. Discriminación y generalización. Además de aprender a responder a nuevas señales ambientales, el organismo debe aprender a distinguir entre las señales que apuntan a distintos reflejos. Este proceso se denomina discriminación, aunque Pavlov prefería el término diferenciación. En el proceso de condicionamiento, un RC llegará a ser suscitado por estímulos similares en alguna dimensión al EC original. La importancia de este fenómeno reside en que permite al organismo responder a una gama de señales que pueden indicar el mismo EI que el EC del entrenamiento. Este proceso recibe el nombre de generalización. La discriminación y la generalización son dos procesos opuestos. La discriminación consiste en distinguir los EC de otras señales. La generalización es la tendencia a responder a señales similares a un EC casi como si fueran el EC mismo. Tipos básicos de condicionamiento. Se han identificado varios tipos de procedimiento de condicionamiento, que son: 1) condicionamiento primario; 2) condicionamiento de defensa; 3) condicionamiento secundario; 4) condicionamiento retrogrado; 5) condicionamiento de la huella y 6) condicionamiento temporal.

Efectos de las combinaciones de estímulos excitatorios e inhibitorios. Cuando se presentan simultáneamente más de un EC, ese estimulo compuesto puede tener propiedades distintas de las que posee cada uno de sus componentes. Las combinaciones de estímulos poderosos a veces provocan una neurosis condicionada. Del laboratorio a la vida real. Pavlov explicó que los pensamientos verbales y el habla manifiesta, constituían un segundo sistema de señales que operaba en forma muy parecida a como lo hacen las señales ambientales o primer sistema de señales. Por consiguiente, en los seres humanos el significado de las palabras llega a ser condicionado por una variedad de EIs ambientales y adquieren el poder de suscitar reflejos. No solo poseemos un segundo sistema de señales (verbales), sino también un segundo sistema de reflejos (palabras y pensamientos). Pavlov procuró generalizar sus conclusiones al hombre. Consideraba que los hábitos adquiridos por medio de la capacitación y la educación solo eran largas cadenas de reflejos condicionados. Esas asociaciones, una vez aprendidas, podían ser provocadas automáticamente mediante ECs adecuados, incluso contra nuestra voluntad. Posiciones de Pavlov ante los principales problemas. Naturaleza/crianza: Pavlov consideraba que muchos reflejos complejos, incluidos el de eludir las restricciones (reflejo de libertad), el de autodefensa y el de orientación son innatos. El cómo del aprendizaje: La base primaria de la formación de nuevos vínculos consiste en el refuerzo de un EC por un EI. El qué del aprendizaje: La unidad de aprendizaje que Pavlov examinó con mayor detalle fue la formación de nuevas conexiones en la corteza cerebral entre los centros excitados por una señal nueva (EC) y los que controlan las respuestas. Esta primera conexión supone en primer término la formación de un vínculo entre el EI y el EC.

CAPITULO 2: ENFOQUES NORTEAMERICANOS DEL CONDICIONAMIENTO POR CONTIGUIDAD: WATSON Y GUTHRIE. El punto central de las teorías de la contigüidad formuladas por Watson y Guthrie es la formación mecánica de hábitos por efecto de la asociación. WATSON (1878-1958) La conducta como criterio para medir el aprendizaje. Watson sugirió que frente a los fenómenos mentales es simplemente imposible satisfacer las exigencias de objetividad. Carente de datos objetivos, la psicología nunca podría llegar a ser una verdadera ciencia. Por lo tanto, en beneficio de una posible ciencia psicológica era preciso abandonar las mediciones de la mente. La conducta, en cambio, se presta para ser cuantificada y medida objetivamente. La conducta proporciona datos verdaderos, científicamente aceptables. La unidad básica del aprendizaje es el hábito, y el hábito se adquiere como consecuencia del fortalecimiento de un nexo neural entre un estímulo y una respuesta. A juicio de Watson, el aprendizaje de destrezas era una cuestión de eslabonar respuestas musculares. Esos eslabones formaban entonces los hechos objetivos que int3ervenian entre los estímulos ambientales y las respuestas. ¿Cómo aprendemos? La respuesta de Watson. En primer término, Watson consideró todo aprendizaje como un condicionamiento de hábitos. Segundo, pensó que solo dos leyes básicas bastaban para describir las condiciones en las cuales se forman vínculos entre estímulos y respuestas. Su primera ley establece que la fuerza de un vínculo depende del número de apareamientos (asociaciones) de estímulo y respuesta (ley de frecuencia). La segunda ley sostiene que aquella respuesta dada inmediatamente después de un estímulo determinado es la que tiene mayor probabilidad de aparearse con este estimulo (Ley de proximidad temporal). Del apareamiento frecuente de señales o de respuestas y señales resulta un condicionamiento efectivo. El apareamiento, asimismo, alcanzará su máxima eficiencia si ambos son presentados casi al mismo tiempo. La teoría de Watson se sustentó sobre dos leyes del aprendizaje, las leyes de la frecuencia y de la proximidad temporal. A juicio de Watson, la fuerza de un vínculo E.R depende de ambos tipos de efectos. Una explicación por la contigüidad acerca de los efectos del refuerzo aparente. Watson negó toda importancia a los efectos del refuerzo (en particular a la “Ley del efecto” propuesta por Thorndike) afirmando que un acto ejecutado con éxito se convierte en la respuesta mas reciente como en la más frecuente.

Posiciones de Watson ante los principales problemas. El cómo del aprendizaje: Al principio Watson creyó que los principios de frecuencia y proximidad temporal bastan para explicar el condicionamiento. Puesto que un acto exitoso es a la vez el más frecuente y el más reciente, llega a ser el que más probabilidades tiene de ser repetido en circunstancias similares. Consideró que la teoría de Thorndike, que pone el acento sobre la satisfacción y la molestia, estaba contaminada por subjetividad residual. En formulaciones posteriores adoptó la posición pavloviana. El qué del aprendizaje: según Watson, la unidad de aprendizaje consiste en vínculos entre estímulos observables y respuestas observables o potencialmente observables. Lo que se aprende es un hábito o u reflejo condicionado consistente en respuestas musculares eslabonadas. Continuidad/discontinuidad, uso de datos animales y determinismo: El aprendizaje sobreviene por acumulación de la fuerza del hábito. En consecuencia, el aprendizaje siempre es continuo. GUTHRIE (1886-1959) La conducta simple era cuestión de conexiones E-R simples, y la conducta compleja consistía en una multitud de conexiones E-R simples. Al igual que Watson, vio el cerebro como una tabula rasa y restó importancia a los principios de organización innata y motivacionales. Guthrie utilizó la palabra “condicionamiento” para abarcar casi todas las formas de aprendizaje y elevó a su máximo exponent3e la función de los factores ambientales en el moldeamiento de la índole de un adulto humano. La única ley del aprendizaje. A diferencia del sistema altamente complejo propuesto por Pavlov, o del sistema de dos leyes del aprendizaje (por frecuencia y por proximidad temporal) ideado por Watson, Guthrie alcanzó el punto máximo en cuanto a simplicidad teórica: su teoría consiste en una sola ley que estipula las condiciones necesarias y suficientes para el aprendizaje y que él denomino ley de la contigüidad. Nada de listas de leyes, nada de recompensas, sino solamente estímulos y movimientos vinculados en combinaciones, como lo expresa el siguiente concepto: “Una combinación de estímulos que ha acompañado a un movimiento tenderá, al presentarse de nuevo, a ser seguida por ese movimiento”. Guthrie no solo sugirió que el principio de proximidad temporal basta para explicar el aprendizaje, sino también que todo aprendizaje es aprendizaje con un ensayo. Por lo tanto, cualquier cosa que se haya hecho en presencia de determinada combinación de estímulos será hecha de nuevo cuando vuelva a presentarse esa combinación. Guthrie propuso una teoría del aprendizaje que contiene dos principios básicos: 1) el sujeto tiende a asociar las cosas que ocurren simultáneamente (ley de la contigüidad) y 2) todas esas asociaciones se producen por efecto de un solo ensayo. Una situación puede parecer una sola señal, pero en realidad está compuesta por una masa de estímulos que cambian en cada momento. En consecuencia, lo que parece una sola respuesta es en realidad una masa de respuestas, y lo que parece un solo estimulo es una masa de estímulos. Cada uno de esos elementos puede combinarse con cada uno de los otros, y lo que se

forma “con un ensayo" son esos diminutos vínculos, en cada ensayo, muchas de esas pequeñas respuestas quedan vinculadas con muchos de los estímulos. La curva de adquisición gradual que observamos es el resultado final del aumento gradual de vínculos apropiados y la eliminación gradual de vínculos inapropiados. Así, Guthrie viene a decir que el mejoramiento de un acto concierne al resultado del aprendizaje, antes que al proceso de aprender. Los errores consisten en aprendizaje que no coincide con el dominio del acto final, y el aprendizaje es el proceso por el cual todas las señales, finalmente, quedan vinculadas con la conducta aceptable. La mejoría, por lo tanto, equivale al aprendizaje de un número cada vez mayor de movimientos más correctos. Ejemplo de ello podrían ser las habilidades. El movimiento que sigue a determinado estimulo producido por el movimiento es aquella respuesta que ha quedado condicionada a él (por efecto de la contigüidad). A su vez, esa respuesta produce nuevas señales condicionadas a la respuesta siguiente, y así sucesivamente. El concepto de estímulos autogenerados constituye una parte clave de la teoría de Guthrie. Guthrie defiende su teoría de que “la contigüidad es el único mecanismo del aprendizaje” Explicando que la recompensa es una fuente de estímulos que sirve para relacionar otros grupos de señales. Además, la recompensa protege una colección de vínculos E-R contra el “desaprendizaje” al hacer de ellos los últimos fenómenos que se presentan inmediatamente antes de que se modificara la situación de estímulo. Guthrie tampoco considera que los impulsos y su reducción mediante las acciones apropiadas sean necesarios para que haya aprendizaje. Sin embargo, Guthrie considera que los estímulos contribuyen con frecuencia al aprendizaje. Lo cual se debe a que la mayoría de ellos sirven como fuente de estímulos mantenidos. Esencialmente, la función de la recompensa consiste en impedir que aquellas respuestas dadas inmediatamente antes de la recompensa sean conectadas con respuestas distintas de las que producen la recompensa. La posición de Guthrie acerca de la recompensa puede resumirse en el concepto de que “la recompensa es el cambio de estímulo”, circunstancia en la cual los estímulos internos y las respuestas (que actúan como estímulos) son modificados por la recompensa. El castigo es eficaz solo cuando de él resulta una nueva respuesta a las señales antiguas. El castigo modifica hábitos indeseables cuando suscita una nueva conducta incompatible con la conducta castigada. También en este caso, el aprendizaje es el resultado de un cambio de las condiciones del estímulo. Los movimientos condicionados por los estímulos adversos (que son la fuente de los estímulos mantenidos) son aquellos que ponen al sujeto a distancia del estímulo, o el estímulo a distancia del sujeto. Guthrie explicó fenómenos como los efectos de la recompensa y los estados de impulso, y su reducción, castigo y extinción experimental, en función de principios de contigüidad relacionados con cambios en las condiciones de los estímulos antes que en función del refuerzo. Aplicaciones. Guthrie sostuvo que para que el castigo sea eficaz debe causar la aparición de respuestas de competencia ante las señales de la conducta indeseable. Otro aspecto de la teoría de Guthrie es: como las conexiones establecen entre estímulos específicos y respuestas específicas, cabe esperar que la transferencia de entrenamiento ocurra solo en la medida en que en la situación nueva se presenten estímulos antiguos. En el ejemplo del niño y el abrigo, cabría esperar que el “acto de colgar el abrigo” no se produzca al entrar el niño en una casa que no sea la propia.

Este procedimiento para romper el hábito indeseable constituye un ejemplo del método de respuesta incompatible de Guthrie, quien sugirió además otros dos métodos para romper los hábitos: el método de la fatiga y el método del umoral. El método de la fatiga consiste en permitir que un acto indeseable sea repetido hasta que fatigue y “no responder” quede asociado a las señales que antes suscitaban la respuesta indeseable. El tercer método (el del umbral) consiste en presentar con tan baja intensidad las señales que normalmente provocan la conducta indeseable, que no suscite la conducta. Durante ese tiempo, otras respuestas llegan a quedar asociadas con esas señales. A continuación, se aumenta gradualmente la intensidad del estímulo, procurándose siempre que esa intensidad este por debajo del “umbral” de la respuesta indeseable. Finalmente, es posible exponer al sujeto a toda la intensidad de las señales que habían provocado la conducta indeseable sin que responda con esa conducta. Guthrie sugirió que el método del umbral es un rasgo común de las interacciones humanas cotidianas. Al comparar los tres métodos, Guthrie concluye que los tres suponen encontrar las señales que suscitan el hábito indeseable y a continuación hacer lo necesario para que esas señales se conviertan en estímulos de respuestas que compitan con el hábito. Asimismo, considera que todos los métodos arrojan resultados equivalentes. Guthrie propuso tres métodos para eliminar los malos hábitos. Los tres se basan en su supuesto básico de que la conducta es controlada por estímulos y son los siguientes: 1) respuesta incompatible, 2) fatiga, y 3) umbral. Posiciones de Guthrie ante los principales problemas. Naturaleza/crianza: La conducta depende del ambiente en vez de originarse en instintos o motivos hereditarios. La dirección de la conducta es definida explícitamente como resultado del aprendizaje en el ambiente. El cómo del aprendizaje: Guthrie fue el expositor más puro de la teoría de la contigüidad: “comprendemos mucho mejor los empleos del castigo y la recompensa si analizamos sus efectos en función de la asociación y advertimos que el castigo solo es eficaz por medio de su asociación” (Guthrie). El qué del aprendizaje: La unidad básica del aprendizaje consiste en la asociación de movimientos de músculos particulares con estímulos particulares. Los hábitos complejos representan la suma neta de muchas de esas unidades básicas. Continuidad/discontinuidad, empleo de datos animales y determinismo: El aprendizaje siempre se produce al aparearse por primera vez un solo estímulo y una sola respuesta. Sin embargo, las habilidades se forman lentamente. Guthrie explicó: “El aprendizaje se produce normalmente en un episodio asociativo…Una habilidad o destreza no es un hábito simple, sino una amplia colección de hábitos que alcanzan cierto resultado en muchas y variadas circunstancias”. Guthrie vio la conducta como determinada por circunstancias ambientales. Perspectiva. En la teoría de Guthrie ocupa una posición central la siguiente idea: debido a que tendemos a repetir movimientos cuando somos expuestos a las señales que en el pasado, se

asociaron a esos movimientos, los ambientes cuyas señales no cambian tienen que producir movimientos estereotipados. Guthrie sostenía que la razón por la cual esas respuestas son estereotipadas reside en que solo la última respuesta (la que ha tenido éxito) queda protegida contra interferencias. Otros supuesto fundamental de la teoría de Guthrie es que la recompensa bajo forma de reducción de impulso no es indispensable para que haya aprendizaje. Considerándolo en retrospectiva, se concluye que Guthrie efectuó cuatro contribuciones importantes y duraderas. La primera consistió en obligar a los psicólogos a examinar con mayor detenimiento que antes el papel de los estímulos en la determinación de la conducta y el aprendizaje. La segunda fue extender la duración de la perspectiva de la contigüidad y demostrar la necesidad de reconsiderar la función del refuerzo mediante estudios como los que se acaban de describir, lo cual impuso a los teóricos de la conexión por el esfuerzo la necesidad de formular teorías más elaboradas. La tercera residió en el desarrollo del concepto del estímulo producido por el movimiento. La cuarta se deriva de la índole probabilística de la teoría de Guthrie. A causa de que Guthrie consideró que el aprendizaje se produce por efecto de “colisiones” de señales que suelen encontrarse en contigüidad entre sí, pensó que el resultado definitivo de cualquier ensayo de aprendizaje se debe en parte al azar y, por lo tanto, no puede ser predicho con exactitud. Lo que puede predecirse es el resultado medio de muchos ensayos, y en este sentido la teoría de Guthrie es de índole estadística. Esta circunstancia hace de ella un punto de partida para la confección de un modelo matemático del conocimiento.

CAPITULO 3: APRENDIZAJE POR MEDIO DEL REFUERZO: THORNDIKE Y HULL THORNDIKE (1874-1949) Thorndike afirmo que el aprendizaje es cuestión del “estampado” gradual de vínculos estimulo-respuesta mediante el ensayo y el error. Se opuso directamente a la doctrina dualista según la cual el aprendizaje humano involucra comprensión, o el acto de aprehender una “idea”, en tanto que los animales son como maquinas controladas por instintos. También se opuso a la doctrina de la razón animal. Al adaptar el terreno del aprendizaje la concepción darwiniana de que hay continuidad entre animales y hombres, Thorndike introdujo en la psicología norteamericana el supuesto conocido ahora como principio de equipotencialidad. Este concepto se basa en la creencia de que las leyes del aprendizaje son independientes de los tipos de estímulos usados, de las respuestas estudiadas y de las especies a las que se aplican las layes. Estos supuestos proporcionan la base teórica que justifica el empleo de sujetos animales en el estudio de las leyes de aprendizaje, y Thorndike fue el primero en usarlos con ese fin. Thorndike pensó que el aprendizaje consiste habitualmente en una cuestión de fortalecer automáticamente los vínculos E-R por efecto de una experiencia de ensayo y error. Supuso que las leyes que rigen ese aprendizaje son las mismas para los animales y los seres humanos. Como se produce el aprendizaje: primera teoría de Thorndike. El núcleo de su teoría consistía en tres leyes principales. La primera es la Ley del efecto, la cual sostiene que “aquellas respuestas dadas inmediatamente antes de una situación satisfactoria tienen mayor probabilidad de ser repetidas”. De acuerdo con este concepto los animales tienden a mantener estados satisfactorios y a no mantener los insatisfactorios. En consecuencia, a despecho del tono subjetivo de los términos “molestar” y “satisfacer”, Thorndike los definió por la conducta del animas, sin recurrir a los conceptos mentalistas. Los factores de satisfacción “estampan” respuestas y los de molestia las “borran”. Consideró que esos “estampados” eran directos, mecánicos y no implicaban conciencia o percepción del aprendizaje. En consecuencia, definió el aprendizaje en función de vínculos E-R que se “estampan” gradualmente en el cerebro. A continuación, los vínculos completos funcionan en forma muy parecida a como lo hacen las conexiones hereditarias (instintos y reflejos). La segunda ley de Thorndike es la Ley de la predisposición, formulada en función de unidades neurales hipotéticas. Esta ley sostiene que la satisfacción y la molestia dependen del estado del organismo en el momento en que actúa. Cuando una unidad neuronal de conducción esta predispuesta, la conducción es satisfactoria; cuando la unidad de conducción no lo está, la conducción es molesta. Cuando la unidad de conducción está dispuesta y no hay conducción, el organismo se siente frustrado o molesto. La tercera ley es la Ley del ejercicio y representó una concesión a la teoría del aprendizaje por contigüidad. Thorndike sostuvo que el uso de las conexiones las fortalece y que su desuso las debilita. El principio del “uso” explica principalmente actos prepetitivos como las destrezas motrices y la memorización de poemas. El principio del “desuso” explica el olvido general. Admitiendo que los factores de contigüidad pueden influir sobre los vínculos E-R, Thorndike criticó a la vez que se empleara ese principio sin tener en cuenta la ley del efecto. Thorndike reprobó la idea de que el ejercicio puede bastar por si solo para producir aprendizaje.

Según la teoría de Thorndike, se produce aprendizaje cuando: 1) una respuesta conduce a la satisfacción o a la evitación de molestia (ley del efecto); 2) el organismo está dispuesto a responder (leu de la predisposición) y 3) este aprendizaje es afianzado por la practica (ley del ejercicio). Aplicaciones. Thorndike no se interesó exclusivamente por las cuestiones teóricas. Formulo muchas sugerencias para la aplicación de sus principios en el aula. Señalo tres campos principales a los que el docente debe prestar atención. Estos son: evaluar en qué medida le será fácil o difícil al docente aplicar factores de satisfacción y de molestia con el fin de formar o destruir vínculos; identificar que vínculos se deben formar y cuales deben romperse, e identificar los factores de satisfacción y de molestia oportunos. Thorndike también se interesó por los aspectos motivacionales de la tarea en el aula y reconoció la importancia de las actitudes del alumno hacia el aprendizaje. Enumero cinco factores que, a su juicio, los educadores debían tener en cuenta para mejorar el aprendizaje: 1) El interés del alumno por el trabajo, 2) El interés del alumno por mejorar su desempeño; 3) La importancia de la lección para alguna meta del alumno; 4) la conciencia, por parte del alumno, de que aprender la lección le permitiría satisfacer una necesidad y 5) La amplitud de concentración del alumno, o sea, su capacidad para prestar atención a lo que hace. Muchas de las sugerencias formuladas por Thorndike a los docenes se originaron en su orientación mecanicista. Creyó que la transferencia era siempre específica y nunca general y que, por lo tanto, un alumno debía establecer algunas conexiones que habían de resultarle comunes en las situaciones que enfrentaría en la vida después de concluida la escolaridad. Thorndike pensó que cuando se produce transferencia entre dos situaciones que parecen distintas, en ambas, deben presentarse algunos de los estímulos de las dos situaciones. Este concepto se conoció como su teoría de los “elementos de transferencia idénticos”. Thorndike formuló muchas sugerencias para el mejoramiento del aprendizaje. Entre ellas figuraron las de prestar atención a los factores motivacionales y de otorgar a los que se enseñe una forma tan similar como sea posible a las destrezas que los alumnos necesitarían después de la escolaridad. Posiciones de Thorndike ante los principales problemas. El cómo del aprendizaje: Si bien la teoría inicial de Thorndike incluía el principio de contigüidad, bajo la forma de la ley del ejercicio, su autor abandono posteriormente esa ley. A lo largo de toda su carrera, sostuvo que las consecuencias de la conducta (llevara ella a satisfacción o molestia, o a ninguna consecuencia) son más importantes para predecir el aprendizaje que las relaciones entre estímulos y respuestas. El qué del aprendizaje: Thorndike se avenía a admitir la existencia de pensamiento y el posible papel mediador de las ideas, pero no juzgó que la unidad básica del aprendizaje pudiera consistir en algo distinto de los vínculos E-R. Consideró que en la formación de esos vínculos las expectativas del organismo pueden alterar la selección de aquellos estímulos que intervengan en la conexión, pero no consideró que los pensamientos y la conciencia fuesen necesarios para el aprendizaje.

Continuidad/discontinuidad y otras cuestiones: Thorndike puso de relieve que los vínculos se “estampan” o se conectan lentamente en forma continua. Sin embargo, admitió que algunos casos de resolución de problemas, donde parece intervenir la compresión o la intuición (o sea, una discontinuidad), pueden presentarse cuando el organismo elige nuevas combinaciones de conexiones “estampadas” antes, o mediante el mecanismo de “respuesta por analogía” (una de sus leyes menores). Opinó que esa conducta que se asemeja a una introvision es sumamente rara en los animales y que incluso en los seres humanos se la puede explicar en función de hábitos y analogías. Perspectivas. Thorndike presento una teoría del aprendizaje basada en la “selección y conexión” mecánicas de estímulos y respuestas. Por obra de el, la investigación sobre animales y el estudio de la conducta se convirtieron en el tema central de los psicólogos. Fundándose en sus primeras observaciones sobre la conducta que adoptaban los gatos para escapar de las cajas de truco, concluyó que el aprendizaje consiste esencialmente en un proceso de “ensayo y error” en el que la satisfacción proporcionada por el éxito “estampa” conexiones E-R. En sus conceptos educacionales destacó la importancia del ejercicio, s se lo vincula con variables motivacionales, y el aprendizaje de hábitos. En todo momento se presentó como un teórico mecanicista del E-R, a cuyo juicio conceptos tales como los de “entendimiento” son puro engaño. Su enfoque del refuerzo en el aprendizaje lo erigió en un fuerte rival de las teorías de la contigüidad y cognitivas sobre el aprendizaje.

CAPITULO 4: SIKINNER: REFUERZO O CONDICIONAMIENTO OPERANTE. SKINNER Los principios de Skinner resultan esenciales para comprender los enfoques actuales de la teoría del refuerzo. En particular es necesario comprender los efectos que los cuatro tipos básicos de programas de refuerzo tienen tanto sobre el desempeño recompensado como sobre el desempeño durante la extinción. La teoría skinneriana del aprendizaje pone especial énfasis sobre el control de la conducta mediante circunstancias que premian o refuerzan y sobre la pautacion de las recompensas para influir sobre la frecuencia y la intensidad de las respuestas. Skinner rechazó en forma invariable las causas internas (tales como los motivos, los estados del yo, la fuerza del hábito y demás). Considera que la ciencia es un conjunto de actitudes que facilitan la observación y la experimentación (no la aceptación de las ideas impuestas), esta actitud filosófica se traslada al fuerte acento que pone sobre la objetividad y la aceptación de los datos experimentales. Se empeñó en tratar de determinar que fuerzas ambientales controlan la conducta. Al abogar por una metodología científica objetiva, Skinner prolonga el rechazo por Watson de posibles agentes internos y ataca directamente los enfoques de Hull y otros, que intenta pr3edecir y comprender la conducta sobre la base de procesos internos inferidos. Se aparta de Watson, sin embargo, porque, a diferencia de éste, acepta el pensamiento y otras conductas privadas como fuente de datos, en la medida en que se revelan en respuestas verbales objetivas y de otros órdenes. Skinner se limitó a abstenerse de investigar o teorizar acerca de las causas internas, por considerar que la última cusa de la conducta interna puede ser rastreada en influencias ambientales. El principio fundamental de “caja negra” u “organismo vacío” como punto de partida para el estudio de la conducta se opone directamente a la práctica de especular acerca de construcciones hipotéticas o variables intervinientes que actúan en los organismos. Una de las razones fundamentales por las que Skinner decidió centrarse en los hechos ambientales antes que en los internos reside en la riqueza de información que puede obtenerse así para el análisis científico de los factores que determinan la conducta. Admitió que esas variables pueden influir en formas sutiles sobre el comportamiento, pero consideró que no es posible explicar en forma acertada la conducta sin investigarlas. Se propuso elaborar un método de análisis de la función que los hechos ambientales cumplen en la determinación y predicción de la conducta de los organismos. El método empelado por Skinner para investigar las variables externas que controlan la conducta consiste en lo que él denomino un análisis causal o funcional. A su juicio, las variables dependientes son los efectos de las variables externas, o los cambios de conducta suscitados por éstas. La meta que se propuso alcanzar mediant3e este método de análisis fue la predicción y el control de las variables dependientes (conductuales). A juicio de Skinner, las leyes de la conducta consisten en las relaciones causa-efecto entre las variables independientes (hechos ambientales externos) y las variables de respuesta (dependientes). Consideró que una síntesis de esas leyes en términos cuantitativos proporciona una imagen ampliada de los organismos como sistemas de conducta. Skinner no necesitó apelar a variables tales como el impulso y la motivación incentiva,

porque estimó que especular acerca de ellas era simplemente necesario para una ciencia cuyas metas consistieran en predecir y controlar la conducta. Como enfoca Skinner la cuestión contigüidad/refuerzo. En vez de rechazar un mecanismo de contigüidad del tipo descripto por el investigador ruso (Pavlov), postuló la existencia de dos tipos distintos de aprendizaje. En el primero, o tipo pavloviano, un estímulo antes neutral adquiere el poder de suscitar una respuesta que originariamente era causada por otro estimulo. En cambio se produce cuando el estímulo neutral es seguido o “reforzado” por el EI. Skinner considera que el condicionamiento de este tipo (condicionamiento clásico) es el medio por el cual nuevos estímulos pueden llegar a suscitar estados emocionales o motivacionales. Este concepto se incorporó a su teoría como base que explica el poder del refuerzo secundario o condicionado. Skinner explica la acción del refuerzo demorado o del completamiento de largas cadenas de respuesta en función de respuestas internas que conducen hacia una meta y generan estímulos que quedan clásicamente condicionados a refuerzos primarios. Denominó “refuerzos generalizados” a los refuerzos condicionados apareados a más de un refuerzo primario y los considero más poderosos que cualquier refuerzo condicionado vinculado con un solo tipo de estado de privación. “Si un esfuerzo condicionado ha sido apareado con refuerzos apropiados para muchas condiciones, es probable que por lo menos un estado de privación apropiado prevalezca en una ocasión ulterior. En consecuencia, es más probable que se presente una respuesta” (Skinner). En consecuencia, Skinner recurre a un principio de contigüidad para ofrecer una explicación convincente de aquellas conductas que parecen carecer de relación con el refuerzo inmediato. Skinner considera que las respuestas condicionadas clásicamente son suscitadas en forma automática por señales automáticas. Por lo tanto, también rotuló como respondiente, o condicionamiento de tipo E (tipo estimulo), este tipo de condicionamiento. A la vez que tributa el debido respeto a la metodología y los principios de Pavlov. Skinner considera que el condicionamiento respondiente o de tipo E ofrece limitado interés. Lo que más le preocupa es la conducta manifiesta que tiene consecuencias sobre el mundo circundante. En la conducta de este tipo, sus consecuencias se “realimentan” al organismo y pueden modificar la probabilidad de que se repita la conducta que dio origen a esas consecuencias. Cuando una consecuencia actúa de manera que aumenta la probabilidad de recurrencia de una respuesta, se dice que obra como un reforzador y que el acto de manifestar esa consecuencia es un refuerzo. Según las teorías de Skinner, un reforzador es todo aquello que aumente la probabilidad de reocurrencia de una respuesta, su definición se formula exclusivamente en términos de operaciones conductuales y no supone factores internos tales como el impulso o la motivación. El condicionamiento de este orden se denomina condicionamiento operante, porque el organismo opera en su ambiente, o condicionamiento instrumental, porque las respuestas desempeñan una función instrumental en la determinación de una consecuencia. El condicionamiento operante difiere del condicionamiento respondiente (clásico) en que no se considera que la mayoría de las respuestas sean provocadas por estímulos. Desde el punto de vista de Skinner, es simplemente imposible observar, en la mayoría de los casos, que un supuesto “estimulo” haya tenido el carácter de operante que se le atribuye. En consecuencia, se considera que la conducta operante es

emitida espontáneamente por el organismo que sigue tal o cual conducta. Este enfoque evita la tentación de identificar que hechos pueden obrar como estímulos ambiguos. Una respuesta operante puede contraer una relación con un estímulo particular, y esta ocurrencia puede incluso ser controlada en parte por este estimulo. En esos casos se lo denomina estimulo discriminativo; este último sirve para señalar al organismo cuando es muy probable el refuerzo para emitir una operante especifica. Puesto que el estímulo es ahora la señal para que se presente la conducta operante, se dice que la respuesta operante es una operante discriminada. Empero, el estímulo no suscita la aparición de la respuesta, como en el caso de un reflejo pavloviano. Los estímulos discriminativos sirven para guiar la conducta. La fuerza de la operante es independiente de esos estímulos excitatorios o inhibitorios. O sea, el estímulo discriminativo se limita a avisar al organismo cuando debe emitir la operante. El énfasis puesto sobre las respuestas determino que el condicionamiento operante fuese denominado condicionamiento de tipo R (respuesta). La “R” puede también ser recordada en virtud de su asociación con el acento que Skinner pone sobre el refuerzo. Ese acento sobre los episodios R” es coherente con la distinción que Skinner formula entre el refuerzo según la teoría de Pavlov y según su propia teoría. El propio Pavlov llamó “refuerzos” a todos los hechos que fortalecían una conducta, y “condicionamiento” a los cambios resultantes. En el experimento pavloviano, empero, un reforzador es apareado con un estímulo; en cambio, en la conducta operante depende de una respuesta. Skinner reconoció la importancia tanto del condicionamiento pavloviano (respondiente, o de tipo E), en que el estímulo suscita respuesta, como del condicionamiento de tipo R (operante o instrumental), en que las respuestas son emitidas espontáneamente. En el condicionamiento de tipo R los estímulos pueden actuar como estímulos discriminativos que dicen al organizador donde y cuando debe esperar un refuerzo. La caja de Skinner. Tal como Pavlov, Skinner aportó no solo una teoría sino también una metodología. Su metodología se basa en el supuesto de que el principio de equipotencialidad es habitualmente valido en el marco controlado que ofrece el laboratorio. Cualquier movimiento particular de un organismo constituye una respuesta. Una clase de movimiento o un tipo de conducta específica que se ajusta a ese criterio se denomina operante. La frecuencia y la pauta con que se presentan las operantes son medidas. Otras variables dependientes posibles, como la intensidad o la duración de la respuesta, no son medidas. La caja de Skinner proporciona un ambiente en el que el sujeto puede emitir una respuesta susceptible de ser medida como operante estandarizado. Al contar solo las operantes, la caja de Skinner elimina los juicios subjetivos del observador acerca de lo que debe considerarse respuesta. La caja de Skinner no solo proporciona un ambiente en que se emite una conducta simple, producida libremente y medida objetivamente; además aporta un medio que permite controlar con precisión las consecuencias de las operantes. En consecuencia, disminuye considerablemente la posibilidad de reforzar una conducta que no sea la operante. Por lo tanto, la caja de Skinner aporta datos precisos acerca de las relaciones entre la historia del organismo (adiestramiento anterior y niveles de privación) y el control ejercido por el reforzador sobre las tasas de acuerdo con las cuales se emite el operante, y logra todo esto sin necesidad de apelar a consideraciones sobre estados internos

Principios fundamentales. Moldeamiento: Skinner sostiene que “el condicionamiento operante moldea la conducta tal como un escultor moldea un trozo de arcilla=. Skinner define al operante como una clase de movimientos. En el proceso de moldeamiento, solo se refuerzan aquellos movimientos cuya dirección coincide con la nueva respuesta que se desea. Este proceso de aproximación sucesiva continúa hasta que el organismo emite la nueva respuesta que se deseaba. Generalización: el moldeamiento se funda en la tendencia del organismo a no dar exactamente en cada oportunidad la misma respuesta y a no emitir solo las respuestas dadas precisamente a continuación de un refuerzo. Esa tendencia a emitir una “familia” de respuestas similares ejemplifica el principio de la generalización de la respuesta. A su vez, se denomina generalización del estímulo a la correspondiente tendencia de los estímulos similares al estímulo discriminativo original a influir sobre la tendencia del organismo a responder similarmente. Reconoce la existencia tanto de la generalización primaria como de la secundaria, o medida (como la verbal), y considera que la generalización es la base de la transferencia de aprendizaje de una situación a una situación nueva. Un concepto clave del sistema de Skinner es el de moldeamiento, o método de aproximación sucesiva, que supone respuestas de refuerzo que coinciden en la dirección de la respuesta deseada final. El moldeamiento depende de la generalización de la respuesta, o tendencia de las respuestas a variar de un ensayo a otro. Cinco contingencias fáciles: Los reforzadores pueden dividirse en dos clases. Una consiste en aquellos hecho que los organismos procuran experimentar de nuevo y se los denomina reforzadores positivos. La otra clase consiste en aquellos hechos que tratamos de evitar y se llama estímulos adversos. Las circunstancias o reglas pueden disponerse de manera tal que cada tipo de reforzados pueda asociarse, sea con un aumento o con una disminución de la probabilidad de una particular emisión de respuesta. Las reglas que gobiernan la relación entre respuestas y refuerzo se llaman contingencias. El refuerzo negativo no es el mismo que el castigo. El refuerzo negativo es el que se recibe cuando se emiten respuestas que ponen fin a hechos desagradables. Skinner se opone al empleo de contingencias de castigo por entender que son ineficaces y tienden a provocar efectos secundarios indeseables, como el de inhibir las conductas deseadas. Aquellos reforzados que no son presentados en nexo de contingencia con la ocurrencia de una respuesta particular pueden sin embargo llegar a controlar la conducta. Skinner llamó a este efecto condicionamiento supersticioso y sugirió que muchas conductas humanas que parecen irracionales pueden haber sido condicionadas por ese proceso. Si se emite una conducta inmediatamente antes de la repetición de un reforzador, esa conducta es seguida por el reforzador y tiene más probabilidad de repetirse. Skinner distinguió cinco tipos de reglas que gobiernan las contingencias entre respuestas y reforzadores: 1) dar un refuerzo a una respuesta constituye un refuerzo positivo, 2) dar un refuerzo no contingente produce condicionamiento supersticioso; 3) dar un estímulo adverso, o 4) eliminar el reforzador positivo contingente de una respuesta es castigo, y 5) la eliminación de un estímulo adverso contingente de la emisión de una respuesta es refuerzo negativo.

La extinción del condicionamiento operante consiste en aquella situación en que la contingencia original entre una respuesta y un reforzador toca a su fin. En consecuencia, la respuesta ya no sobreviene en presencia del reforzador. Programas de refuerzo: el aporte más importante de Skinner. Skinner consagró la mayor parte de sus esfuerzos experimentales a investigar y describir con detalle los efectos que tiene el aporte de reforzadores positivos. Skinner se dedicó a trabajar en torno de la forma (llamada programa de refuerzo) en que se presenta el refuerzo. El programa de refuerzo es la regla regida por el ambiente para determinar cuál de las muchas ocurrencias de una respuesta será reforzada. La mayor parte de nuestras consideraciones hasta este lugar se han referido a las contingencias como hechos “todo o nada”. O sea, la conducta era seguida por el reforzador o no lo era. En el mundo real, empero, el refuerzo es a menudo algo que se presenta solo a veces. Si para mantener una determinada operante fuese necesario el refuerzo de cada respuesta, la mayor parte de nuestras conductas, y en particular los ejemplos de conductas supersticiosas que hemos visto, se extinguirían. Ese refuerzo que se brinda a veces a una conducta se llama refuerzo intermitente, lo opuesto del refuerzo continuo, o RC. El ambiente puede conectar reforzadores a respuestas sea por efecto del número de respuestas emitidas o por la ocurrencia de la respuesta dentro de un intervalo de tiempo específico. Esos programas se denominan respectivamente programas de razón y de intervalo y pueden ser fijos (percibibles por el organismo) o variables (probabilísticos). Cuatro tipos básicos de reglas o programas especifican en que forma la entrega de refuerzos se relaciona con las respuestas. Son los programas fijo y variable basados en el tiempo (intervalo fijo o intervalo variable) y los programas de razón fija y razón variable basados en el número de respuestas necesarias por refuerzo. También Skinner extendió su teoría a la explicación del lenguaje y el pensamiento, y lo hizo con mucho mayor detalle que Pavlov. El sabio ruso consideró que la conducta verbal es suscitada por señales (verbales o no), en tanto que, según Skinner, ese comportamiento es un tipo de conducta operante que se ajusta a las mimas leyes que sigue cualquier conducta operante. En la teoría de Skinner los estímulos sirven para la función de señalar cuando tiene probabilidad de ser reforzadas una respuesta particular pensamiento/palabra; por lo tanto, no hay relación fija entre una respuesta verbal particular y un estímulo discriminativo particular. Skinner desarrolla una teoría del aprendizaje y la conducta verbales basada en su modelo de aprendizaje operante, según el cual se formulan respuestas porque tienen probabilidad de preparar la oportunidad para un refuerzo. Hay tres formas importantes de conducta verbal: 1) tacto (usar nombres); 2) mando (pedir); 3) texto (en general leer).

Posiciones de Skinner frente a los problemas principales. Naturaleza / crianza: Skinner considera que los reflejos involucrados en condicionamiento de tipo E (pavloviano o clásico) son innatos. Reconoce que existen diferencias innatas entre las tasas de aprendizaje correspondientes a las varias especies y a los individuos dentro de cada especie. También reconoce que las contingencias filogenéticas (dependientes de la evolución) pueden “reforzar” selectivamente la ocurrencia de pautas genéticas que lleven a un aprendizaje más fácil o más difícil de conductas particulares. De cualquier modo, Skinner se centra en los determinantes ambientales de la conducta. Aunque se haya apartado de la posición ambientalista radical que caracterizó a teóricos como Watson, sigue sosteniendo que el ser humano aprende primordialmente el lenguaje, la agresión, la conducta social y la resolución de problemas por medio del condicionamiento operante. El cómo del aprendizaje: Skinner afirma que proposiciones como las primeras de Thorndike acerca de la ley del ejercicio o la contigüidad pura pueden explicar el condicionamiento pavloviano, o de tipo E, de respuestas mediadas por el sistema nervioso autónomo. A su juicio, el condicionamiento operante, o de tipo R, es el mecanismo de aprendizaje adaptativo de las respuestas de los músculos esqueléticos. Aprendizaje operante es aprendizaje por medio del refuerzo. Si bien Skinner sostiene que existen ambos tipos de procesos de condicionamiento, el énfasis que pone sobre el condicionamiento operante sitúa su teoría, que nominalmente es de dos factores, entre las del refuerzo. En el modelo skinneriano del aprendizaje operante, una respuesta debe ser emitida espontáneamente y esta emisión ser seguida por un hecho que la refuerce para que haya condicionamiento. En concordancia con la preferencia de Skinner por enunciar sus leyes solo en términos de estímulos y respuestas, se define el refuerzo, desde el punto de vista operativo, como cualquier suceso que aumente la probabilidad de reocurrencia de una respuesta emitida exactamente antes de ese suceso que la refuerza. El qué del aprendizaje: Salvo en el caso del condicionamiento de tipo E, que interviene en los reforzadores condicionados del aprendizaje, los organismos aprenden a activar operantes apropiados en presencia de estímulos discriminativos específicos, de acuerdo con tasas controladas por programas. Las unidades de aprendizaje pueden consistir ya en relaciones E-R, ya en tendencias a emitir conductas. Skinner evita especular acerca de variables internas y deliberadamente deja sin definir la cuestión de la unidad interna de aprendizaje. Continuidad/discontinuidad, uso de datos animales y determinismo: Según la teoría skinneriana, el aprendizaje es un proceso gradual (continuo), excepto en los contados casos en que un ensayo dotado de gran capacidad como refuerzo pueda formar la conexión. Skinner es decididamente determinista y considera que las conductas son determinadas por las circunstancias ambientales, excepto en los pocos casos en que los factores determinan internos e instintivos pueden conducir a responder. Skinner generaliza sin reparos a la conducta humana los datos obtenidos de animales en condiciones controladas de laboratorio.