Condicionamiento Operante

July 10, 2022 | Author: Anonymous | Category: N/A
Share Embed Donate


Short Description

Download Condicionamiento Operante...

Description

 

TEMA 4: CONDICIONAMIENTO OPERANTE OPERANTE

1.- Introducción El con condicion dicionamien amiento to operant operante e con constituy stituye e uno de los mecanismos mecanismos de apre aprendiz ndizaje aje de mayo mayor  r  importan impo rtancia cia teó teórica rica y práctic práctica: a: por por una una pa parte rte,, es se segu guram ramen ente te el más investi investiga gado do y mejor  mejor  comprendi compre ndido, do, y por por otr otra a es fuente fuente de algun algunas as de las más signifi significati cativas vas ap aplic licacio acione nes s de la psicología a problemas concretos. En una una pri primer mera a aprox aproximac imación ión,, se diferenci diferencia a de dell CC en un aspe aspecto cto esencia esencial: l: En el CO, la secuencia de sucesos depende de la conducta del organismo. organismo. En el CC, lo que sucede a lo largo de una sesión está prefijado por el psicólogo, y la secuencia de estímulos que se administran es independiente de que el organismo responda o no. Los mecanismos que hemos estudiado hasta ahora permiten a un organismo aprender acerca de aspectos de su entorno que no resultan controlables. El CO permite a un organismo aprender a controlar ciertos aspectos del medio mediante su conducta. En sentido estricto, el C. Operante es un caso particular de C. Instrumental. El C. Instrumental se refiere refi ere a los mec mecani anismo smos s por por los cu cuale ales s un org organi anismo smo ap apren rende de a da darr un una a respu respues esta ta más frec frecue uent ntem emen ente te (o meno menos) s) en virt virtud ud de lo los s ev even ento tos( s(o o “c “con onse secu cuen enci cias as”) ”) que sigu siguen en sistemáticamente a dicha respuesta. El C. Operante se refiere a los casos en los que dicha respuesta se define como un operante, es decir, en virtud de sus propiedades funcionales. Sin embargo, la importancia relativa del C.operante es tan grande que a menudo ambos términos (“operante” e “instrumental”) se emplean como sinónimos.

1.1.- Antecedentes 1.1.1.- Thorndike:

Interesado en la inteligencia animal, a partir de presupuestos darwinianos, presenta en su tesis doctoral (1898) un estudio sobre el comportamiento de animales en situaciones-problema muy simples. Utilizando estas situaciones situaciones (mediante la las s llamadas "cajas-problema") "cajas-problema") comprueba que los animales aprenden a solucionar el problema por  ensayo y error: al principio, su conducta es caótica y dan con la solución (accionar el mecanismo de apertura de la caja de forma que puedan salir y alcanzar la comida) por pura casualidad, pero en sucesivos ensayos el tiempo que tarda el animal ani mal en dar dar la res respu pues esta ta rel releva evante nte dismin disminuy uye e de forma forma progre progresiv siva a y sistem sistemáti ática, ca, y las respuestas erráticas se reducen hasta casi desaparecer. A partir de esta clase de estudios, Thorndike formula en 1911 la Ley del Efecto: Si una respuesta en una situación estimular dada es seguida por un suceso satisfactorio o   placent placentero, ero, la relación relación entre la situación situación y la respuesta respuesta se fortalece, fortalece, de forma que el  organismo tendrá más tendencia a dar esa respuesta en esa situación. Si por el contrario va seguida de un suceso nocivo o desagradable, la respuesta tenderá a no darse. 1.1.2.- Primeros conductistas

Desde el punto Desde punto de vista del conductismo conductismo watsonian watsoniano, o, la anterior anterior formula formulación ción resultaba resultaba muy inadecuada, ya que se basa en estados internos del organismo ("satisfactorio", "desagradable", etc.) inobservables y dudosos. Por otra parte, el intento de Thorndike de definir los “estados satisfa sat isfacto ctorio rios” s” como como aquel aquellos los que que el organi organismo smo no ha hacía cía nada nada po porr evitar, evitar, etc., etc., inc incurrí urría a en circularidades que los críticos señalaron en repetidas ocasiones. ocasiones.

1

 

Esquema Tema 4

1.1.3.- Skinner 

En los años 30-40, Skinner, adoptando un marco teórico más amplio, consistente y operativo, reformula la ley del efecto como "ley de refuerzo": Ciertos sucesos Ciertos sucesos (refuerzos) (refuerzos),, cuando cuando siguen consiste consistentem ntemente ente a una respuesta respuesta de un organismo, aumentan su probabilidad  Desentendiéndos Desenten diéndose e de las interpretaciones asociacionistas y, en gran medida, de los antecedentes antecedentes estimulares de la conducta, pone el énfasis en la relación entre la respuesta y los eventos que la siguen consistentemente. Una de las aportaciones teóricas más significativas de Skinner es la reconceptualización de la respuesta como "operante", es decir, definida exclusivamente por sus propiedades funcionales (en contraposición a otros aspectos, aspectos, como la topografía o la intensidad – ver Tema 1) Desde el punto Desde punto de vista de la metodo metodolog logía ía de investi investigac gación ión,, Skinne Skinnerr se decan decanta ta por por los procedimientos de “operante libre”, en contraposición a los de “ensayo discreto”. Procedimientos Procedimien tos de ensayo discreto: discreto: El organ organism ismo o es so somet metido ido a su suce cesivo sivos s “en “ensa sayo yos”, s”, entre entre los cuales cuales normal normalmen mente te es necesario manipularlo físicamente (por ejemplo, volver a meter el gato en la caja problema). • Son ventajosos para estudiar bastantes cuestiones, pero presentan dos inconvenientes: la manipulació manip ulación n del orga organismo nismo puede interferir con el proceso proceso natural de aprendiz aprendizaje aje (por  •

ejemplo, ejemp lo, si si le resultaemitir estresa estresante) nte);; y no tan nosa da ninguna ninguna información informa ción (es sobre sobr e lo no quepodemos haría haría el organismo pudiera la respuesta menudo como quisiera decir, utilizar la tasa de R como variable dependiente). dependiente). • Ejemplos de dispositivos: laberintos, corredores, las cajas-problema de Thorndike, etc. Procedimientos de operante libre: libre: Las sesiones no se dividen en ensayos, sino que el O. está en una situación en la que puede emitir la respues respuesta ta en cualquier momento y con cualquier frecuencia. • Se han mostrado óptimos para el estudio de muchos aspectos generales del C.O. • El dispositivo más típico es la Caja de Skinner , junto con el registro acumulativo, acumulativo, que permiten estudiar detalladamente la evolución de la tasa de respuesta bajo las situaciones de aprendizaje.



1.2.- El fenómeno/procedimiento básico El fenómeno nuclear del CO consiste en la implantación de una contingencia entre una respuesta emitida por un organismo y un suceso ambiental (“consecuente” o “consecuencia”) que sigue consiste cons istenteme ntemente nte a esa respue respuesta. sta. Como result resultado, ado, la probabilidad probabilidad de la respues respuesta ta se ve sistemáticamente modificada a medida que la situación se repite.

[ R. Op.  Consecuencia

ambiental ] 

 ∆P(R)

En el caso más sencillo, se sitúa a un organimo en una determinada situación controlada (e.g., en una caja de Skinner y con cierto grado de privación previa de alimento), y se le suministra como consecu cons ecuente ente (reforza (reforzador) dor) una cierta cantidad cantidad de comida cada vez que emite una respuesta respuesta concreta y predeterminada por el psicólogo (apretar una palanca, picotear un disco, etc.). Se comprueba que la frecuencia de la respuesta elegida aumenta sistemáticamente a medida que transcurre el tiempo (recuérdese que en esta clase de experimentos, de "operante libre", no cabe

2

 

Esquema Tema 4

hablar de ensayos propiamente dichos, sino que se trata de una situación contínua en la que el organismo lleva la iniciativa).

1.3.- Conceptos principales 1.3.1.- Respuesta • •



Puede Pued e se serr cual cualqu quie ierr resp respue uest sta a incl inclui uida da en el re repe pert rtor orio io co cond nduc uctu tual al de dell or orga gani nism smo, o, seleccionada seleccionad a arbitrariamente por el psicólogo. Operante o respuesta operante: operante : es el caso más frecuente. frecuente. Se define po porr los efectos que que opera en el ambiente (de ahí su nombre). Así, por ejemplo, cualquiera de las formas en que un organi organismo smo puede puede accio acciona narr una una pa palan lanca ca se co consi nsider deran an como como casos de una misma misma respuesta respues ta u oper operante. ante. Es decir, puede hacerse hacerse abstracción abstracción de la topografía concreta de la respuesta (que se ejecute con un miembro u otro, con movimientos diferentes, etc.), aunque ésto va a depender en cada caso de lo que al psicólogo le interese que el organismo aprenda. Típicamente Típica mente,, es una respuesta respuesta motora voluntaria, voluntaria, aun aunque que puede tratarse tratarse también también de una respuesta autonómica o visceral (e.g., aumento de la tasa cardiaca), e incluso de una acción de carácter lingüístico o cognitivo.

1.3.2.- Consecuente, consecuencia • •

Suceso Suc eso que que afe afecta cta si siste stemát máticam icament ente e a la pro proba babil bilida idad d de la res respu pues esta ta a la que que sigue sigue consistentemente. Reforzador o refuerzo: refuerzo: es un consecuente que aumenta la frecuencia de R a la que sigue. sigue.



Un refuerzo puede ser positivo (p.ej. aparición de un E apetitivo) o negativo (no-aparición o retirada de un E aversivo).



Castigo:: es un consecuente que reduce la frecuencia de R a la que sigue. Castigo



Un castigo puede también ser positivo (p.ej. aparición de un suceso aversivo) o negativo (noaparición o retirada de un suceso apetitivo).



Es muy importante no confundir un reforzador con un “estímulo o suceso agradable”. agradable”. Un estímulo es un reforzador, por definición, en virtud de su efecto en el aumento de la respuesta a la que sigue, y no por su supuesta inducción de un estado subjetivo en un organismo



Asimism Asi mismo, o, es import important ante e obse observar rvar que que el refu refuerz erzo o o el ca casti stigo go no tie tiene nen n po porr qu qué é ser  necesaria nece sariamen mente te “estím “estímulos” ulos” en sentido sentido estricto estricto.. Por Por ej ejem empl plo, o, el per ermi miti tirr o im impe pedi dirr al organism organ ismo o realiz realizar ar deter determin minad adas as co cond nduct uctas as pu puede eden n actuar actuar como como refuer refuerzos zos o castig castigos os respectivamente.

1.3.3.- Contingencia •

Es la rel relaci ación ón est estadí adísti stica ca entre entre la emisió emisión n de un op opera erante nte y la admini administra stració ción n de una consecuencia. consecu encia. A menudo se emplea la expresión "contingencia "contingencias s de refuerzo" o "contingencias de ref reforz orzami amient ento" o" para para referirs referirse e al proce proceso so po porr el cual cual un organi organismo smo ha adqu adquiri irido do una determinada respuesta (e.g. "la " la presencia de patrones de retraimiento social que llamamos timidez depende de las contingencias de refuerzo" refuerzo" significa que se atribuye la frecuencia diferencial de un conjunto de respuestas al vínculo estadístico que han tenido en el historial del sujeto con cierto tipo t ipo de consecuencias). consecuencias). 3

 

Esquema Tema 4



Por lo tanto, contingencia significa aquí lo mismo que en CC, sólo que ahora se establece entre una respuesta y un suceso ambiental, en vez de entre dos sucesos ambientales.

1.3.4.- Estímulo discriminativo • • •

Estímulo cuya presencia es informativa sobre la disponibilidad de un consecue consecuente. nte. Es opcional: no tiene por qué haber haber un E discriminativo explícito. Se suele denotar ED o E + a los estímulos que indican la disponibilidad de un consecuente, y no-disponibilidad. E∆  o E- a los que informan de su no-disponibilidad.

1.3.5.- Respuesta incondicionada • •

Es la respuesta natural del organismo al reforzador (por ejemplo, la salivación, deglución,etc. en el caso en que el reforzador es un trozo de alimento). En general, no juega ningún papel en el condicionamiento operante.

1.3.6.- Adquisición • •

Procedimiento y proceso en el cual se establece una contingencia entre un operante y un reforzador, de forma que la frecuencia f recuencia de aqu aquél él aumenta. Significado análogo al del CC

1.3.7.- Extinción • •

Procedimiento y proceso en el cual se elimina una contingencia entre un operante y un reforzador, de forma que la frecuencia f recuencia de aqu aquél él decae. Significado análogo al del CC

1.3.8.- Moldeado o moldeamiento (shaping  ( shaping ) •



Consecu Con secución ción gradual gradual de una R que no estaba estaba presente presente en el repe repertorio rtorio conductual conductual del organismo (o lo estaba con una probabilidad muy baja) mediante reforzamiento ref orzamiento de respuestas que suponen aproximaciones sucesivas a la R deseada. Tiene gran importancia práctica, ya que es el principal procedimiento de aprendizaje de Rs nuevas.

2.- Tipos básicos de condicionamiento operante Los cua cuatro tro tipos tipos básico básicos s de co condi ndicio cionam namien iento to op opera erante nte se produ produce cen n como como re resul sultad tado o del entrenamiento de un organismo mediante el establecimiento de una contingencia entre una R. operante y uno de los cuatro consecuentes básicos. •

Reforzamiento positivo: positivo : Administración de un evento siguiendo siguiendo contingentemente contingentemente a una una R dada, dad a, que tiene como efecto un aumento aumento en la fuerza, la probabili probabilidad dad o la tasa de ésta. ésta. Normalmente se trata de un estímulo apetitivo o de la posibilidad de realizar una conducta de alta probabilidad.. probabilidad..

4

 

Esquema Tema 4

Ej Ejemp emplo: lo: cad cada a vez que una rat rata a pre presio siona na una palanc palanca a (R), (R), se le ad admi minis nistra tra como como consecuente un trozo de comida; se puede observar que la rata cada vez presiona más frecuentemente la palanca El tipo de CO que resulta de aplicar sistemáticamente reforzadores positivos a una respuesta se recompensa. conoce como entrenamiento de recompensa. •

Reforzamiento negativo: negativo: Omisión o interrupción de un suceso (típicamente, un E aversivo) de forma contingente con la emisión de una R, a resultas de lo cual se produce un aumento en la fuerza, la probabilidad o la tasa de ésta. Ejemplo:   cad Ejemplo:  cada a vez que una una rat rata a se de desp splaz laza a al la lado do opue opuesto sto de la jau jaula la (R), com como o consecuente se interrumpe una descarga eléctrica que se le estaba aplicando; se puede observar que la rata cada vez cambia de lado más frecuentemente.

La aplicación sistemática de reforzadores negativos a una R se conoce como entrenamiento de evitación o entrenamiento de escape, escape, dependiendo de si el organismo puede mediante la R llegar a “prevenir” la aparición del E. aversivo (evitación) o sólo puede interrumpirlo, acortando su duración, una vez administrado (escape) (escape) •

Castigo positivo Castigo positivo: Administración de un suceso (en el caso típico, un E aversivo) siguiendo continge cont ingenteme ntemente nte a una R dada, dada, que tiene como efecto una disminución disminución en la fuerza, la probabilidad o la tasa de ésta. Ejemplo:   cada vez que una oveja entra en contacto con la cerca en la que está encerrada Ejemplo: (R), como consecuente se le administra una descarga eléctrica; se puede observar que la oveja cada vez toca menos frecuentemente la cerca.

La aplicación aplicación sistemática sistemática de cast castigos igos positivos positivos a una R se conoce conoce como entren entrenamiento amiento de castigo. Castigo negativo: negativo: Omisión o interrupción de un estímulo de forma contingente con la emisión de una R, a resultas de lo cual se produce una disminución en la fuerza, la probabilidad o la tasa de ésta. Ejemplo:   cada vez que una rata que está recibiendo pequeños fragmentos de comida cada Ejemplo: 15 segundos toca la pared del fondo de la jaula, se le elimina la siguiente administración de comida que correspondiera; se puede observar que cada vez se acerca menos a dicha  pared. La aplicación sistemática de castigos negativos a una R se conoce como entrenamiento de omisión.

5

 

Esquema Tema 4

POSITIVO : administra un estímulo

REFORZADOR : Tiende REFORZADOR Tiende CASTIGO : a aumentar la fuerza de Tien Tiende de a dismi ismin nui uirr la la R a la que sigue fuerza de la R a la que sigue Se Reforzamiento positivo Castigo positivo

Entrenamiento de recompensa.. recompensa Ej. : Administrar comida tras la respuesta. R aumenta. Se usa una recompensa (estímulo o suceso apetitivo). NEGATIVO :Se omite un Reforzamiento negativo estímulo Entrenamiento de escape Ej. : Detener una descarga eléctrica tras la respuesta Entrenamiento evitación

Entrenamiento de castigo.. castigo Ej. : Administrar descarga tras la respuesta. R disminuye. Se usa un estímulo aversivo Castigo negativo Entrenamiento de omisión Ej. : Se deja de dar   co comi mid da al or org gani nism smo o cada vez que da R.

de R. Disminuye

Ej Ej.. : Si se da R, omit omitir  ir  Se usa estímulo apetitivo una des desca carg rga a que se hubi hubier era a da dado do en caso caso contrario. R aumenta. Se usa un aversivo

estímulo

3.- Entrenamiento de recompensa: Principales factores 3.1.1.- Magnitud del reforzador  l l

Aumentos en la cantidad de la recompensa mejoran la actuación. Aumentos en la calidad producen el mismo efecto. Por ejemplo, usando como reforzador agua azucarada se mejora el nivel de ejecución respecto al uso de agua pura. Caso extremo: los experimentos de Olds con estimulación directa de los centros cerebrales del placer.

3.1.2.- Demora de la recompensa l

l

l

Es el intervalo respuesta-recompensa. Afecta drásticamente al aprendizaje, en el sentido de que a mayor demora, menos RC. A partir de un determinado punto, el organismo no aprende. Demoras superiores a unos 30 sg. parecen no producir ya CO, aunque hay variaciones entre especie esp ecies s y sistemas sistemas de respu respuesta esta.. Por ejemplo: ejemplo: con ratas, laberinto laberintos s y comid comida, a, la demo demora ra tolerada por los organismos para lograr un nivel alto de aprendizaje se sitúa entre 2 sg. y 5 sg. Sin embarg embargo, o, en la may mayorí oría a de las situac situacion iones es se consig consigue uen n inclus incluso o niveles niveles altos altos de aprendizaje con demoras mayores, debido a la acción de claves estimulares (e.g., el 'clic' de la palanca) que actúan como reforzadores secundarios o reforzadores condicionados (ver más adelante).

3.1.3.- Impulso

6

 

Esquema Tema 4

l

l l

Es un construct constructo o teórico teórico que se refiere al estado estado motivacional del orga organismo nismo respecto respecto a aquello que vamos a usar como recompensa. Se mide en términos de porcentaje del peso perdido, nº de horas de privación de agua, etc. El resultado general es que la actuación es tanto mejor cuanto mayor es el impulso (más peso perdido, más horas de privación, etc.), salvo en casos extremos.

4.- Programas de refuerzo Hasta ahora hemos hemos considerado considerado sólo el caso en que la realización por parte del organismo de la conducta elegida va siempre seguida de la consecuencia establecida (la probabilidad del estímulo reforzador dada la respuesta operante es igual a 1). Esto (que constituye una contingenc contingencia ia total ) es lo que se denomina refuerzo continuo El refuerzo contínuo no es la única (ni la más eficaz) alternativa para el aprendizaje por CO; por el contra con trario rio,, constit constituye uye sólo sólo un caso caso muy pa partic rticula ular. r. Lo Los s casos casos en qu que e la rel relaci ación ón res respu pues estataconsecu cons ecuente ente no es completa (es deci decir, r, no cualquier cualquier emisión emisión de la respues respuesta ta va seg seguida uida del consecuente) se denominan situaciones de refuerzo parcial (. parcial  (. Es fácil ver que el refuerzo parcial es lo más común en situaciones naturales naturales (ajenas al laboratorio o la clínica). Un  programa de refuerzo es una regla que especifica exactamente bajo qué condiciones la emisión de la respuesta va a ser seguida del reforzador. Los programas de reforzamiento son, según muchos autores, autores, una de las variables independientes más pode podero rosa sas s de la psico psicolog logía, ía, en el senti sentido do de qu que e conoci conociend endo o el progr programa ama concre concreto to administrado a un organismo, organismo, se pueden pueden predecir predecir confiablemente muchas cosas respecto a la conducta adquirida.

4.1.- Programas básicos. Los programas básicos (también llamados "simples") puede pueden n ser  •



De razón: se administra el reforzador sólo tras la emisión de un número determinado de respuestas. De intervalo: intervalo: se administra el reforzador a la primera respuesta que se produce una vez transcurrido un intervalo de tiempo establecido, establecido, contado desde el último reforzador.

A su vez, la razón o el intervalo pueden s ser  er  • •

Fijos : con el mismo valor a lo largo de toda la adquisición Variables:: con distintos valores Variables valor es a lo largo de la sesión, que oscilan en torno a un promedio.

Esto da lugar a los cuatro tipos de programas básicos: RF- n, IF-n IF-n, RV-n e IV-n IV-n, donde n es el valor de la razón o el intervalo (o su promedio, si es un programa variable). En la aplicación de un programa de reforzamiento a un organismo que no ha sido objeto de aprendizaje previo, normalmente se comienza por un proceso de moldeado, luego se sigue con reforzamient reforz amiento o contí contínuo nuo y finalmente finalmente se va progresiv progresivamente amente aumentando aumentando las exigencia exigencias s hasta hasta llegar al programa deseado. 4.1.1.- Razón fija

Se administra un estímulo reforzador por cada n respuestas. respuestas. En un programa RF-10, cada décima emisión de la R va seguida de una recompensa.

7

 

Esquema Tema 4

Este programa produce una tasa de respuesta típicamente alta y estable. Si la razón es alta, a menudo el organismo se toma pausas inmediatamente a continuación de la administración del reforzador. RF-20

RF-10

Respuestas emitidas

Pausas

acumuladas

Tiempo --> Registro acumulativo típico de una rata sometida a entrenamiento de recompensa mediante un  programa RF-10 (izda.) y un programa RF-20 (dcha). Los trazos gruesos y cortos indican los puntos e que se administró recompensa

4.1.2.- Razón variable

Los programas de razón variable son especialmente importantes, ya que (dentro de los simples) son los que más se aproximan a las situaciones naturales. Un programa RV especifica que el reforzador se administra tras un número de respuestas que varía a cada vez. Así, por ejemplo, en un RV-5 la recompensa se puede administrar tras 7, 3, 11, 2, 3, 5... respuestas, de forma que el promedio total sea 5 respuestas a lo largo de la sesión. Los programas RV generan la tasa de respuestas más alta (lo que se manifiesta en el registro acumulativo acumu lativo por una gran pendien pendiente) te) y constant constante e (no aparecen aparecen pausas, pausas, excepto en el caso de razones muy grandes).

8

 

Esquema Tema 4

RV-20

RV-10

Respuestas emitidas acumuladas

 Tiem o --> Registro acumulativo típico de una rata sometida a entrenamiento de recompensa mediante un  programa RF-10 (izda.) y un programa RF-20 (dcha). Los trazos gruesos y cortos indican los puntos e que se administró recompensa

4.1.3.- Intervalo fijo

En los programas IF se desde administra el reforzador la reforzador. primera emisión de la respuesta unainicia vez transcurrido un intervalo la anterior emisiónadel Es decir, cada reforzador un intervalo en el cual las Rs no son recompensadas. recompensadas. El organi organismo smo apren aprende de a antici anticipar par cuánd cuándo o va a estar estar dispon disponibl ible e el sig siguie uiente nte reforza reforzado dor, r, y progresivamente disminuye su tasa de respuestas al principio del intervalo y la aumenta hacia el finall del mismo. fina mismo. Por ello, ello, esto estos s progra programa mas s ter termin minan an po porr produ producir cir un car caráct ácterí erísti stico co regist registro ro acumulativo festoneado: festoneado: IF-30sg. Respuestas emitidas acumuladas

Pocas Rs en el principio del intervalo

Muchas Rs al final del intervalo

Tiempo Registro acumulativo acumulativo típico de una rata sometida a IF-30sg.

Los programas IF producen una tasa de respuesta global más baja que los de razón, y menos estable debido a las variaciones dentro de cada intervalo.

4.1.4.- Intervalo variable

9

 

Esquema Tema 4

Los programas programas de intervalo variable son como los anteriores, sólo que el intervalo oscila en torno a un valor promedio.

IV-30sg. Respuestas emitidas acumuladas

Tiempo

Registro acumulativo típico de una rata sometida a IV-30sg.

.

Dan lugar a una tasa de respuesta moderada que, globalmente, es más o menos igual que la de IF, pero mucho más estable. Al no ser predecible por el organismo la duración del intervalo, no hay diferencias locales de tasa de respuesta (el organismo responde a un ritmo sostenido). Por este motivo, es un programa idóneo para establecer Rs que se van a emplear como línea base de ulteriores tratamientos o experimentos (en particular, se emplean muy a menudo como punto de partida para el estudio de condicionamiento clásico mediante supresión condicionada – ver tema 3). En líneas líneas generale generales, s, cabe cabe formula formularr las siguientes siguientes conclusio conclusiones nes sobre los cuatro programas programas básicos: 1) Los programas de razón dan lugar a tasas de respuesta más altas. 2) Los programas variables dan lugar a tasas de respuestas más estables (contínuas). 3) En gener general, al, los los result resultado ados s de la investi investigac gación ión con los di disti stinto ntos s pro progra gramas mas so son n basta bastante nte consistentes de unas especies a otras.

10

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF