Want to make creations as awesome as this one?

More creations to inspire you

Transcript

B.F.Skinner

Diferencias

Contextualiza tu tema con un subtítulo

Bibliografía

Autor

Condicionamiento Operante

CondicionamientoClásico

Experimentos

ConceptosTeoricos

Aprendizaje

Experimentos

Proceso

Aprendizaje

Elementos

Elementos

Reducción de la pulsión

Sustitución de estímulos

Función adaptativa

Función adaptativa

Respuesta Anticipatoria

Principio de Premack

Privación de la respuesta

Teorías

Teorías

Proceso de aprendizaje

Conductismo

Autor

Bibliografía

Edward Lee Thorndike(1874-1949)

Conceptos

Teorias

Aprendizaje vicario

Experimentos

Proceso del Aprendizaje

Conceptos teoricos

Conducta adaptativa

Albert Bandura

Experimentos

Proceso de Aprendizaje

Conceptos teoricos

Conducta adaptativa

Teoría de Bandura

Teoría Miller-Dollar

Proceso básico deL aprendizaje

modelo EFICAZ

modelado eficaz

Nota. Tomado de Chance, P. (1999). “Thorndike’s puzzle boxes and the origins of the experimental analysis of behavior”, en Journal of the Experimental Analysis of Behaviour, 72, 433-440.

[...] Thorndike estudió esta cuestión a partir de la investigación empírica, para lo cual construyó una serie de cajas problema para sus experimentos. Su procedimiento de entrenamiento consistía en colocar a un animal hambriento (un gato, un perro o un pollo) en la caja problema y algo de comida en el exterior de modo que el animal pudiera verla. La tarea del animal era aprender a salir de la caja y obtener la comida (Domjan, 2006, p.145).[...] Diferentes cajas problema requerían distintas respuestas para salir. Algunas más sencillas que otras. La figura 1 ilustra dos de las más simples. En la caja A, la respuesta requerida era jalar un aro para abrir un cerrojo que bloqueaba la puerta desde afuera. En la caja I, la respuesta que se pedía era presionar una palanca, con lo cual se abría el cerrojo. Al principio, los sujetos tardaban en dar la respuesta correcta, pero al continuar la práctica con la tarea, sus latencias se hicieron cada vez más cortas. El gato necesitó 160 segundos para salirde la caja A en el primer ensayo; más tarde, su latencia más corta fue de seis segundos (Domjan, 2006, p.146).

Thorndike. Experimentacion empírica de la inteligencia animal.

Figura 1.Dos de las cajas problema de Thorndike, A e I. En la caja A, el sujeto tenía que jalar un aro para abrir la puerta. En la caja I, la presión de una palanca abría el cerrojo en el otro costado. Izquierda.

[...] Con frecuencia, las personas son reforzadas por modelar la conducta de los demás. Bandura ha sugerido que el entorno refuerza el modelado, aunque también puede castigarlo algunas veces, de alguna de estas maneras:El observador resulta reforzado por el modelo. Con frecuencia las personas refuerzan a quienes les imitan. Por ejemplo, es más probable que un grupo de chicas adolescentes acojan en su seno a una chica nueva si ésta se viste como ellas. Una pandilla de chicos delincuentes, probablemente, acepte a un nuevo miembro sólo si éste se comporta como un matón. Los adultos también suelen reforzar a los niños por imitar las conductas que se consideran apropiadas en su cultura.El observador es reforzado por una tercera persona. En ocasiones, el individuo resulta reforzado por una tercera persona y no por el modelo. Por ejemplo, los niños suelen ser reforzados cuando imitan a otros niños. La conducta imitada produce por sí misma consecuencias reforzantes. Muchas conductas que aprendemos observando a los demás producen resultados satisfactorios (reforzantes).Las consecuencias de la conducta del modelo afectan de manera vicaria a la conducta del observador. Cuando las personas observan a un modelo que está realizando una conducta determinada, es posible que también observen la consecuencia de esta conducta. Si el modelo resulta reforzado por dar esa respuesta, entonces el observador, probablemente, también muestre un aumento de esa misma conducta; este fenómeno se conoce como reforzamiento vicario (Ormrod, 2005, pp.144-145).

El entorno refuerza y castiga el modelo

Bibliografía

Domjan, M. (2006). Principios de aprendizaje y conducta. Thompson.Gómez, J., Peña, B., González, E., León, B. B., Rodríguez, A. M. y González, C. E. (2023). Aportaciones de las teorías conductuales del aprendizaje. Aprendizaje, Licenciatura en Psicología. CUAIEED/Facultad de Estudios Superiores Iztacala-UNAM. Ormrod, J. E. (2005). Aprendizaje humano (4.a ed.). Pearson. https://saberespsi.files.wordpress.com/2016/09/ellis-aprendizaje-humano.pdf

[...] Thorndike formuló la ley del efecto, la cual plantea que si una respuesta dada en presencia de un estímulo es seguida de un evento satisfactorio, la asociación entre el estímulo (E) y la respuesta (R) es fortalecida. Si la respuesta es seguida de un evento molesto, la asociación E-R se debilita. En este punto es importante enfatizar que, de acuerdo con la ley del efecto, lo que se aprende es una asociación entre la respuesta y los estímulos presentes en el momento en que ésta se realiza. Advierta que la consecuencia de la respuesta no es uno de los elementos de la asociación. La consecuencia satisfactoria o molesta simplemente sirve para fortalecer o debilitar la asociación entre el estímulo precedente y la respuesta(Domjan, 2006, p.147).

Elementos o conceptos teóricos que intervienen en el proceso de aprendizaje

[...]Modificación de Comportamientos. La conducta instrumental permite a los individuos aprender a través de la experiencia directa. Al observar las consecuencias de sus acciones, las personas pueden ajustar su comportamiento para maximizar resultados positivos y minimizar negativos. Flexibilidad en la Adaptación. El condicionamiento instrumental proporciona un marco para que los individuos desarrollen flexibilidad en su comportamiento. A través de la experimentación y la observación de las consecuencias de sus acciones, pueden explorar diferentes estrategias para enfrentar situaciones nuevas. Esta capacidad de adaptación es crucial en entornos cambiantes, donde las respuestas efectivas pueden variar.Aprendizaje a Través de la Prueba y Error. El enfoque de Thorndike enfatiza el aprendizaje a través de la prueba y error, lo que permite a los individuos encontrar soluciones efectivas a problemas. Esta metodología fomenta la resiliencia, ya que los individuos aprenden a persistir a pesar de los fracasos iniciales, ajustando su enfoque hasta encontrar una respuesta que funcione.Aplicaciones en la Modificación de Conducta. La ley del efecto y la conducta instrumental son ampliamente utilizadas en terapias conductuales y programas de modificación de conducta. Por ejemplo, en el tratamiento de fobias o adicciones, se pueden reforzar conductas deseadas y debilitar las no deseadas mediante el uso de refuerzos positivos y negativos, lo que facilita la adaptación a nuevas realidades.Influencia en el Aprendizaje Social. La conducta instrumental también se relaciona con el aprendizaje social, donde las personas observan y aprenden de las consecuencias que otros enfrentan. Esto permite a los individuos adaptar su comportamiento sin necesidad de experimentar directamente todas las consecuencias, lo que es especialmente útil en contextos sociales complejos.(Ormrod, 2005).

Conducta Adaptativa

[...] El modelado enseña conductas nuevas. Las personas pueden aprender conductas completamente nuevas observando a los demás realizar estas conductas. Por ejemplo, escuchando e imitando los sonidos que hacen otros, es posible aprender a pronunciar palabras nuevas.El modelado puede animar la ejecución de conductas prohibidas. En ocasiones, cuando las personas observan a un modelo realizar una conducta que previamente se había considerado como prohibida o «inadecuada», y sobre todo cuando se refuerza al modelo por realizar esa conducta, muestran una fuerte tendencia a realizar también dicha conducta. Se trata de situaciones en que el reforzamiento vicario tiene un efecto desinhibidor (ya que conductas previamente inhibidas vuelven a producirse).El modelado incrementa la frecuencia de conductas similares. Cuando una persona observa a un modelo que realiza una conducta determinada, puede que esa persona realice conductas similares aunque no sean idénticas a las del modelo. Por ejemplo, un chico que observa a su hermano mayor jugar al baloncesto, pero que no tiene todavía su estatura, puede intentar destacar en el fútbol (Ormrod, 2005, p.159).(Ormrod, 2005, pp.152-153)

Efectos del modelado sobre la conducta

[...] Aunque Thorndike llamó inteligencia animal a su tratado, muchos aspectos de la conducta le parecían más bien poco inteligentes. No creía que el escape cada vez más rápido de la caja problema se debiese a que los gatos hubiesen comprendido la tarea o descubierto el diseño del mecanismo de salida. Más bien, su interpretación fue que los resultados de sus estudios reflejaban el aprendizaje de una asociación E-R (Estímulo-Respuesta). Cuando un gato era colocado en una caja, al principio desplegaba una variedad de respuestas típicas de un animal confinado. A la larga, alguna de esas respuestas lograba abrir la puerta. Thorndike creía que esos escapes exitosos conducían al aprendizaje de una asociación entre los estímulos presentes en la caja problema y la respuesta de escape. A medida que se fortalecía la asociación, o conexión, entre las señales de la caja y la respuesta exitosa, el animal realizaba la respuesta con más rapidez. La consecuencia de la respuesta exitosa fortalecía la asociación entre los estímulos de la caja y dicha respuesta.(Domjan, 2006, p.146).

Proceso del aprendizaje.

[...] Si bien los primeros teóricos del aprendizaje mediante modelos intentaron explicar la conducta imitativa desde la perspectiva del condicionamiento operante, también es cierto que encontraron algunos problemas. Por una parte, el condicionamiento operante no explica el efecto del castigo; si bien, como demuestra el estudio de Bandura sobre los niños que jugaron con juguetes prohibidos, el castigo sí influye sobre la conducta. Un segundo problema es que puedan aprenderse conductas completamente nuevas simplemente observando cómo las hacen los demás. El condicionamiento operante debe comenzar a partir de una respuesta, que entonces podrá modificarse mediante modelado. Por lo tanto, desde una perspectiva estrictamente skinneriana, resulta difícil explicar la adquisición de respuestas completamente nuevas que un individuo ha observado, pero que nunca había realizado con anterioridad.Una tercera dificultad para explicar el modelado como un caso específico de condicionamiento operante, es el fenómeno de la imitación diferida: algunas conductas que se han aprendido observando a los demás no aparecen de manera inmediata, sino en un momento posterior. Sin embargo, el paradigma del condicionamiento operante establece que:(E+) R --> Erf Estas tres facetas del modelo (estímulo discriminativo (E+), respuesta (R), y reforzamiento (Erf), deben actuar precisamente en este orden. Sin embargo, como ha señalado Bandura , la respuesta y el reforzamiento no siempre aparecen inmediatamente después del estímulo discriminativo, sino que pueden tener lugar días o, incluso, semanas más tarde. Pero para que se produzca esta imitación diferida, es necesario que de hecho se haya producido un aprendizaje en presencia del estímulo discriminativo, a pesar de que no haya existido reforzamiento.Un cuarto problema radica en el poderoso efecto del reforzamiento vicario, ya que las personas muestran conductas que nunca han sido reforzadas (Ormrod, 2005, p.147).

Análisis del aprendizaje mediante modelos bajo el paradigma del condicionamiento operante

El aprendizaje vicario u observacional consiste en observar la ejecución de un modelo y las consecuencias de la conducta de éste.[...] Bandura hace una distinción entre el aprendizaje por observación (lo que él denomina adquisición vicaria) y la imitación de lo que se ha aprendido. Las personas pueden aprender al observar lo que hacen los demás, sin que sea necesario que imiten las conductas que están observando. Existen al menos dos tipos de pruebas que indican que esta afirmación es correcta. Por una parte, las personas son capaces de describir verbalmente una conducta que han observado, sin necesidad de llevarla a la práctica. Por otra parte, las personas que observan a un modelo realizar una conducta determinada, puede que no pongan de manifiesto dicha conducta hasta que, pasado cierto tiempo, encuentren una razón para hacerlo(Ormrod, 2005, pp.148-149)

Proceso básico del aprendizaje

[...] El poder que tiene el reforzamiento vicario (así como el castigo vicario) queda claramente ilustrado en uno de los primeros estudios de Bandura. Un grupo de niños observó una película en la que un modelo golpeaba a un muñeco de tamaño natural. Posteriormente, algunos de esos niños observaron cómo se reforzaba al modelo, otros observaron cómo se castigaba al modelo, mientras que un tercer grupo no observó ninguna consecuencia por realizar la agresión. Cuando más adelante se coloco a los niños en una sala ante ese muñeco, aquéllos que habían sido testigos del refuerzo por la agresión mostraron una conducta más agresiva que los demás, mientras que los menos agresivos fueron los que habían observado que el modelo había sido castigado tras la agresión.El castigo vicario indica al observador que esa conducta no será tolerada; el reforzamiento vicario señala que esa conducta resulta aceptable. Aparentemente, el hecho de que no se castigue al modelo también parece constituir un reforzamiento vicario que transmite el mensaje de que esa conducta será tolerada.(Ormrod, 2005, p.144-145).

Reforzamiento vicario

Condicionamiento instrumental

[...] La conducta que ocurre, porque antes fue decisiva para producir ciertas consecuencias, se denomina conducta instrumental. El hecho de que las consecuencias de una acción puedan determinar si uno realizará la respuesta de nuevo resulta evidente para cualquiera. Si encuentra un billete de un dólar al mirar hacia abajo, seguirá mirando el piso mientras camina. Lo que no resulta tan evidente es la forma en que dichas consecuencias influyen en la conducta futura (Domjan, 2006, p.144).[...] El principio formal de los análisis teóricos y de laboratorio del condicionamiento instrumental fue el trabajo del psicólogo estadounidense E. L. Thorndike, cuyo propósito original era estudiar la inteligencia animal . La teoría evolutiva de Darwin estimuló las especulaciones sobre el grado en que las capacidades intelectuales humanas estaban presentes en los animales. Thorndike estudió esta cuestión a partir de la investigación empírica, para lo cual construyó una serie de cajas problema para sus experimentos. Su procedimiento de entrenamiento consistía en colocar a un animal hambriento (un gato, un perro o un pollo) en la caja problema y algo de comida en el exterior de modo que el animal pudiera verla. La tarea del animal era aprender a salir de la caja y obtener la comida (Domjan, 2006, p.146).

JORGE MONTOYA ZEFERINO 084300528 1250 - APRENDIZAJE 1216

[...]De acuerdo con Bandura, son necesarios cuatro procesos para que un individuo pueda modelar con éxito la conducta de otra persona: atención, retención, reproducción motriz y motivación.Atención. Para poder imitar adecuadamente una conducta, lo primero que se necesita es prestar atención al modelo y, especialmente, a los efectos relevantes de la conducta modelada.Retención. Y el segundo paso necesario para aprender de un modelo es recordar la conducta que se ha observado. Una manera muy simple de recordar lo que se ha visto es ensayar, esto es, repetir una y otra vez lo que queremos recordar.Reproducción motriz. El tercer proceso implicado en el modelado es la repetición de la conducta que ha mostrado el modelo. Cuando un individuo no puede reproducir la conducta que ha observado, quizá debido a su inmadurez física, su falta de fortaleza o su incapacidad, evidentemente este tercer proceso no puede producirse.Motivación. El último ingrediente necesario para se produzca el modelado es la motivación: los aprendices deben desear demostrar lo que han aprendido. Por ejemplo, muchas personas que han crecido en nuestra sociedad han tenido múltiples oportunidades de observar un modelo en la televisión que pone una pistola en la nuca de alguien y le dice «levanta las manos» (o algo por el estilo). Afortunadamente, hay pocas personas dispuestas a repetir esa conducta, al menos con una pistola auténtica. (Ormrod, 2005, pp.156-159).

Procesos necesarios para que se produzca un modelado eficaz

[...] Según Bandura, muchas de las conductas que exhiben las personas se han adquirido mediante observación y modelado.Tipos de modelos Bandura ha identificado tres tipos de modelo diferentes. Cuando pensamos en el modelado, solemos imaginar un modelo viviente, esto es, una persona real que muestra una conducta determinada. Sin embargo, también es posible aprender observando a un modelo simbólico, esto es, una persona o un personaje que aparece en una película, en un programa de televisión, en un libro o en cualquier otro medio. Por ejemplo, muchos niños modelan su conducta imitando a jugadores de fútbol, cantantes de rock o personajes como Superman, etc. También, podemos aprender mediante instrucciones verbales, esto es, descripciones de cómo comportarnos, sin necesidad de que haya presente otro ser humano, ya sea real o imaginario. Muchas conductas se aprenden, al menos en parte, mediante el modelado. Hay tres tipos de conducta, como son las capacidades académicas, la agresividad y la moralidad,que han acaparado una gran cantidad de investigación dirigida a analizar el impacto del modelado(Ormrod, 2005, pp.152-153)

Modelado

[...] El aprendizaje es una variación del aprendizaje operante, ya que la modificación en el comportamiento del observador es consecuente a la observación misma y no al comportamiento del modelo; es decir, se refuerza la conducta imitativa y no la conducta misma. Por ejemplo, un modelo se acercó a una máquina de dulces, la cual arrojó los caramelos de acuerdo con una cierta combinación. Los niños que lo imitaron igualmente recibieron los dulces; por lo tanto, la imitación se vuelve una función del reforzamiento. No obstante, más adelante se dieron cuenta de que la imitación ocurría incluso en ausencia de reforzamiento para la conducta del observador, es decir, los mismos niños imitaron a modelos en otras situaciones a pesar de no recibir reforzamiento (Gómez et. ál., 2023)

Teoría Miller-Dollar

[...] Las personas más adecuadas para servir como modelos reales o simbólicos para los demás, tienden a poseer alguna de las siguientes características: El modelo es competente. Los individuos considerados como personas competentes y capaces tienen mayor probabilidad de ser imitados por los demás.El modelo tiene prestigio y poder. Las personas que tienen un elevado estatus, respeto y poder, ya sea dentro de un pequeño grupo o en un ámbito social más amplio, tienen más probabilidad de servir como modelos.El modelo se comporta de una manera estereotipadamente apropiada a su sexo. Los varones tienen mayor tendencia a reproducir conductas congruentes con los estereotipos masculinos, mientras que las mujeres hacen lo propio con los estereotipos femeninos.La conducta del modelo resulta relevante para la situación del observador. Los individuos tienen más tendencia a reproducir conductas que tienen valor para ellos mismos.(Ormrod, 2005, pp.160-161).

Características de los modelos eficaces

Aprendizaje por imitación y modelado

[...] El estudio del aprendizaje a través de la imitación tiene su origen en dos alumnos de Clark Hull, Neal Miller y John Dollard (1941). Sin embargo, no fue hasta a principios de los años sesenta cuando empezó a tomar forma una teoría de la imitación y el modelado independiente de sus raíces conductistas. El desarrollo de esta teoría, denominada originalmente aprendizaje por observación, se debe en gran medida a la investigación de Albert Bandura en la Universidad de Stanford. La perspectiva de Bandura ha evolucionado de manera considerable a lo largo del tiempo, y continúa siendo una fuerza impulsora de estudios sobre la imitación y el modelado (Ormrod, 2005, p.143)

[...] El aprendizaje vicario u observacional es una conducta que permite al individuo imitar el modelo que sobrevive, por lo cual el sujeto que observa tiene mayores probabilidades de desarrollar conductas adaptativas. Este tipo de aprendizaje también es conocido como observacional debido a que se basa en considerar que un organismo puede aprender observando la conducta de otro. Los primeros experimentos que se realizaron fueron en animales; sin embargo, más adelante se trasladaron al estudio del aprendizaje vicario en humanos (Gómez et. ál, 2023).

Aprendizaje vicario

Se le conoce también como teoría de la mediación cognitiva. Bandura propuso que el aprendizaje vicario se logra a partir de lo que el observador hace mientras está observando, es decir, la conducta encubierta que hace referencia al pensamiento; los dos principales tipos de conducta encubierta que influyen son los procesos de atención y los de retención.[...] Los procesos de atención se relacionan con la selección de aspectos a los cuales el observador decide prestar atención, es decir, los elementos que considera más relevantes de la conducta y de la consecuencia. Para poder imitar adecuadamente una conducta, lo primero que se necesita es prestar atención al modelo y, especialmente, a los efectos relevantes de la conducta modelada. El segundo paso necesario para aprender de un modelo es recordar la conducta que se ha observado. Una manera muy simple de recordar lo que se ha visto es ensayar, esto es, repetir una y otra vez lo que queremos recordar.Los procesos de retención son aquellas estrategias que el observador ejecuta para recordar la conducta del modelo; por ejemplo, mediante el uso de palabras que describen lo que realiza el modelo o al repetir la conducta muchas veces para no olvidarlo.Según Bandura, las personas almacenan tanto representaciones verbales (tales como las instrucciones paso a paso que describen las acciones que se han de hacer) cómo imágenes visuales de las conductas que han observado. Dichos códigos mnemotécnicos verbales y visuales actúan como guías cuando es necesario realizar la conducta que se ha observado, tanto si se hace inmediatamente como pasado un tiempo (Ormrod, 2005, p.156).

Teoría de Bandura

[...] Antes del siglo XX, las dos perspectivas dominantes en la Psicología eran el estructuralismo (basado en el trabajo de Wilhelm Wundt) y el funcionalismo (basado en el trabajo de John Dewey). Aunque ambas perspectivas diferían considerablemente en sus supuestos subyacentes y en los temas de estudio, compartían una debilidad común: carecían de una metodología de investigación precisa y cuidadosamente definida. La manera en que los estructuralistas estudiaban el aprendizaje y otros fenómenos psicológicos, era mediante un método denominado introspección: se pedía a las personas que «mirasen» en su interior y describiesen su mente y su pensamiento. Pero, al iniciarse el nuevo siglo, algunos psicólogos empezaron a criticar esta estrategia introspectiva debido a su subjetividad y a su carencia de rigor científico. Les preocupaba que, sin métodos de investigación más objetivos, la Psicología nunca pudiera llegar a ser considerada como una ciencia.Gracias a los esfuerzos del fisiólogo ruso Iván Pavlovy el trabajo del psicólogo americano Edward Thorndike, fue apareciendo una estrategia más objetiva para estudiar el aprendizaje, que se caracterizaba por centrarse en los fenómenos observables y no en los acontecimientos mentales no observables. Estos investigadores preferían analizar la conducta, ya que es algo que puede verse con facilidad y describirse de manera objetiva, con lo que nació el movimiento conductista.(Ormrod, 2005, pp.38-39)

Nacimiento del conductismo

[...] Se denomina condicionamiento operante al procedimiento donde la conducta se fortalece o se debilita. Se le conoce así debido a que la conducta opera sobre el ambiente.[...] Es posible parafrasear el principio básico del condicionamiento operante propuesto por Skinner (1938) de la siguiente manera: Una respuesta que va seguida por un refuerzo se fortalece y, por lo tanto, tiene más probabilidad de volver a producirse. En otras palabras, aquellas respuestas que son reforzadas tienden a incrementar su frecuencia.Dado que una respuesta que aumenta su frecuencia supone un cambio de conducta; desde un punto de vista conductista, el refuerzo produce aprendizaje. Por ejemplo, Skinner encontró que las ratas aprenden a presionar barras de metal y que las palomas aprenden a picotear discos de plástico, para conseguir comida (Ormrod, 2005, pp.62-63).

Definición

[...] Los estudios sistemáticos del condicionamiento clásico comenzaron con el trabajo del genial fisiólogo ruso Pavlov, aunque también fue descubierto, de manera independiente, por Edwin Twitmyer en una tesis doctoral presentada en la Universidad de Pennsylvania en 1902. Twitmyer probó repetidamente el reflejo patelar en estudiantes universitarios haciendo sonar una campana 0.5 segundos antes de golpear el tendón patelar, justo debajo de la rótula. Después de varios ensayos de este tipo, la sola campana provocaba el reflejo patelar en algunos de los participantes. Sin embargo, Twitmyer no exploró las implicaciones más amplias de sus descubrimientos por lo que sus hallazgos no tuvieron la atención debida (Domjan, 2006, pp.69-70).

Primero años del condicionamiento clásico

[...] Los estudios de Pavlov, relativos al condicionamiento clásico, fueron una extensión de su investigación sobre los procesos digestivos. Además hizo grandes avances en el estudio de la digestión, a partir del desarrollo de técnicas quirúrgicas, las cuales le permitieron recolectar diversos jugos digestivos. Por ejemplo, gracias al uso de una fístula estomacal pudo recoger las secreciones estomacales en perros que llevaban una vida normal. Los técnicos del laboratorio descubrieron que los perros secretaban jugos estomacales en respuesta a la vista de la comida, o incluso al ver a la persona que solía alimentarlos. A partir de este descubrimiento el laboratorio comenzó a producir grandes cantidades de jugos estomacales, vendiendo los excedentes a la población general como remedio para diversos males estomacales, lo que ayudó a complementar el ingreso del laboratorio. Los asistentes del laboratorio se referían a las secreciones estomacales, provocadas por los estímulos relacionados con la comida, como secreciones psíquicas, pues parecían ser la respuesta a la expectativa o pensamiento en la comida. Sin embargo, el fenómeno de las secreciones psíquicas generaron poco interés científico hasta que Pavlov reconoció que podían utilizarse para estudiar los mecanismos del aprendizaje asociativo, así como para obtener información sobre las funciones del sistema nervioso. Como muchos grandes científicos, las contribuciones de Pavlov no fueron importantes sólo por haber descubierto algo nuevo, sino porque entendió cómo colocar ese descubrimiento en un marco conceptual convincente (Domjan, 2006, pp.69-70).

Figura 1.Diagrama de la preparación de condicionamiento pavloviano salival.

Nota. Una cánula sujetada al conducto salival del animal lleva las gotas de saliva a un artefacto de registro de datos. Tomado de Domjan, M. (2006). Principios de aprendizaje y conducta, p.70.

[...] Nació, en 1849, en la familia de un sacerdote ruso, y dedicó su vida a la erudición y el descubrimiento. Recibió la educación temprana en un seminario teológico local y tenía planeado dedicarse al servicio religioso. Sin embargo, sus intereses cambiaron y cuando tenía 21 años, ingresó a la Universidad de San Petersburgo donde se interesó en el estudio de la química y la fisiología animal. Después de obtener el equivalente a la licenciatura, en 1875 ingresó a la Academia Imperial de Medicina y Cirugía para continuar su educación en fisiología. Ocho años más tarde, recibió su grado doctoral por la investigación sobre los nervios eferentes del corazón y luego comenzó la investigación de varios aspectos de la fisiología digestiva.En 1888 descubrió los nervios que estimulan las secreciones digestivas del páncreas, hallazgo que inició una serie de experimentos por los cuales fue galardonado con el Premio Nobel de Fisiología en 1904. Aunque Pavlov realizó muchas investigaciones originales mientras estudiaba el posgrado y después de obtener su grado doctoral, no obtuvo un puesto docente ni su propio laboratorio, sino hasta 1890, cuando fue designado profesor de farmacología en la Academia Médico Militar de San Petersburgo. En 1895 se convirtió en profesor de fisiología en la misma institución. Mantuvo su actividad en el laboratorio hasta cerca de su muerte en 1936. De hecho, buena parte de la investigación por la que hoy es famoso fue realizada después que recibió el Premio Nobel (Domjan, 2006, p.69)

Ivan P. Pavlov

[...] El procedimiento básico de Pavlov para el estudio de la salivación condicionada es familiar para muchos. El procedimiento involucra dos estímulos, el primero es un tono o una luz que al principio del experimento no provocan salivación, y el segundo es comida o el sabor de una solución ácida colocada en la boca. En contraste con la luz o el tono, la comida o el sabor ácido provocan una vigorosa salivación desde la primera vez que se presentan. Pavlov se refirió al tono o a la luz como el estímulo condicional, ya que su efectividad para provocar la salivación dependía de (o era condicional a) que fuera emparejado varias veces con la presentación de la comida. En contraste, llamó estímulo incondicional a la comida o el sabor ácido porque su efectividad para provocar la salivación no dependía de ningún entrenamiento previo. La salivación que a la larga llegaba a ser provocada por el tono o la luz se denominó respuesta condicional y la que siempre era provocada por la comida o el sabor ácido se designó como respuesta incondicional. De este modo, los estímulos y las respuestas cuyas propiedades no dependían del entrenamiento previo se llamaron incondicionales mientras que los estímulos y las respuestas cuyas propiedades sólo aparecían después del entrenamiento se denominaron condicionales. En la primera traducción al inglés de los trabajos de Pavlov, el término incondicional se tradujo equivocadamente como incondicionado y condicional se tradujo como condicionado. Durante muchos años sólo se utilizó el sufijo ado;sin embargo, el término condicionado no capta el significado original de Pavlov de “dependiente de” con tanta precisión como el término condicional. Dada la frecuencia con que se emplean los términos estímulo condicionado e incondicionado, así como respuesta condicionada e incondicionada en las revisiones del condicionamiento clásico, suelen ser abreviados. Las abreviaturas del estímulo condicionado y de la respuesta condicionada son EC y RC, respectivamente; y las del estímulo incondicionado y de la respuesta incondicionada son EI y RI, respectivamente (Domjan, 2006, p.71).

El paradigma del condicionamiento clásico

[...] Al iniciarse el siglo XX, Iván Pavlov, un fisiólogo ruso cuyos estudios sobre la digestión le llevaron a ganar el Premio Nobel en 1904, estaba realizando una serie de experimentos relacionados con la salivación de los perros. Para estudiar las respuestas de salivación, realizó una incisión quirúrgica en las fauces de los perros para poder recoger y medir la saliva que producían. Tras inmovilizar al perro, le daba un apetitoso trozo de carne y observaba su salivación. Pavlov se dio cuenta de que tras algunas repeticiones de esta experiencia, los perros empezaban a salivar antes de vista u olida la comida; de hecho, empezaban a producir saliva en cuanto el ayudante entraba en la sala. Aparentemente el perro había aprendido que la presencia del ayudante significaba comida, y respondía en consecuencia. Pavlov dedicó buena parte de sus últimos años a realizar un estudio sistemático de este proceso de aprendizaje que había descubierto tan inesperadamente y que resumió en su libro Reflejos condicionados. Los primeros estudios de Pavlov sobre el condicionamiento clásico se desarrollaron de la manera siguiente:1. Comenzó observando si el perro salivaba en respuesta a un estímulo determinado, por ejemplo una luz o el tañido de una campana. Para simplificar la exposición, continuaremos nuestra explicación utilizando la campana como el estímulo en cuestión. Como usted puede imaginar, el perro no encontraba el sonido de la campana como algo especialmente apetitoso, y por lo tanto no producía saliva.2. A continuación Pavlov tocaba la campana e inmediatamente enseñaba comida al perro que, por supuesto, empezaba a salivar. Pavlov repitió este proceso varias veces y observó que el perro salivaba cada una de ellas.3. Entonces Pavlov tocaba la campana pero sin ofrecer comida. A pesar de ello, el perro producía saliva. La campana, ante la cual el perro previamente no había respondido (en el paso 1), provocaba ahora una respuesta de salivación. Así pues, se había producido un cambio de conducta como resultado de la experiencia; así pues, desde la perspectiva conductista, se había producido un aprendizaje (Ormrod, 2005, p.41).

Experimento sobre el condicionamiento clásico

Figura 4.Experimento de Pavlov acerca del condicionamiento clásico

Nota. Garduño, S. (s.f)[Condicionamiento clásico][Esquema] Teoría de la Respuesta Condicionada Iván Pávlov. Tomada de: https://upaeponline-educacionvirtual.fandom.com/es/wiki/Teor%C3%ADa_de_la_Respuesta_Condicionada_Iv%C3%A1n_P%C3%A1vlov?file=Esquema-condicionamiento-cl%C3%A1sico-lifedercom-1.jpg

[...] Analicemos los tres pasos del experimento de Pavlov : 1. Un estímulo neutro (EN) es un estímulo ante el cual el organismo no responde. En el caso de los perros de Pavlov, la campana era un estímulo neutro que no provocaba ninguna respuesta de salivación.2. El estímulo neutro se presenta inmediatamente antes que otro estímulo que sí provoca una respuesta. El segundo estímulo se denomina estímulo incondicionado (EI) ya que el organismo siempre responde a él sin necesidad de haber aprendido a hacerlo. . Para el perro de Pavlov, la comida suponía un estímulo incondicionado ante el cual respondía con la respuesta incondicionada de salivación. clásico.3. Tras emparejarse con un estímulo incondicionado, el estímulo previamente neutro empieza a provocar una respuesta, de manera que deja de ser «neutro». Se convierte entonces en un estímulo condicionado (EC) ante el cual el organismo ha aprendido a emitir una respuesta condicionada (RC).

Análisis del experimento de Pavlov

En el experimento de Pavlov, la campana una vez que se emparejó con la comida (el estímulo incondicionado) se convirtió en un estímulo condicionado que provocaba la respuesta condicionada de salivación. El diagrama de la Figura 1 muestra gráficamente lo que ocurría desde una perspectiva de condicionamiento clásico.la comida (el estímulo incondicionado) se convirtió en un estímulo condicionado que provocaba la respuesta condicionada de salivación (Ormrod, 2005, pp.40-41).

Figura 1. Análisis del condicionamiento clásico de Pavlov

Nota.Tomada de Ormrod, J. E. (2005). Aprendizaje humano, Un análisis del condicionamiento clásico de los perros de Pavlov, p.41.

[...] La primera explicación, y la más duradera, de la naturaleza de la respuesta condicionada fue el modelo de Pavlov de sustitución del estímulo. Según este modelo, la asociación del EC con el EI convierte al estímulo condicionado en un sustituto del EI. El estímulo condicionado llega a funcionar de manera muy parecida a como lo hizo antes el EI, por lo tanto, se supone que el EC activa circuitos neurales que previamente sólo activaba el EI y provoca respuestas similares a las que produce el EI.Pavlov sugirió que el condicionamiento resulta en el establecimiento de nuevas vías neurales funcionales (figura 3). En el curso de los emparejamientos repetidos de los estímulos condicionado e incondicionado, se desarrolla una nueva conexión entre los circuitos neurales que antes eran activados por el EC y los circuitos que previamente sólo eran activados por el EI. Una vez establecida esta nueva conexión, las presentaciones del EC tienen como resultado la activación de los circuitos del EI, lo que a su vez genera conducta similar a la RI. Por lo tanto, de acuerdo con el modelo de Pavlov, el condicionamiento convierte al EC en un sustituto del EI (Donjam, 2006, pp.112-113).

El modelo de sustitución del estímulo

Figura 3.Diagrama del modelo pavloviano de sustitución del estímulo

Nota. La flecha continua indica conexiones neurales preexistentes. La flecha discontinua indica las conexiones establecidas por el condicionamiento. Debido a esas nuevas conexiones funcionales, el EC llega a provocar respuestas que antes eran causadas por el EI. Tomada de Domjan, M. (2006). Principios de aprendizaje y conducta , p.113.

La teoría de la respuesta anticipatoria en el contexto del condicionamiento clásico se centra en cómo los organismos pueden prever y anticipar respuestas basadas en asociaciones aprendidas entre estímulos. Esta teoría se relaciona principalmente con el trabajo de Ivan Pavlov y otros teóricos que han explorado el aprendizaje a través de la asociación.Implicaciones de la Respuesta Anticipatoria Adaptación al Entorno: La capacidad de anticipar respuestas permite a los organismos adaptarse mejor a su entorno. Al aprender a prever eventos, pueden reaccionar de manera más efectiva ante situaciones que requieren una respuesta rápida, como escapar de un depredador o buscar alimento. Evitación de Peligros: La respuesta anticipatoria también ayuda a los organismos a evitar situaciones que podrían ser dañinas. Por ejemplo, si un animal asocia un lugar específico con un evento negativo (como un ataque), aprenderá a evitar ese lugar en el futuro. Desarrollo de Comportamientos Complejos: A medida que los organismos aprenden a anticipar respuestas, pueden desarrollar comportamientos más complejos y adaptativos, lo que les permite interactuar de manera más efectiva con su entorno y otros organismos.

La respuesta anticipatoria

[...] Los conductistas no siempre están de acuerdo respecto a los procesos específicos que explican el aprendizaje. Sin embargo, la mayoría comparten algunos supuestos básicos: Los principios del aprendizaje deberían aplicarse por igual a conductas distintas y a diferentes especies animales.Los procesos de aprendizaje se pueden estudiar con más objetividad cuando el análisis se centra en los estímulos y en las respuestas.Los procesos internos quedan excluidos del estudio científico. No todos los conductistas adoptan una perspectiva tan estricta. Algunos insisten en que los factores internos también son importantes para comprender el aprendizaje y la conducta. Aprender supone un cambio de conducta. Los conductistas han defendido tradicionalmente el aprendizaje como un cambio en una conducta. Los organismos nacen como pizarras en blanco. A medida que algunos conductistas han empezado a tomar en consideración los factores cognitivos, han comenzado a distanciarse de esta definición del aprendizaje tan vinculada a la conducta; en lugar de esto, tratan el aprendizaje y la conducta como aspectos diferentes aunque relacionados. Las teorías más útiles suelen ser las más parsimoniosas. De acuerdo con los conductistas, deberíamos explicar el aprendizaje de todas las conductas, desde la más simple hasta la más compleja, mediante el menor número posible de principios de aprendizaje; este supuesto refleja la preferencia por la parsimonia (concisión) para explicar el aprendizaje y la conducta.(Ormrod, 2005, pp.38-39).

Proceso del aprendizaje

[...]Descartes hizo una contribución muy importante a la comprensión de la conducta cuando planteó el concepto de reflejo. La idea básica de que la conducta puede reflejar al estímulo que la desencadena sigue siendo una parte esencial de la teoría de la conducta. Descartes, y la mayoría de los filósofos que le siguieron, suponían que los reflejos sólo eran responsables de las reacciones simples a los estímulos. Se creía que la energía de un estímulo se traducía directamente en la energía de la respuesta provocada por las conexiones neurales. Entre más intenso fuera el estímulo, más vigorosa sería la respuesta resultante. Esta idea simple de los reflejos es congruente con muchas observaciones causales; por ejemplo, si toca una estufa, entre más caliente esté más rápido retirará la mano. No obstante, algunos reflejos son mucho más complicados.Los procesos fisiológicos responsables de la conducta refleja se entendieron mejor en el siglo xix, y ese entendimiento estimuló nociones más amplias de la acción refleja. Dos fisiólogos rusos, I. M. Sechenov (1829-1905) e Ivan Pavlov (1849-1936), fueron los principales responsables de esos desarrollos. Sechenov propuso que los estímulos no siempre provocan las respuestas reflejas de manera directa y que, en algunos casos, un estímulo puede más bien liberar una respuesta de la inhibición. En esos casos, la fuerza de la respuesta no dependería de la intensidad del estímulo. Esta sencilla idea abrió todo tipo de posibilidades.Pavlov demostró, experimentalmente, que no todos los reflejos son innatos. Es posible establecer nuevos reflejos ante los estímulos por medio de mecanismos de asociación. Por consiguiente, el papel de Pavlov en la historia del estudio de los reflejos es comparable al papel de Ebbinghaus en el estudio de la mente. A ambos les interesaba establecer las leyes de la asociación por medio de la investigación empírica. No obstante, Pavlov no lo hizo en la tradición mentalista sino en la tradición fisiológica de la reflexología. (Domjan, 2006, pp 9-11)

Estudio de los reflejos

Función adaptativa

Conforme a lo revisado, el condicionamiento clásico,explica la función adaptativa del aprendizaje al permitir que los organismos asocien estímulos y respuestas, facilitando su adaptación al entorno. detallamos aspectos clave de cómo este tipo de aprendizaje contribuye a la adaptación: 1. Asociación de EstímulosEl condicionamiento clásico implica la asociación entre un estímulo neutro y un estímulo incondicionado que provoca una respuesta automática. Por ejemplo, en el experimento de Pavlov, los perros aprendieron a asociar el sonido de una campana (estímulo neutro) con la comida (estímulo incondicionado), lo que les llevó a salivar (respuesta condicionada) al escuchar la campana. Esta capacidad de asociar estímulos es fundamental para la supervivencia, ya que permite a los organismos anticipar eventos importantes en su entorno. 2. Respuestas Automáticas y Adaptativas Las respuestas condicionadas son automáticas y reflejas, lo que significa que los organismos pueden reaccionar rápidamente a estímulos relevantes sin necesidad de un proceso de pensamiento consciente. Esta rapidez en la respuesta es crucial en situaciones de peligro, donde una reacción rápida puede ser la diferencia entre la vida y la muerte. 3. Aprendizaje de Comportamientos Seguros El condicionamiento clásico también permite a los organismos aprender a evitar situaciones peligrosas. Si un animal experimenta un malestar (respuesta incondicionada) asociado con un estímulo específico (como un lugar o un objeto), aprenderá a evitar ese estímulo en el futuro. Esto contribuye a la adaptación al entorno al minimizar el riesgo de daño. 4. Flexibilidad y Adaptación El aprendizaje a través del condicionamiento clásico permite a los organismos adaptarse a cambios en su entorno. Por ejemplo, si un nuevo alimento se asocia con una experiencia negativa (como una enfermedad), el organismo aprenderá a evitar ese alimento en el futuro. Esta flexibilidad es esencial para la supervivencia en entornos cambiantes. 5. Implicaciones en el Comportamiento Humano Podemos recurrir a la teoría del condicionamiento clásico para comprender cómo la gente aprende diversas respuestas involuntarias, especialmente, respuestas asociadas con la fisiología y las emociones. Por ejemplo, las personas pueden desarrollar aversiones a determinados alimentos como resultado de su asociación con un dolor de estómago . El condicionamiento clásico explica la función adaptativa del aprendizaje al permitir a los organismos asociar estímulos y respuestas de manera que puedan anticipar eventos, reaccionar rápidamente a peligros, evitar situaciones riesgosas y adaptarse a cambios en su entorno. Esta capacidad de aprender a través de la asociación es fundamental para la supervivencia y el bienestar de los organismos.Lo anterior confiere a un resumen del material bibliográfico revisado y presentado en esta infografía.

[...] B. F. Skinner es indudablemente el teórico del aprendizaje más conocido de todo el conductismo. Aunque comenzó escribiendo novelas de ficción, Skinner fue seducido por las ideas de Pavlov y de Watson . Al igual que hiciera Thorndike, Skinner propuso que adquirimos aquellas conductas que van seguidas de ciertas consecuencias. Sin embargo, al contrario que Thorndike, Skinner sólo habló de la fuerza de las respuestas y no de la fuerza de las conexiones E-R (Ormrod, 2005, p.61).[...] Para estudiar los efectos de las consecuencias mediante una medida precisa de las respuestas en un entorno cuidadosamente controlado, Skinner desarrolló un equipamiento, que se conoce como la caja de Skinner, que goza de una amplia popularidad en la investigación sobre el aprendizaje animal.Observando a las ratas y a las palomas actuar en su caja bajo condiciones diversas, Skinner desarrolló un conjunto de principios que son más una descripción del aprendizaje que una explicación del mismo; por esta razón, algunos psicólogos consideran la perspectiva de Skinner más como una «no teoría» que como una teoría del aprendizaje. Los principios de Skinner del condicionamiento operante, propuestos por primera vez en 1938, han sufrido escasos cambios en las cinco décadas anteriores a su muerte, que tuvo lugar en 1990. Los principios del condicionamiento operante han servido como base para miles de estudios investigación, y se han aplicado ampliamente tanto en contextos educativos como terapéuticos (2005, pp.61-62).

B.F. Skinner

[...] Premack señalaba que las respuestas involucradas con los reforzadores de uso común implican actividades que es muy probable que realicen los animales. En un experimento con reforzamiento alimenticio, por lo general se priva de comida a los participantes que, en consecuencia, se muestran muy propensos a participar en la conducta alimenticia. En contraste, las respuestas instrumentales suelen ser actividades de baja probabilidad. Por ejemplo, la probabilidad de que una rata experimentalmente ingenua presione una palanca es mucho menor que la probabilidad de que coma. Premack (1965) propuso que esta diferencia en las probabilidades de las respuestas es crucial para el reforzamiento. El principio de Premack puede exponerse formalmente de la siguiente manera: Dadas dos respuestas de probabilidad distinta, A y B, la oportunidad para realizar la respuesta de alta probabilidad (A) después de la respuesta de baja probabilidad(B) tendrá como resultado el reforzamiento de la respuesta B. (B " A refuerza B.) La oportunidad para realizar la respuesta de baja probabilidad (B) después de la respuesta de mayor probabilidad (A) no resultará en el reforzamiento de la respuesta A. (A " B no refuerza A.)El principio de Premack se enfoca en la diferencia en la probabilidad de la respuesta instrumental y la respuesta reforzante. Por tanto, se conoce también como principio de probabilidad diferencial. Comer reforzará la presión de palanca, pues, por lo regular, comer es más probable que palanquear. Fuera de eso, la teoría de Premack niega que exista algo especial en un reforzador.La importancia del principio de Premack es que, en potencia, cualquier actividad de elevada probabilidad puede ser un reforzador eficaz de una respuesta que el sujeto no muestre inclinación a realizar. Por ejemplo, en ratas de laboratorio beber una gota de sucrosa es una respuesta de alta probabilidad y, como se podría predecir, la sucrosa es eficaz para reforzar la presión de palanca. Correr en una rueda de actividad también es una respuesta de alta probabilidad en las ratas. Por consiguiente, se podría predecir que correr también será un reforzador eficaz para la presión de la palanca. Numerosos estudios han confirmado esta predicción (Domjan, 2006, pp.236-238).

El principio de Premack

Función adaptativa, aportaciones.

Condicionamiento Operante Refuerzo de conductas deseables: El refuerzo positivo tras una conducta la hace más probable de repetir en el futuro, permitiendo aprender y mantener comportamientos adaptativos. Extinción de conductas perjudiciales: El castigo o la falta de refuerzo tras una conducta la debilita, ayudando a eliminar comportamientos no adaptativos o riesgosos. Moldeamiento por aproximaciones sucesivas: Reforzar pasos intermedios permite desarrollar conductas complejas de manera gradual, facilitando el aprendizaje de habilidades necesarias para adaptarse. Teoría de la Privación de la Respuesta Incremento de la Motivación: La privación de una respuesta genera un aumento en la motivación para realizarla, lo que puede ser crucial en situaciones donde la satisfacción de necesidades es vital para la supervivencia. Por ejemplo, si un animal es privado de acceso al agua, su deseo de beber aumentará, lo que lo llevará a buscar fuentes de agua.Facilitación del Aprendizaje: Al restringir el acceso a una conducta deseada, se puede promover el aprendizaje de comportamientos que faciliten la obtención de esa conducta. Esto puede ser observado en entornos de entrenamiento, donde la limitación de ciertas actividades puede motivar a los individuos a aprender nuevas habilidades o comportamientos.Teoría de la Reducción de Pulsiones Motivación por satisfacer necesidades: Los organismos actúan para reducir estados de malestar causados por necesidades biológicas insatisfechas, lo que impulsa conductas adaptativas para sobrevivir. Refuerzo de conductas que reducen impulsos: Las acciones que disminuyen la tensión generada por un impulso son reforzadas, fortaleciendo su probabilidad de ocurrencia futura. Principio de Premack Refuerzo basado en preferencias: Las actividades más probables de ocurrir pueden usarse para reforzar actividades menos probables, permitiendo moldear conductas al vincularlas con consecuencias deseadas. Flexibilidad en el refuerzo: Utilizar reforzadores basados en preferencias individuales aumenta la efectividad del refuerzo y la adaptabilidad a las necesidades específicas de cada organismo. Lo anterior confiere a un resumen del material bibliográfico revisado y presentado en esta infografía.

[...] La teoría del impulso se basa en la idea de que las personas y otros animales intentan mantener el equilibrio homeostático fisiológico; en otras palabras, intentan mantener sus cuerpos en un estado óptimo de funcionamiento. Un impulso es un estado interno de necesidad del organismo: falta algo necesario para el funcionamiento óptimo (por ejemplo, comida, agua, calor, etc.). Cuando existe un impulso, el organismo se comporta de forma que reduce la necesidad y reinstaura el equilibrio en el cuerpo. Por ejemplo, una persona hambrienta come, una persona sedienta bebe, una persona con frío busca una fuente de calor y una persona cansada se va a la cama. Si no es posible dar inmediatamente una respuesta que reduzca la necesidad, el organismo muestra un aumento general de su actividad —actividad que puede llegar a requerir un estímulo que disminuya la necesidad.Desde la perspectiva de la teoría del impulso, un reforzador es efectivo en la medida en que reduce un estado de necesidad, y por tanto reduce simultáneamente el impulso. Por ejemplo, beber agua es reforzante sólo si el organismo está sediento, una fuente de calor es reforzante sólo si el organismo tiene frío. Las conductas que reducen un estado de necesidad —las conductas que son reforzadas— es más probable que se repitan cuando aparezca de nuevo la misma necesidad en el futuro. Probablemente, la versión más ampliamente citada de la teoría del impulso es la de Clark Hull (1943, 1951, 1952). En 1943, Hull propuso que el impulso se basa en necesidades fisiológicas tales como el hambre y la sed. Todas estas necesidades contribuyen al estado general del impulso del organismo; el impulso en sí no es específico para una necesidad particular. Hull propuso que la fuerza (intensidad) de una conducta está en función de la fuerza del hábito (es decir, el grado en que se han aprendido las asociaciones entre un estímulo particular y una respuesta) y el impulso:Fuerza de la conducta = hábito X impulso En esta relación multiplicativa, tanto el hábito (aprendizaje anterior) como el impulso deben estar presentes; si cualquiera de ellos es nulo, la fuerza de la conducta —la probabilidad de que ocurra— también es nula (Ormrod, 2005, p.483).

Teoría del impulso

[...] En la mayor parte de los procedimientos de condicionamiento instrumental, la probabilidad de la actividad reforzante se mantiene a un nivel elevado restringiendo el acceso al reforzador. A las ratas de laboratorio reforzadas con comida por lo regular no se les da alimento antes de la sesión experimental y reciben una pequeña bolita de comida por cada respuesta de presión de palanca. Esas limitaciones en el acceso a la comida (y a la conducta alimenticia) son muy importantes. Si entregamos a la rata toda una comida por una sola presión de palanca, es posible que no responda más de una o dos veces al día. Generalmente, las restricciones en la oportunidad para realizar la respuesta reforzante incrementan su efectividad como reforzadora.Premack (1965) reconoció la importancia de restringir el acceso al reforzador, pero no era esa la idea principal detrás de su teoría. En contraste, Timberlake y Allison abandonaron del todo el principio de probabilidad diferencial y argumentaron que la restricción de la actividad reforzante era el factor fundamental para el reforzamiento instrumental. La propuesta se denominó hipótesis de privación de respuesta o (en la investigación aplicada) modelo de desequilibrio.En pruebas particularmente decisivas de la hipótesis de privación de respuesta, varios investigadores encontraron que hasta una respuesta de baja probabilidad podía funcionar como reforzador siempre y cuando se impidiera a los participantes realizar dicha respuesta (Timberlake y Allison, 1974; Eisenberg, Karpman y Trattner, 1967). Johnson y sus colaboradores (2003) probaron esta teoría en el escenario de un salón de clases con estudiantes que presentaban retardo mental de moderado a severo. Para cada estudiante los maestros identificaron cosas que no era muy probable que hicieran. Por ejemplo, para Edgar clasificar tarjetas y dibujar letras eran respuestas con baja probabilidad, pero dibujar letras era la menos probable de ambas respuestas. No obstante, la oportunidad de trazar era un reforzador eficaz para la conducta de clasificación si se había restringido el trazado de letras a niveles inferiores a línea base. Este resultado es contrario al principio de Premack y demuestra que la privación de respuesta es más importante para efectos del reforzamiento que la probabilidad diferencial de la respuesta (Domjan, 2006, p.240-241).

La hipótesis de privación de respuesta

[...] El reforzador debe seguir a la respuesta. Los «reforzadores» que van delante de las respuestas casi nunca ejercen efecto sobre ellas. Por ejemplo, hace muchos años un par de profesores de mi universidad estaban preocupados por las calificaciones, debido a que podrían resultar «amenazantes» e interferir en el aprendizaje de sus alumnos; por lo tanto el primer día de clase anunciaron a todos que recibirían un aprobado en la asignatura. A partir de entonces, la mayoría de los estudiantes ya no volvieron a clase, de manera que se produjo muy poco aprendizaje ante el cual pudiera interferir algún tipo de calificación. Los reforzadores siempre, siempre deben seguir a la conducta deseable.El reforzador debe ofrecerse de manera inmediata. Un reforzador tiende a reforzar la respuesta que le precede de manera inmediata. Por lo tanto, resulta menos eficaz cuando se retrasa su presentación, ya que durante ese intervalo el organismo está realizando otras conductas que pueden ser las que de hecho queden reforzadas. En una ocasión, mientras estaba enseñando a una paloma a picotear un disco de plástico, cometí un grave error: una vez que había picoteado el disco esperé demasiado tiempo antes de ofrecer el refuerzo, y mientras tanto la paloma había empezado a girar sobre sí misma. A partir de ahí, la paloma empezó a girar frenéticamente en el sentido contrario a las agujas del reloj, y tardé bastante tiempo en conseguir que volviera a dar la respuesta que yo tenía planeada. El reforzador debe ser congruente con la respuesta. En condiciones ideales, el reforzador debería presentarse solamente cuando se ha producido la respuesta deseada, esto es, cuando el reforzador está vinculado con la respuesta. Por ejemplo, los profesores suelen especificar qué condiciones deben cumplir los niños para que puedan ir de excursión: traer un permiso de sus padres, realizar las tareas, etc. Cuando estos profesores se compadecen de los niños que no han cumplido las condiciones, y les permiten ir a la excursión, el reforzamiento no es congruente con la respuesta y, por lo tanto, los niños no aprenderán una conducta aceptable. Si acaso lo que aprenderán es ¡que las reglas pueden romperse impunemente! (Ormrod, 2005, pp.63-64)

Condiciones importantes para el condicionamiento operante

JORGE MONTOYA ZEFERINO 084300528 1250 - APRENDIZAJE 1216

Bibliografía

Díaz, J. y Martins, A. (1986). Estrategia de Enseñanza-Aprendizaje. IICA. Domjan, M. (2006). Principios de aprendizaje y conducta. Thompson. Gómez, J., Peña, B., González, E., León, B. B., Rodríguez, A. M. y González, C. E. (2023). Aportaciones de las teorías conductuales del aprendizaje. Aprendizaje, Licenciatura en Psicología. CUAIEED/Facultad de Estudios Superiores Iztacala-UNAM. Ormrod, J. E. (2005). Aprendizaje humano (4.a ed.). Pearson. https://saberespsi.files.wordpress.com/2016/09/ellis-aprendizaje-humano.pdf

[...] Para estudiar los efectos de las consecuencias mediante una medida precisa de las respuestas en un entorno cuidadosamente controlado, Skinner desarrolló un equipamiento, que se conoce como la caja de Skinner, que goza de una amplia popularidad en la investigación sobre el aprendizaje animal. Como se puede observar en la Figura 5, la caja de Skinner que se utiliza para estudiar la conducta de las ratas se compone de una barra metálica que, cuando se baja, hace que caiga comida al alcance del animal. En la versión para palomas, en lugar de una barra metálica, hay un disco de plástico iluminado colocado en una pared; cuando la paloma picotea ese disco, una bandeja con comida queda a su alcance durante un instante. Observando a las ratas y a las palomas actuar en su caja bajo condiciones diversas, Skinner desarrolló un conjunto de principios que son más una descripción del aprendizaje que una explicación del mismo; por esta razón, algunos psicólogos consideran la perspectiva de Skinner más como una «no teoría» que como una teoría del aprendizaje. Los principios de Skinner del condicionamiento operante, propuestos por primera vez en 1938, han sufrido escasos cambios en las cinco décadas anteriores a su muerte, que tuvo lugar en 1990. Los principios del condicionamiento operante han servido como base para miles de estudios investigación, y se han aplicado ampliamente tanto en contextos educativos como terapéuticos.

La caja de Skinner

Figura 5.Una caja de Skinner típica: la bandeja de comida queda al alcance para proporcionar refuerzo.

Nota.Tomada de Ormrod, J. E. (2005). Aprendizaje humano, El condicionamiento operante de Skinner, p.61.

[...] El condicionamiento operante consta de cuatro procedimientos básicos, dos de ellos tienen como resultado el fortalecimiento de la conducta (reforzamiento), mientras que los otros dos la debilitan (castigo). Reforzamiento positivo y negativo. Junto a la distinción entre reforzadores primarios y secundarios, también podemos diferenciar entre reforzamiento positivo y negativo. Examinemos ambas formas de reforzamiento y observemos en qué se diferencian del castigo.Reforzamiento positivo. Supone la presentación de un estímulo después de la respuesta. La comida, una sonrisa, las alabanzas y el éxito son reforzadores positivos.Reforzamiento negativo. En contraste con el reforzamiento positivo, el reforzamiento negativo incrementa una respuesta mediante la retirada de un estímulo, generalmente de carácter aversivo o desagradable (Ormrod, 2005,p.71).

Procedimientos básicos

Comparación entre el reforzamiento positivo y el negativo con el castigo[...] Tanto el reforzamiento positivo como el negativo incrementan las respuestas que les preceden. Sin embargo, el castigo tiende a disminuir esas respuestas. El castigo puede adoptar dos formas, a las que suele denominarse castigo I y castigo II. El castigo I supone la presentación de un estímulo, generalmente de tipo aversivo. Las regañinas y los azotes son ejemplos de este tipo de castigo. El castigo II supone la eliminación de un estímulo, generalmente de tipo agradable. Un ejemplo podría ser la pérdida de privilegios. La Figura 6 ilustra las diferencias entre el reforzamiento positivo, el reforzamiento negativo, el castigo I y el castigo II (Ormrod, 2005,pp.71-72).

Figura 6.Reforzamiento positivo, reforzamiento negativo y castigo

Nota.Tomada de Ormrod, J. E. (2005). Aprendizaje humano, Comparación entre el reforzamiento positivo y el negativo con el castigo, p.72.

[...] Skinner sugirió que, en realidad, existen dos tipos de aprendizaje diferente: el condicionamiento clásico (él utilizaba el término condicionamiento respondiente) y condicionamiento operante. Ambas formas de condicionamiento son diferentes en algunos aspectos importantes, que están resumidos en la figura 7. El condicionamiento clásico depende de que se emparejen dos estímulos, el incondicionado y el condicionado. La respuesta aprendida es una reacción directa e inmediata al estímulo que la precede; esto es, el estímulo condicionado provoca, o evoca, la respuesta condicionada. La respuesta condicionada es automática e involuntaria, de manera que el organismo apenas tiene control sobre lo que está ocurriendo. El hecho de que Skinner utilice el término respondiente señala su idea de que la conducta del organismo es una respuesta involuntaria ante un estímulo. Por el contrario, el condicionamiento operante se produce cuando una respuesta va seguida de un estímulo reforzador. La respuesta es voluntariamente emitida por el organismo, que tiene un completo control sobre la ocurrencia de la misma. El término operante se refiere al hecho de que el organismo opera de manera voluntaria sobre el entorno. Dado que el condicionamiento operante sigue un modelo R->Erf, donde Erf simboliza a un estímulo reforzador, Skinner no fue en absoluto un psicólogo E-R, sino en realidad un psicólogo R-E (Ormrod, 2005, p.65).

Comparación condicionamiento clásico y condicionamiento operante

Figura 7. Diferencias entre el condicionamiento clásico y el condicionamiento operante.

Nota.Tomada de Ormrod, J. E. (2005). Aprendizaje humano, comparación entre el condicionamiento clásico y el condicionamiento operante, p.65)

[...] Algunos teóricos han sugerido que tanto el condicionamiento clásico como el operante están basados en los mismos procesos de aprendizaje. Sin embargo, en la mayoría de las situaciones, ambos modelos de condicionamiento tienen una utilidad diferente a la hora de explicar fenómenos de aprendizaje distintos, por lo que la mayoría de los psicólogos siguen tratándolos como dos formas de aprendizaje distintas. (Ormrod, 2005, p.66)

  • Una respuesta que va seguida por un refuerzo se fortalece y, por lo tanto, tiene más probabilidad de volver a producirse.
Dado que una respuesta que aumenta su frecuencia supone un cambio de conducta; desde un punto de vista conductista, el refuerzo produce aprendizaje
  • Un reforzador es un estímulo o suceso que incrementa la frecuencia de la respuesta a la que sigue. (El acto de proporcionar un reforzador tras una conducta se denomina reforzamiento).
[...] Skinner utilizó intencionadamente el término reforzador en lugar de recompensa para describir una consecuencia que aumenta la frecuencia de una conducta. La palabra recompensa implica que el estímulo que sigue a la conducta es agradable y deseable de una u otra manera, una implicación que Skinner intentó evitar por dos razones. En primer lugar, algunas personas hacen cosas para conseguir lo que otros considerarían consecuencias desagradables. En segundo lugar, lo «placentero» y lo «deseable» suponen un juicio subjetivo, y los conductistas prefieren que los principios psicológicos queden restringidos al dominio de los acontecimientos objetivos y observables. Un reforzador se define no por alusión a su deseabilidad sino por su efecto sobre la conducta.El condicionamiento operante es un incremento de una conducta que se produce cuando va seguida de un reforzador, pero no parece haber otra forma de definir un reforzador excepto diciendo que incrementa la conducta. De esta manera, ¡se utiliza el reforzamiento para explicar que la conducta se incrementa, y el incremento en la conducta para explicar el reforzamiento! Afortunadamente, un artículo de Meehl (1950) permitió a los teóricos del aprendizaje escapar de este círculo vicioso aludiendo a la generalidad intersituacional de un reforzador: el mismo reforzador incrementa muchas conductas diferentes en muchas situaciones distintas (Ormrod, 2005, pp.62-63).

Conceptos