La Memoria como Heurístico

Compartir:

El Regalo de la Madre de las Musas

Idea o metáfora arquetípica de la memoria (de Platón): la memoria es como una tablilla de cera, que tendría distinto tamaño y consistencia en cada individuo, donde quedaría grabada la información.

Esta idea coincide con la metáfora espacial (memoria como un espacio donde se almacenan los recuerdos). Se han realizado numerosas investigaciones que ponen en duda la realidad de este concepto, aunque lo seguimos utilizando por mera economía y funcionalidad lingüística.

Presupuestos teóricos de este modelo espacial de la memoria:
  1. Supuesto de la memoria pura: la memoria y su contenido son entidades diferenciables. La memoria es el continente donde se almacenan los datos aprendidos.
  2. Diferencia entre el contenido y su utilización: Hay que distinguir entre los datos contenidos en la memoria y su utilización. Es decir, hay que diferenciar entre el contenido y los procesos que en ella se realizan (proceso de adquisición o codificación, mantenimiento de la información, recuperación de la información).
  3. Propiedades fundamentales del contenido: la información contenida en la memoria se representa por símbolos. Debido a ello, es necesario que estos símbolos cumplan estas características:
    1. Diferenciabilidad sintáctica: los símbolos han de ser distintos unos de otros.
    2. Diferenciabilidad semántica: distintos símbolos han de significar cosas distintas.
    3. Consenso de los significados: el significado que le da un sujeto a un símbolo coincide con el que le de otro sujeto miembro del mismo grupo.
  4. Equivalencia entre información nominal e información funcional: debe existir acuerdo entre la información que se dice o escribe (es decir, la información objetiva o nominal) y la información que se interpreta de la primera (es decir, su significado o contenido funcional), para todos los miembros del grupo.
  5. Supuesto de reaparición: significa que cuando se recupera un contenido y se trae de la memoria a la conciencia, dicho contenido vuelve igual que cuando se almaceno, es decir, que nuestros recuerdos son una foto fija que no cambia de una vez para otra.

La Calidad de la Reaparición

El objetivo último de la memoria en el modelo espacial es la reaparición (conseguir un archivo al que acudir en cada momento para recuperar la información que necesitemos). Existen muchos factores que inciden en la mejor o peor recuperación de la memoria:
  1. Factores de consolidación: mejoran la calidad del trazo de la memoria, mejorando su calidad, resistencia a la extinción, claridad, durabilidad, resistencia a la interferencia o al decaimiento. Entre estos factores destacan: la repetición, la profundidad de procesamiento, la elaboración y la distintividad.
  2. Factores de olvido: deterioran el trazo y afectan negativamente a su claridad y recuperación. Destacan la interferencia y el decaimiento.

La repetición

Con la repetición se consigue una mayor tasa de aprendizaje, pero la mayor tasa de aprendizaje de los primeros ensayos va decreciendo en los ensayos siguientes (curvas de aprendizaje de Ebbinghaus).

Este efecto de la repetición sobre el rendimiento memorístico se ha interpretado de 2 formas:
  1. Según la orientación funcional: Aquí se defiende que solo existe un trazo único en la memoria (por cada concepto) y que con la repetición este trazo se hace mas fuerte. Así, el aprendizaje está directamente relacionado con el tiempo invertido en él (hipótesis del tiempo total). Esta es la posición dominante.
  2. Según la orientación atomística: Aquí se defiende que cada episodio produce un único e irrepetible trazo de memoria, no se consolida un trazo anterior, aunq los individuos los consideremos nominalmente idénticos.
Hay experimentos (Peterson, 1959 y Rundus, 1971) que han demostrado que la repetición produce un aumento del rendimiento de los participantes. Si a los sujetos se les muestra una lista para recordar, estos recuerdan los ítems que mas han repetido (q suelen ser los primeros de dicha lista: efecto primacía), pero también suelen recordar los últimos (los que tienen frescos: efecto cercanía). Así, la probabilidad de recuerdo de una lista, con respecto a la posición de las preguntas, presenta una forma de U.

Sin embargo, Craik (1970) ha demostrado que la repetición es realmente lo importante (es decir, que es mas importante el efecto primacía que el efecto cercanía), porque si a los sujetos se les pide, después de un tiempo, que vuelvan a decir las palabras que se acuerdan de la lista, ahora se recuerdan mucho mas las primeras palabras que las ultimas. Lo que coincide con la interpretación de Rundus: los primeros ítems son los que mas se repasan, consolidándose el trazo y con un mejor rendimiento en el recuerdo demorado.

La profundidad de procesamiento

Según el enfoque de los niveles de procesamiento, se supone que hay varios tipos o niveles de procesamiento y cuanto mas profundo sea el procesamiento del significado de lo que memoricemos, mayor calidad poseerá su trazo de memoria.

Desde esta perspectiva, el efecto del tiempo (que viene a decir que cuanto mas tiempo se procese una cosa, mejor se almacenará) en realidad se debe a que con mas tiempo, aumenta la probabilidad de realizar un análisis mas profundo de la información.

Hay experimentos (Craik y Tulving, 1975) que han demostrado la mejoría producida por un nivel de procesamiento mas profundo: a los sujetos se les presentaban palabras y se les hacia pruebas que requerían distintos tipos de procesamiento. Pues bien, luego recordaban mejor aquellas palabras que habían tenido que utilizar en situaciones de procesamiento mas profundo.

Este enfoque de los niveles de procesamiento tuvo consecuencias sobre la interpretación de los efectos de la repetición: se concluyó que la simple repetición (procesamiento tipo I) no mejora la calidad del trazo, sino que gracias al repaso se realizaba un análisis mas profundo del estimulo (procesamiento tipo II), que es lo que en realidad tenia efectos positivos en el rendimiento memorístico. Para demostrar esto, Craik y Watkins (1973) y Rundus (1977, 1980) indujeron un tipo de repetición de mantenimiento de información q, debido a que consistía en el recuerdo de un distractor y no permitía un procesamiento profundo, no tuvo consecuencias sobre la calidad del trazo (este se le conoce como procedimiento de recuerdo del distractor).

Así, el repaso que implicaba un procesamiento de tipo I no produce una modificación alguna en el trazo de memoria. A lo sumo, la modificación solo supondría una anotación acerca de la frecuencia de ocurrencia del ítem, que se manifestaría en pruebas de reconocimiento.

Como resumen de la idea de los niveles de procesamiento podemos decir que: la recuperación de la información depende de la calidad del trazo y esta depende del tipo de procesamiento perceptivo que se llevo a cabo para captar esa información.

La elaboración

La elaboración del procesamiento es la cantidad de procesamiento que el sujeto realiza dentro de un nivel (extrayendo y estableciendo nuevas relaciones de la información procesada con sus conocimientos previos dentro de un dominio). Así, la profundidad vimos que era una dimensión cualitativa y la elaboración es una dimensión cuantitativa dentro de cada tipo o nivel de procesamiento. Por lo que pueden considerarse conceptos ortogonales o independientes, se puede elaborar con distinto grado la información a cualquier nivel.

Los experimentos de Kolers con la lectura de textos en formato normal o invertido demostraron un mejor reconocimiento de las frases invertidas debido a la exigencia de un mayor esfuerzo para su procesamiento, lo que demuestra que es posible realizar un procesamiento adicional detallado de las características superficiales.

El efecto de la distintividad

Un trazo es mas distintivo cuanto menos confundible es con otros, y puede ser distintivo porque tenga características intrínsecas distintas o porque se haya almacenado en un contexto distinto. Cuantos más elementos de comparación haya, menor es la distintividad relativa.

Podría pensarse que la distintividad es una consecuencia natural del nivel de procesamiento y de la elaboración, puesto que a medida que se procesa mas un ítem, se extrae mas info, y se puede distinguir mas del resto. Sin embargo, para comprobar en que medida el nivel de procesamiento puede estar afectado por la distintividad, Craik y Tulving (1975) realizaron un experimento en el que demostraron que el rendimiento memorístico esta relacionado con el nivel de procesamiento y no se encontraron efectos según el grado de distintividad.

Veamos algunas características de la distintividad:
  1. Distintividad como contraste: la distintividad de un elemento no es una característica propia del elemento, sino de su relación con todos aquellos que pertenecen a una categoría hipotética de alternativas posibles. Es decir, es el contraste en relación al resto de alternativas.
  2. Perdida de distintividad del contexto de adquisición: la diferencia entre el recuerdo episódico (en el que el contexto de adquisición es recordado) y el recuerdo semántico (en el que no se recuerda la historia de adquisición, solo el concepto) puede ser una cuestión exclusivamente de grado de distintividad del contexto de adquisición. Se puede tener una información mas elaborada de una cosa y, por tanto, una información mas distintiva (x haber sido proporcionada por múltiples fuentes), pero la fuente de la información concreta se nos presenta menos distintiva (por la misma razón anterior).
  3. Distintividad ligada a las demandas especificas de la recuperación: si bien como hemos visto podemos tener una adquisición de la información no muy distintiva, a la hora de tener que recordar, por alguna razón, un aspecto concreto de la misma, dicho aspecto si puede ser bastante distintivo, por lo que la distintividad también está relacionada con las demandas especificas de la recuperación. Ej: hay que memorizar un grupo de 5 chicas que son iguales en todo menos en que una tiene las buflas muy grandes. Si bien en la adquisición la distintividad del grupo será baja, en la recuperación, la distintividad relativa será mayor cuando, por alguna razón (perversa seguro), queramos recuperar solo ese aspecto.

Algunas Peculiaridades

Hemos visto experimentos que tratan de demostrar el modelo de memoria como almacén, sin embargo, informalmente veremos ahora unas peculiaridades de la memoria de los seres vivos, relacionadas con la adquisición de la información, que se contraponen a dicho modelo:
  1. La memoria no es capaz de adquirir cualquier tipo de información, los contenidos preexistentes determinan la información susceptible de adquisición. Esto sucede porque la propia memoria interviene en el proceso de codificación.
  2. La memoria esta estrechamente ligada a dominios informativos.
  3. Cuanta más información se tiene sobre un dominio mas capacidad se tiene de adquirir nuevos datos de ese dominio.
  4. Se considera que la memoria tiene capacidad ilimitada de adquisición de información.
Estas peculiaridades chocan con el presupuesto de la memoria como almacén o con la independencia entre continente y contenido. Según el modelo de memoria como almacén la capacidad se una propiedad del continente, el contenido no tiene que ver nada con ella.

Peculiaridades de la fase de recuperación:
  1. La recuperación es limitada.
  2. La recuperación es inestable.
  3. La recuperación es dependiente de claves o señales ligadas a la información objetivo que se recupera.
  4. Paradójicamente, la interferencia es mayor a medida que los contenidos de los materiales que interfieren entre si aumentan.
A pesar de que estas observaciones se confrontan claramente con los presupuestos de la memoria como almacén, es necesario fundamentar dicha confrontación empíricamente mediante datos de laboratorio. En este sentido, el grupo de investigación de Tulving (grupo de Toronto) ha realizado las mejores investigaciones.

Las investigaciones del equipo de Tulving han encontrado datos que contradicen el supuesto de identidad transituacional de los recuerdos (recuerdos invariables o foto fija) y que apoyan la hipótesis de que la percepción de un episodio puede convertirse en dos recuerdos diferentes si las condiciones de recuperación son diferentes.

Veamos ahora investigaciones que dan resultados que van en contra del supuesto de memoria como almacén:

Accesibilidad y disponibilidad

Tulving y Pearlstone (1966) realizaron un experimento en el que comparaban el numero de palabras recordadas entre 2 grupos. Las condiciones de adquisición fueron idénticas para ambos grupos, pero las condiciones de recuperación fueron distintas: a un grupo se le facilitaba una clave (que era la categoría de un grupo de palabras) y al otro no. El grupo al que se le facilitaba la clave recordó una media de 35 palabras y el otro 15.

Este resultado nos indica la diferencia entre accesibilidad y disponibilidad: los participantes del grupo al que no se le había facilitado la clave no habían olvidado las palabras, pero no podían acceder a ellas, es decir, la información estaba disponible pero no accesible. Esto supone un reto para los defensores de la pérdida de información por decaimiento: demostrar que el olvido se produce en condiciones óptimas de claves de recuperación. A partir de ahora, un fallo de memoria podría interpretarte como un problema de adecuación de la clave de recuperación.

El carácter episódico de las características de la clave de recuperación

Después de demostrar la importancia de las claves de recuperación, Tulving y Osler (1968) realizaron un experimento para demostrar que la eficacia de dichas claves no se debe a una asociación preexperimental con las palabras (es decir, a asociaciones semánticas previamente aprendidas), sino que la asociación tiene que ser episódica (asociación ocurrida dentro del experimento, por presentación en la fase de adquisición).

Así, las conclusiones a las que llegaron con su experimento es que:
  • Las claves en la fase de recuperación no son efectivas si no se han presentado previamente en la fase de adquisición.
  • Las asociaciones débiles pueden funcionar como buenas claves de recuperación, pero siempre si se han presentado en la fase de adquisición.
  • La asociación preexperimental por si sola no es suficiente para ser una clave efectiva, sino que es necesario que se establezca una asociación episódica. La categoría en si y su relación asociativa preexperimental con la palabra memorizada es insuficiente como clave de recuperación.
  • La presencia de una clave de recuperación distinta de la usada en la adquisición no aporta ventajas (incluso empeora).

Continuidad asociativa y efectos del contexto

La “continuidad asociativa” es el supuesto por el que se entiende que un dato mantiene su identidad, mantiene unos lazos estables con su categoría (independientemente del momento y de las distintas asociaciones que se puedan hacer con el) y son estos lazos los que facilitan la recuperación del dato a partir de claves como por ej. la categoría. Por ejemplo, la palabra “tormenta” es la misma en la asociación “TORMENTA-verano” que en la asociación “TORMENTA-agua” y por tanto la recuperación de esta palabra no tendría que diferir entre ambas presentaciones. Esto es lo que defiende el modelo espacial.

En su contra, Tulving y Thomson propusieron la “especificidad de la codificación”, que plantea que la continuidad asociativa puede romperse en función de las claves con que sea codificado un determinado ítem. Lo cual conllevaría a deducir que distintas presentaciones de idéntico contenido (distintos episodios idénticos) suponen trazos distintos, lo que hace necesario que para que una clave sea efectiva debe codificarse específicamente junto al ítem en el momento de su almacenamiento.

La hipótesis de la especificidad de la codificación supone que la búsqueda para tener éxito debe partir de las claves presentes en el momento de la codificación ya que una clave ausente, por fuerte que sea su asociación, será infectiva como clave para el recuerdo. por ej.: si en un procedimiento de pares asociados me presentan el par “TORMENTA-verano”, la probabilidad de recordar la palabra “tormenta” será mayor si en la fase de recuerdo me presentan la palabra “verano” que si me presentan la palabra “agua”, con la que no fue asociada en la fase de adquisición.

En el experimento anterior, Tulving y Osler (1968) no habían demostrado esto totalmente, puesto que solo habían demostrado la utilidad de asociados débiles, ahora necesitaban demostrar que un asociado fuerte es una clave ineficaz en el momento de la recuperación sino se ha asociado con la palabra clave en el momento de la codificación.

Para ello, Tulving y Thomson (1970) diseñaron un experimento en el que utilizaban 3 condiciones de codificación (palabra aislada, palabra con asociado débil y palabra con asociado fuerte) y, a su vez, utilizaban también 3 condiciones de recuperación (recuerdo libre, recuerdo con asociado débil y recuerdo con asociado fuerte). Es decir, era un diseño 3x3.

Las conclusiones a las que llegaron fueron las siguientes:
  1. Proporcionando un asociado fuerte solo en la fase de recuperación se consigue un mejor rendimiento que sin proporcionarlo. Lo cual apoya el supuesto de continuidad asociativa.
  2. Si el asociado fuerte se presenta también en la codificación, la recuperación alcanza un nivel aun superior.
  3. Cuando en la fase de adquisición se presenta un asociado débil, en la fase de recuperación es mas eficaz presentar este asociado débil que un asociado fuerte. Lo cual apoya el supuesto de la especificidad de la codificación. Sin embargo, en ese mismo caso, el recuerdo del asociado fuerte mejora la recuperación con respecto a si no se hubiera presentado ningún asociado. Con lo cual, no se demostró que los asociados fuertes fueran ineficaces si no se presentaban en la fase de adquisición. Aunque también hay que decir que la eficacia del asociado fuerte en la recuperación, habiéndose presentado el débil en la codificación, fue la misma o menor que si no se hubiera presentado ninguno de ellos en ningún momento, lo que demuestra que la presentación del débil en la codificación altera la potencia preexperimental del asociado fuerte.

Especificidad de la codificación e identidad transituacional

Tulving y Thomson sospechaban que no se habían cumplido las previsiones de su hipótesis de especificidad de la codificación porque que los sujetos no tenían porque asociar el ítem al asociado débil que se les proponía, también podían utilizar el asociado débil que ellos imaginaban. por ej. Aunque se asociase DUENDE con jardín (asociado débil), los sujetos también podían estar pensando en bosque (asociado fuerte), por lo que si luego por casualidad se les presenta bosque como asociado fuerte, bosque tendría un porcentaje de recuerdo que no solo se debía a la asociación preexperimental, sino a una especificidad de codificación que se había producido espontáneamente. Así, pensaban que las predicciones de la hipótesis de especificidad no se verificaron por falta de potencia en la manipulación experimental.

Con el fin de solucionar este problema, Tulving y Thomson (1970, 2) diseñaron un procedimiento, similar al anterior, pero con estas diferencias:
  • No se incluía la condición de asociación fuerte en la adquisición (diseño 2x3).
  • Los sujetos que formaban parte del experimento habían realizado 2 ensayos previos, en los que siempre el contexto de adquisición era igual al de recuperación, es decir, adquisición sin cave y recuperación sin clave y adquisición con asociado débil y recuperación con asociado débil. Ello con el fin de potenciar la relación entre el asociado débil y descartar la del asociado fuerte.
La novedad de este experimento está en que el grupo que estaba acostumbrado a tener como claves asociados débiles, de pronto se encuentra teniendo que recordar sin asociado o con asociados fuertes. Los resultados demostraban lo siguiente:
  1. Cuando la adquisición se hace con un asociado débil, la mejor ejecución se produce también con dicho asociado débil (lo mismo que en el experimento anterior).
  2. Cuando la adquisición se hace con un asociado débil, la presentación de un asociado fuerte es peor que si no se facilita ninguna clave de recuperación. Este resultado si que demuestra que la actuación de asociados en la fase de recuperación no depende de la historia preexperimental de la asociación, sino de su historia episódica, intraexperimental, de la asociación de la palabra en su contexto de adquisición.
Lo demostrado en este experimento fue también replicado en una investigación posterior (Tulving y Thomson, 1971) para una tarea de reconocimiento de palabras débilmente asociadas: se reconocía mejor el par débil que se había presentado así en la adquisición, que el par fuerte que no había sido asociado previamente. Es decir, que la asociación de una misma palabra con otra hace percibir esa misma palabra como distinta, cuando se proporciona otra clave. Esto cuestiona el principio de continuidad asociativa (el recuerdo de 2 palabras nominalmente idénticas debería mantenerse intacto de una vez para otra).

Muy similar a la continuidad asociativa es el concepto de identidad transituacional: dos episodios nominalmente idénticos y codificados de la misma forma deberían ser funcionalmente idénticos también.

Una de las conclusiones mas importantes de las investigaciones del grupo de Toronto es la complejidad de la interacción que parece producirse entre los procesos de codificación y de recuperación (x lo que no pueden estudiarse por separado ambos procesos). La consecuencia metodológica subsiguiente fue la implantación del esquema de investigación codificación por recuperación (diseño 3x3), para analizar conjuntamente las condiciones establecidas en las fases de codificación y recuperación.

Procesamiento Apropiado para la Transferencia (PAT)

La hipótesis del PAT viene a decir que el rendimiento de los sujetos es mejor cuando las condiciones de codificación y de recuperación de los ítems son similares o compatibles, es decir, cuando tanto en la adquisición del contenido como en la recuperación del contenido se focaliza sobre un determinado aspecto del ítem, por ej. su semántica. Para Tulving esto no es algo distinto a lo que ya recoge la hipótesis de la especificidad de la codificación. Ahora iremos viendo los factores de consolidación que habíamos estudiado antes, pero desde esta perspectiva.

La utilidad de la repetición desde el PAT

Lo primero a señalar es que hay que distinguir entre la repetición y el repaso:
  • En la repetición se muestra el ítem las veces que sea repetido.
  • En el repaso, nos dejan un intervalo de tiempo en el que realizamos la actividad mentalmente, nos la representamos, sin recibir nuevamente el estimulo.
Rundus opinaba que el procesamiento que se lleva a cabo con el repaso no beneficia el trazo de memoria en el sujeto, pero la nueva presentación del ítem, es decir, su repetición, si que provoca un nuevo análisis en el sujeto y añade información, probablemente anotando un nuevo episodio.

¿Que hace pues el repaso? Glenberg y Adams (1978) diseñaron un procedimiento de recuerdo del distractor en el que pretendían averiguar si el repaso afectaba mas a la información semántica o fonética. El procedimiento consistía en una tarea de reconocimiento con las siguientes alternativas:
  1. La palabra objetivo o antigua. Ej.: cuaderno
  2. Una palabra que rime con la antigua (ej.: moderno)
  3. Un sinónimo de la antigua (ej.: libreta)
  4. Una palabra con parecido acústico con el sinónimo: maleta
  5. Una palabra con parecido semántico a la rima o a la de parecido acústico con el sinónimo (ej.: actual o equipaje).
Los resultados muestran como el aumento del intervalo de retención (y supuestamente el nº de repasos) hace que aumenten los errores de rima y disminuyan los semánticos. Es decir, que las alternativas que comparten características fonéticas son mejores distractores a medida que aumenta el tiempo de repaso. Así, los autores concluyeron que el repaso facilita la retención acústica, que se manifiesta en una tarea de reconocimiento, pero no en una de recuerdo.

Así, la repetición permitiría cambios contextuales (internos y externos) o cambios en la forma de procesar los episodios que sean específicos de cada una de las presentaciones, mientras que el repaso de mantenimiento tendería a codificar episodios distintos de forma muy similar.

Esta tesis se ve apoyada por la investigación realizada por Peynircioglu (1955), en la que se mostraban a los sujetos diversas parejas de tonos puros y se les pedía que las recordasen. La investigación demostró que:
  1. Los sujetos reconocían mejor los tonos que habían oído antes de aquellos que no habían oído previamente, pero no había diferencia de reconocimiento con tonos que habían sido repasados.
  2. Si que aumentaba el reconocimiento de los tonos que habían sido repetidos. Es decir, que la repetición deja algo en la memoria que el repaso solo no logra.
  3. Sin embargo, cuando en lugar de 2 tonos el patrón era una serie de 6 tonos, si se encontró también un beneficio con el repaso.
Sobre el efecto de la repetición hay que tener en cuenta que es muy importante como estén distribuidas las repeticionesse ha demostrado que son mas efectivas las repeticiones que están espaciadas en el tiempo o intercaladas por otros ítems, que las repeticiones que son consecutivas. por ej.: el trazo en la memoria conseguido por la repetición de “uva” es mas profundo si digo “pera, uva, naranja, manzana, uva, plátano” que si digo “pera, uva, uva, naranja, manzana, plátano”. Este efecto tiene una importante repercusión para el ámbito educativo: la ventaja del estudio distribuido sobre el estudio masivo o intensivo.

Hay varias hipótesis sobre porque se da este efecto:
  1. Hipótesis del procesamiento deficiente: Los individuos realizan un procesamiento más deficiente de las repeticiones cuando estas se realizan consecutivamente. Lo que viene a decir es q, como para recordar un ítem tengo que adoptar una estrategia de procesamiento, una vez realizado dicho procesamiento, si el siguiente ítem es el mismo, se puede optar por no insistir en su aprendizaje, porque ya lo he realizado justo con el anterior. Cosa que no sucedería si los ítems estuvieran distanciados por otros. Es decir, que el tiempo invertido en el procesamiento de 2 ítems iguales consecutivos es menor que el invertido en 2 ítems iguales pero separados por otros. Aunque la hipótesis anterior explique buena parte del efecto del espaciado, tiene que haber alguna otra causa que justifique este efecto, puesto que se ha demostrado que también se da en niños de 3 años (que por su corta edad no pueden seguir estrategias de recuerdo como las propuestas en el párrafo anterior).
  2. Hipótesis de la variabilidad de la codificación: Aquí se argumenta que al presentar varias veces el ítem espaciado, este se asocia a contextos mentales diferentes, por lo que tiene un abanico mayor de claves de recuperación.
Resumiendo, el espaciado parece un fenómeno de difícil encaje con los supuestos del modelo espacial, mientras que parece encontrar explicaciones aceptables con apenas unos mínimos principios de asociación de la información con claves contextuales, ya sea de manera automática o bien por estrategias de procesamiento que desarrollan los individuos.

Adecuación del procesamiento

Aquí lo que se trata de estudiar es en que medida que la codificación se realice incidiendo en unos aspectos del ítem afecta luego a la recuperación de ese aspecto u otro del ítem. Para ello se realizó un experimento (Morris y Cols, 1977), con un diseño 2x2 típico de los niveles de procesamiento y una tarea orientadora, para inducir a los participantes un determinado procesamiento congruente con unos objetivos particulares de aprendizaje (las tareas orientadoras permiten controlar en cierto modo el tipo de procesamiento que hacen los individuos del material que se les presenta)

Así, en la fase de codificación la tarea consistía en la lectura de una frase y el sujeto tenia que elegir una palabra (entre 2), analizando el significado de la frase y palabra en unas ocasiones (análisis semántico) y en otras viendo solo si rimaba (análisis fonético).

En la fase de recuperación, se dividió a los sujetos en 2 grupos, con una tarea distinta para cada uno:
  • La tarea de un grupo era reconocer si una palabra había sido presentada en la fase de adquisición. Se preveía un mejor reconocimiento de las palabras sobre las que hubo que hacer un análisis semántico. Y esto fue confirmado por el experimento.
  • La tarea del otro grupo era decidir si la nueva palabra presentada rimaba o no con la antigua palabra utilizada en la fase de adquisición. Se preveía una mejor ejecución si la tarea en la primera fase fue la rima en vez del análisis fonético. Y esto fue confirmado por el experimento, en contra de la hipótesis de los niveles de procesamiento.

La distintividad

Antes habíamos visto como la distintividad de los niveles superficiales en la codificación no mejora el rendimiento en una tarea de reconocimiento, con respecto a palabras analizadas semánticamente en contextos de baja distintividad.

Pero, ¿q sucede cuando la distintividad afecta también al contexto de recuperación? Pues en un experimento de Stein (1978), en el que, al igual que antes, había que realizar un reconocimiento semántico o grafico en relación con una adquisición semántica o grafica, también se presento distintividad en el contexto de recuperación, subdividiéndose los grupos en uno con distintividad grafica baja y otro con distintividad grafica alta, y se llego a la conclusión de que el efecto de la distintividad también esta modulado por la congruencia entre el procesamiento en codificación y recuperación: en condiciones de distintividad grafica alta, el reconocimiento de la grafía aumentó considerablemente, respecto a esta misma tarea en condiciones de distintividad grafica baja.

Este resultado replica el fenómeno descubierto por Morris y Cols (1977), demostrando que la calidad del trazo no depende tanto del nivel de procesamiento, sino que lo importante es la congruencia entre el tipo de procesamiento en la adquisición y recuperación.

Símbolos Densos

El conjunto de investigaciones presentadas durante este tema cuestionan todos los supuestos básicos del modelo de memoria como almacén:
  • Supuesto de la estabilidad del símbolo: Se ve cuestionado por el hecho de que el contexto determine el contenido del recuerdo.
  • La identidad transituacional y la repetibilidad de los símbolos.
  • La separación entre la memoria como continente y sus contenidos: la memoria no parece más que las operaciones que llevamos a cabo sobre la información del medio.
Parece que estos descubrimientos concuerdan mejor con la distinción que hizo Goodman (1968) y aplicó en este contexto Kolers (1973), entre símbolos articulados y símbolos densos:
  • Símbolos articulados: son los que componen nuestro lenguaje verbal, lo que siempre hemos entendido por símbolo, son independientes del continente, son copiables en distintos espacios y, por ello no pierden capacidad de comunicación.
  • Símbolos densos: son autográficos (no se pueden copiar porque no son independientes de su continente), son personales, pertenecen a la historia del individuo, con una historia de formación que no puede separarse de su significado y q, por tanto, no es independiente del continente.
Según Kolers, la memoria estaría formada por símbolos densos. No existiría un conocimiento general y abstracto, todo conocimiento estaría estrechamente ligado a los procesos mismos de captación de la info. Esta unión entre conocimientos y procedimientos excluye la división entre los contenidos y los procesos: el conocimiento son los procesos mismos de conocer, por lo que el recuerdo es su reactivación.

No es posible diferenciar entre contenido y continente porque no es posible definir una memoria sin contenido. Tampoco existe diferencia entre el contenido y su utilización, entre estructura de conocimiento y procesos de manipulación de dicha estructura.

Por otro lado, la Diferenciabilidad de los símbolos densos no esta ni mucho menos garantizada, ni la sintáctica ni la semántica. Los símbolos densos son difusos por definición y sus relaciones entre si son cambiantes. La inestabilidad es su característica mas permanente, por lo que la ausencia de la reaparición esta garantizada casi al completo.

Un formalismo para la reaparición

Teniendo en cuenta lo anteriormente expuesto, la psicología de la memoria se enfrenta a la siguiente pregunta ¿Cómo es posible que un procesador de información, cuyo contenido es siempre cambiante, pueda recuperar estados anteriores? O incluso ¿como es posible recuperar una información que no esta tal cual almacenada? Para responder a ello existen diversos modelos, nosotros veremos el modelo de Charm.

Según dicho modelo, la memoria no es un almacén de datos recopilados, sino la consecuencia de determinadas reacciones ante los estímulos y su procesamiento.

En términos asociativos la recuperación es una respuesta –reacción- ante un estímulo expuesto al sistema cognitivo humano. Los modelos asociativos clásicos describen la recuperación de lo aprendido sin almacén, representan la memoria asociativa como un vector, como un conjunto de operaciones vectoriales, específicamente, la convolución y la correlación vectorial. El cálculo vectorial y el álgebra lineal posibilitan la descripción de las asociaciones y las respuestas-recuperaciones sin almacén.

El modelo CHARM, en base a principios holográficos, propone el holograma como modelo, da explicación de la memoria humana, permite recuperar un contenido concreto e individualizado de donde no está presente como tal. Esto se puede expresar así, considerando que el estímulo-presente transforma (convoluciona) al procesador (asociador) para ofrecer una respuesta-futura que pueda “parecer” -desde un punto de vista externo- que estuviera “almacenada”.

Delimitamos un contexto de aprendizaje de pares asociados A-B, representativo de las tareas de memoria. Ante una clave asociada anteriormente con una respuesta, el motor asociador ofrece la “misma” respuesta, incluso ante una clave que se le asemeje.

Los elementos se representan en un vector, como una serie, donde el orden no es arbitrario sino totalmente relevante. La asociación se produce por la operación convolución entre dos vectores. La convolución es una síntesis interactiva de los elementos de dos vectores cualesquiera.

Lo que resulta de mayor interés, en el modelo, es que en el vector resultante de la operación de convolución, los valores de todas, y cada una, de las dimensiones están determinados por todas las dimensiones de los vectores originales. Este carácter interactivo, es en sí, la propiedad formal de un holograma (véase figura).

La convolución no lleva a una relación directa entre el orden de los vectores originales y el del vector resultante. Cada una de las unidades obtenidas en el vector convolución es resultado de la participación (disolución) de varias unidades de las señales (o contexto) originales.

En el nivel de análisis simbólico, esto, nos lleva a la des-localización del significado. El vector convolución es, simultáneamente, representación distribuida y asociación. El significado de sus elementos no se relaciona con el significado de los elementos originales. Hay representación, y asociación, pero no hay simbolismo, por ello, Smolensky 1988, ha hablado de representación sub-simbólica.

Según CHARM, se aprende acumulando experiencias en un vector memoria, M, que es una suma vectorial de convoluciones, el vector M está indexado temporalmente Mt. La representación de los vectores originales, no se almacena en el vector memoria, sino que se diluyen en él. En el vector memoria no se distinguen sus aportaciones, ni siquiera son distinguibles las diferentes convoluciones que se hayan acumulado. Se hace patente que la memoria no es un conjunto de elementos en un almacén, sino que es un solo elemento asociador –matriz- cuya forma y disposición intrínseca es resultado de acumular asociaciones interactivas entre elementos del medio.

Un patrón interactivo resultante de asociar “casi todo” con “casi todo”, en incontables acumulaciones de asociar “cada” elemento con “casi todos” los demás. La convolución vectorial expresa esto paradigmáticamente. Un vector, y una matriz, es un ente formal–matemático, único, singular, no plural, que expresa propiedades emergentes de las partes que han contribuido en su formación, pero sin que estas partes componentes puedan ser reconocibles ni separadas, esas partes no están, se han diluido en una estructura singular en un nivel de análisis diferente: el de la matriz o memoria asociativa.

Un vector memoria en un instante t, no contiene ni más ni menos elementos que en un instante previo, t-1 ó t-n. No hay diferencia de cantidad ni de capacidad de almacenamiento. Los vectores, como otros entes formales se distinguen por pasar por estados diferentes, procesales, no se distinguen por cantidad. Luego no tiene sentido hablar de capacidad de almacenamiento en las memorias biológicas.

Bajo estas condiciones de los sistemas no-supervisados, como las memorias o motores asociativos, la imagen del “almacén” simbólico e individualizado se torna inoperante y poco clarificadora. Surge, sin embargo, la imagen de la memoria asociativa como “una estructura de datos” distribuida y dinámica, capaz de aprender y ofrecer respuestas semejantes ante lo aprendido. Un “recogedor" (recoger, aprehender) no_supervisado de la redundancia y covariación informativa del medio. Pero el “recogedor” no sólo recoge, pues también es un “completador” o un “re-constructor”; cuando se encuentra con trocitos de realidad, segmentos del medio, puede completarlo con los trocitos y segmentos que le faltan. Pero este “completado” no se realiza recuperando de un almacén, sino reconstruyendo –respondiendo con- las claves de asociación, respondiendo con el contexto de aprendizaje. Para la implementación de estas estructuras, cfr., las redes de memoria retroasociativa de Hopfield 1982, o, los mapas de características autorganizativos de Kohonen 1984-2001.

Consecuencia de lo anterior, es que la re-construcción de las claves de aprendizaje -la respuesta-, no es literal e idéntica como ocurriría en la recuperación desde un almacén de símbolos, sino que es una aproximación dinámica -una segregación, una emergencia- sobre un fondo de ruido.

La correlación de un contexto -clave- sobre una memoria acumulada ofrece una respuesta-recuperación, del estímulo aprendido en ese contexto, sobre un fondo de ruido. Según la memoria-vector incluya más aprendizajes ortogonales con el contexto de prueba, más aumentará el ruido de fondo (varianza error). Esto es lo que sucede con los aprendizajes biológicos.

La discriminación, o rescate de la respuesta (recuperación), sobre un fondo de ruido nos coloca en todos los trabajos y estudios existentes sobre análisis de la señal y discriminación de señales, tanto en los desarrollos aplicados en las ingenierías, como en la descripción psicológica (atención, psicofísica, percepción y memoria, y teoría de la decisión), como en ciencia cognitiva.

En los modelos de memoria asociativa como el CHARM, la reacción del sistema al estímulo contiene –no_segregada- la respuesta. Desde mediados del siglo pasado los acercamientos a esta cuestión han incluido el término resonancia “resemblance”, como Neisser 1967-1975. La resonancia del sistema es la aproximación a la respuesta, que será buena mientras la varianza error se mantenga a raya. La información no está almacenada, sino que sólo es una posibilidad reconstruida que tendrá que ser “discriminada” sobre ruido.

Esto es: el recuerdo como posibilidad. Si cambian las condiciones de recuperación, las claves ofrecidas al sistema, la respuesta será otra, y, si la historia de aprendizaje del asociador no es muy “ortogonal” la respuesta también será otra.

Como resumen diremos que la estimulación inicial provoca un cambio de estado en el procesador, de tal forma que este, al reaccionar a una nueva estimulación, si tal estimulación guarda ciertas relaciones con la inicial, va a producir una nueva respuesta q, desde el punto de vista operativo, puede considerarse su reaparición.

Hay que decir que la concepción de la mente humana como procesador de símbolos densos está dentro de un contexto mas amplio que se ha denominado cognición corporeizada, de la que Margaret Wilson (2002) ha definido sus presupuestos:
  1. La cognición está situada en el mundo de las cosas en el que se desenvuelve el individuo.
  2. La cognición está presionada por el tiempo: las cosas se van sucediendo y razonando conforme suceden.
  3. El medio permite simplificar la interacción con el: solo captamos lo relevante del mismo.
  4. El medio es parte del sistema cognitivo: la mente y el entorno se confunden formando un todo (todo esto debe ser de alguna secta en la que participe el profe).
  5. La cognición es para la acción nuestras capacidades cognitivas se van desarrollando para que se desplieguen las conductas adaptativas.
  6. La cognición desconectada está basada en el cuerpo: cuando el individuo no está procesando la información que sobre él proyecta el medio, ni está directamente actuando sobre él, se dice que está desconectado.

La Comunicación de Símbolos Densos

Puesto que hemos expuesto los símbolos densos como únicos y personales e históricos, ¿cómo pueden permitir la comunicación entre individuos? → podemos entender los contenidos mentales de otros por analogía con los nuestros. Los símbolos densos pueden ser entendidos aunque no comunicados. Son empáticamente atribuidos a los otros.

Los símbolos articulados posibilitan la comunicación, el pensamiento simbólico y la representación del mundo. Los símbolos personales, les llamemos como les llamemos, densos o corporeizados o lenguaje “privado”, representan nuestra realidad interior, personal, mi historia y mi relación con el mundo físico y social.

¿Que beneficios nos aportan los símbolos densos?
  • Los símbolos articulados son útiles para la comunicación y para representar el mundo exterior.
  • Los símbolos personales lo son para construir y representar un mundo personal, una historia de mi mismo, y de mi relación con el mundo y los demás.
El regalo de la madre de las putas (musas) → la memoria como almacén juega un papel heuristico:
  1. Es útil para la construcción de mi historia personal.
  2. Es útil para la comunicación de nuestros propios estados mentales a los demás.
  3. Es útil para la indagación racional (científica) de nuestros estados y recursos mentales.
Compartir:

Construcción de un Episodio

Compartir:

Introducción

En el tema anterior hemos visto como no parece sostenible una interpretación de los recuerdos desde la hipótesis de la reaparición, es decir, que la memoria no es la recuperación de la información almacenada.

Neisser propone concebir la recuperación de los recuerdos de un episodio como el proceso de su re-construcción. Para lograr dicha re-construcción, el individuo debe hacer uso de los ”trazos de procesos previos de construcción”, y de todo un abanico de inferencias. Aquí veremos que son esos trazos de procesos previos de construcción y esas inferencias.

Neisser y otros autores defienden la idea de que la memoria es una atribución de pasado subjetivo a un contenido mental presente, al mismo tiempo que una inferencia sobre el pasado personal. Es decir, que el momento clave de construcción de la memoria o de un contenido mental, es en el momento de su recuperación, cuando se re-construye.

Condiciones para el Recuerdo

Si, como hemos dicho antes, la construcción de un episodio se produce totalmente en el momento de su recuperación, debemos saber en que condiciones se produce esa re-construcción, cuales son las características sobre las que se hacen inferencias y que razones justifican esas inferencias.

El supuesto de partida es que toda recuperación se produce en respuesta a alguna circunstancia instigadora, que directa o indirectamente la ocasiona, y se produce en un contexto que la permite. Ya habíamos visto que las relaciones entre ese contexto que actúa como clave de recuperación y las condiciones de adquisición de la información recuperada son de similitud, y todas ellas pueden articularse en torno al principio de la especificidad de la codificación y del procesamiento apropiado para la transferencia.

Motivación para el Recuerdo

Koriat ha propuesto 3 categorías de motivos por los que necesitamos elaborar nuestros recuerdos:
  1. Ocasiones en las que tratamos de recordar algo en respuesta a cuestiones específicas planteadas por algún interlocutor o cualquier otro agente externo. Ej.: ¿cómo se llama tu madre? Estas situaciones han sido muy estudiadas en laboratorio (por la facilidad de clasificación de las respuestas y cuantificación del resultado) y exigen una respuesta específica definida con precisión. Koriat y Lieblich llamaron a este tipo de condiciones de recuperación “punteros de memoria” porque la pregunta misma “apunta” a la respuesta, es una clave de recuperación muy especifica.
  2. Ocasiones en las que uno mismo desea recordar algo, mediante intentos deliberados de recuperación. Este tipo de actividad ha sido menos estudiada, por la dificultad de control de las circunstancias en las que se produce. No se trata de intentos de recuperación dirigidos a respuestas concretas y específicas, sino que suelen estar orientados a la reconstrucción de episodios más extensos y de configuración más compleja.
  3. Ocasiones que se dan en el medio directamente o que aparecen en el desarrollo de la tarea que está llevando a cabo un individuo.

El Curso de la Recuperación

Como ya hemos dicho, el núcleo funcional de un contexto de recuperación es algún estimulo, interno o externo, que actúa como clave de recuperación. Esta clave puede provocar la aparición inmediata, si el procesamiento de la misma forma parte de una cadena de procesamientos entre cuyos eslabones se encuentra la respuesta.

Pero puede que la clave no provoque la aparición inmediata de la respuesta. En ese caso, para tratar de averiguar la respuesta, podemos optar por seguir exponiéndonos a la clave de recuperación, para ver si así aparece la respuesta. Las consecuencias de esta reexposición pueden ser: la hipermnesia (aparición acumulada de nuevos elementos) y el efecto de una recuperación previa de un elemento sobre su recuperación posterior.

La hipermnesia y reminiscencia

La hipermnesia se produce cuando el rendimiento en una prueba de memoria posterior a otra realizada con anterioridad, es superior a esta, sin que medie ninguna nueva adquisición o repaso entre ambas.

Así, la hipermnesia se traduce en que en una primera prueba se recuerda una cantidad de ítems concreta, y en una segunda prueba se recuerda una cantidad NETA mayor de ítems. Esta cantidad mayor de ítems, es la combinación del recuerdo de nuevos ítems (reminiscencia) y de la no re-aparición de otros ítems que si aparecieron en la primera prueba (olvido).

Por tanto, es necesario distinguir entre:
  • Hipermnesia: incremento neto de ítems recordados en una prueba posterior a otra.
  • Reminiscencia: recuerdo en la prueba posterior de ítems que no habían sido recordados en la primera.
Como vemos la reminiscencia es condición necesaria para que se produzca la hipermnesia, pero no es condición suficiente, ya que si se recuerdan nuevos ítems, pero se olvidan de una prueba a otra un número mayor de ítems, el número de ítems perdidos por olvido será mayor que el recordado por reminiscencia, con lo que no habrá hipermnesia.

Así, este fenómeno de hipermnesia y reminiscencia apoya la hipótesis de la re-construcción, puesto que el recuerdo no es idéntico de una situación de recuperación a otra.

De los resultados de Roediger y Torpe (1978) se deduce que cuando los individuos disponen de tiempo libre para la recuperación, tienen la oportunidad de reexponerse a la misma clave de recuperación una y otra vez (cuando en una prueba el tiempo es limitado, cabe pensar que los individuos solo se exponen una vez a la clave de recuperación), lo que facilita que se vayan añadiendo elementos nuevos a medida que pasa el tiempo (reminiscencia).

La representación de los datos de este fenómeno en “curvas de recuerdo acumulado” demuestra que el ritmo al que se van incorporando elementos nuevos por la hipermnesia decrece con el paso del tiempo. La mayor parte de los recuerdos se produce en los primeros intentos: durante el primer minuto se recuerdan muchos elementos y, a partir del segundo minuto se van incorporando a un ritmo más lento. Este efecto induce a errores de estimación del conocimiento de los propios sujetos, ya que utilizan la tasa de recuerdo inicial como indicio para estimar el rendimiento posterior, sin tener en cuenta el carácter decelerativo de su rendimiento.

Según Wixted y Roher (1994), el modelo que mejor explica el crecimiento del número de ítems recuperados con el paso de tiempo, se basa la relación multiplicativa de 3 factores:
  • El ritmo de muestreo.
  • La probabilidad de que el ítem recuperado en cada momento sea uno nuevo.
  • La tasa de olvido.

Incidencia de una recuperación previa sobre otra posterior

Con las curvas de recuerdo acumulado, hemos visto como la recuperabilidad de un ítem no es constante durante el tiempo que dedicamos a intentarlo, entre otras razones por estas:
  1. Las claves de recuperación no permanecen inalteradas durante todo el proceso de recuperación (si este es amplio), sino que pueden ir variando. La identidad transituacional de la clave no tiene porque ser mas firme que los propios recuerdos.
  2. La interferencia de salida: la recuperación de parte de los elementos de un conjunto de información inhibe la recuperación del resto.
  3. Señalización con parte de la lista: si algunos elementos de la lista se presentan para la recuperación de los restantes, en realidad se reduce la probabilidad de su recuerdo (con relación a otra condición donde no se presenta ningún ítem como clave de recuperación).
  4. Efecto de la prueba: el recuerdo de un ítem ante una clave de recuperación facilita su nueva recuperación posterior ante la misma clave. Esto demuestra que siendo las claves idénticas de una situación a otra, la probabilidad de recuperación en ambas es distinta (aumenta). Este efecto ha sido demostrado por Payne, Hembrooke y Anastasi (1993) quienes observaron que el recuerdo de los ítems mejoraba a medida que se sucedían las fases de prueba, tanto en la condición de recuero libre como en el recuerdo con clave, aunque la mejora (q no el rendimiento, que al final fue el mismo y al principio era menor) estaba mas acentuada en el recuerdo libre.
Este efecto de la prueba parece evidenciar que el recuerdo de un ítem inhibe su futuro olvido. Veamos las teorías que tratan de justificar este efecto:

¿La recuperación es una nueva representación o incluso algo mas que eso?

Debido al efecto de la prueba, la recuperación de un ítem lo protege contra el olvido, pero ¿porque? → Según la “hipótesis de la cantidad de procesamiento”, la recuperación de un ítem conlleva una ocasión de repaso adicional, equivalente al de una aparición nueva, lo que puede explicar el efecto de la prueba (o la hipermnesia según el libro, aunque creo que esto no es correcto). Así, la hipótesis de la cantidad de procesamiento supone que la hipermnesia se debe al mayor procesamiento del ítem recuperado.

En contraste con lo anterior, la “hipótesis de la recuperación” defiende que la recuperación de un ítem beneficia por si misma el recuerdo posterior (no por el procesamiento adicional, como proponía la hipótesis anterior).

Para demostrar esto, Carrier y Pashler diseñaron un experimento donde a todos los sujetos, tras una exposición a parejas de ítems, los sometían a 2 condiciones, en una (condición de reexposición) simplemente se les representaba la pareja de ítems de nuevo y en la otra (condición de recuperación) se les representaba un ítem de la pareja solo (pidiéndole que recuperase el otro) y posteriormente se les representaba ambos (igual tiempo total para todos).

El recuerdo de los ítems presentados en la condición de recuperación fue mejor, lo que apoya la idea de que la recuperación aporta algo mas que procesamiento adicional de una reexposición.

¿Los efectos de la recuperación son específicos de ítem o de procesos?

Apuntes:
Del experimento anterior podemos deducir que la ganancia que aporta la recuperación solo afecta al ítem especifico que se ha recuperado, sin alterar la accesibilidad del resto de elementos de la lista. No se pueden dar razones de carácter global (como cambios en el criterio de recuperación) para suponer que con la recuperación son los procesos mismos los beneficiados, y no los ítems concretos. Sin embargo, hay evidencia empírica para sostener que el efecto de la recuperación se generaliza al procesamiento global de la lista.

Libro:
En vista de que la recuperación contribuye a la hipermnesia, cabe preguntarse si es la mera recuperación del ítem lo importante o es necesario que, para que se produzca la mejora, los procesos utilizados en las recuperaciones sean los mismos.

Es decir, ¿que papel juega la compatibilidad entre el tipo de recuperación anterior y el tipo de recuperación posterior en la hipermnesia? Desde la perspectiva del procesamiento apropiado para la transferencia (PAT), es predecible que la recuperación anterior resultará beneficiosa para otra posterior, en la medida en que los procesos implicados en una y otra se asemejen.

En base a ello, Mc Daniel, Kowitz y Dunay (1989) realizaron un experimento en el que, con una tarea orientadora, los sujetos procesaban unas determinadas palabras o bien semánticamente o bien fonéticamente. Posteriormente se les pasaba una prueba de recuperación inmediata, en la que para la mitad de los sujetos la clave de recuperación era compatible con el proceso realizado en la adquisición (semántico/fonético) y para la otra mitad la clave estaba cambiada.

Al día siguiente se realizó una prueba de reconocimiento (prueba demorada) similar a la anterior, pero en la que la mitad de las palabras recibían el mismo tipo de clave y otra la mitad el tipo alternativo.

Para comparar los resultados obtenidos por los grupos, se desarrolló un índice “a” (índice de hipermnesia a), que mostraba la probabilidad de que un ítem que se había olvidado se recupere en una prueba posterior. Este índice puede adoptar valores positivos cuando el fenómeno se produce, valores en torno a 0 cuando no se produce mejora alguna con respecto a la prueba previa y valores negativos si se diese el caso de que la recuperación previa resultara perjudicial para la posterior.

Los resultados obtenidos demuestran lo siguiente:
  • Parece inevitable que los sujetos hagan un análisis semántico de las palabras, aunque la tarea orientadora no lo requiera, si bien ese análisis no llega a equipararse con el que se hace cuando si se exige.
  • En la condición compatible (mismo tipo de recuperación o proceso en la prueba inicial y en la demorada), se obtuvieron resultados de “a” superiores en todos los casos a los obtenidos en la condición incompatible (distinto tipo de recuperación entre pruebas). Lo que concuerda con la perspectiva del PAT.
Así, podemos decir que el tipo de recuperación en la primera prueba ha facilitado específicamente una recuperación posterior provocada por el mismo criterio de la clave de recuperación.

Estrategias deliberadas de recuperación

Aquí vamos a revisar las estrategias deliberadas que ponen en marcha los individuos, en la vida real o en el laboratorio, para recuperar una determinada información. En primer lugar veremos las estrategias denominadas iteraciones concéntricas y, posteriormente, nos centraremos en repasar con más detalle las investigaciones realizadas sobre la recuperación de historias.

La recuperación basada en iteraciones concéntricas dentro de dominios

Iteración concéntrica es la expresión utilizada para describir el proceso de búsqueda da la información que va desde lo general a lo particular, de los contenidos mas definidos por sus características globales a aquellos otros de detalles específicos.

La iteración se inicia con la delimitación de un dominio de contenidos, dentro del cual se van a generar una secuencia de pensamientos que se espera que actúen como claves de recuperación. Veamos ahora diversas características de la iteración concéntrica:
  1. Propiedades fundamentales de las claves generadas (son propiedades independientes):
    1. Pueden variar en el grado de especificidad de la respuesta requerida.
    2. Pueden variar en el grado en que proporcionan información acerca del plan de búsqueda.
  2. Tratamiento de la información parcial recuperada: los datos que van apareciendo en un proceso de búsqueda deliberada suelen ser de carácter general y parcial sobre el dominio de búsqueda, pero cumplen una función importante en la recuperación, al actuar como:
    1. Porciones validas en si mismas de la información requerida.
    2. Claves de recuperación de información adicional.
    3. Indicios sobre los que construir mediante inferencias fragmentos de información que completen el recuerdo con suficiencia.
    El esquema básico al que debe ajustarse el recuerdo se plasma en forma de hipótesis acerca de cómo debe ser el dato buscado. Después, utilizaremos estos procesos:
    • Un proceso editor de memoria: que se encarga de que ninguno de los elementos progresivamente recuperados contradiga o no se ajuste suficientemente a las especificaciones de las hipótesis.
    • Un proceso mediador: se pone en marcha cuando el proceso editor ha detectado una anomalía y persigue la aplicación de estrategias de solución de problemas para resolver los conflictos encontrados en la edición del recuerdo.
  3. Supervisión constante de la recuperación: En todo momento del proceso de recuperación hay una actividad de supervisión de:
    1. La actividad de recuperación misma: supervisión de las estrategias de generación de claves de reconstrucción.
    2. El recuerdo logrado: para ver si se adecua a los objetivos de la recuperación.

La recuperación de historias

La recuperación de historias es otra estrategia deliberada de recuperación. En este caso el protagonismo se centra en la secuencia temporal de sucesos (el flujo temporal de acontecimientos) en torno a la cual se organiza y ordena la información.

El recuerdo esta organizado por esquemas de secuencias de sucesos o guiones, aprendidos a lo largo de la vida del individuo, gracias al proceso de socialización. Cualquier desviación de estos esquemas, hará la historia más distintiva.

La característica fundamental de un esquema o guión de historia es su vacuidad (esta vacío de contenidos), ya que es una estructura abstracta de elementos básicos. El guión solo aporta las variables más probables de la historia, pero no les asigna valores. Para ello es necesario poner contenidos en esas variables, y cuando esto se lleva a cabo hemos creado una historia, una narración.

Los episodios que conforman una narración se pueden estudiar en función de 5 dimensiones: su ubicación espacial, su ubicación temporal, las relaciones causales entre los episodios, los protagonistas y sus motivaciones.

La idea básica es que la comprensión de un acontecimiento implica estar constantemente extrayendo, de los sucesos que conforman el acontecimiento, su contenido en las 5 dimensiones situacionales. Dicho contenido lo extraeremos de la información que recibimos o a partir de inferencias, si es necesario.

Ubicación espacial:
Aquí vamos a ver como afecta la disposición espacial de los objetos a la recuperación de hechos que suceden en el lugar donde se encuentran tales objetos. Hay que tener en cuenta que los objetos reales tienen una disposición simultánea y tridimensional, mientras que la narración posee una linealidad temporal, y no es posible describir los objetos en paralelo (simultáneamente) sino que hay que seguir un orden. De esta manera, puedo narrar una secuencia de varios objetos que veo, y empezar por uno y terminar por otro que este muy cerca del primero. Con lo que la situación espacial y narrativa no es la misma. ¿Cuál de ellas dos es más relevante?

Rink, Panel, Bower y Globalla analizaron la métrica de los modelos situacionales, estudiando si la representación espacial que se desprende del modelo situacional construido por los sujetos se ajusta a una métrica euclídea (recorrido largo o corto, medido en escala de intervalo) o a una métrica categórica (recorrido medido por categorías o zonas (ej.: habitaciones de paso), ordenadas en una escala ordinal).

Los resultados de la investigación demostraron que:
  • En referencia a objetos (referencias anaforicas), la representación espacial que se hacen los sujetos responde a una métrica categórica (ya que los sujetos tienen tiempos de lectura mas largos de las frases con referencias anaforicas a objetos que están a mas distancia categórica).
  • Cuando a los sujetos se les pedía que tuvieran en cuenta la distancia relativa, para lo que es habitual utilizar la métrica euclidea, esa el la métrica que utilizaban.
Esto hace pensar que los individuos son capaces de adaptar los procesos que se utilizan para recuperar la historia en función de las necesidades de la tarea.

Otro fenómeno relacionado con la dimensión espacial en la construcción de la narración es el denominado “efecto abanico”, creado desde el modelo proposicional. Este efecto consiste en que la recuperación de información a partir de proposiciones depende del grado en que dichas proposiciones comparten sujeto y/o predicado, es decir, que la recuperación se deteriora cuantas mas proposiciones haya que compartan sujeto y/o predicado. Ej.: voy a recuperar la información peor si me dicen estas proposiciones: “Luisa tiene una cabra; Luisa tiene un pantalón; Luisa tiene un titulo” que si me dan estas otras: “Luisa tiene una cabra; Dolores tiene un titulo; Ana tiene un pantalón”.

Radvansky y Zacks (1991) sospechaban que el efecto abanico no tiene porque producirse siempre en el nivel de los enunciados proposicionales, sino que la unidad de interferencia puede ser el modelo situacional construido por el sujeto a partir de una lista de hechos relacionados.

Así, estos autores diseñaron un experimento donde se utilizaban 2 tipos de proposiciones:
  • Las que comparten objeto, pero localizaciones diferentes (condición LD). Ej.: “El coche tiene ruedas; El carro tiene ruedas; La bici tiene ruedas”.
  • Las que comparten localización (condición LC). Ej.: “La cocina esta limpia; La cocina tiene ventanas; La cocina tiene plantas”.
Las hipótesis planteadas desde los distintos modelos son estas:
  • Modelo proposicional: dado que hay interferencia proposicional tanto en frases de LC como en LD, el efecto abanico tiene que aparecer en las 2.
  • Modelo situacional: En la condición LC los participantes construirán un modelo situacional único, donde integraran todos los enunciados que comparten la localización, por lo que no aparecerá efecto abanico en dicha condición, en la otra (LD) si aparecerá.
Se confirmó la hipótesis del modelo situacional, los sujetos tardaban mas en reaccionar en la condición LD. Lo importante para nosotros es que la ausencia de efecto abanico en presencia de proposiciones con elementos compartidos puede ser una clave diagnostica de que el sujeto ha construido un modelo situacional. Esto implica que hay una interferencia fuerte entre modelos situacionales y relativamente débil dentro de cada uno de los construidos, aunque lógicamente esto dependerá del grado de integración entre los elementos alcanzado en cada modelo construido.

En resumen, la demostración de la especificidad del efecto abanico y los resultados de la investigación acerca de la métrica espacial vistos antes, demuestran la importancia de la contextualizacion espacial de los episodios para su recuperación posterior.

Ubicación temporal:
Otra dimensión relevante para la recuperación de una historia es el tiempo. Sin embargo, dada la estrecha relación entre el contexto espacial y el temporal de los acontecimientos, no es fácil determinar si el tiempo nos puede ayudar a organizar la comprensión de una historia acotando y ordenando cronológicamente sus episodios.

Rink, Panel y Becker (2001) realizaron un experimento que da una respuesta afirmativa a esa pregunta. Para ello realizó una prueba de reconocimiento de sentencias, en la que los sujetos tenían que reconocer si antes se les había presentado una frase o no. Había 4 tipos de frases, 2 de ellas con 2 momentos temporales (y una forma distinta para cada una) y las otras 2 con 1 momento temporal (y una forma distinta para cada una).

Se demostró que mientras las diferencias de forma entre las versiones de sentencias con los mismos momentos temporales eran mínimas, las diferencias entre sentencias con distintos momentos temporales eran sustanciales. La conclusión es la relevancia fundamental de la información temporal en el modelo situacional que de un relato se hacen los individuos.

Las personas asumimos que el orden en el que va apareciendo el contenido de un relato se corresponde con los sucesos tal como sucedieron cronológicamente. Esto se conoce como asunción o supuesto de la iconicidad, que se da siempre que no aparezca una clave o señal de que dicho orden no se corresponde con la secuencia de acontecimientos de la historia.

Los investigadores se han centrado en 3 tipos de claves temporales que apuntan a violaciones del supuesto de iconicidad:
  1. Los adverbios de tiempo o expresiones adverbiales (info léxica). Zwaan (1996) realizó un experimento donde comprobó que los sujetos tardaban mas tiempo en procesar una frase que se iniciaba con un salto temporal en la historia que otras frases donde había continuidad temporal. La magnitud del salto temporal no era relevante. Según Zwaan, el tiempo de lectura era mayor porque el salto en el tiempo exige una actualización del escenario mental o modelo situacional en el que ocurren los acontecimientos, y esa actualización consume tiempo de procesamiento. En otra prueba, Zwaan también comprobó que el tiempo que tardaban los sujetos en contestar a una pregunta era mayor, cuando había mediado anteriormente una expresión de ruptura de la continuidad temporal que cuando no. También en este caso aparecieron diferencias entre distancias cronológicas medias y largas.
  2. Los tiempos verbales (información sintáctica). Carreiras, Carriedo y coleguitas (1997) demostraron que los tiempos de reconocimiento del oficio del protagonista son mas largos cuando el tiempo verbal empleado en la frase implica ruptura temporal, es decir, que no se ejercían ahora. En otro experimento, estos autores demostraron que el tiempo de reconocimiento del nombre del protagonista era mas largo cuando la acción asociada con el protagonista estaba en un tiempo pasado, respecto a la acción actual de otro. Así, el protagonista se quedaba en un segundo plano respecto en el modelo situacional del relato.
  3. La inconsistencia temporal de los sucesos. Rink y cols (2001) han demostrado que se produce un incremento sustancial del tiempo de lectura de una sentencia cuando esta es inconsistente con el orden de acontecimientos. aunque algunas inconsistencias pueden pasar desapercibidas incluso para los sujetos.
Por otro lado, conviene resaltar que el supuesto de iconicidad es clave también en los procesos de recuperación → en la recuperación, cualquier secuencia es ordenada cronológicamente de acuerdo con el principio de iconicidad. Si bien el orden de recuperación de los componentes de una historia no es determinante del orden en que van a figurar en el relato que de ella se construye.

Hemos visto como todas las acciones de un episodio han de ser temporalmente ordenadas. Pero también podemos preguntarnos si una acción individual o estática esta caracterizada por la dimensión temporal o si esta dimensión solo se manifiesta cuando se trata de ordenar cronológicamente 2 o mas acciones o sucesos.

Los fenómenos agrupados bajo el nombre de “inercia de las representaciones mentales” o “representaciones mentales dinámicas” demuestran que es posible concebir estímulos estáticos asignándoles una trayectoria.

Freyd y Finke (1984) presentaron a los sujetos una secuencia de inducción continua (una secuencia de figuras estáticas donde parece que dichas figuras van siguiendo una trayectoria de rotación) y demostraron que era posible inducir una secuenciación cronológica a las imágenes en función de diferencias en la orientación de las figuras. El resultado del experimento fue que los sujetos podían detectar fácilmente una pequeña diferencia de orientación cuando era incongruente con la secuencia inducida, pero que era difícil detectar una pequeña diferencia cuando esta seguía el mismo sentido que el inducido.

Este fenómeno de las representaciones dinámicas también ha sido investigado con imágenes estáticas sin contexto previo. Ej.: presentación de fotograma en el que se ve a una persona saltando, y a continuación, presentación del fotograma inmediatamente anterior (en unos casos) o posterior (en otros) para que detecte la diferencia con el primero. El resultado era que es mas fácil detectar la diferencia con el anterior.

La idea común de este fenómeno de representaciones dinámicas puede resumirse en que a lo largo de la evolución, las especies han interiorizado las leyes físicas que les son funcionalmente mas relevantes, de manera que sus representaciones del medio contienen información acerca de su dinámica o desarrollo temporal, información que es indisociable de ellas.

Sin embargo, este fenómeno no se limita a las leyes físicas, puesto que Verfaillie y d’Ydewalle (1991) han demostrado que este fenómeno puede producirse aunque la secuencia de movimiento prevista contradiga las leyes físicas. Sea por ej, porque sigue una secuencia deducida como lógica en función de las presentaciones anteriores realizadas (en función de su historia completa)

Van der Meer, Beyer y cols (2002) han demostrado que los sujetos, cuando un sujeto tiene una info, tarda menos tiempo en aceptar o rechazar palabras congruentes con ella si son preactivas (referidas a futuro), que si son retroactivas (referidas a pasado). Es decir, tardan menos en valorar si es correcto “después de masticar viene tragar”, que en valorar si es correcto “antes de tragar viene masticar”.

Lo anterior nos lleva a suponer la información verbal de una acción provoca su comprensión como extensa en el tiempo. Así, la información acerca del sentido temporal del desarrollo natural de cada acción puede ser de extraordinaria utilidad para provocar la recuperación preferente de ciertos contenidos, dando lugar a potenciales encadenamientos de recuperaciones de gran verosimilitud.

La anticipación parcial que parece darse en la comprensión de cada acción o suceso puede ayudar no solo a la comprensión del siguiente, en el caso de la recepción de un relato de cualquier modalidad, sino que también puede ser de gran ayuda en la generación de nuevos contenidos en una tarea de recuperación estratégica.

Relaciones causales entre episodios:
La inferencia de relaciones causales entre los episodios que conforman una historia es otro de los posibles criterios que pueden intervenir para organizar la recuperación de información acerca de ella.

La causalidad entre los episodios de una historia proporciona coherencia a la misma. Así, cuando estamos tratando de recordar una historia, no admitimos como parte de ella cualquier contenido mental que nos venga a la mente, sino solo aquellos que puedan ser coherentes, que tengan relación unos con otros.

Graesser, Singer y Trabaso, han desglosado este principio de búsqueda de significado coherente en 3 supuestos (su trabajo estaba referido a la comprensión de textos narrativos, pero iremos viendo como es aplicable en la recuperación de historias):
  1. El lector tiene metas respecto al texto: Significa que el lector pretende comprender la historia que cuenta el narrador (congruencia compatibilidad y sincronía entre las historias). Respecto a la recuperación, la meta del sujeto es construir una historia del pasado que satisfaga los requisitos del presente.
  2. El lector espera que el texto tenga coherencia: Significa que, en búsqueda de encontrar la coherencia en el texto, el lector tendrá que hacer inferencias. Podemos distinguir entre 2 tipos de coherencia:
    1. Coherencia local: coherencia entre 2 elementos consecutivos de la narración.
    2. Coherencia global: coherencia entre elementos distantes, agrupados en unidades conceptuales de orden superior.
    La coherencia no solo significa conexión de un contenido con otro contenido previo, también se da el caso de que un contenido mental actué como precipitante de otro posterior. Ambas circunstancias han sido “probadas” experimentalmente en el contexto de comprensión de textos narrativos, por lo que podemos decir que las relaciones causales provocan tanto la recuperación de contenidos previos como la anticipación de contenidos posteriores.
  3. Al menos los sucesos mas importantes que en el texto se mencionan figuran en él por algún motivo: Esto alude a 2 tipos de explicaciones sobre las inferencias:
    1. El lector hace uso de teorías ingenuas para explicar porque el autor menciona un episodio de la historia. Esto, si bien es importante para la procesamiento de las narraciones (en las que alguien nos cuenta algo), en la recuperación lo que hacemos es simplemente que inferimos que un suceso se presenta en nuestra mente, porque lo recordamos.
    2. El lector busca explicaciones referidas a los acontecimientos de la historia en el propio conocimiento que tiene del mundo. Cuando reconstruimos una historia, intentamos que cuadre con las relaciones causales que tenemos sobre el mundo.
Protagonistas:
Probablemente uno de los aspectos que mas información relevante puede aportar acerca del procesamiento que los individuos realizan para la comprensión, construcción o reconstrucción de historias, es la caracterización psicológica de sus personajes.

En la construcción de modelos situacionales montados sobre sus protagonistas, se ha comprobado que las acciones que se les atribuyen tienen que estar en el mismo lugar, para quien construya el modelo situacional pueda integrarlas en un único escenario.

Objetivos e intencionalidad de los protagonistas:
Generalmente, cuando hablamos de objetivos o intenciones de un sujeto cuando hace algo, nos estamos refiriendo a las causas psicológicas que le llevan a hacerlo, pero debemos distinguir lo que es:
  • Objetivo: Consecuencia causal de la acción sobre el mundo. Es la meta o finalidad perseguida.
  • Intención: relación entre la mente y las acciones. Estado mental del personaje.
En este tema nos vamos a referir a los objetivos. Hoy día sabemos que la comprensión de una historia en la que intervienen actores se organiza en torno a los objetivos que persiguen las acciones de estos. También sabemos que los objetivos se organizan en jerarquías, y que cuando no aparecen explícitos, solemos inferirlos en el proceso de búsqueda de significado de la historia.

Hay que decir que cuando realizamos una inferencia sobre una acción, tendemos a atribuirle un objetivo de orden superior. Esto se conoce como sesgo a favor de las metas supraordenadas. También sabemos que las acciones que persiguen varios objetivos se recuerdan mejor, y que cuanto mas próximo en el tiempo esté el conocimiento del objetivo de una acción, mejor la recordaremos.

En un estudio de Poynor y Morris (20039, se ha demostrado que el sujeto realiza las inferencias mientras va leyendo el texto (no las realiza después de la lectura), ya que en dicho estudio se comprobó que:
  • Los sujetos tardaban más en leer frases inconsistentes que consistentes.
  • El recuerdo posterior era mejor cuando la acción de los sujetos era inconsistente con su objetivo (lo que se explica por la mayor elaboración necesaria para la creación del modelo situacional).
  • El recuerdo posterior era igual en las acciones cuyos objetivos eran explícitos que en las que dichos objetivos estaban implícitos (equivalencia funcional de los objetivos recibidos e inferidos).

Categorización de sucesos

Una historia es una secuencia de episodios relacionados y un episodio es una secuencia de sucesos relacionados. Así, sabemos que hay una relación jerárquica entre distintos niveles, pero no tenemos claro cuales son los criterios que delimitan estas jerarquías.

Podemos definir a un suceso como “un segmento de tiempo en un lugar determinado que un observador concibe con un principio y con un fin”. De aquí deducimos que:
  • El suceso debe tener un momento de inicio y otro de finalización (ubicación temporal).
  • El suceso debe ocurrir dentro de unos límites espaciales definidos.
  • Los límites del suceso no son marcados por el tiempo ni por el espacio, sino que los pone un observador, sin el cual ese suceso no se produce como tal. Es él el que crea el suceso.
  • La delimitación espacio-temporal que el observador hace del suceso no se realiza por características definidas en estas 2 dimensiones, sino que depende de la concepción, percepción o categorización que el observador haga de su contenido.
Analogía entre objeto y suceso
Teniendo en cuenta que, al igual que un objeto, un suceso es una región espacio-temporalmente acotada, podemos utilizar analógicamente los conocimientos sobre la percepción y categorización de los objetos a los sucesos:

Podemos hacer partonomias de sucesos: Una partonomia es el conjunto de relaciones entre partes y subpartes de un objeto. Al igual que cuando hablamos de un objeto, decimos que los cambios drásticos entre regiones contiguas delimitan partes del objeto (ej: en un muñeco se ve claramente que una pierna es una parte distinta del tronco), cuando hablamos de sucesos, los cambios densos en un flujo de variaciones suelen concebirse como una delimitación entre partes de un suceso.

Podemos hacer taperonomias de sucesos: clasificaciones de sucesos. En lo que respecta a objetos, podemos decir que hay un nivel o categoría básica de objetos, que es aquella que optimiza la relación existente entre conocimiento del objeto y cantidad de información suministrada sobre el mismo. Ej: la categoría básica “mesa” nos proporciona información mas definida que la categoría “mueble”, pero menos definida que la categoría “mesa de cocina”. Podemos decir que el nivel básico proporciona buena parte de la información de los niveles supraordenados, al mismo tiempo que aporta suficiente información contextual al oyente para transmitirle cuanto necesita saber, sin abrumar con detalles.

¿Existe un nivel básico en la categorización de los sucesos? → las investigaciones que se han hecho sobre ello concluyen que:
  • La diferenciación de determinados sucesos es mayor cuanto mas concreto o subordinado es el suceso.
  • Dos actividades de nivel supraordenado parecen menos similares entre si que dos de nivel básico y menos aun que dos de nivel subordinado.
  • Los sujetos tienen a categorizar los objetos en su nivel básico, incluso en contextos donde hubiese bastado una categorización a un nivel mas supraordenado (haciendo por tanto un sacrificio cognitivo al profundizar en la categorización), o en contextos donde es necesaria una categorización a nivel mas subordinado (haciendo por tanto un sacrificio en la información que suministran).
Con respecto a la categorización de sucesos, podemos decir que:
  • Las propiedades mas abstractas del suceso (ej: objetivos del protagonista), se utilizan a la hora de clasificar a los sucesos en categorías supraordenadas.
  • Las propiedades más concretas del suceso (aquellas más superficiales o físicas), se utilizan a la hora de clasificar a los sucesos en categorías más subordinadas.
  • El nivel básico es el que mejor proporción tiene entre información suministrada e información necesaria para clasificar al suceso. por ello, probablemente sea el nivel de mejor rendimiento memorístico.
Diferencias fundamentales entre objeto y suceso:
  • Aunque, como hemos dicho antes, la diferenciación entre sucesos es mayor a niveles subordinados, la información que añade un nivel superior es mayor que la que añadiría el siguiente nivel subordinado. Es decir, hay un aumento total de información cuanto mas subordinado es el nivel, pero la información marginal que aporta cada nivel va siendo menor cuanto mas subordinado sea. La ganancia o el aporte de información va decreciendo. Ej.: si observamos “mueble-mesa-mesa de salón” veremos que el paso de mueble a mesa proporciona mas información que el paso de mesa a mesa de salón.
  • La diferencia más radical entre objeto y suceso se encuentra en la dominancia de la dimensión temporal en la definición de los sucesos. Un objeto puede ser “identificado”, persistiendo su existencia en el tiempo, mientras un suceso solo puede ser “categorizado” y no se puede volver a presenciar.

Construcción de una historia

La recuperación deliberada de una historia supone la construcción de sus episodios a partir de:
  • Los indicios o claves que proporciona el medio.
  • Los indicios o claves que obtiene el sujeto de su memoria
  • La intervención de las estrategias de recuperación (inferencias, deducciones, heurísticos...) que se puedan poner en marcha.
Como hemos visto antes, las relaciones temporales entre los elementos de la historia real no coinciden con los elementos temporales del relato que se cuenta sobre ella. por ello surge el problema de que hay que crear un modelo situacional a partir de información linealmente presentada, lo cual deriva en lo siguiente:
  • La segmentación del flujo narrativo en unidades como los objetos.
  • El momento de actualización de los elementos del modelo situacional.
  • La atribución de relaciones causales entre los elementos de la historia.
La segmentación del flujo narrativo:
Ya hemos dicho antes que un suceso está temporalmente acotado en sus limites temporales (inicio y fin), también conocidos como “puntos de ruptura”. Al respecto, se ha comprobado que los sujetos suelen ser consistentes en el establecimiento de los puntos de ruptura y que hay acuerdo entre los sujetos. Además, los contenidos próximos a los puntos de ruptura se recuerdan mejor.

Entonces, ¿cuál es la información a partir de la cual los sujetos deciden sobre la existencia de un punto de ruptura?:
  • Por un lado hay que decir que la configuración estimular es importante: los puntos de ruptura suelen coincidir con cambios en la información estimular recibida (ej: en una danza, los puntos de ruptura se producen cuando tienen lugar los cambios mas relevantes de desplazamientos y movimientos de los actores).
  • Por otro lado, los objetivos de los observadores pueden alterar la tasa de señalización de puntos de ruptura: cuando los sujetos no tienen una línea argumental coherente para construir la historia, construyen episodios de menor duración.
  • Zwann y cols. proponen que el factor fundamental en la delimitación de los episodios es un cambio en el valor del relato en las dimensiones de espacio, tiempo y protagonistas (o movimiento de personajes). Al respecto han demostrado que, en la narración cinematográfica:
    1. Tanto la discontinuidad en el tiempo, como la discontinuidad en los protagonistas son determinantes a la hora de establecer los puntos de ruptura. La discontinuidad espacial por si sola no influye apenas en la determinación de los puntos de ruptura. Esto nos indica que las dimensiones básicas sobre las que los individuos perciben la continuidad o discontinuidad de una narración en prosa parecen ser similares a las de una narración cinematográfica.
    2. La discontinuidad temporal es la más importante, y su efecto se ve potenciado por la ocurrencia simultánea con discontinuidad espacial o de movimiento de personajes.
    3. La discontinuidad en simultanea en las 3 dimensiones no provoca tantos puntos de ruptura como cabria esperar (tan solo el 50%). Sin embargo, la no discontinuidad en ninguna de ellas hace que solo el 7% se consideren discontinuas. Esto parece decirnos que las discontinuidades en estas dimensiones son causa necesaria pero no suficiente para que haya una punto de ruptura. aunque puede que la falta o perdida de atención juegue un papel importante también.
El momento de la actualización:Otro de los problemas que presenta la construcción de una historia a partir de un flujo de información temporalmente extenso es la necesidad de ir modificando (o actualizando) el estado de los elementos presentes en la historia a medida que van apareciendo nuevos datos que modifican dicho estado.

Sobre esta actualización, los sujetos pueden seguir dos estrategias alternativas:
  • Actualización sobre la marcha: a medida que los acontecimientos se van desarrollando.
  • Actualización retrospectiva: producida posteriormente a la recepción de los datos, cuando sea necesaria.
Manuel de Vega ha demostrado que la actualización de la información sobre la marcha solo se produce cuando es necesario para mantener la coherencia de la narración. Así, la actualización de los modelos mentales e un proceso de inferencia basado en claves más que una actualización automática de la perspectiva del protagonista.

La atribución retrospectiva de causalidad o sesgo retrospectivo:
La atribución retrospectiva de causalidad consiste en una exageración de la relación causal percibida entre los antecedentes de un suceso y sus consecuencias, cuando dicha relación causal se evalúa una vez conocido el resultado. Es decir, cuando un sujeto conoce los resultados, aparece como mejor predictor que sin su conocimiento, a pesar de lo cual niega que tenga en cuenta dicho conocimiento para realizar su predicción.

El procedimiento utilizado por Fischhoff (1975) para la comprobación de este sesgo era:
  • Informar a todos los sujetos sobre un acontecimiento.
  • A una parte de dichos sujetos se les informa sobre las consecuencias de dicho acontecimiento.
  • Al final se les pide a todos los sujetos que estimen la probabilidad de que se produzcan esas consecuencias, como si no las conocieran (para quienes las conocían).
Fischhoff opina que este fenómeno se produce por una especie de “determinismo infiltrado”, consistente en la tendencia de los individuos a subrayar la relación causal producida, a costa de reducir la consideración de posibles alternativas.

Así, lo que pasa es que cuando se alcanza el conocimiento de una consecuencia, se produce una actualización del modelo, y alcanzado este punto es imposible actuar como si no conociéramos la situación que nuestro modelo actualizado nos presenta.

Supuestos en los que no sucede el sesgo retrospectivo:
  • Cuando la consecuencia es tan inesperada que el mismo individuo se sorprende y dice haber sido incapaz de adivinar la consecuencia.
  • Cuando se considera fortuita la relación entre el acontecimiento y su consecuencia.
La única manera de intervenir directamente sobre el sesgo retrospectivo es alterando el modelo de situación desde el que el individuo va a realizar sus estimaciones, para conseguir que la causalidad final aparente tenga alternativas competidoras que debiliten el carácter determinista de la relación. Esto se consigue cuando se pide a los sujetos que busquen razones a favor de la alternativa contraria, es decir, se consigue aumentando la relevancia de los motivos por los que podrían haberse producido otras consecuencias.

La mejor manera de impedir el sesgo retrospectivo es ocultar las consecuencias a quien tiene que hacer una predicción de ellas.
Compartir:

Reconocimiento

Compartir:

Procedimiento Básico

Antes de nada, debemos distinguir entre:
  • Tarea o prueba de reconocimiento: cuando se nos presenta un estimulo y se nos pide que reconozcamos si ya lo conocíamos o no. Ej.: nos presentan una foto de una cara y nos preguntan si la conocíamos.
  • Tarea o prueba de recuerdo: cuando el estimulo no se nos presenta y se nos pide que lo describamos. Ej.: nos piden que describamos una cara que conocemos.
Con respecto a una prueba de reconocimiento, desde el supuesto tradicional de la estabilidad o identidad transituacional de los símbolos almacenados en la memoria, se pensaba que si el estimulo presentado coincidía con alguno de los ítems almacenados en la memoria, provocaría una especial activación de su símbolo correspondiente, que daría lugar a la sensación de familiaridad que subyace a un reconocimiento.

Así, el problema que plantea una tarea de reconocimiento es una cuestión de la cantidad de activación o familiaridad que es capaz de provocar el estímulo de prueba. De manera que reconocemos los estímulos siempre que estos sean capaces de superar un determinado umbral de esa supuesta activación o familiaridad.

El Reconocimiento como Problema de Decisión en un Espacio Unidimensional

Sin embargo, no podemos determinar exactamente cual es el punto de activación por encima del cual el individuo admite un reconocimiento y por debajo lo niega. Un mismo estimulo no presenta siempre el mismo grado de familiaridad. Ej.: una cara que ahora nos parece conocida, un momento después no nos lo parece tanto. Así, no hay un umbral de reconocimiento estable y directamente observable. El umbral es variable.

En la siguiente grafica podemos ver representado un estimulo nuevo (desconocido) y un estimulo antiguo (conocido), y el grado de familiaridad que presentan ambos. Vemos que el estimulo nuevo y el antiguo se solapan parcialmente, ya que hay valores de familiaridad que pueden ser provocados tanto por estímulos nuevos como antiguos, es una zona de ambigüedad en cuanto a la emisión de un juicio de reconocimiento.

También vemos como el umbral de reconocimiento (línea vertical “c”) puede colocarse en cualquier lugar del continuo de familiaridad. Si lo desplazamos hacia la derecha, observaríamos que se producirían menos reconocimientos erróneos (o falsas alarmas), pero a costa de que se produjesen menos reconocimientos correctos. Si desplazásemos el umbral de reconocimiento hacia la izquierda sucedería lo contrario (más reconocimientos correctos, pero también más falsas alarmas).

Al final la elección de ubicación del umbral va a depender de los intereses concretos que en cada caso se persigan con la elección, de cual es el error menos tolerable. Observamos que en la figura representada, el umbral se ha colocado de tal manera que permite b-c reconocimientos correctos (aciertos), a costa de a-c reconocimientos falsos (falsas alarmas).


Vemos que, en función de donde se establezca el umbral de reconocimiento, la probabilidad de aciertos (reconocimientos correctos) y errores (falsas alarmas) varia.

Las diferentes probabilidades pueden representarse en una Función COR: que en Psicofísica recibe el nombre de Teoría del Umbral Alto:


Veamos las características que presenta esta función:
  • La función es lineal: la relación entre la tasa de aciertos y la de falsas alarmas es directa.
  • La altura de la función en la ordenada nos indica la proporción de aciertos neta (b-a)/b. Este valor se designa como “p” y es el estimador de umbral en la teoría del umbral alto. Al ser una proporción de aciertos neta se supone que no esta contaminado por adivinaciones.

Algunos Hechos Discrepantes

Las grandes virtudes de la teoría del Umbral alto son su simplicidad y su facilidad de contrastación. Sin embargo, esta teoría muestra los siguientes problemas:
  1. La forma lineal de la función COR no se da en la realidad nunca. Los datos suelen mostrar una función curva monótona creciente y negativamente acelerada y asimétrica, con tasas de aciertos bajas mas altas de lo que cabria esperar según la teoría de detección de señales (TDS).
  2. Hay multitud de fenómenos que apuntan a q, en la tarea de reconocimiento, hay implicados varios procesos:
    1. Un proceso de familiaridad: reconocimiento como decisión en un espacio unidimensional.
    2. Un proceso de recuperación recuerdo.
Así, la tarea de reconocimiento no se trata de un mero efecto de activación automática en respuesta al estimulo de prueba, sino que en realidad es un complejo juego de procesos, todos ellos conducentes a hacer una atribución de pasado al estimulo de prueba.

Atribución De Familiaridad A La Fluidez De Procesamiento

Como ya hemos visto, un componente esencial del recuerdo es la experiencia subjetiva de familiaridad con un contenido mental o con un estimulo, y la atribución de esa familiaridad al pasado personal.

Esta familiaridad puede entenderse como una “primitiva psicológica” que forma parte del trazo de memoria activado. Sin embargo, muchos autores respaldan la idea de que la familiaridad no esta necesariamente ligada a la calidad o fuerza del trazo. Así, la familiaridad no debe concebirse como una “primitiva psicológica” ligada al trazo, sino como un producto derivado.

Entonces, ¿cual es la primitiva psicológica sobre la que se hace una atribución de familiaridad?  el concepto que unos autores proponen es el de la “fluidez de procesamiento”, que hace que la tarea se realice con mas brevedad, eficacia, fluidez o precisión, por transferencia del aprendizaje.

Esta transferencia del aprendizaje puede ocurrir en cualquier nivel de actividad. De hechos, se supone que los sujetos, a la hora de recuperar información, cambian de unos dominios a otros, dentro de la misma tarea, buscando procesos fluidos.

Así, la familiaridad seria el resultado de una atribución a la especial fluidez de procesamiento detectada, pero que tal atribución no es consciente, ya que no forma parte de la tarea de reconocimiento o recuerdo y, por tanto, es irrelevante para el sujeto.

Contingencias de Atribución

Pero, ¿el sujeto como decide si esa especial fluidez de procesamiento se debe a una experiencia previa o se debe a alguna causa del presente? A la hora de tomar esta decisión, el sujeto se encuentra ante un problema de decisión que puede esquematizarse así:

Origen de la fluidez X Atribución de la fluidez Y
Presente Pasado
Presente 00 (acierto) 01(fallo)
Pasado 10 (falsa alarma) 11 (rechazo correcto)

Donde el digito 0 es un indicativo de presente y el digito 1 es un indicativo de pasado.
Donde el primer digito de cada par de ellos, se refiere al verdadero origen de la especial fluidez de procesamiento y el segundo digito se refiere a la atribución que hace el propio sujeto.
Donde las letras escritas en azul y entre paréntesis representan lo que supondrían los resultados de esta matriz de confusión en el análisis psicofísico de las tareas de detección, clasificación o categorización.

Contingencia 00

La contingencia 00 implica que un incremento de la facilidad de procesamiento percibido, provocado por alguna manipulación sobre el estimulo de prueba (es decir, provocado por alguna circunstancia del presente), es atribuido por el sujeto a alguna característica del momento de la prueba.

Si esta característica es la realmente responsable de dicho incremento, no se produce ilusión alguna. Sin embargo, si esa característica no es la realmente responsable del incremento de la facilidad de procesamiento, decimos que el individuo ha percibido acontecimientos ilusorios, pero, en este caso, se trata de ilusiones en el presente, por lo que pertenecen al ámbito de la percepción y quedan fuera de nuestros objetivos.

Contingencia 01

La contingencia 01 implica que la fluidez de procesamiento es debida a alguna circunstancia del presente, pero que el sujeto atribuye al pasado, a su carácter antiguo o a su familiaridad. Como ahora veremos, esta fluidez de procesamiento se puede provocar artificialmente en el momento presente, y que el sujeto piense que es debida a su familiaridad. Veamos 2 experimentos donde así se hace:

Variación directa de la fluidez perceptiva
Aquí el experimentador presenta a los sujetos una lista de 7 palabras, tras lo cual se presenta otra palabra que el sujeto tiene que leer, y que tiene que decir si venia en la lista o no. Pero la presentación de esta última palabra se manipula, alterando la densidad de una mascara donde esta inscrita dicha palabra, modificando así su claridad perceptiva y, por tanto, dificultando su lectura.

Se consiguió que la latencia de la lectura fuera mas corta en aquellas palabras que se presentaban en el contexto de una mascara poco densa, y las latencias también fueron mas cortas cuando la palabra de prueba había formado parte de la lista.

Los resultados demuestran que cuando la mascara era menos densa, los sujetos solían inclinarse por considerar que la palabra de prueba había aparecido en la lista con mas frecuencia que cuando se presentaba en el contexto de una mascara mas densa. Así, la mayor fluidez de procesamiento era atribuida como consecuencia de la familiaridad de esas palabras.

En resumen, la mayor facilidad de lectura de las palabras presentadas dentro de una mascara de baja densidad, había creado una ilusión de familiaridad. Así, se trata de un caso de contingencia de atribución 01, en la que la fluidez de procesamiento se incrementa artificialmente en el momento de la presentación del estimulo, pero que los sujetos atribuyen a su presentación previa. Hay que señalar que la ilusión de familiaridad no solo contribuyo a un incremento de falsas alarmas, sino también a un incremento de aciertos. Los sujetos no pueden desligar la familiaridad de su origen, y esto les lleva a interpretarla a veces acertadamente y otras erróneamente.

Variación indirecta de la fluidez perceptiva
En este apartado vamos a ver como se puede alterar la fluidez perceptiva de un estimulo sin alterar sus condiciones físicas de presentación (como ocurría en el anterior apartado). En un experimento se encontrado como aparece una ilusión de familiaridad cuando se ha preexpuesto subliminal o inconscientemente (por 50 milisegundos) el estimulo antes de la exposición de reconocimiento.

Para ello, en una tarea de reconocimiento de palabras anteriormente presentadas en una lista, los Larry Jacoby y Kevin Whitehouse preexpusieron subliminalmente, antes de la presentación de la palabra concreta, a los sujetos a una de estas 3 opciones: la misma palabra que se va a exponer, una palabra no relacionada y una serie sin sentido (xoxoxox).

Pues bien, los resultados muestran que los sujetos reconocieron palabras nuevas (q no estaban en la lista) como pertenecientes a dicha lista y que habían sido preexpuestas subliminalmente un 36% de veces. Si no habían sido preexpuestas, el resultado es un 26%, y si había sido preexpuesta otra palabra, el resultado es un 19%.

Estos resultados pueden sugerir que cuando el contenido de la palabra preexpuesta coincide con el estimulo de prueba, empieza el procesamiento un poco antes de la presentación como tal, ganando así un plus de saliencia mental, que facilita su inclusión entre los ítems reconocidos. por otro lado, el bajo porcentaje de falsos reconocimientos cuando la palabra preexpuesta había sido otra, sugiere que en estos casos el inicio del procesamiento de la palabra inconscientemente percibida puede dificultar el procesamiento posterior de la palabra de prueba.

Como vemos, este procedimiento no implica una manipulación de la fluidez de procesamiento del estimulo de prueba en el momento mismo de su presentación, sino unos milisegundos antes, por lo que se podía pensar que no debería encuadrarse en la contingencia 01, pero no pasa naica, porque se considera que forma parte del mismo episodio.

El efecto que se produce es análogo al fenómeno de la paramnesia, que consiste en la sensación de que lo que estamos viviendo en el momento presente lo hemos vivido exactamente igual con anterioridad.

Variación de la fluidez semántica
En una investigación de Whittlesea y cols, se realizaba una prueba de reconocimiento del significado de palabras anteriormente presentadas en una lista (se debía decir si una palabra nueva estaba relacionada con alguna de las presentadas en la lista), pero ahora se introducía, antes de la emisión de la palabra a reconocer, la presentación de una frase, que podía estar o no relacionada con la palabra en cuestión. Ej.: si la palabra era “catástrofe”, una frase relacionada podía ser: “el misil provoco una…”

Se sospechaba que el hecho de que la palabra estuviera relacionada con la frase anterior, mejoraría el procesamiento de dicha palabra, y esta sensación de fluidez podría ser atribuida a la presencia en la lista de una palabra con un significado similar.

Los resultados de la investigación confirmaron la hipótesis, se produjo un incremento de las falsas alarmas en condiciones de contexto más predictivo. Y esto tiene su origen en una circunstancia presente q, sin embargo, es atribuida a una causa pasada, por lo que se produce una familiaridad ilusoria. también en este caso la familiaridad contribuía al incremento de los aciertos que ocurría cuando las palabras de prueba que si estaban relacionadas con alguna de la lista aparecían, además, en un contexto predictivo.

Contrastes de fluidez (no esta bien resumido, es un coñazo in eternum)
Aquí se describe el “efecto revelación”, que surge en un experimento en el que se hace que los sujetos estudien una lista de 40 palabras, y posteriormente se les presenta una “tarjeta de revelación”, la cual puede contener desde 2 letras de alguna palabra, hasta todas las letras.

Pues bien, los resultados muestran que el porcentaje de respuestas afirmativas presentó una relación inversa con el número de letras de la palabra mostrada en la tarjeta, tanto para las palabras de prueba antiguas como para las nuevas. Es decir, que el porcentaje de aciertos y falsas alarmas fue mayor, se produjo una potenciación de las respuestas afirmativas, que se denominó efecto revelación, que a lo mejor es debido a que la presentación de la tarjeta exige algún tipo de procesamiento extra por parte del individuo, que provoca una mayor fluidez del ítem de prueba, lo que provoca una mayor familiaridad.

Sin embargo, se han encontrado supuestos en los que se ha demostrado que no es la familiaridad la que provoca ese efecto revelación. Pero, al mismo time, también parece probado que no si se elimina el componente de familiaridad el efecto de revelación no se produce.

Una posible explicación de esto puede ser que el efecto de revelación se produzca porque la tarea intercalada establece un nivel de fluidez de procesamiento de referencia que el sujeto compara con el del procesamiento del ítem de prueba. Así, cuando aparece el ítem de prueba, el sujeto analiza su fluidez con respecto a la experimentada antes, y si fue artificialmente disminuida, el contraste hará que se infle artificialmente la familiaridad del ítem.

Contingencia 10

En esta contingencia se da el supuesto de que la experiencia previa con ciertos ítems puede facilitar su procesamiento posterior, sin que el individuo atribuya dicha facilitación a haber tenido ya algún encuentro con ellos. La memoria ejerce algún tipo de influencia sobre el comportamiento del individuo sin que este sea consciente de ello. Veamos 3 fenómenos representativos de este tipo de contingencia de atribución (tb conocida como “memoria implícita” o “aprendizaje implícito”) y, posteriormente, mencionaremos la característica elemental común a todos ellos: la memoria como herramienta.

El efecto de mera exposición
En una investigación, se presentó a los sujetos pares de octágonos irregulares, habiéndoseles preexpuesto durante un milisegundo a solo uno de los pares de octágonos. Pues bien, cuando se les preguntaba que octágono preferían elegían mayoritariamente el que había sido preexpuesto. Y cuando se les pedía que reconociesen al octágono que había sido preexpuesto, no lo lograron (los resultados estuvieron en torno al 50%).

Puede parecer que la preexposición influye en el “procesamiento afectivo”, pero no es así, ya que los sujetos elegían ese octágono también cuando se les pedía que dijesen cual es el mas brillante o cual es el mas oscuro. Así, el efecto de la mera exposición parece un caso de atribución de una propiedad psicológica etiquetada a una mayor fluidez relativa de procesamiento provocada por una experiencia previa con el estimulo, es decir, una ilusión del tipo contingencia 10 de atribución.

Nombre y renombre
Jacoby y coleguitas sospechaban que la simple presentación previa del nombre de un desconocido podría hacer que los individuos so consideraran, en ocasiones posteriores, un personaje famoso. Para corroborarlo, presentaron a los sujetos una lista de 60 nombres (30 de los cuales eran personas famosas y 30 corrientes) que debían leer. Posteriormente debían discriminar, de otra lista de nombres (que incluía nombres famosos y corrientes de la lista anterior, mezclados con nombres famosos y corrientes nuevos) quienes eran famosos de quienes no.

Los resultados mostraron que la presentación previa de los nombres en la lista aumentó la consideración de famosos tanto de nombres corrientes como de famosos. Esto parece corroborar la hipótesis de partida, aunque no se puede descartar que algunos sujetos ya pensasen que eran famosos en la presentación de la primer lista, y gracias a ello se acordarán mejor en la segunda.

Para descartar esta posibilidad, se realizó el mismo experimento, pero con estas variantes:
  • Se advirtió a los sujetos, antes de realizar la tarea, de que todos los nombres aparecidos en la fase previa eran de personajes corrientes. Así, la recuperación de la información podría ser utilizada contra el sesgo que sospechaban que podía provocar falsa familiaridad.
  • Se añadió un nuevo grupo de sujetos que en la primera fase tuvo que realizar la lectura con una tarea distractora, de modo que se acordasen menos de los nombres que habían leído en esa primera fase.
Los resultados mostraron lo siguiente:
  • Los sujetos fueron conservadores en sus juicios, lograron no atribuir fama indebidamente a nombres corrientes, pero a costa de dejar fuera de la categoría a algunos que si deberían estar. Este sesgo se dio especialmente en los individuos del grupo de atención dividida. Esto puede deberse a que los sujetos se sintieron especialmente amenazados por el riesgo de incluir entre los famosos algunos de los nombrados en la primer lista, de los que no se acordaban.
  • Los sujetos del grupo de atención total atribuyeron fama erróneamente sobre todo a los nombres que no habían aparecido en la lista previa. por el contrario, los sujetos del grupo de atención dividida incluyeron en la categoría de famosos muchos mas nombres corrientes de la primer lista.
Como conclusión podemos decir que la ilusión del famoso falso sobre todo se produce cuando se nos presenta un nombre y estamos distraídos, ya que gracias la distracción no vamos a poder recordar porque nos suena ese nombre, y podemos agruparlo dentro de los famosos.

Aprendizaje implícito de reglas de clasificación
Cuando clasificamos objetos, normalmente pensamos que estamos realizando la clasificación sin pensar que para realizar tal clasificación estamos haciendo uso de experiencias previas que hemos vivido con los objetos a clasificar.

En un experimento realizado por Reber con gramáticas artificiales (suficientemente complejas para que el sujeto descubra sus reglas), se comprobó como los sujetos lograron aprender las reglas de una gramática artificial, en principio, sin pretenderlo, ni saber que habían aprendido (ya que incluso desconocían que las secuencias de letras que estaban leyendo seguían una regla).

En este experimento los sujetos lograban clasificar como legales o ilegales (es decir, que siguen la regla o no), con bastante acierto, unas secuencias de letras ininteligibles, que se supone seguían unas reglas o no (las de la gramática artificial de mañas), sin siquiera saber que existían tales reglas, ni que las han aprendido.

Pero hay que aclarar ciertas cuestiones:
  • ¿Qué es lo que se aprende? ¿la estructura profunda de reglas?
  • ¿El aprendizaje se produce sin intención de aprender?
  • ¿El sujeto no tiene consciencia del aprendizaje?
Que se aprende
Parece que del experimento anterior se deduce que el individuo puede aprender la lógica o estructura profunda de un sistema, sin saber sus reglas. Sin embargo, investigación posterior pone en duda tal afirmación, ya que, según dicen, no se aprenden las reglas, sino que se clasifican los elementos nuevos, como pertenecientes o no a la gramática, por analogía con los estímulos concretos conocidos.

La prueba de la existencia de esas analogías está en que cuando se eliminan pistas que permiten al individuo realizar esas analogías entre 2 vocabularios diferentes, el aprendizaje desaparece. Así, se puede decir que la actuación de un individuo atribuible al aprendizaje de una gramática artificial se puede explicar por la adquisición del conocimiento episódico de elementos generados con ella. Veamos la investigación que pretende confirmar esto.

El papel de conocimiento fragmentario
Desde este tipo de investigaciones, lo que se defiende es que lo que aprenden los sujetos no son las reglas del sistema gramatical artificial, sino que lo que se aprende son fragmentos de las secuencias que han aparecido en las secuencias de estudio. Como es normal, las secuencias legales de que se presentan para clasificar presentan mas fragmentos compartidos con las secuencias estudiadas al inicio, que las secuencias ilegales. Esto es lo que permite a los sujetos clasificarlas correctamente.

Hay 3 tipos de experimentos que demuestran que la realización de la tarea de clasificación con éxito es viable a partir del conocimiento de los fragmentos (de menor a mayor importancia son):
  • Se ha simulado la tarea de clasificación con el simple criterio de que el ultimo trigrama del estimulo de prueba esté presente en cualquier parte del estimulo a clasificar, y el resultado es equivalente al obtenido con el “conocimiento de la gramática”
  • En otro experimento, se pidió a los sujetos que indicasen, en la fase de clasificación, cuales eran los fragmentos del estimulo de prueba que lo convertían en un estimulo gramatical. Los individuos solían decir precisamente los fragmentos que estaban presentes en los estímulos de la fase de estudio, y no otros que, igualmente gramaticales, no estaban.
  • En un experimento de Perruchet y Pacteau, los individuos que habían visto solo fragmentos de las secuencias gramaticales en la fase de estudio alcanzan un rendimiento en la fase de clasificación comparable con el de aquellos otros que fueron expuestos a las secuencias completas
Estos experimentos indican que es el conocimiento episódico de ejemplares de la fase de estudio lo que esta detrás del éxito de los sujetos en hacer una clasificación aparentemente montada sobre la aplicación de criterios abstractos.

Procesamiento apropiado para la transferencia
Lo que viene a decir (porque no hay thissen que entienda el experimento), es que el aprendizaje esta íntimamente ligado al tipo de procesamiento puesto en marcha durante la exposición inicial a los ítems creados con ella. Si el tipo de procesamiento inicial está centrado en las características abstractas de la regla, estas podrán aprenderse, pero si no lo están, la regla no podrá aprenderse. Así, la simple exposición reiterada a ejemplares de una categoría no proporciona automáticamente las reglas del sistema que lo gobierna.

La consciencia de lo aprendido
¿Tiene el sujeto intención de aprender? → No, la mayor parte de los aprendizajes se benefician de aprendizajes anteriores que no se llevaron a cabo con las miras puestas en retos posteriores.

¿Es consciente el sujeto de lo que ha aprendido? → Sabemos que los sujetos son incapaces de formular explícitamente las reglas de la gramática artificial, pero esto es normal porque, como hemos visto antes, en realidad los sujetos no han aprendido la regla. Lo que si sucede es que los sujetos procesan mejor las secuencias legales, es decir, tienen mayor fluidez de procesamiento de esas cadenas de palabras, puesto que se asemejan mas a las que han visto en la fase de estudio, y por eso las aciertan.

Así, lo anterior a llevado a los investigadores a rechazar la disociación entre un aprendizaje no consciente, implícito, responsable de la reducción en latencia que la practica con la tarea provoca; y el aprendizaje explicito de la secuencia repetida. Uno y otro están basados en la fluidez de procesamiento, que posibilita la reducción de latencias y que sirve al sujeto para hacer sus elecciones en la prueba de reconocimiento.

La ilusión de Reber
De lo todo lo anterior que acabamos de ver, se deduce q, cuando el sujeto realiza la tarea de clasificación correctamente, y el experimentador atribuye la correcta realización al conocimiento implícito o inconsciente de las reglas de la gramática, el experimentador esta cometiendo un error de atribución.

Dicho error se conoce como “la ilusión de Reber” y la mejor demostración de su existencia es que en un experimento los sujetos pudieron clasificar los objetos de acuerdo a una gramática (gramática ficticia) a la que nunca habían sido expuestos. Por consiguiente, cuando el experimentador atribuyó dicha correcta clasificación al conocimiento inconsciente de los sujetos, quedaba claro que estaba realizando un error de atribución.

La memoria como herramienta
Ya hemos visto como en la contingencia 10, los individuos hacen una atribución de causa presente a una fluidez de procesamiento q, en realidad, tiene su origen en experiencias pasadas. Así, hablamos de una transferencia de aprendizaje, ya sea positiva o negativa, que no es percibida por el propio individuo.

Respecto a porque en algunas ocasiones realizamos una atribución de pasado a la facilidad de procesamiento, actualmente se está argumentando que lo realmente importante para que esta atribución se produzca es que el sujeto adopte la disposición de “recuperar información” del pasado. Así, si el foco de atención del sujeto está en el procesamiento de la tarea presente, la especial fluidez del procesamiento que una experiencia previa puede ocasionar, no entra a formar parte de la narración que el sujeto haga de su tarea.

Algunos investigadores distinguen entre memoria explicita (en la que se tiene un conocimiento intencional y consciente de las experiencias previas) y memoria implícita (en las que se tiene un conocimiento incidental e inconsciente de las experiencias previas.

En un sentido similar podemos distinguir entre la:
  • Memoria como objeto: donde el foco de atención de la construcción del episodio actual es el pasado, respecto al cual se analiza e interpreta su contenido mental presente. Aquí estamos ante recuerdos y reconocimientos episódicos.
  • Memoria como herramienta: donde el foco de atención del sujeto está en la construcción de un episodio mental referido al presente, para lo cual, se produce una transferencia de sus experiencias pasadas, modulando el procesamiento de construcción del episodio presente.
Puede pensarse que, entonces, un simple cambio en la disposición del sujeto respecto al modo de recuperación puede convertir en consciente un efecto inconsciente. Sin embargo, esto no es así, ya que el simple cambio en el modo de recuperación implica cambios en las condiciones de recuperación que pueden impedir la transferencia misma.

Contingencia 11

En la contingencia 11, un acontecimiento pasado provoca un supuesto incremento en la fluidez de procesamiento presente que el individuo atribuye, correctamente, a la ocurrencia de un episodio pasado.

Aquí lo que vamos a hacer es tratar de distinguir, en una prueba de reconocimiento, 2 tipos de experiencias subjetivas de recuerdo:
  • Experiencia tipo “recuerdo”: cuando un sujeto no solo reconoce una cosa, sino que se acuerda de cuando la vio, o donde o algo mas que el simple reconocimiento.
  • Experiencia tipo “se”: cuando el sujeto solo reconoce la cosa como familiar, pero no sabe porqué.
En principio, podría pensarse que la diferencia entre ambas clases es una cuestión de “calidad del trazo” de la memoria. Sin embargo, la investigación ha demostrado que existen variables que afectan diferencialmente ambos tipos de experiencias de reconocimiento, por lo que no parece lógico atribuir a una mera cuestión de calidad del trazo, como ahora veremos.

John Gardiner realizó un experimento en el que un grupo de sujetos que hizo un análisis fonológico de una lista de palabras, y otro grupo de sujetos realizó un análisis semántico de las palabras de dicha lista (es decir, hubo procesamientos distintos). Posteriormente se les pasó a ambos grupos una nueva lista de palabras (que contenía tanto palabras de la antigua lista, como palabras nuevas). Los sujetos tenían que redondear con un círculo las palabras que fuesen antiguas, y poner junto a ellas una letra R (de remember) o K de (know), para indicar así la experiencia subjetiva de reconocimiento que tenían.

Los resultados mostraron como el las palabras que tenían una R eran las que habían sido procesadas semánticamente. Aunq quizá este resultado no fuese concluyente por posibles efectos de suelo en los reconocimientos k, otras investigaciones realizadas si merecen mas confianza, y hoy la disociación entre los reconocimientos tipo se y tipo recuerdo es un hecho generalmente aceptado.

La experiencia “se” como sensación de familiaridad
Se puede pensar que las experiencias de tipo “recuerdo” serian fruto de recuperaciones provocadas por la presencia del ítem de prueba actuando como estimulo, mientras que las experiencias del tipo “se” serian fruto de la atribución de familiaridad provocada por la mayor fluidez del procesamiento del estimulo de prueba.

Si esto es así, cualquier variable que pueda potenciar la fluidez de procesamiento perceptivo posterior del estimulo de prueba provocará una aportación neta al rendimiento global en reconocimiento en la forma de experiencia de se.

En una investigación de Rajaman (experimento 1), parece que se demuestra que el procesamiento semántico de los ítems de la prueba facilita la aparición de experiencia tipo “recuerdo” y que las experiencias tipo “se” están mas ligadas a un análisis superficial de los estímulos.

En otro experimento de Rajaman (experimento 2), se encontró que el reconocimiento de los ítems que habían sido presentados como dibujos durante el estudio fue mejor. Esto se conoce como el: “efecto de la superioridad de la imagen”. Pero esta diferencia no tuvo el mismo reflejo en los 2 tipos de reconocimientos:
  • En el de tipo recuerdo: se produce el efecto de superioridad de la imagen, esto es, un mejor rendimiento en el estudio de una lista de dibujos o imágenes que en el estudio de las palabras que lo designan.
  • En el de tipo sé: los reconocimientos más frecuentes fueron aquellos ítems que se habían estudiado como palabras, un efecto contrario al producido por el formato de presentación en el reconocimiento indiferenciado.
Según Rajaman, este resultado respalda la idea de que:
  • Las experiencias recuerdo están ligadas con el procesamiento guiado por conceptos (ya que se dan cuando existe un cambio de formato de presentación entre la fase de adquisición (dibujo) y la de prueba (palabra).
  • Las experiencias se están mas ligadas al procesamiento superficial del estimulo (se dan mas cuando el formato de presentación en adquisición y prueba coinciden).
Sin embargo, posteriormente se ha visto como el verdadero factor responsable de las experiencias recuerdo no es el procesamiento mas o menos profundo, o el origen conceptual o perceptual de la fluidez del procesamiento, sino la mayor riqueza de las características perceptivas del recuerdo de los ítems estudiados, esto es, la mayor distintividad de la información recuperada, con independencia de que el contenido de esa información sean características superficiales o profundas de los ítems.

Esto lo demostró Mantyla, mediante un experimento en el que los sujetos trabajaban con fotografías de rostros y hacían un procesamiento en unos casos analítico superficial (analizar rasgos físicos de los rostros – análisis basado en las diferencias), y en otros un análisis global profundo (clasificar los rostros en varias categorías – análisis basado en la similaridad).

Los resultados confirman esa hipótesis:
  • Las experiencias tipo sé fueron potenciadas con la clasificación tipológica (en categorías)
  • Las experiencias tipo recuerdo se fundamentan sobre la dimensión analítico – global (no sobre la dimensión de procesamiento superficial – profundo), siendo más las experiencias tipo recuerdo cuanto más analítico es el procesamiento.
Así, podemos concluir que es la mayor distintividad provocada por el procesamiento analítico la causa de la recuperación de elementos del estimulo o contexto de adquisición (recuperación tipo recuerdo).

Reconocimiento global y reconocimiento analítico
El procesamiento analítico es el procesamiento de los componentes de un estimulo (ej.: descripción de una cara por una enumeración de rasgos y relaciones entre ellos).
El procesamiento global (o no analítico) es el procesamiento del estimulo como un todo (ej: la expresión de una cara no es algo que responda a ninguno de sus rasgos en particular, sino una propiedad de la cara como un todo, de la configuración de sus rasgos).

La mayor parte de los procesamientos llevados a cabo sobre un estimulo cualquiera, son de uno y otro tipo, si bien, en muchas ocasiones, predomina un procesamiento sobre otro. Debemos concebir el carácter analítico o global del procesamiento como un continuo entre ambos tipos.

Ya hemos visto en el apartado anterior que las experiencias tipo recuerdo se deben a la mayor distintividad provocada por el procesamiento analítico. Pero, ¿q ocurre cuando las condiciones de adquisición ni siquiera permiten un procesamiento analítico? Para resolverlo veamos el ss experimento.

Mäntÿla, Whittlesea y Price (2001 experimento 2c), suponían que se puede manipular también el tipo de procesamiento global - analítico mediante las condiciones de presentación de los estímulos (no por los estímulos en sí). Así, establecieron unas condiciones de adquisición que únicamente permitían un procesamiento global. El procedimiento era este:
  1. Presentación de los estímulos: presentaban una secuencia de 90 imágenes (en realidad solo 30 distintas, ya que se repetían imágenes), durante 40m/sg cada una. El breve tiempo de exposición, sin intervalo entre estímulos y el número relativamente elevado de estímulos hacía imposible llevar a cabo un procesamiento analítico, ni siquiera mínimo.
  2. Prueba de reconocimiento: en cada ensayo se presentaban 2 estímulos, uno a la izquierda y otro a la derecha de la pantalla del ordenador; ambos presentaban superpuestos dos ejes perpendiculares que los dividían en cuadrantes. La tarea del sujeto era esta:
    • Decidir cuál de dos estímulos de un par de prueba presentaba cambios respecto a los mostrados en la presentación (reconocimiento de diferencias, tarea que requiere procesamiento analítico).
    • Detectar cuál de dos estímulos de un par de prueba era similar a alguno presentado en la secuencia previa (reconocimiento de similaridad, tarea que requiere procesamiento global).
  3. Resultados: cuando la tarea orientadora dirigía hacia un procesamiento global, el reconocimiento de diferencias era imposible, no así el reconocimiento de similaridad. Esto indica que los individuos pueden variar la fluidez utilizada en los juicios de reconocimiento en función de las condiciones de adquisición y las necesidades de la tarea
  4. Conclusiones:
    • Las condiciones de presentación pueden limitar el procesamiento a las características globales de los estímulos: en este caso han sido las características físicas de los estímulos y no el tipo de codificación en adquisición inducida por una tarea orientadora lo que ha potenciado el procesamiento el procesamiento no analítico
    • Los sujetos pueden cambiar el nivel de fluidez (analítica o no analítica) que va a ser dominante en sus juicios de reconocimiento, de acuerdo con las condiciones de adquisición y los requerimientos de la tarea.
NOTA: Procesamiento GLOBAL vs. procesamiento ANALITICO  las tareas de reconocimiento en las que se exige detección de diferencias requieren un procesamiento ANALÍTICO. Las que exigen detección de similaridad requieren un procesamiento más GLOBAL.

Dinamica De La Atribucion

En este punto nos referimos a como se atribuye (o no) la fluidez de procesamiento de un ítem a su familiaridad, al conocimiento previo que se tenia de el. Se puede pensar que estos 2 términos (fluidez de procesamiento y familiaridad) se confunden, sin embargo, se han desarrollado experimentos donde se encuentran disociados estos conceptos. Aquí lo que vamos a ver es cuales son las circunstancias en que se producen esos errores de atribución.

El papel de la discrepancia

Según el “efecto Hension”, en determinadas circunstancias, estímulos cuyo procesamiento es manifiestamente menos fluido, pueden producir mas familiaridad ilusoria que otros mas fluidos, simplemente porque la fluidez de procesamiento de estos últimos esta justificada para el sujeto, es decir, que esta fluidez no es discrepante con la esperada, dadas las características de estos estímulos.

Experimento →Este fenómeno se produce cuando presentamos a un sujeto una lista compuesta por:
  • Palabras comunes (tronco)
  • Pseudopalabras regulares (tronto).
  • Pseudopalabras irregulares (rtonco).
En una prueba posterior de reconocimiento presentamos ítems nuevos y viejos de los tres tipos. El efecto Hension consiste en un sesgo general a admitir como antiguas más pseudopalabras regulares que palabras y pseudopalabras irregulares.

Explicación → el reconocimiento de estas pseudopalabras regulares suelen ir asociado con latencias más largas de respuesta que el de las palabras, lo cual debe tomarse como indicio de menor fluidez de procesamiento que éstas.

En otro experimento de Whittlesea y Williams (2000, experimento 1), en el que pedían a sus sujetos que calificaran sus reconocimientos de acuerdo con la experiencia subjetiva sé o recuerdo, encontraron que el fenómeno se localiza exclusivamente en el componente de familiaridad (sé) del reconocimiento.

Así, vemos que para que se atribuya familiaridad erróneamente a un estimulo, tiene que haber discrepancia entre la fluidez esperada y la encontrada. Sin embargo, hay que señalar q, cuando se intercala una tarea entre la presentación del estimulo de prueba que provoca la discrepancia y la respuesta de reconocimiento, el “efecto Hension” desaparece, es decir que la sensación de discrepancia se disipa.

Establecimiento de la fluidez de referencia

Si podemos detectar una discrepancia entre la fluidez de procesamiento encontrada y la esperada, eso nos lleva a que tiene que haber una estándar o una línea base que valga de referencia de fluidez de procesamiento, para poder detectar esa discrepancia.

Una posible teoría es la existencia de un “estándar local” de fluidez de procesamiento, con respecto al cual el individuo evalúe la facilidad o fluidez de procesamiento. Si bien esta teoría podría explicar el efecto Hension, sin embargo, no puede explicar que este efecto se produzca en tareas semánticas (estimaciones de tipicidad, decisiones léxicas o estimaciones de frecuencia).

Cabe pensar que quizá se deba a la existencia de un episodio puntual en la adquisición, sin embargo, 2 experimentos han demostrado que el fenómeno esta exclusivamente ligado con los procesos de recuperación, puesto que se produce incluso cuando no hay episodio de adquisición.

Veamos ahora como podemos evitar que se produzcan las atribuciones ilusorias de familiaridad:
  • Mediante el descuento de causas alternativas.
  • Mediante el modo de recuperación.
  • Mediante la compatibilidad entre la adquisición y recuperación.

El descuento de causas alternativas

La mejor manera de evitar una atribución ilusoria de familiaridad a un incremento en la fluidez de procesamiento es realizando una atribución correcta y, por consiguiente, “descontando” la mayor fluidez de procesamiento a la familiaridad. Veamos un experimento que trata de demostrarlo.

Gellatly, Banton y Woods (1995) → manipularon las instrucciones para dar mayor o menor relevancia al episodio de repetición: el grupo de participantes donde la repetición se trato como irrelevante (sujetos que solo tenían que hacer una tarea de reconocimiento) mostraron ilusión de familiaridad, sin embargo tal ilusión se redujo para el grupo de participantes que pudo atribuir la familiaridad a la repetición (sujetos que debían detectar las preexposiciones al estimulo de prueba).
Este procedimiento muestra que siempre que los individuos pueden excluir de la familiaridad toda ganancia en fluidez de procesamiento que es potencialmente atribuible a otras causas (en este caso a una repetición previa), la ilusión de familiaridad se reduce o no se produce.

El modo de recuperación

Aquí vamos a estudiar para que se produzca la ilusión de familiaridad en una dimensión del estimulo, tiene que producirse la fluidez de procesamiento en esa dimensión.

Los resultados de los distintos experimentos nos muestran como la compatibilidad entre el tipo de fluidez y su contenido no es determinante absoluto de la atribución que de ella hacemos. Pero esto no significa que nunca sea determinante, sino que significa que:
  • Puede producirse la ilusión de familiaridad en una dimensión de la información (por ej. el significado de un ítem), a partir de la fluidez de procesamiento en otra dimensión de la información (por ej. análisis estructural o perceptual del ítem), siempre que lo propicien el contexto de la tarea y, sobre todo, la actitud que respecto a el él sujeto adopte.
  • Si el propio sujeto considera que una fluidez de procesamiento no es comparable con otra, parece que puede protegerse contra posibles errores inducidos por cambios de fluidez de actividades.
Veamos el experimento que lo demuestra →Whittlesea (1993, experimento 4), demostró que no es el origen de la fluidez lo de procesamiento lo que determina la atribución sino la orientación que el sujeto adopte respecto a la tarea. Así, parece que el sujeto es insensible a posibles diferencias cualitativas de fluidez de procesamiento, pero el uso que hace de esta fluidez sí es exquisitamente sensible a los requisitos de la tarea.

Procedimiento:
  • Se manipula la claridad perceptiva variando la densidad de la máscara.
  • Los sujetos debían pronunciar la palabra de prueba al mismo tiempo que pulsaban la tecla y a continuación debían decir si la palabra de prueba estaba relacionada o no en su significado con alguna de la lista.
  • Hizo creer a los sujetos que cualquier facilidad de procesamiento que encontraran ante la palabra de prueba sería debida a la relación de significado entre algún ítem de la lista y el propio ítem de prueba. Así, antes de la presentación de cada ítem de prueba añadió una frase previa cuyo contenido estaba relacionado con el significado de la palabra de prueba pero no con los de la lista, ésta instrucción sólo pretendía hacer creer a los sujetos una relación inexistente. En realidad, la manipulación de la fluidez de procesamiento fue perceptiva debido a que varió la densidad de la máscara en la que se insertaba la palabra de prueba.
La densidad de la máscara produjo el resultado deseado respecto al tiempo de reacción como índice de fluidez perceptiva: los tiempos de reacción fueron más bajos en los ensayos con máscara de baja densidad, estuviese la palabra de prueba relacionada o no con alguna de la lista y las latencias asociadas con palabras relacionadas también fueron más cortas, con independencia de la densidad de la máscara en la que estuviese inscrita la palabra de prueba.

La ilusión de familiaridad se produce: los sujetos tienden a considerar más relacionadas con la lista precedente aquellas palabras de prueba que se han presentado insertas en una máscara más débil.

Conclusión: el incremento artificial de la fluidez de perceptiva que ha provocado el experimentador induce sensación de familiaridad semántica en los sujetos. Por tanto esto nos exige poner en duda que las atribuciones de familiaridad sean siempre sensibles a las diferencias cualitativas de la fluidez, es decir, a sus contenidos específicos.

Compatibilidad entre adquisición y recuperación

En el experimento de Whittlesea y Price (2001 1 A y 1 B), vimos que la rapidez con la que se pasaban una secuencia de imágenes impedía el procesamiento analítico de dichas imágenes en la fase de adquisición. Esto provocaba una pésima ejecución en una tarea de detección de diferencias, pero una ejecución aceptable en una tarea de detección de similaridad (para la cual era suficiente el procesamiento global, que sí se producía en esas condiciones de adquisición). Esto demuestra la fuerte relación que hay entre el tipo de procesamiento (analítico o global) y el tipo de tarea que se requiere al sujeto en la fase de prueba.

Estos autores intentaron trasladar esta explicación al efecto de mera exposición (preferencia del estimulo preexpuesto) → modificaron las instrucciones para forzar el procesamiento analítico en los juicios de preferencia y el procesamiento global para los juicios de reconocimiento.

Repitieron el mismo procedimiento que habían seguido para los juicios de preferencia, pero ahora les pidieron que justificaran ensayo a ensayo su elección. Así, se encontró que el efecto de mera exposición desaparecía cuando los participantes debían justificar sus juicios de preferencia en cada ensayo con el análisis de las características.

Tb se debía demostrar que es posible el reconocimiento de estímulos presentados en las mismas condiciones de adquisición, si se logra que los sujetos basen sus respuestas en familiaridad provocada por la mayor fluidez de procesamiento de las propiedades globales. Veamos el experimento que se hizo al respecto.

Whittlesea y Price (2001, experimento 1C). 

Procedimiento:
Engañaron a un grupo de sujetos que pasaron por un procedimiento similar al anterior, ya que se les informó que ninguno de los estímulos presentados era idéntico a alguno de los presentados en la secuencia rápida de 90 imágenes, sino que uno era similar ya que se había alterado alguno de sus elementos. Ese elemento similar era el que debían reconocer.
La hipótesis es que si los individuos prescinden del análisis de fluidez en el procesamiento de los estímulos y se centran en el análisis de fluidez en el procesamiento de las características globales, la repetición de los estímulos en la secuencia debería tener las consecuencias análogas al efecto de mera exposición. El objetivo parece que se logró, ya que la elección de los estímulos supuestamente parecidos, pero en realidad idénticos a los presentados, fue superior a lo esperado por azar.

Conclusiones:
Los sujetos realizan la prueba de reconocimiento tratando de encontrar incrementos de fluidez en el procesamiento analítico del estímulo de prueba. Estos incrementos no aparecen y a consecuencia de ello, no hay reconocimiento ni siquiera del tipo sé. Cuando las condiciones de adquisición son extremadamente deficientes para el procesamiento de los componentes de un estímulo, una prueba clásica de reconocimiento no permitirá detectar rastro alguno en la memoria de los sujetos, rastro que indirectamente si detectará una prueba de preferencia de elección forzosa en la que no se requiera justificación de la elección de una alternativa.

Combinación de Recuperación y Familiaridad

Como ya hemos dicho en varias ocasiones, existen 2 formas de reconocimiento (tipo recuerdo y tipo se). En este apartado, nos vamos a plantear las siguientes cuestiones:
  • ¿Que determina que el individuo haga uso de una u otra forma de reconocimiento?
  • ¿Que consecuencias tiene para la calidad del reconocimiento adoptar una o la otra como criterio de respuesta?
  • ¿Como contribuyen una y otra forma a la emisión de los juicios de reconocimiento?
Para resolver estas cuestiones vamos a seguir 2 de las líneas de investigación que mas han contribuido a resolverlas, son la desarrollada en torno a la latencia de respuesta, y la desarrollada en torno al análisis de las funciones que relacionan las tasas de aciertos y falsas alarmas, conocidas como curvas COR.

Latencias De Reconocimiento

La investigación de las latencias de recuperación se basa en los supuestos del modelo de Atkinson y Juola (1974). La hipótesis de estos autores es que los individuos responden exclusivamente basándose en la familiaridad suscitada por el estímulo de prueba cuando ésta es muy alta o muy baja (responderían si o no). Si la familiaridad es intermedia, el diagnóstico de familiaridad se considera inseguro, por lo que el individuo adopta como estrategia alternativa la búsqueda de información complementaria que aporte garantías adicionales en cualquiera de los dos sentidos posibles de respuesta.

Las respuestas de un individuo en una tarea de reconocimiento pueden clasificarse de acuerdo con una matriz de confusión en la que los estímulos de prueba que formaron parte del episodio de adquisición juegan el papel de la señal sobre ruido (SR) en las tareas de detección (antiguos) mientras que los estímulos de prueba que se utilizan como contrastes de reconocimiento juegan el papel de ruido (R) (nuevos), ya que no se han relacionado previamente con el contexto de adquisición al que está referida la prueba en su conjunto.

El punto de partida de estos autores es que la dimensión de familiaridad asociada con los ítems nuevos y antiguos puede representarse en un continuo de familiaridad de modo análogo a como se concibe la sensación en la TDS (teoría de detección de señales).

Podemos ver que la familiaridad asociada a los ítems antiguos es mayor que la correspondiente a los nuevos.

El índice de discriminalidad (d’) es la distancia entre las dos distribuciones, en unidades de desviación típica. Cuanto mayor es la diferencia en familiaridad entre los ítems antiguos y nuevos (con un valor d’ más grande) más distancia habrá entre las dos distribuciones y será mayor la probabilidad de tomar decisiones acertadas basándose en esta dimensión de familiaridad.

El modelo de Atkinson y Juola (1974) incluye dos puntos de corte en el eje de familiaridad:
  • Criterio alto (C1): delimita la zona de familiaridad alta (la zona que queda a la derecha) de la zona de familiaridad intermedia (la situada entre C0 y C1). Cuando el estímulo iguala o supera este criterio, el individuo decide que SÍ lo reconoce.
  • Criterio Bajo (C0): delimita la zona de familiaridad baja (a su izquierda) de la zona de familiaridad intermedia. Cuando la familiaridad que suscita el estímulo es muy baja el individuo decidirá que NO lo reconoce.
Cuando un estímulo de prueba se sitúa en la zona de familiaridad intermedia, la dimensión de familiaridad no es suficiente para tomar la decisión, porque cae entre el criterio alto y el bajo. En este caso deberá buscar información alternativa que incline su decisión: consumirá tiempo y se reflejará en un aumento de la latencia de respuesta. El problema habitual en una tarea de reconocimiento es que las distribuciones de familiaridad asociadas a los ítems antiguos y nuevos suelen estar solapadas.

Precisión De Reconocimiento

El punto de partida de Yonelinas es que, a diferencia de Atkinson y Juola, el estímulo de prueba puede producir recuperaciones por sí mismo. Los reconocimientos por recuperaciones se producen como subproducto de la insuficiencia de la familiaridad para asegurar el reconocimiento o su rechazo.

Yonelinas (1994) ha propuesto un modelo que trata de sistematizar las diferencias en la contribución al rendimiento en reconocimiento entre:
  1. Las decisiones basadas en la familiaridad por la fluidez de procesamiento del estímulo de prueba.
  2. Las decisiones basadas en las recuperaciones que produce el estímulo de prueba por sí mismo.
La propuesta de Yonelinas supone aplicar los modelos de decisión, umbral y detección de señales, respectivamente, al reconocimiento basado en la recuperación (tipo recuerdo) y al basado en la familiaridad (tipo sé). Los supuestos del modelo de Yonelinas se sintetizan en:
  1. El componente de recuperación en los problemas de reconocimiento es un proceso que actúa según los modelos de umbral.
  2. El componente de familiaridad en los problemas de reconocimiento es un proceso que actúa según los modelos de decisión basados en la detección de señales.
  3. Los reconocimientos que se producen con mayor confianza son los que predomina el componente de recuperación. Los reconocimientos con escasa seguridad son los realizados sobre el componente de familiaridad (en ausencia casi total de recuperación).
  4. Los componentes de recuperación y familiaridad son independientes.

Funciones cor asimétricas

Se entiende por función COR la relación existente entre la tasa de aciertos y la tasa de falsas alarmas. Las funciones COR son monótonas crecientes, negativamente aceleradas y simétricas respecto a la diagonal negativa.

Como afectan ciertas variables experimentales a las curvas COR:
  • Cuando aumenta el número de exposiciones de los ítems de una lista de estudio, la función tiende a desplegarse hacia la esquina superior izquierda del área COR, sin que cambie su pendiente: aumenta de la distancia de las distribuciones de familiaridad (incremento de d’).
  • El aumento del intervalo entre la presentación de un ítem y su aparición como estímulo de prueba en un procedimiento de reconocimiento continuo reduce la distancia de la curva COR a la diagonal y aumenta su pendiente.
La proposición de Yonelinas puede formalizarse en los siguientes términos:


  • PT(A): Probabilidad de aciertos (tasa de aciertos).
  • P(R): Probabilidad de que se produzca una recuperación de algún elemento del episodio de adquisición que justifique el reconocimiento.
  • PF(A): Probabilidad de que la familiaridad del ítem (antiguo) supere el criterio de respuesta de reconocimiento (probabilidad de acierto por familiaridad)
  • P(FA) = PF(FA)
  • P(FA): Probabilidad de cometer una falsa alarma
  • PF(FA): Probabilidad de que la familiaridad de un ítem nuevo supere el criterio de respuesta de reconocimiento.
El modelo no contempla la posibilidad de que el proceso de recuperación dé lugar a una falsa alarma: todas dependen de una decisión sobre la familiaridad.

La ecuación contiene dos fuentes de probabilidad de acertar: la recuperación y la familiaridad, que contribuyen independientemente al reconocimiento, por ello habrá ocasiones en que las dos permiten el mismo acierto, de ahí que la probabilidad conjunta de ambos deba restarse

Recordando a Yonelinas → el proceso de reconocimiento basado en:
  • La familiaridad actúa de acuerdo con los supuestos de la TDS.
  • El componente de recuperación de acuerdo con un modelo de umbral alto.
La combinación de ambos procesos explicaría las deformaciones características que con frecuencia presentan las funciones COR cuando mejora el reconocimiento → alejamiento de la diagonal, asimetría y achatamiento.

Funciones COR bajo diferentes supuestos


  1. Función recuperación + familiaridad (R+F): La función ha sido trazada asumiendo un valor para el parámetro de recuperación de P(R) =0.50 y d’=0.50 la función presenta claramente las 3 propiedades características de: alejamiento de la diagonal, asimetría y achatamiento.
  2. Función familiaridad (F): P ( R) =0 y d’=0.50 la COR correspondiente es simétrica y está mucho más próxima a la diagonal que la función (F +R)
  3. Función recuperación (R): P ( R) =0.50 y d’=0
El modelo supone que esto solo se daría si el individuo careciese por completo de la contribución del componente de familiaridad para llevar a cabo el reconocimiento, circunstancia en la que las falsas alarmas procederían al margen de adivinación asumido como riesgo por el individuo para maximizar los aciertos. Yonelinas supone que en circunstancias normales, las falsas alarmas proceden todas de decisiones sobre la familiaridad, mientras que el componente de recuperación se mantiene constante en todo el rango de falsas alarmas cubierto por la función COR.

Contrastación experimental

Yonelinas ha presentado 2 tipos de demostraciones de lo que predice su modelo:
Descomposición de las funciones COR que se obtienen en una tarea de reconocimiento: se obtiene una función COR de familiaridad y otra COR de recuperabilidad.
Métodos:
  • Por el procedimiento de disociación de procesos PDP.
  • Por el tipo de experiencia de reconocimiento.
Suprimir la contribución del componente de familiaridad en la tarea del sujeto.
Métodos:
  • Por reconocimiento asociativo.
  • Por reconocimiento de la fuente.
Descomposición De Las Funciones COR

El objetivo de esta estrategia es demostrar que cada uno de los elementos que contribuyen a ella se comporta de acuerdo con su definición correspondiente, es decir, que se trata de encontrar que la función COR empírica es el resultado de combinar una componente COR que se ajusta a un proceso de decisión como el de la TDS y otra componente que se ajusta a un proceso de decisión de UMBRAL ALTO.

La función COR es una serie de puntos en un área de probabilidad, cada uno de ellos definido por un par [x, y]. Según el modelo cada uno de esos puntos es el resultado de la contribución de los dos procesos necesitamos estimar el valor resultante de cada proceso en cada punto, es decir, que necesitamos obtener estimadores de familiaridad y de recuperación para cada tasa de falsas alarmas y cada tasa de aciertos para poder trazar las funciones COR con que cada componente contribuye al reconocimiento. Para ello utilizaremos los siguientes métodos:

Por El Procedimiento De Disociación De Proceso (PDP)
En el PDP debemos disponer siempre de dos procesos de tareas contrapuestas:
  • Tarea de inclusión: en la que la recuperación consciente se considera válida para la tarea.
  • Tarea de exclusión: en la que la recuperación consciente no se considera valida.
Las contribuciones de los procesos conscientes e inconscientes son independientes entre sí. Los experimentos muestran como:
  1. La tarea de inclusión dio una función COR idéntica a la versión del reconocimiento clásico.
  2. Mientras la función COR del estimador F (familiaridad) presentaba la forma típica de una función COR de TDS
  3. La COR del estimador R (recuperación) era independiente de la tasa de falsas alarmas, era una función horizontal. Demostrando así que el elemento de recuperabilidad era independiente del criterio del sujeto para cometer falsas alarmas.
Por El Tipo De Experiencia De Reconocimiento
Otra estrategia para obtener estimadores de recuperación y familiaridad es pedir directamente al sujeto que distinga el tipo de experiencia subjetiva que acompaña a cada reconocimiento, pudiendo así obtener curvas COR de reconocimiento de tipo sé y de tipo recuerdo.

Yonelinas (2001, experimento 1):
Presentó una lista de 50 palabras y después les pasó una prueba de reconocimiento en la que debía utilizar una escala de 6 puntos, pero tenían que indicar junto a cada respuesta si el reconocimiento era:
  • De tipo sé.
  • De tipo recuerdo.
Con las respuestas asociadas a los reconocimientos de tipo recuerdo obtuvo la función COR de recuperación; y calculó un estimador de familiaridad para cada tasa de falsas alarmas. El resultado obtenido con estos estimadores también se ajustó al modelo:

La familiaridad (tipo se): se ajustó a la TDS, repartiéndose las respuestas de forma similar entre las distintas categorías.
La recuperación (tipo recuerdo): fue independiente de las falsas alarmas, concentrándose las respuestas en las categorías de máxima seguridad.

Suprimir la contribución del componente de familiaridad en la tarea del sujeto

Aislamiento De La Recuperación
Aquí se pretende anular la familiaridad F en el reconocimiento para que le participante base sus decisiones exclusivamente el componente de recuperación.

La función COR resultante debe aproximarse a una función lineal; es decir, debe perder su curvilinealidad original, debido a que sólo dispondrá del componente de recuperación R, por lo que se ajustarán a la COR correspondiente a un modelo de umbral alto.

Existen medios para neutralizar la ayuda de tal familiaridad  igualando las dos alternativas en el nivel de familiaridad, para obligar al sujeto a basar sus decisiones de reconocimiento en el componente de recuperación:
  • Por reconocimiento asociativo
  • Por reconocimiento de la fuente
Por Reconocimiento Asociativo
Yonelinas (1997, experimento 1), presentó una larga lista de pares de palabras cada 4 seg./par: cada palabra aparecía 2 veces, emparejada con una palabra distinta en cada ocasión. A continuación los sujetos realizaban una prueba de reconocimiento en la que debían emitir sus respuestas en una escala de 6 puntos para obtener así las funciones COR. En la pantalla de ordenador podía aparecer una palabra aislada o un par.
  • Palabra aislada: debía decir si pertenecía a la lista o no (prueba de reconocimiento de ítems clásica).
  • Pares de palabra: el sujeto debía decir si el par había aparecido o no tal cual en la lista de estudio.
Cuando hay que realizar un reconocimiento asociativos, el criterio de respuesta no es si las palabras han aparecido o no, sino si han aparecido en compañía de tal o cual otra palabra. Se supone que la familiaridad que cada palabra suscite no bastará para resolver la tarea, ya que será preciso recuperar la palabra que iba emparejada con ella en la lista de estudio para poder emitir una respuesta.

Con este supuesto, Yonelinas analizó las funciones COR resultantes en reconocimiento de ítems y reconocimiento asociativo. Sus resultados pueden resumirse en los siguientes puntos:
  1. La función COR de reconocimiento fue curva, asimétrica y achatada.
  2. La función COR de emparejamiento asociativo, sin embargo, fue lineal y con una pendiente inferior a 1.00.
La eliminación de familiaridad aporta otro dato para decantar la importancia de la propuesta de Yonelinas a la comprensión del reconocimiento. Este dato se obtiene cuando se representan las funciones COR en coordenadas normales o normalizadas.
  • En estos casos una COR simétrica en coordenadas lineales aparece como una COR lineal en coordenadas normales con pendiente 1.00.
  • Una COR asimétrica en coordenadas lineales aparece como una COR lineal en coordenadas normales, pero con una pendiente mayor o menor que 1.00; generalmente cuando es éste el caso, la pendiente es menor que 1.00.
  • Una COR achatada en coordenadas lineales, sea simétrica o no, aparece en coordenadas normales como una función ligeramente curvada hacia arriba. Este hecho marca la diferencia entre las predicciones derivadas del modelo de Yonelinas y las derivadas de modelos que contemplan un único componente de detección de señales en el reconocimiento. La deformación hacia la forma de U que puede presentar la función COR en coordenadas normales sólo puede explicarse por el achatamiento de la COR en coordenadas lineales que produce la contribución de un componente que funciona de acuerdo con un modelo de decisión de umbral alto.
Los resultados de Yonelinas han permitido comprobar la presencia de esa deformación característica de la función COR en coordenadas normales sólo en la tarea de reconocimiento asociativo, no en la de reconocimiento. Esa deformación está presente como achatamiento en la representación de la COR en un espacio lineal, pero en ésta su detección es mucho más difícil.

Por Reconocimiento De La Fuente
Otra forma de neutralizar la utilidad de la familiaridad es mediante el reconocimiento del origen. Yonelinas (1999, experimento 3) presentó a sus sujetos dos listas de palabras, una leía en voz de hombre y otra por una voz de mujer. Los sujetos debían decir en la prueba de reconocimiento a qué lista pertenecía la palabra, en una escala de 6 puntos.

Una particularidad del procedimiento es que la primera lista fue leída dos veces. Por este procedimiento, se puede contrarrestar en alguna medida la mayor familiaridad debida a la proximidad temporal (cercanía) de la lista leída con voz de mujer.

Los resultados fueron análogos a los descritos en el apartado anterior, una vez más con la deformación de la U de la COR en coordenadas normales, que parece característica cuando se hace caer el peso de la tarea en el componente de recuperación.

Especificidad De Los Efectos De Variables Independientes.

En la mayor parte de los experimentos sobre el modelo de Yonelinas se manipulaba alguna variable independiente con el fin de localizar sus efectos en el componente de recuperación, el de familiaridad o ambos.
La conclusión que se obtiene de estos trabajos, es que pueden obtenerse funciones COR características dependientes de las manipulaciones experimentales según se centren en las tareas sobre:
  • El componente de familiaridad: función simétrica y negativamente acelerada.
  • De recuperación: función lineal plana.
  • De ambos: simétrica y achatada.
Compartir:

Buscar