Reconocimiento

Procedimiento Básico

Antes de nada, debemos distinguir entre:
  • Tarea o prueba de reconocimiento: cuando se nos presenta un estimulo y se nos pide que reconozcamos si ya lo conocíamos o no. Ej.: nos presentan una foto de una cara y nos preguntan si la conocíamos.
  • Tarea o prueba de recuerdo: cuando el estimulo no se nos presenta y se nos pide que lo describamos. Ej.: nos piden que describamos una cara que conocemos.
Con respecto a una prueba de reconocimiento, desde el supuesto tradicional de la estabilidad o identidad transituacional de los símbolos almacenados en la memoria, se pensaba que si el estimulo presentado coincidía con alguno de los ítems almacenados en la memoria, provocaría una especial activación de su símbolo correspondiente, que daría lugar a la sensación de familiaridad que subyace a un reconocimiento.

Así, el problema que plantea una tarea de reconocimiento es una cuestión de la cantidad de activación o familiaridad que es capaz de provocar el estímulo de prueba. De manera que reconocemos los estímulos siempre que estos sean capaces de superar un determinado umbral de esa supuesta activación o familiaridad.

El Reconocimiento como Problema de Decisión en un Espacio Unidimensional

Sin embargo, no podemos determinar exactamente cual es el punto de activación por encima del cual el individuo admite un reconocimiento y por debajo lo niega. Un mismo estimulo no presenta siempre el mismo grado de familiaridad. Ej.: una cara que ahora nos parece conocida, un momento después no nos lo parece tanto. Así, no hay un umbral de reconocimiento estable y directamente observable. El umbral es variable.

En la siguiente grafica podemos ver representado un estimulo nuevo (desconocido) y un estimulo antiguo (conocido), y el grado de familiaridad que presentan ambos. Vemos que el estimulo nuevo y el antiguo se solapan parcialmente, ya que hay valores de familiaridad que pueden ser provocados tanto por estímulos nuevos como antiguos, es una zona de ambigüedad en cuanto a la emisión de un juicio de reconocimiento.

También vemos como el umbral de reconocimiento (línea vertical “c”) puede colocarse en cualquier lugar del continuo de familiaridad. Si lo desplazamos hacia la derecha, observaríamos que se producirían menos reconocimientos erróneos (o falsas alarmas), pero a costa de que se produjesen menos reconocimientos correctos. Si desplazásemos el umbral de reconocimiento hacia la izquierda sucedería lo contrario (más reconocimientos correctos, pero también más falsas alarmas).

Al final la elección de ubicación del umbral va a depender de los intereses concretos que en cada caso se persigan con la elección, de cual es el error menos tolerable. Observamos que en la figura representada, el umbral se ha colocado de tal manera que permite b-c reconocimientos correctos (aciertos), a costa de a-c reconocimientos falsos (falsas alarmas).


Vemos que, en función de donde se establezca el umbral de reconocimiento, la probabilidad de aciertos (reconocimientos correctos) y errores (falsas alarmas) varia.

Las diferentes probabilidades pueden representarse en una Función COR: que en Psicofísica recibe el nombre de Teoría del Umbral Alto:


Veamos las características que presenta esta función:
  • La función es lineal: la relación entre la tasa de aciertos y la de falsas alarmas es directa.
  • La altura de la función en la ordenada nos indica la proporción de aciertos neta (b-a)/b. Este valor se designa como “p” y es el estimador de umbral en la teoría del umbral alto. Al ser una proporción de aciertos neta se supone que no esta contaminado por adivinaciones.

Algunos Hechos Discrepantes

Las grandes virtudes de la teoría del Umbral alto son su simplicidad y su facilidad de contrastación. Sin embargo, esta teoría muestra los siguientes problemas:
  1. La forma lineal de la función COR no se da en la realidad nunca. Los datos suelen mostrar una función curva monótona creciente y negativamente acelerada y asimétrica, con tasas de aciertos bajas mas altas de lo que cabria esperar según la teoría de detección de señales (TDS).
  2. Hay multitud de fenómenos que apuntan a q, en la tarea de reconocimiento, hay implicados varios procesos:
    1. Un proceso de familiaridad: reconocimiento como decisión en un espacio unidimensional.
    2. Un proceso de recuperación recuerdo.
Así, la tarea de reconocimiento no se trata de un mero efecto de activación automática en respuesta al estimulo de prueba, sino que en realidad es un complejo juego de procesos, todos ellos conducentes a hacer una atribución de pasado al estimulo de prueba.

Atribución De Familiaridad A La Fluidez De Procesamiento

Como ya hemos visto, un componente esencial del recuerdo es la experiencia subjetiva de familiaridad con un contenido mental o con un estimulo, y la atribución de esa familiaridad al pasado personal.

Esta familiaridad puede entenderse como una “primitiva psicológica” que forma parte del trazo de memoria activado. Sin embargo, muchos autores respaldan la idea de que la familiaridad no esta necesariamente ligada a la calidad o fuerza del trazo. Así, la familiaridad no debe concebirse como una “primitiva psicológica” ligada al trazo, sino como un producto derivado.

Entonces, ¿cual es la primitiva psicológica sobre la que se hace una atribución de familiaridad?  el concepto que unos autores proponen es el de la “fluidez de procesamiento”, que hace que la tarea se realice con mas brevedad, eficacia, fluidez o precisión, por transferencia del aprendizaje.

Esta transferencia del aprendizaje puede ocurrir en cualquier nivel de actividad. De hechos, se supone que los sujetos, a la hora de recuperar información, cambian de unos dominios a otros, dentro de la misma tarea, buscando procesos fluidos.

Así, la familiaridad seria el resultado de una atribución a la especial fluidez de procesamiento detectada, pero que tal atribución no es consciente, ya que no forma parte de la tarea de reconocimiento o recuerdo y, por tanto, es irrelevante para el sujeto.

Contingencias de Atribución

Pero, ¿el sujeto como decide si esa especial fluidez de procesamiento se debe a una experiencia previa o se debe a alguna causa del presente? A la hora de tomar esta decisión, el sujeto se encuentra ante un problema de decisión que puede esquematizarse así:

Origen de la fluidez X Atribución de la fluidez Y
Presente Pasado
Presente 00 (acierto) 01(fallo)
Pasado 10 (falsa alarma) 11 (rechazo correcto)

Donde el digito 0 es un indicativo de presente y el digito 1 es un indicativo de pasado.
Donde el primer digito de cada par de ellos, se refiere al verdadero origen de la especial fluidez de procesamiento y el segundo digito se refiere a la atribución que hace el propio sujeto.
Donde las letras escritas en azul y entre paréntesis representan lo que supondrían los resultados de esta matriz de confusión en el análisis psicofísico de las tareas de detección, clasificación o categorización.

Contingencia 00

La contingencia 00 implica que un incremento de la facilidad de procesamiento percibido, provocado por alguna manipulación sobre el estimulo de prueba (es decir, provocado por alguna circunstancia del presente), es atribuido por el sujeto a alguna característica del momento de la prueba.

Si esta característica es la realmente responsable de dicho incremento, no se produce ilusión alguna. Sin embargo, si esa característica no es la realmente responsable del incremento de la facilidad de procesamiento, decimos que el individuo ha percibido acontecimientos ilusorios, pero, en este caso, se trata de ilusiones en el presente, por lo que pertenecen al ámbito de la percepción y quedan fuera de nuestros objetivos.

Contingencia 01

La contingencia 01 implica que la fluidez de procesamiento es debida a alguna circunstancia del presente, pero que el sujeto atribuye al pasado, a su carácter antiguo o a su familiaridad. Como ahora veremos, esta fluidez de procesamiento se puede provocar artificialmente en el momento presente, y que el sujeto piense que es debida a su familiaridad. Veamos 2 experimentos donde así se hace:

Variación directa de la fluidez perceptiva
Aquí el experimentador presenta a los sujetos una lista de 7 palabras, tras lo cual se presenta otra palabra que el sujeto tiene que leer, y que tiene que decir si venia en la lista o no. Pero la presentación de esta última palabra se manipula, alterando la densidad de una mascara donde esta inscrita dicha palabra, modificando así su claridad perceptiva y, por tanto, dificultando su lectura.

Se consiguió que la latencia de la lectura fuera mas corta en aquellas palabras que se presentaban en el contexto de una mascara poco densa, y las latencias también fueron mas cortas cuando la palabra de prueba había formado parte de la lista.

Los resultados demuestran que cuando la mascara era menos densa, los sujetos solían inclinarse por considerar que la palabra de prueba había aparecido en la lista con mas frecuencia que cuando se presentaba en el contexto de una mascara mas densa. Así, la mayor fluidez de procesamiento era atribuida como consecuencia de la familiaridad de esas palabras.

En resumen, la mayor facilidad de lectura de las palabras presentadas dentro de una mascara de baja densidad, había creado una ilusión de familiaridad. Así, se trata de un caso de contingencia de atribución 01, en la que la fluidez de procesamiento se incrementa artificialmente en el momento de la presentación del estimulo, pero que los sujetos atribuyen a su presentación previa. Hay que señalar que la ilusión de familiaridad no solo contribuyo a un incremento de falsas alarmas, sino también a un incremento de aciertos. Los sujetos no pueden desligar la familiaridad de su origen, y esto les lleva a interpretarla a veces acertadamente y otras erróneamente.

Variación indirecta de la fluidez perceptiva
En este apartado vamos a ver como se puede alterar la fluidez perceptiva de un estimulo sin alterar sus condiciones físicas de presentación (como ocurría en el anterior apartado). En un experimento se encontrado como aparece una ilusión de familiaridad cuando se ha preexpuesto subliminal o inconscientemente (por 50 milisegundos) el estimulo antes de la exposición de reconocimiento.

Para ello, en una tarea de reconocimiento de palabras anteriormente presentadas en una lista, los Larry Jacoby y Kevin Whitehouse preexpusieron subliminalmente, antes de la presentación de la palabra concreta, a los sujetos a una de estas 3 opciones: la misma palabra que se va a exponer, una palabra no relacionada y una serie sin sentido (xoxoxox).

Pues bien, los resultados muestran que los sujetos reconocieron palabras nuevas (q no estaban en la lista) como pertenecientes a dicha lista y que habían sido preexpuestas subliminalmente un 36% de veces. Si no habían sido preexpuestas, el resultado es un 26%, y si había sido preexpuesta otra palabra, el resultado es un 19%.

Estos resultados pueden sugerir que cuando el contenido de la palabra preexpuesta coincide con el estimulo de prueba, empieza el procesamiento un poco antes de la presentación como tal, ganando así un plus de saliencia mental, que facilita su inclusión entre los ítems reconocidos. por otro lado, el bajo porcentaje de falsos reconocimientos cuando la palabra preexpuesta había sido otra, sugiere que en estos casos el inicio del procesamiento de la palabra inconscientemente percibida puede dificultar el procesamiento posterior de la palabra de prueba.

Como vemos, este procedimiento no implica una manipulación de la fluidez de procesamiento del estimulo de prueba en el momento mismo de su presentación, sino unos milisegundos antes, por lo que se podía pensar que no debería encuadrarse en la contingencia 01, pero no pasa naica, porque se considera que forma parte del mismo episodio.

El efecto que se produce es análogo al fenómeno de la paramnesia, que consiste en la sensación de que lo que estamos viviendo en el momento presente lo hemos vivido exactamente igual con anterioridad.

Variación de la fluidez semántica
En una investigación de Whittlesea y cols, se realizaba una prueba de reconocimiento del significado de palabras anteriormente presentadas en una lista (se debía decir si una palabra nueva estaba relacionada con alguna de las presentadas en la lista), pero ahora se introducía, antes de la emisión de la palabra a reconocer, la presentación de una frase, que podía estar o no relacionada con la palabra en cuestión. Ej.: si la palabra era “catástrofe”, una frase relacionada podía ser: “el misil provoco una…”

Se sospechaba que el hecho de que la palabra estuviera relacionada con la frase anterior, mejoraría el procesamiento de dicha palabra, y esta sensación de fluidez podría ser atribuida a la presencia en la lista de una palabra con un significado similar.

Los resultados de la investigación confirmaron la hipótesis, se produjo un incremento de las falsas alarmas en condiciones de contexto más predictivo. Y esto tiene su origen en una circunstancia presente q, sin embargo, es atribuida a una causa pasada, por lo que se produce una familiaridad ilusoria. también en este caso la familiaridad contribuía al incremento de los aciertos que ocurría cuando las palabras de prueba que si estaban relacionadas con alguna de la lista aparecían, además, en un contexto predictivo.

Contrastes de fluidez (no esta bien resumido, es un coñazo in eternum)
Aquí se describe el “efecto revelación”, que surge en un experimento en el que se hace que los sujetos estudien una lista de 40 palabras, y posteriormente se les presenta una “tarjeta de revelación”, la cual puede contener desde 2 letras de alguna palabra, hasta todas las letras.

Pues bien, los resultados muestran que el porcentaje de respuestas afirmativas presentó una relación inversa con el número de letras de la palabra mostrada en la tarjeta, tanto para las palabras de prueba antiguas como para las nuevas. Es decir, que el porcentaje de aciertos y falsas alarmas fue mayor, se produjo una potenciación de las respuestas afirmativas, que se denominó efecto revelación, que a lo mejor es debido a que la presentación de la tarjeta exige algún tipo de procesamiento extra por parte del individuo, que provoca una mayor fluidez del ítem de prueba, lo que provoca una mayor familiaridad.

Sin embargo, se han encontrado supuestos en los que se ha demostrado que no es la familiaridad la que provoca ese efecto revelación. Pero, al mismo time, también parece probado que no si se elimina el componente de familiaridad el efecto de revelación no se produce.

Una posible explicación de esto puede ser que el efecto de revelación se produzca porque la tarea intercalada establece un nivel de fluidez de procesamiento de referencia que el sujeto compara con el del procesamiento del ítem de prueba. Así, cuando aparece el ítem de prueba, el sujeto analiza su fluidez con respecto a la experimentada antes, y si fue artificialmente disminuida, el contraste hará que se infle artificialmente la familiaridad del ítem.

Contingencia 10

En esta contingencia se da el supuesto de que la experiencia previa con ciertos ítems puede facilitar su procesamiento posterior, sin que el individuo atribuya dicha facilitación a haber tenido ya algún encuentro con ellos. La memoria ejerce algún tipo de influencia sobre el comportamiento del individuo sin que este sea consciente de ello. Veamos 3 fenómenos representativos de este tipo de contingencia de atribución (tb conocida como “memoria implícita” o “aprendizaje implícito”) y, posteriormente, mencionaremos la característica elemental común a todos ellos: la memoria como herramienta.

El efecto de mera exposición
En una investigación, se presentó a los sujetos pares de octágonos irregulares, habiéndoseles preexpuesto durante un milisegundo a solo uno de los pares de octágonos. Pues bien, cuando se les preguntaba que octágono preferían elegían mayoritariamente el que había sido preexpuesto. Y cuando se les pedía que reconociesen al octágono que había sido preexpuesto, no lo lograron (los resultados estuvieron en torno al 50%).

Puede parecer que la preexposición influye en el “procesamiento afectivo”, pero no es así, ya que los sujetos elegían ese octágono también cuando se les pedía que dijesen cual es el mas brillante o cual es el mas oscuro. Así, el efecto de la mera exposición parece un caso de atribución de una propiedad psicológica etiquetada a una mayor fluidez relativa de procesamiento provocada por una experiencia previa con el estimulo, es decir, una ilusión del tipo contingencia 10 de atribución.

Nombre y renombre
Jacoby y coleguitas sospechaban que la simple presentación previa del nombre de un desconocido podría hacer que los individuos so consideraran, en ocasiones posteriores, un personaje famoso. Para corroborarlo, presentaron a los sujetos una lista de 60 nombres (30 de los cuales eran personas famosas y 30 corrientes) que debían leer. Posteriormente debían discriminar, de otra lista de nombres (que incluía nombres famosos y corrientes de la lista anterior, mezclados con nombres famosos y corrientes nuevos) quienes eran famosos de quienes no.

Los resultados mostraron que la presentación previa de los nombres en la lista aumentó la consideración de famosos tanto de nombres corrientes como de famosos. Esto parece corroborar la hipótesis de partida, aunque no se puede descartar que algunos sujetos ya pensasen que eran famosos en la presentación de la primer lista, y gracias a ello se acordarán mejor en la segunda.

Para descartar esta posibilidad, se realizó el mismo experimento, pero con estas variantes:
  • Se advirtió a los sujetos, antes de realizar la tarea, de que todos los nombres aparecidos en la fase previa eran de personajes corrientes. Así, la recuperación de la información podría ser utilizada contra el sesgo que sospechaban que podía provocar falsa familiaridad.
  • Se añadió un nuevo grupo de sujetos que en la primera fase tuvo que realizar la lectura con una tarea distractora, de modo que se acordasen menos de los nombres que habían leído en esa primera fase.
Los resultados mostraron lo siguiente:
  • Los sujetos fueron conservadores en sus juicios, lograron no atribuir fama indebidamente a nombres corrientes, pero a costa de dejar fuera de la categoría a algunos que si deberían estar. Este sesgo se dio especialmente en los individuos del grupo de atención dividida. Esto puede deberse a que los sujetos se sintieron especialmente amenazados por el riesgo de incluir entre los famosos algunos de los nombrados en la primer lista, de los que no se acordaban.
  • Los sujetos del grupo de atención total atribuyeron fama erróneamente sobre todo a los nombres que no habían aparecido en la lista previa. por el contrario, los sujetos del grupo de atención dividida incluyeron en la categoría de famosos muchos mas nombres corrientes de la primer lista.
Como conclusión podemos decir que la ilusión del famoso falso sobre todo se produce cuando se nos presenta un nombre y estamos distraídos, ya que gracias la distracción no vamos a poder recordar porque nos suena ese nombre, y podemos agruparlo dentro de los famosos.

Aprendizaje implícito de reglas de clasificación
Cuando clasificamos objetos, normalmente pensamos que estamos realizando la clasificación sin pensar que para realizar tal clasificación estamos haciendo uso de experiencias previas que hemos vivido con los objetos a clasificar.

En un experimento realizado por Reber con gramáticas artificiales (suficientemente complejas para que el sujeto descubra sus reglas), se comprobó como los sujetos lograron aprender las reglas de una gramática artificial, en principio, sin pretenderlo, ni saber que habían aprendido (ya que incluso desconocían que las secuencias de letras que estaban leyendo seguían una regla).

En este experimento los sujetos lograban clasificar como legales o ilegales (es decir, que siguen la regla o no), con bastante acierto, unas secuencias de letras ininteligibles, que se supone seguían unas reglas o no (las de la gramática artificial de mañas), sin siquiera saber que existían tales reglas, ni que las han aprendido.

Pero hay que aclarar ciertas cuestiones:
  • ¿Qué es lo que se aprende? ¿la estructura profunda de reglas?
  • ¿El aprendizaje se produce sin intención de aprender?
  • ¿El sujeto no tiene consciencia del aprendizaje?
Que se aprende
Parece que del experimento anterior se deduce que el individuo puede aprender la lógica o estructura profunda de un sistema, sin saber sus reglas. Sin embargo, investigación posterior pone en duda tal afirmación, ya que, según dicen, no se aprenden las reglas, sino que se clasifican los elementos nuevos, como pertenecientes o no a la gramática, por analogía con los estímulos concretos conocidos.

La prueba de la existencia de esas analogías está en que cuando se eliminan pistas que permiten al individuo realizar esas analogías entre 2 vocabularios diferentes, el aprendizaje desaparece. Así, se puede decir que la actuación de un individuo atribuible al aprendizaje de una gramática artificial se puede explicar por la adquisición del conocimiento episódico de elementos generados con ella. Veamos la investigación que pretende confirmar esto.

El papel de conocimiento fragmentario
Desde este tipo de investigaciones, lo que se defiende es que lo que aprenden los sujetos no son las reglas del sistema gramatical artificial, sino que lo que se aprende son fragmentos de las secuencias que han aparecido en las secuencias de estudio. Como es normal, las secuencias legales de que se presentan para clasificar presentan mas fragmentos compartidos con las secuencias estudiadas al inicio, que las secuencias ilegales. Esto es lo que permite a los sujetos clasificarlas correctamente.

Hay 3 tipos de experimentos que demuestran que la realización de la tarea de clasificación con éxito es viable a partir del conocimiento de los fragmentos (de menor a mayor importancia son):
  • Se ha simulado la tarea de clasificación con el simple criterio de que el ultimo trigrama del estimulo de prueba esté presente en cualquier parte del estimulo a clasificar, y el resultado es equivalente al obtenido con el “conocimiento de la gramática”
  • En otro experimento, se pidió a los sujetos que indicasen, en la fase de clasificación, cuales eran los fragmentos del estimulo de prueba que lo convertían en un estimulo gramatical. Los individuos solían decir precisamente los fragmentos que estaban presentes en los estímulos de la fase de estudio, y no otros que, igualmente gramaticales, no estaban.
  • En un experimento de Perruchet y Pacteau, los individuos que habían visto solo fragmentos de las secuencias gramaticales en la fase de estudio alcanzan un rendimiento en la fase de clasificación comparable con el de aquellos otros que fueron expuestos a las secuencias completas
Estos experimentos indican que es el conocimiento episódico de ejemplares de la fase de estudio lo que esta detrás del éxito de los sujetos en hacer una clasificación aparentemente montada sobre la aplicación de criterios abstractos.

Procesamiento apropiado para la transferencia
Lo que viene a decir (porque no hay thissen que entienda el experimento), es que el aprendizaje esta íntimamente ligado al tipo de procesamiento puesto en marcha durante la exposición inicial a los ítems creados con ella. Si el tipo de procesamiento inicial está centrado en las características abstractas de la regla, estas podrán aprenderse, pero si no lo están, la regla no podrá aprenderse. Así, la simple exposición reiterada a ejemplares de una categoría no proporciona automáticamente las reglas del sistema que lo gobierna.

La consciencia de lo aprendido
¿Tiene el sujeto intención de aprender? → No, la mayor parte de los aprendizajes se benefician de aprendizajes anteriores que no se llevaron a cabo con las miras puestas en retos posteriores.

¿Es consciente el sujeto de lo que ha aprendido? → Sabemos que los sujetos son incapaces de formular explícitamente las reglas de la gramática artificial, pero esto es normal porque, como hemos visto antes, en realidad los sujetos no han aprendido la regla. Lo que si sucede es que los sujetos procesan mejor las secuencias legales, es decir, tienen mayor fluidez de procesamiento de esas cadenas de palabras, puesto que se asemejan mas a las que han visto en la fase de estudio, y por eso las aciertan.

Así, lo anterior a llevado a los investigadores a rechazar la disociación entre un aprendizaje no consciente, implícito, responsable de la reducción en latencia que la practica con la tarea provoca; y el aprendizaje explicito de la secuencia repetida. Uno y otro están basados en la fluidez de procesamiento, que posibilita la reducción de latencias y que sirve al sujeto para hacer sus elecciones en la prueba de reconocimiento.

La ilusión de Reber
De lo todo lo anterior que acabamos de ver, se deduce q, cuando el sujeto realiza la tarea de clasificación correctamente, y el experimentador atribuye la correcta realización al conocimiento implícito o inconsciente de las reglas de la gramática, el experimentador esta cometiendo un error de atribución.

Dicho error se conoce como “la ilusión de Reber” y la mejor demostración de su existencia es que en un experimento los sujetos pudieron clasificar los objetos de acuerdo a una gramática (gramática ficticia) a la que nunca habían sido expuestos. Por consiguiente, cuando el experimentador atribuyó dicha correcta clasificación al conocimiento inconsciente de los sujetos, quedaba claro que estaba realizando un error de atribución.

La memoria como herramienta
Ya hemos visto como en la contingencia 10, los individuos hacen una atribución de causa presente a una fluidez de procesamiento q, en realidad, tiene su origen en experiencias pasadas. Así, hablamos de una transferencia de aprendizaje, ya sea positiva o negativa, que no es percibida por el propio individuo.

Respecto a porque en algunas ocasiones realizamos una atribución de pasado a la facilidad de procesamiento, actualmente se está argumentando que lo realmente importante para que esta atribución se produzca es que el sujeto adopte la disposición de “recuperar información” del pasado. Así, si el foco de atención del sujeto está en el procesamiento de la tarea presente, la especial fluidez del procesamiento que una experiencia previa puede ocasionar, no entra a formar parte de la narración que el sujeto haga de su tarea.

Algunos investigadores distinguen entre memoria explicita (en la que se tiene un conocimiento intencional y consciente de las experiencias previas) y memoria implícita (en las que se tiene un conocimiento incidental e inconsciente de las experiencias previas.

En un sentido similar podemos distinguir entre la:
  • Memoria como objeto: donde el foco de atención de la construcción del episodio actual es el pasado, respecto al cual se analiza e interpreta su contenido mental presente. Aquí estamos ante recuerdos y reconocimientos episódicos.
  • Memoria como herramienta: donde el foco de atención del sujeto está en la construcción de un episodio mental referido al presente, para lo cual, se produce una transferencia de sus experiencias pasadas, modulando el procesamiento de construcción del episodio presente.
Puede pensarse que, entonces, un simple cambio en la disposición del sujeto respecto al modo de recuperación puede convertir en consciente un efecto inconsciente. Sin embargo, esto no es así, ya que el simple cambio en el modo de recuperación implica cambios en las condiciones de recuperación que pueden impedir la transferencia misma.

Contingencia 11

En la contingencia 11, un acontecimiento pasado provoca un supuesto incremento en la fluidez de procesamiento presente que el individuo atribuye, correctamente, a la ocurrencia de un episodio pasado.

Aquí lo que vamos a hacer es tratar de distinguir, en una prueba de reconocimiento, 2 tipos de experiencias subjetivas de recuerdo:
  • Experiencia tipo “recuerdo”: cuando un sujeto no solo reconoce una cosa, sino que se acuerda de cuando la vio, o donde o algo mas que el simple reconocimiento.
  • Experiencia tipo “se”: cuando el sujeto solo reconoce la cosa como familiar, pero no sabe porqué.
En principio, podría pensarse que la diferencia entre ambas clases es una cuestión de “calidad del trazo” de la memoria. Sin embargo, la investigación ha demostrado que existen variables que afectan diferencialmente ambos tipos de experiencias de reconocimiento, por lo que no parece lógico atribuir a una mera cuestión de calidad del trazo, como ahora veremos.

John Gardiner realizó un experimento en el que un grupo de sujetos que hizo un análisis fonológico de una lista de palabras, y otro grupo de sujetos realizó un análisis semántico de las palabras de dicha lista (es decir, hubo procesamientos distintos). Posteriormente se les pasó a ambos grupos una nueva lista de palabras (que contenía tanto palabras de la antigua lista, como palabras nuevas). Los sujetos tenían que redondear con un círculo las palabras que fuesen antiguas, y poner junto a ellas una letra R (de remember) o K de (know), para indicar así la experiencia subjetiva de reconocimiento que tenían.

Los resultados mostraron como el las palabras que tenían una R eran las que habían sido procesadas semánticamente. Aunq quizá este resultado no fuese concluyente por posibles efectos de suelo en los reconocimientos k, otras investigaciones realizadas si merecen mas confianza, y hoy la disociación entre los reconocimientos tipo se y tipo recuerdo es un hecho generalmente aceptado.

La experiencia “se” como sensación de familiaridad
Se puede pensar que las experiencias de tipo “recuerdo” serian fruto de recuperaciones provocadas por la presencia del ítem de prueba actuando como estimulo, mientras que las experiencias del tipo “se” serian fruto de la atribución de familiaridad provocada por la mayor fluidez del procesamiento del estimulo de prueba.

Si esto es así, cualquier variable que pueda potenciar la fluidez de procesamiento perceptivo posterior del estimulo de prueba provocará una aportación neta al rendimiento global en reconocimiento en la forma de experiencia de se.

En una investigación de Rajaman (experimento 1), parece que se demuestra que el procesamiento semántico de los ítems de la prueba facilita la aparición de experiencia tipo “recuerdo” y que las experiencias tipo “se” están mas ligadas a un análisis superficial de los estímulos.

En otro experimento de Rajaman (experimento 2), se encontró que el reconocimiento de los ítems que habían sido presentados como dibujos durante el estudio fue mejor. Esto se conoce como el: “efecto de la superioridad de la imagen”. Pero esta diferencia no tuvo el mismo reflejo en los 2 tipos de reconocimientos:
  • En el de tipo recuerdo: se produce el efecto de superioridad de la imagen, esto es, un mejor rendimiento en el estudio de una lista de dibujos o imágenes que en el estudio de las palabras que lo designan.
  • En el de tipo sé: los reconocimientos más frecuentes fueron aquellos ítems que se habían estudiado como palabras, un efecto contrario al producido por el formato de presentación en el reconocimiento indiferenciado.
Según Rajaman, este resultado respalda la idea de que:
  • Las experiencias recuerdo están ligadas con el procesamiento guiado por conceptos (ya que se dan cuando existe un cambio de formato de presentación entre la fase de adquisición (dibujo) y la de prueba (palabra).
  • Las experiencias se están mas ligadas al procesamiento superficial del estimulo (se dan mas cuando el formato de presentación en adquisición y prueba coinciden).
Sin embargo, posteriormente se ha visto como el verdadero factor responsable de las experiencias recuerdo no es el procesamiento mas o menos profundo, o el origen conceptual o perceptual de la fluidez del procesamiento, sino la mayor riqueza de las características perceptivas del recuerdo de los ítems estudiados, esto es, la mayor distintividad de la información recuperada, con independencia de que el contenido de esa información sean características superficiales o profundas de los ítems.

Esto lo demostró Mantyla, mediante un experimento en el que los sujetos trabajaban con fotografías de rostros y hacían un procesamiento en unos casos analítico superficial (analizar rasgos físicos de los rostros – análisis basado en las diferencias), y en otros un análisis global profundo (clasificar los rostros en varias categorías – análisis basado en la similaridad).

Los resultados confirman esa hipótesis:
  • Las experiencias tipo sé fueron potenciadas con la clasificación tipológica (en categorías)
  • Las experiencias tipo recuerdo se fundamentan sobre la dimensión analítico – global (no sobre la dimensión de procesamiento superficial – profundo), siendo más las experiencias tipo recuerdo cuanto más analítico es el procesamiento.
Así, podemos concluir que es la mayor distintividad provocada por el procesamiento analítico la causa de la recuperación de elementos del estimulo o contexto de adquisición (recuperación tipo recuerdo).

Reconocimiento global y reconocimiento analítico
El procesamiento analítico es el procesamiento de los componentes de un estimulo (ej.: descripción de una cara por una enumeración de rasgos y relaciones entre ellos).
El procesamiento global (o no analítico) es el procesamiento del estimulo como un todo (ej: la expresión de una cara no es algo que responda a ninguno de sus rasgos en particular, sino una propiedad de la cara como un todo, de la configuración de sus rasgos).

La mayor parte de los procesamientos llevados a cabo sobre un estimulo cualquiera, son de uno y otro tipo, si bien, en muchas ocasiones, predomina un procesamiento sobre otro. Debemos concebir el carácter analítico o global del procesamiento como un continuo entre ambos tipos.

Ya hemos visto en el apartado anterior que las experiencias tipo recuerdo se deben a la mayor distintividad provocada por el procesamiento analítico. Pero, ¿q ocurre cuando las condiciones de adquisición ni siquiera permiten un procesamiento analítico? Para resolverlo veamos el ss experimento.

Mäntÿla, Whittlesea y Price (2001 experimento 2c), suponían que se puede manipular también el tipo de procesamiento global - analítico mediante las condiciones de presentación de los estímulos (no por los estímulos en sí). Así, establecieron unas condiciones de adquisición que únicamente permitían un procesamiento global. El procedimiento era este:
  1. Presentación de los estímulos: presentaban una secuencia de 90 imágenes (en realidad solo 30 distintas, ya que se repetían imágenes), durante 40m/sg cada una. El breve tiempo de exposición, sin intervalo entre estímulos y el número relativamente elevado de estímulos hacía imposible llevar a cabo un procesamiento analítico, ni siquiera mínimo.
  2. Prueba de reconocimiento: en cada ensayo se presentaban 2 estímulos, uno a la izquierda y otro a la derecha de la pantalla del ordenador; ambos presentaban superpuestos dos ejes perpendiculares que los dividían en cuadrantes. La tarea del sujeto era esta:
    • Decidir cuál de dos estímulos de un par de prueba presentaba cambios respecto a los mostrados en la presentación (reconocimiento de diferencias, tarea que requiere procesamiento analítico).
    • Detectar cuál de dos estímulos de un par de prueba era similar a alguno presentado en la secuencia previa (reconocimiento de similaridad, tarea que requiere procesamiento global).
  3. Resultados: cuando la tarea orientadora dirigía hacia un procesamiento global, el reconocimiento de diferencias era imposible, no así el reconocimiento de similaridad. Esto indica que los individuos pueden variar la fluidez utilizada en los juicios de reconocimiento en función de las condiciones de adquisición y las necesidades de la tarea
  4. Conclusiones:
    • Las condiciones de presentación pueden limitar el procesamiento a las características globales de los estímulos: en este caso han sido las características físicas de los estímulos y no el tipo de codificación en adquisición inducida por una tarea orientadora lo que ha potenciado el procesamiento el procesamiento no analítico
    • Los sujetos pueden cambiar el nivel de fluidez (analítica o no analítica) que va a ser dominante en sus juicios de reconocimiento, de acuerdo con las condiciones de adquisición y los requerimientos de la tarea.
NOTA: Procesamiento GLOBAL vs. procesamiento ANALITICO  las tareas de reconocimiento en las que se exige detección de diferencias requieren un procesamiento ANALÍTICO. Las que exigen detección de similaridad requieren un procesamiento más GLOBAL.

Dinamica De La Atribucion

En este punto nos referimos a como se atribuye (o no) la fluidez de procesamiento de un ítem a su familiaridad, al conocimiento previo que se tenia de el. Se puede pensar que estos 2 términos (fluidez de procesamiento y familiaridad) se confunden, sin embargo, se han desarrollado experimentos donde se encuentran disociados estos conceptos. Aquí lo que vamos a ver es cuales son las circunstancias en que se producen esos errores de atribución.

El papel de la discrepancia

Según el “efecto Hension”, en determinadas circunstancias, estímulos cuyo procesamiento es manifiestamente menos fluido, pueden producir mas familiaridad ilusoria que otros mas fluidos, simplemente porque la fluidez de procesamiento de estos últimos esta justificada para el sujeto, es decir, que esta fluidez no es discrepante con la esperada, dadas las características de estos estímulos.

Experimento →Este fenómeno se produce cuando presentamos a un sujeto una lista compuesta por:
  • Palabras comunes (tronco)
  • Pseudopalabras regulares (tronto).
  • Pseudopalabras irregulares (rtonco).
En una prueba posterior de reconocimiento presentamos ítems nuevos y viejos de los tres tipos. El efecto Hension consiste en un sesgo general a admitir como antiguas más pseudopalabras regulares que palabras y pseudopalabras irregulares.

Explicación → el reconocimiento de estas pseudopalabras regulares suelen ir asociado con latencias más largas de respuesta que el de las palabras, lo cual debe tomarse como indicio de menor fluidez de procesamiento que éstas.

En otro experimento de Whittlesea y Williams (2000, experimento 1), en el que pedían a sus sujetos que calificaran sus reconocimientos de acuerdo con la experiencia subjetiva sé o recuerdo, encontraron que el fenómeno se localiza exclusivamente en el componente de familiaridad (sé) del reconocimiento.

Así, vemos que para que se atribuya familiaridad erróneamente a un estimulo, tiene que haber discrepancia entre la fluidez esperada y la encontrada. Sin embargo, hay que señalar q, cuando se intercala una tarea entre la presentación del estimulo de prueba que provoca la discrepancia y la respuesta de reconocimiento, el “efecto Hension” desaparece, es decir que la sensación de discrepancia se disipa.

Establecimiento de la fluidez de referencia

Si podemos detectar una discrepancia entre la fluidez de procesamiento encontrada y la esperada, eso nos lleva a que tiene que haber una estándar o una línea base que valga de referencia de fluidez de procesamiento, para poder detectar esa discrepancia.

Una posible teoría es la existencia de un “estándar local” de fluidez de procesamiento, con respecto al cual el individuo evalúe la facilidad o fluidez de procesamiento. Si bien esta teoría podría explicar el efecto Hension, sin embargo, no puede explicar que este efecto se produzca en tareas semánticas (estimaciones de tipicidad, decisiones léxicas o estimaciones de frecuencia).

Cabe pensar que quizá se deba a la existencia de un episodio puntual en la adquisición, sin embargo, 2 experimentos han demostrado que el fenómeno esta exclusivamente ligado con los procesos de recuperación, puesto que se produce incluso cuando no hay episodio de adquisición.

Veamos ahora como podemos evitar que se produzcan las atribuciones ilusorias de familiaridad:
  • Mediante el descuento de causas alternativas.
  • Mediante el modo de recuperación.
  • Mediante la compatibilidad entre la adquisición y recuperación.

El descuento de causas alternativas

La mejor manera de evitar una atribución ilusoria de familiaridad a un incremento en la fluidez de procesamiento es realizando una atribución correcta y, por consiguiente, “descontando” la mayor fluidez de procesamiento a la familiaridad. Veamos un experimento que trata de demostrarlo.

Gellatly, Banton y Woods (1995) → manipularon las instrucciones para dar mayor o menor relevancia al episodio de repetición: el grupo de participantes donde la repetición se trato como irrelevante (sujetos que solo tenían que hacer una tarea de reconocimiento) mostraron ilusión de familiaridad, sin embargo tal ilusión se redujo para el grupo de participantes que pudo atribuir la familiaridad a la repetición (sujetos que debían detectar las preexposiciones al estimulo de prueba).
Este procedimiento muestra que siempre que los individuos pueden excluir de la familiaridad toda ganancia en fluidez de procesamiento que es potencialmente atribuible a otras causas (en este caso a una repetición previa), la ilusión de familiaridad se reduce o no se produce.

El modo de recuperación

Aquí vamos a estudiar para que se produzca la ilusión de familiaridad en una dimensión del estimulo, tiene que producirse la fluidez de procesamiento en esa dimensión.

Los resultados de los distintos experimentos nos muestran como la compatibilidad entre el tipo de fluidez y su contenido no es determinante absoluto de la atribución que de ella hacemos. Pero esto no significa que nunca sea determinante, sino que significa que:
  • Puede producirse la ilusión de familiaridad en una dimensión de la información (por ej. el significado de un ítem), a partir de la fluidez de procesamiento en otra dimensión de la información (por ej. análisis estructural o perceptual del ítem), siempre que lo propicien el contexto de la tarea y, sobre todo, la actitud que respecto a el él sujeto adopte.
  • Si el propio sujeto considera que una fluidez de procesamiento no es comparable con otra, parece que puede protegerse contra posibles errores inducidos por cambios de fluidez de actividades.
Veamos el experimento que lo demuestra →Whittlesea (1993, experimento 4), demostró que no es el origen de la fluidez lo de procesamiento lo que determina la atribución sino la orientación que el sujeto adopte respecto a la tarea. Así, parece que el sujeto es insensible a posibles diferencias cualitativas de fluidez de procesamiento, pero el uso que hace de esta fluidez sí es exquisitamente sensible a los requisitos de la tarea.

Procedimiento:
  • Se manipula la claridad perceptiva variando la densidad de la máscara.
  • Los sujetos debían pronunciar la palabra de prueba al mismo tiempo que pulsaban la tecla y a continuación debían decir si la palabra de prueba estaba relacionada o no en su significado con alguna de la lista.
  • Hizo creer a los sujetos que cualquier facilidad de procesamiento que encontraran ante la palabra de prueba sería debida a la relación de significado entre algún ítem de la lista y el propio ítem de prueba. Así, antes de la presentación de cada ítem de prueba añadió una frase previa cuyo contenido estaba relacionado con el significado de la palabra de prueba pero no con los de la lista, ésta instrucción sólo pretendía hacer creer a los sujetos una relación inexistente. En realidad, la manipulación de la fluidez de procesamiento fue perceptiva debido a que varió la densidad de la máscara en la que se insertaba la palabra de prueba.
La densidad de la máscara produjo el resultado deseado respecto al tiempo de reacción como índice de fluidez perceptiva: los tiempos de reacción fueron más bajos en los ensayos con máscara de baja densidad, estuviese la palabra de prueba relacionada o no con alguna de la lista y las latencias asociadas con palabras relacionadas también fueron más cortas, con independencia de la densidad de la máscara en la que estuviese inscrita la palabra de prueba.

La ilusión de familiaridad se produce: los sujetos tienden a considerar más relacionadas con la lista precedente aquellas palabras de prueba que se han presentado insertas en una máscara más débil.

Conclusión: el incremento artificial de la fluidez de perceptiva que ha provocado el experimentador induce sensación de familiaridad semántica en los sujetos. Por tanto esto nos exige poner en duda que las atribuciones de familiaridad sean siempre sensibles a las diferencias cualitativas de la fluidez, es decir, a sus contenidos específicos.

Compatibilidad entre adquisición y recuperación

En el experimento de Whittlesea y Price (2001 1 A y 1 B), vimos que la rapidez con la que se pasaban una secuencia de imágenes impedía el procesamiento analítico de dichas imágenes en la fase de adquisición. Esto provocaba una pésima ejecución en una tarea de detección de diferencias, pero una ejecución aceptable en una tarea de detección de similaridad (para la cual era suficiente el procesamiento global, que sí se producía en esas condiciones de adquisición). Esto demuestra la fuerte relación que hay entre el tipo de procesamiento (analítico o global) y el tipo de tarea que se requiere al sujeto en la fase de prueba.

Estos autores intentaron trasladar esta explicación al efecto de mera exposición (preferencia del estimulo preexpuesto) → modificaron las instrucciones para forzar el procesamiento analítico en los juicios de preferencia y el procesamiento global para los juicios de reconocimiento.

Repitieron el mismo procedimiento que habían seguido para los juicios de preferencia, pero ahora les pidieron que justificaran ensayo a ensayo su elección. Así, se encontró que el efecto de mera exposición desaparecía cuando los participantes debían justificar sus juicios de preferencia en cada ensayo con el análisis de las características.

Tb se debía demostrar que es posible el reconocimiento de estímulos presentados en las mismas condiciones de adquisición, si se logra que los sujetos basen sus respuestas en familiaridad provocada por la mayor fluidez de procesamiento de las propiedades globales. Veamos el experimento que se hizo al respecto.

Whittlesea y Price (2001, experimento 1C). 

Procedimiento:
Engañaron a un grupo de sujetos que pasaron por un procedimiento similar al anterior, ya que se les informó que ninguno de los estímulos presentados era idéntico a alguno de los presentados en la secuencia rápida de 90 imágenes, sino que uno era similar ya que se había alterado alguno de sus elementos. Ese elemento similar era el que debían reconocer.
La hipótesis es que si los individuos prescinden del análisis de fluidez en el procesamiento de los estímulos y se centran en el análisis de fluidez en el procesamiento de las características globales, la repetición de los estímulos en la secuencia debería tener las consecuencias análogas al efecto de mera exposición. El objetivo parece que se logró, ya que la elección de los estímulos supuestamente parecidos, pero en realidad idénticos a los presentados, fue superior a lo esperado por azar.

Conclusiones:
Los sujetos realizan la prueba de reconocimiento tratando de encontrar incrementos de fluidez en el procesamiento analítico del estímulo de prueba. Estos incrementos no aparecen y a consecuencia de ello, no hay reconocimiento ni siquiera del tipo sé. Cuando las condiciones de adquisición son extremadamente deficientes para el procesamiento de los componentes de un estímulo, una prueba clásica de reconocimiento no permitirá detectar rastro alguno en la memoria de los sujetos, rastro que indirectamente si detectará una prueba de preferencia de elección forzosa en la que no se requiera justificación de la elección de una alternativa.

Combinación de Recuperación y Familiaridad

Como ya hemos dicho en varias ocasiones, existen 2 formas de reconocimiento (tipo recuerdo y tipo se). En este apartado, nos vamos a plantear las siguientes cuestiones:
  • ¿Que determina que el individuo haga uso de una u otra forma de reconocimiento?
  • ¿Que consecuencias tiene para la calidad del reconocimiento adoptar una o la otra como criterio de respuesta?
  • ¿Como contribuyen una y otra forma a la emisión de los juicios de reconocimiento?
Para resolver estas cuestiones vamos a seguir 2 de las líneas de investigación que mas han contribuido a resolverlas, son la desarrollada en torno a la latencia de respuesta, y la desarrollada en torno al análisis de las funciones que relacionan las tasas de aciertos y falsas alarmas, conocidas como curvas COR.

Latencias De Reconocimiento

La investigación de las latencias de recuperación se basa en los supuestos del modelo de Atkinson y Juola (1974). La hipótesis de estos autores es que los individuos responden exclusivamente basándose en la familiaridad suscitada por el estímulo de prueba cuando ésta es muy alta o muy baja (responderían si o no). Si la familiaridad es intermedia, el diagnóstico de familiaridad se considera inseguro, por lo que el individuo adopta como estrategia alternativa la búsqueda de información complementaria que aporte garantías adicionales en cualquiera de los dos sentidos posibles de respuesta.

Las respuestas de un individuo en una tarea de reconocimiento pueden clasificarse de acuerdo con una matriz de confusión en la que los estímulos de prueba que formaron parte del episodio de adquisición juegan el papel de la señal sobre ruido (SR) en las tareas de detección (antiguos) mientras que los estímulos de prueba que se utilizan como contrastes de reconocimiento juegan el papel de ruido (R) (nuevos), ya que no se han relacionado previamente con el contexto de adquisición al que está referida la prueba en su conjunto.

El punto de partida de estos autores es que la dimensión de familiaridad asociada con los ítems nuevos y antiguos puede representarse en un continuo de familiaridad de modo análogo a como se concibe la sensación en la TDS (teoría de detección de señales).

Podemos ver que la familiaridad asociada a los ítems antiguos es mayor que la correspondiente a los nuevos.

El índice de discriminalidad (d’) es la distancia entre las dos distribuciones, en unidades de desviación típica. Cuanto mayor es la diferencia en familiaridad entre los ítems antiguos y nuevos (con un valor d’ más grande) más distancia habrá entre las dos distribuciones y será mayor la probabilidad de tomar decisiones acertadas basándose en esta dimensión de familiaridad.

El modelo de Atkinson y Juola (1974) incluye dos puntos de corte en el eje de familiaridad:
  • Criterio alto (C1): delimita la zona de familiaridad alta (la zona que queda a la derecha) de la zona de familiaridad intermedia (la situada entre C0 y C1). Cuando el estímulo iguala o supera este criterio, el individuo decide que SÍ lo reconoce.
  • Criterio Bajo (C0): delimita la zona de familiaridad baja (a su izquierda) de la zona de familiaridad intermedia. Cuando la familiaridad que suscita el estímulo es muy baja el individuo decidirá que NO lo reconoce.
Cuando un estímulo de prueba se sitúa en la zona de familiaridad intermedia, la dimensión de familiaridad no es suficiente para tomar la decisión, porque cae entre el criterio alto y el bajo. En este caso deberá buscar información alternativa que incline su decisión: consumirá tiempo y se reflejará en un aumento de la latencia de respuesta. El problema habitual en una tarea de reconocimiento es que las distribuciones de familiaridad asociadas a los ítems antiguos y nuevos suelen estar solapadas.

Precisión De Reconocimiento

El punto de partida de Yonelinas es que, a diferencia de Atkinson y Juola, el estímulo de prueba puede producir recuperaciones por sí mismo. Los reconocimientos por recuperaciones se producen como subproducto de la insuficiencia de la familiaridad para asegurar el reconocimiento o su rechazo.

Yonelinas (1994) ha propuesto un modelo que trata de sistematizar las diferencias en la contribución al rendimiento en reconocimiento entre:
  1. Las decisiones basadas en la familiaridad por la fluidez de procesamiento del estímulo de prueba.
  2. Las decisiones basadas en las recuperaciones que produce el estímulo de prueba por sí mismo.
La propuesta de Yonelinas supone aplicar los modelos de decisión, umbral y detección de señales, respectivamente, al reconocimiento basado en la recuperación (tipo recuerdo) y al basado en la familiaridad (tipo sé). Los supuestos del modelo de Yonelinas se sintetizan en:
  1. El componente de recuperación en los problemas de reconocimiento es un proceso que actúa según los modelos de umbral.
  2. El componente de familiaridad en los problemas de reconocimiento es un proceso que actúa según los modelos de decisión basados en la detección de señales.
  3. Los reconocimientos que se producen con mayor confianza son los que predomina el componente de recuperación. Los reconocimientos con escasa seguridad son los realizados sobre el componente de familiaridad (en ausencia casi total de recuperación).
  4. Los componentes de recuperación y familiaridad son independientes.

Funciones cor asimétricas

Se entiende por función COR la relación existente entre la tasa de aciertos y la tasa de falsas alarmas. Las funciones COR son monótonas crecientes, negativamente aceleradas y simétricas respecto a la diagonal negativa.

Como afectan ciertas variables experimentales a las curvas COR:
  • Cuando aumenta el número de exposiciones de los ítems de una lista de estudio, la función tiende a desplegarse hacia la esquina superior izquierda del área COR, sin que cambie su pendiente: aumenta de la distancia de las distribuciones de familiaridad (incremento de d’).
  • El aumento del intervalo entre la presentación de un ítem y su aparición como estímulo de prueba en un procedimiento de reconocimiento continuo reduce la distancia de la curva COR a la diagonal y aumenta su pendiente.
La proposición de Yonelinas puede formalizarse en los siguientes términos:


  • PT(A): Probabilidad de aciertos (tasa de aciertos).
  • P(R): Probabilidad de que se produzca una recuperación de algún elemento del episodio de adquisición que justifique el reconocimiento.
  • PF(A): Probabilidad de que la familiaridad del ítem (antiguo) supere el criterio de respuesta de reconocimiento (probabilidad de acierto por familiaridad)
  • P(FA) = PF(FA)
  • P(FA): Probabilidad de cometer una falsa alarma
  • PF(FA): Probabilidad de que la familiaridad de un ítem nuevo supere el criterio de respuesta de reconocimiento.
El modelo no contempla la posibilidad de que el proceso de recuperación dé lugar a una falsa alarma: todas dependen de una decisión sobre la familiaridad.

La ecuación contiene dos fuentes de probabilidad de acertar: la recuperación y la familiaridad, que contribuyen independientemente al reconocimiento, por ello habrá ocasiones en que las dos permiten el mismo acierto, de ahí que la probabilidad conjunta de ambos deba restarse

Recordando a Yonelinas → el proceso de reconocimiento basado en:
  • La familiaridad actúa de acuerdo con los supuestos de la TDS.
  • El componente de recuperación de acuerdo con un modelo de umbral alto.
La combinación de ambos procesos explicaría las deformaciones características que con frecuencia presentan las funciones COR cuando mejora el reconocimiento → alejamiento de la diagonal, asimetría y achatamiento.

Funciones COR bajo diferentes supuestos


  1. Función recuperación + familiaridad (R+F): La función ha sido trazada asumiendo un valor para el parámetro de recuperación de P(R) =0.50 y d’=0.50 la función presenta claramente las 3 propiedades características de: alejamiento de la diagonal, asimetría y achatamiento.
  2. Función familiaridad (F): P ( R) =0 y d’=0.50 la COR correspondiente es simétrica y está mucho más próxima a la diagonal que la función (F +R)
  3. Función recuperación (R): P ( R) =0.50 y d’=0
El modelo supone que esto solo se daría si el individuo careciese por completo de la contribución del componente de familiaridad para llevar a cabo el reconocimiento, circunstancia en la que las falsas alarmas procederían al margen de adivinación asumido como riesgo por el individuo para maximizar los aciertos. Yonelinas supone que en circunstancias normales, las falsas alarmas proceden todas de decisiones sobre la familiaridad, mientras que el componente de recuperación se mantiene constante en todo el rango de falsas alarmas cubierto por la función COR.

Contrastación experimental

Yonelinas ha presentado 2 tipos de demostraciones de lo que predice su modelo:
Descomposición de las funciones COR que se obtienen en una tarea de reconocimiento: se obtiene una función COR de familiaridad y otra COR de recuperabilidad.
Métodos:
  • Por el procedimiento de disociación de procesos PDP.
  • Por el tipo de experiencia de reconocimiento.
Suprimir la contribución del componente de familiaridad en la tarea del sujeto.
Métodos:
  • Por reconocimiento asociativo.
  • Por reconocimiento de la fuente.
Descomposición De Las Funciones COR

El objetivo de esta estrategia es demostrar que cada uno de los elementos que contribuyen a ella se comporta de acuerdo con su definición correspondiente, es decir, que se trata de encontrar que la función COR empírica es el resultado de combinar una componente COR que se ajusta a un proceso de decisión como el de la TDS y otra componente que se ajusta a un proceso de decisión de UMBRAL ALTO.

La función COR es una serie de puntos en un área de probabilidad, cada uno de ellos definido por un par [x, y]. Según el modelo cada uno de esos puntos es el resultado de la contribución de los dos procesos necesitamos estimar el valor resultante de cada proceso en cada punto, es decir, que necesitamos obtener estimadores de familiaridad y de recuperación para cada tasa de falsas alarmas y cada tasa de aciertos para poder trazar las funciones COR con que cada componente contribuye al reconocimiento. Para ello utilizaremos los siguientes métodos:

Por El Procedimiento De Disociación De Proceso (PDP)
En el PDP debemos disponer siempre de dos procesos de tareas contrapuestas:
  • Tarea de inclusión: en la que la recuperación consciente se considera válida para la tarea.
  • Tarea de exclusión: en la que la recuperación consciente no se considera valida.
Las contribuciones de los procesos conscientes e inconscientes son independientes entre sí. Los experimentos muestran como:
  1. La tarea de inclusión dio una función COR idéntica a la versión del reconocimiento clásico.
  2. Mientras la función COR del estimador F (familiaridad) presentaba la forma típica de una función COR de TDS
  3. La COR del estimador R (recuperación) era independiente de la tasa de falsas alarmas, era una función horizontal. Demostrando así que el elemento de recuperabilidad era independiente del criterio del sujeto para cometer falsas alarmas.
Por El Tipo De Experiencia De Reconocimiento
Otra estrategia para obtener estimadores de recuperación y familiaridad es pedir directamente al sujeto que distinga el tipo de experiencia subjetiva que acompaña a cada reconocimiento, pudiendo así obtener curvas COR de reconocimiento de tipo sé y de tipo recuerdo.

Yonelinas (2001, experimento 1):
Presentó una lista de 50 palabras y después les pasó una prueba de reconocimiento en la que debía utilizar una escala de 6 puntos, pero tenían que indicar junto a cada respuesta si el reconocimiento era:
  • De tipo sé.
  • De tipo recuerdo.
Con las respuestas asociadas a los reconocimientos de tipo recuerdo obtuvo la función COR de recuperación; y calculó un estimador de familiaridad para cada tasa de falsas alarmas. El resultado obtenido con estos estimadores también se ajustó al modelo:

La familiaridad (tipo se): se ajustó a la TDS, repartiéndose las respuestas de forma similar entre las distintas categorías.
La recuperación (tipo recuerdo): fue independiente de las falsas alarmas, concentrándose las respuestas en las categorías de máxima seguridad.

Suprimir la contribución del componente de familiaridad en la tarea del sujeto

Aislamiento De La Recuperación
Aquí se pretende anular la familiaridad F en el reconocimiento para que le participante base sus decisiones exclusivamente el componente de recuperación.

La función COR resultante debe aproximarse a una función lineal; es decir, debe perder su curvilinealidad original, debido a que sólo dispondrá del componente de recuperación R, por lo que se ajustarán a la COR correspondiente a un modelo de umbral alto.

Existen medios para neutralizar la ayuda de tal familiaridad  igualando las dos alternativas en el nivel de familiaridad, para obligar al sujeto a basar sus decisiones de reconocimiento en el componente de recuperación:
  • Por reconocimiento asociativo
  • Por reconocimiento de la fuente
Por Reconocimiento Asociativo
Yonelinas (1997, experimento 1), presentó una larga lista de pares de palabras cada 4 seg./par: cada palabra aparecía 2 veces, emparejada con una palabra distinta en cada ocasión. A continuación los sujetos realizaban una prueba de reconocimiento en la que debían emitir sus respuestas en una escala de 6 puntos para obtener así las funciones COR. En la pantalla de ordenador podía aparecer una palabra aislada o un par.
  • Palabra aislada: debía decir si pertenecía a la lista o no (prueba de reconocimiento de ítems clásica).
  • Pares de palabra: el sujeto debía decir si el par había aparecido o no tal cual en la lista de estudio.
Cuando hay que realizar un reconocimiento asociativos, el criterio de respuesta no es si las palabras han aparecido o no, sino si han aparecido en compañía de tal o cual otra palabra. Se supone que la familiaridad que cada palabra suscite no bastará para resolver la tarea, ya que será preciso recuperar la palabra que iba emparejada con ella en la lista de estudio para poder emitir una respuesta.

Con este supuesto, Yonelinas analizó las funciones COR resultantes en reconocimiento de ítems y reconocimiento asociativo. Sus resultados pueden resumirse en los siguientes puntos:
  1. La función COR de reconocimiento fue curva, asimétrica y achatada.
  2. La función COR de emparejamiento asociativo, sin embargo, fue lineal y con una pendiente inferior a 1.00.
La eliminación de familiaridad aporta otro dato para decantar la importancia de la propuesta de Yonelinas a la comprensión del reconocimiento. Este dato se obtiene cuando se representan las funciones COR en coordenadas normales o normalizadas.
  • En estos casos una COR simétrica en coordenadas lineales aparece como una COR lineal en coordenadas normales con pendiente 1.00.
  • Una COR asimétrica en coordenadas lineales aparece como una COR lineal en coordenadas normales, pero con una pendiente mayor o menor que 1.00; generalmente cuando es éste el caso, la pendiente es menor que 1.00.
  • Una COR achatada en coordenadas lineales, sea simétrica o no, aparece en coordenadas normales como una función ligeramente curvada hacia arriba. Este hecho marca la diferencia entre las predicciones derivadas del modelo de Yonelinas y las derivadas de modelos que contemplan un único componente de detección de señales en el reconocimiento. La deformación hacia la forma de U que puede presentar la función COR en coordenadas normales sólo puede explicarse por el achatamiento de la COR en coordenadas lineales que produce la contribución de un componente que funciona de acuerdo con un modelo de decisión de umbral alto.
Los resultados de Yonelinas han permitido comprobar la presencia de esa deformación característica de la función COR en coordenadas normales sólo en la tarea de reconocimiento asociativo, no en la de reconocimiento. Esa deformación está presente como achatamiento en la representación de la COR en un espacio lineal, pero en ésta su detección es mucho más difícil.

Por Reconocimiento De La Fuente
Otra forma de neutralizar la utilidad de la familiaridad es mediante el reconocimiento del origen. Yonelinas (1999, experimento 3) presentó a sus sujetos dos listas de palabras, una leía en voz de hombre y otra por una voz de mujer. Los sujetos debían decir en la prueba de reconocimiento a qué lista pertenecía la palabra, en una escala de 6 puntos.

Una particularidad del procedimiento es que la primera lista fue leída dos veces. Por este procedimiento, se puede contrarrestar en alguna medida la mayor familiaridad debida a la proximidad temporal (cercanía) de la lista leída con voz de mujer.

Los resultados fueron análogos a los descritos en el apartado anterior, una vez más con la deformación de la U de la COR en coordenadas normales, que parece característica cuando se hace caer el peso de la tarea en el componente de recuperación.

Especificidad De Los Efectos De Variables Independientes.

En la mayor parte de los experimentos sobre el modelo de Yonelinas se manipulaba alguna variable independiente con el fin de localizar sus efectos en el componente de recuperación, el de familiaridad o ambos.
La conclusión que se obtiene de estos trabajos, es que pueden obtenerse funciones COR características dependientes de las manipulaciones experimentales según se centren en las tareas sobre:
  • El componente de familiaridad: función simétrica y negativamente acelerada.
  • De recuperación: función lineal plana.
  • De ambos: simétrica y achatada.

Compartir