La Memoria como Heurístico

El Regalo de la Madre de las Musas

Idea o metáfora arquetípica de la memoria (de Platón): la memoria es como una tablilla de cera, que tendría distinto tamaño y consistencia en cada individuo, donde quedaría grabada la información.

Esta idea coincide con la metáfora espacial (memoria como un espacio donde se almacenan los recuerdos). Se han realizado numerosas investigaciones que ponen en duda la realidad de este concepto, aunque lo seguimos utilizando por mera economía y funcionalidad lingüística.

Presupuestos teóricos de este modelo espacial de la memoria:
  1. Supuesto de la memoria pura: la memoria y su contenido son entidades diferenciables. La memoria es el continente donde se almacenan los datos aprendidos.
  2. Diferencia entre el contenido y su utilización: Hay que distinguir entre los datos contenidos en la memoria y su utilización. Es decir, hay que diferenciar entre el contenido y los procesos que en ella se realizan (proceso de adquisición o codificación, mantenimiento de la información, recuperación de la información).
  3. Propiedades fundamentales del contenido: la información contenida en la memoria se representa por símbolos. Debido a ello, es necesario que estos símbolos cumplan estas características:
    1. Diferenciabilidad sintáctica: los símbolos han de ser distintos unos de otros.
    2. Diferenciabilidad semántica: distintos símbolos han de significar cosas distintas.
    3. Consenso de los significados: el significado que le da un sujeto a un símbolo coincide con el que le de otro sujeto miembro del mismo grupo.
  4. Equivalencia entre información nominal e información funcional: debe existir acuerdo entre la información que se dice o escribe (es decir, la información objetiva o nominal) y la información que se interpreta de la primera (es decir, su significado o contenido funcional), para todos los miembros del grupo.
  5. Supuesto de reaparición: significa que cuando se recupera un contenido y se trae de la memoria a la conciencia, dicho contenido vuelve igual que cuando se almaceno, es decir, que nuestros recuerdos son una foto fija que no cambia de una vez para otra.

La Calidad de la Reaparición

El objetivo último de la memoria en el modelo espacial es la reaparición (conseguir un archivo al que acudir en cada momento para recuperar la información que necesitemos). Existen muchos factores que inciden en la mejor o peor recuperación de la memoria:
  1. Factores de consolidación: mejoran la calidad del trazo de la memoria, mejorando su calidad, resistencia a la extinción, claridad, durabilidad, resistencia a la interferencia o al decaimiento. Entre estos factores destacan: la repetición, la profundidad de procesamiento, la elaboración y la distintividad.
  2. Factores de olvido: deterioran el trazo y afectan negativamente a su claridad y recuperación. Destacan la interferencia y el decaimiento.

La repetición

Con la repetición se consigue una mayor tasa de aprendizaje, pero la mayor tasa de aprendizaje de los primeros ensayos va decreciendo en los ensayos siguientes (curvas de aprendizaje de Ebbinghaus).

Este efecto de la repetición sobre el rendimiento memorístico se ha interpretado de 2 formas:
  1. Según la orientación funcional: Aquí se defiende que solo existe un trazo único en la memoria (por cada concepto) y que con la repetición este trazo se hace mas fuerte. Así, el aprendizaje está directamente relacionado con el tiempo invertido en él (hipótesis del tiempo total). Esta es la posición dominante.
  2. Según la orientación atomística: Aquí se defiende que cada episodio produce un único e irrepetible trazo de memoria, no se consolida un trazo anterior, aunq los individuos los consideremos nominalmente idénticos.
Hay experimentos (Peterson, 1959 y Rundus, 1971) que han demostrado que la repetición produce un aumento del rendimiento de los participantes. Si a los sujetos se les muestra una lista para recordar, estos recuerdan los ítems que mas han repetido (q suelen ser los primeros de dicha lista: efecto primacía), pero también suelen recordar los últimos (los que tienen frescos: efecto cercanía). Así, la probabilidad de recuerdo de una lista, con respecto a la posición de las preguntas, presenta una forma de U.

Sin embargo, Craik (1970) ha demostrado que la repetición es realmente lo importante (es decir, que es mas importante el efecto primacía que el efecto cercanía), porque si a los sujetos se les pide, después de un tiempo, que vuelvan a decir las palabras que se acuerdan de la lista, ahora se recuerdan mucho mas las primeras palabras que las ultimas. Lo que coincide con la interpretación de Rundus: los primeros ítems son los que mas se repasan, consolidándose el trazo y con un mejor rendimiento en el recuerdo demorado.

La profundidad de procesamiento

Según el enfoque de los niveles de procesamiento, se supone que hay varios tipos o niveles de procesamiento y cuanto mas profundo sea el procesamiento del significado de lo que memoricemos, mayor calidad poseerá su trazo de memoria.

Desde esta perspectiva, el efecto del tiempo (que viene a decir que cuanto mas tiempo se procese una cosa, mejor se almacenará) en realidad se debe a que con mas tiempo, aumenta la probabilidad de realizar un análisis mas profundo de la información.

Hay experimentos (Craik y Tulving, 1975) que han demostrado la mejoría producida por un nivel de procesamiento mas profundo: a los sujetos se les presentaban palabras y se les hacia pruebas que requerían distintos tipos de procesamiento. Pues bien, luego recordaban mejor aquellas palabras que habían tenido que utilizar en situaciones de procesamiento mas profundo.

Este enfoque de los niveles de procesamiento tuvo consecuencias sobre la interpretación de los efectos de la repetición: se concluyó que la simple repetición (procesamiento tipo I) no mejora la calidad del trazo, sino que gracias al repaso se realizaba un análisis mas profundo del estimulo (procesamiento tipo II), que es lo que en realidad tenia efectos positivos en el rendimiento memorístico. Para demostrar esto, Craik y Watkins (1973) y Rundus (1977, 1980) indujeron un tipo de repetición de mantenimiento de información q, debido a que consistía en el recuerdo de un distractor y no permitía un procesamiento profundo, no tuvo consecuencias sobre la calidad del trazo (este se le conoce como procedimiento de recuerdo del distractor).

Así, el repaso que implicaba un procesamiento de tipo I no produce una modificación alguna en el trazo de memoria. A lo sumo, la modificación solo supondría una anotación acerca de la frecuencia de ocurrencia del ítem, que se manifestaría en pruebas de reconocimiento.

Como resumen de la idea de los niveles de procesamiento podemos decir que: la recuperación de la información depende de la calidad del trazo y esta depende del tipo de procesamiento perceptivo que se llevo a cabo para captar esa información.

La elaboración

La elaboración del procesamiento es la cantidad de procesamiento que el sujeto realiza dentro de un nivel (extrayendo y estableciendo nuevas relaciones de la información procesada con sus conocimientos previos dentro de un dominio). Así, la profundidad vimos que era una dimensión cualitativa y la elaboración es una dimensión cuantitativa dentro de cada tipo o nivel de procesamiento. Por lo que pueden considerarse conceptos ortogonales o independientes, se puede elaborar con distinto grado la información a cualquier nivel.

Los experimentos de Kolers con la lectura de textos en formato normal o invertido demostraron un mejor reconocimiento de las frases invertidas debido a la exigencia de un mayor esfuerzo para su procesamiento, lo que demuestra que es posible realizar un procesamiento adicional detallado de las características superficiales.

El efecto de la distintividad

Un trazo es mas distintivo cuanto menos confundible es con otros, y puede ser distintivo porque tenga características intrínsecas distintas o porque se haya almacenado en un contexto distinto. Cuantos más elementos de comparación haya, menor es la distintividad relativa.

Podría pensarse que la distintividad es una consecuencia natural del nivel de procesamiento y de la elaboración, puesto que a medida que se procesa mas un ítem, se extrae mas info, y se puede distinguir mas del resto. Sin embargo, para comprobar en que medida el nivel de procesamiento puede estar afectado por la distintividad, Craik y Tulving (1975) realizaron un experimento en el que demostraron que el rendimiento memorístico esta relacionado con el nivel de procesamiento y no se encontraron efectos según el grado de distintividad.

Veamos algunas características de la distintividad:
  1. Distintividad como contraste: la distintividad de un elemento no es una característica propia del elemento, sino de su relación con todos aquellos que pertenecen a una categoría hipotética de alternativas posibles. Es decir, es el contraste en relación al resto de alternativas.
  2. Perdida de distintividad del contexto de adquisición: la diferencia entre el recuerdo episódico (en el que el contexto de adquisición es recordado) y el recuerdo semántico (en el que no se recuerda la historia de adquisición, solo el concepto) puede ser una cuestión exclusivamente de grado de distintividad del contexto de adquisición. Se puede tener una información mas elaborada de una cosa y, por tanto, una información mas distintiva (x haber sido proporcionada por múltiples fuentes), pero la fuente de la información concreta se nos presenta menos distintiva (por la misma razón anterior).
  3. Distintividad ligada a las demandas especificas de la recuperación: si bien como hemos visto podemos tener una adquisición de la información no muy distintiva, a la hora de tener que recordar, por alguna razón, un aspecto concreto de la misma, dicho aspecto si puede ser bastante distintivo, por lo que la distintividad también está relacionada con las demandas especificas de la recuperación. Ej: hay que memorizar un grupo de 5 chicas que son iguales en todo menos en que una tiene las buflas muy grandes. Si bien en la adquisición la distintividad del grupo será baja, en la recuperación, la distintividad relativa será mayor cuando, por alguna razón (perversa seguro), queramos recuperar solo ese aspecto.

Algunas Peculiaridades

Hemos visto experimentos que tratan de demostrar el modelo de memoria como almacén, sin embargo, informalmente veremos ahora unas peculiaridades de la memoria de los seres vivos, relacionadas con la adquisición de la información, que se contraponen a dicho modelo:
  1. La memoria no es capaz de adquirir cualquier tipo de información, los contenidos preexistentes determinan la información susceptible de adquisición. Esto sucede porque la propia memoria interviene en el proceso de codificación.
  2. La memoria esta estrechamente ligada a dominios informativos.
  3. Cuanta más información se tiene sobre un dominio mas capacidad se tiene de adquirir nuevos datos de ese dominio.
  4. Se considera que la memoria tiene capacidad ilimitada de adquisición de información.
Estas peculiaridades chocan con el presupuesto de la memoria como almacén o con la independencia entre continente y contenido. Según el modelo de memoria como almacén la capacidad se una propiedad del continente, el contenido no tiene que ver nada con ella.

Peculiaridades de la fase de recuperación:
  1. La recuperación es limitada.
  2. La recuperación es inestable.
  3. La recuperación es dependiente de claves o señales ligadas a la información objetivo que se recupera.
  4. Paradójicamente, la interferencia es mayor a medida que los contenidos de los materiales que interfieren entre si aumentan.
A pesar de que estas observaciones se confrontan claramente con los presupuestos de la memoria como almacén, es necesario fundamentar dicha confrontación empíricamente mediante datos de laboratorio. En este sentido, el grupo de investigación de Tulving (grupo de Toronto) ha realizado las mejores investigaciones.

Las investigaciones del equipo de Tulving han encontrado datos que contradicen el supuesto de identidad transituacional de los recuerdos (recuerdos invariables o foto fija) y que apoyan la hipótesis de que la percepción de un episodio puede convertirse en dos recuerdos diferentes si las condiciones de recuperación son diferentes.

Veamos ahora investigaciones que dan resultados que van en contra del supuesto de memoria como almacén:

Accesibilidad y disponibilidad

Tulving y Pearlstone (1966) realizaron un experimento en el que comparaban el numero de palabras recordadas entre 2 grupos. Las condiciones de adquisición fueron idénticas para ambos grupos, pero las condiciones de recuperación fueron distintas: a un grupo se le facilitaba una clave (que era la categoría de un grupo de palabras) y al otro no. El grupo al que se le facilitaba la clave recordó una media de 35 palabras y el otro 15.

Este resultado nos indica la diferencia entre accesibilidad y disponibilidad: los participantes del grupo al que no se le había facilitado la clave no habían olvidado las palabras, pero no podían acceder a ellas, es decir, la información estaba disponible pero no accesible. Esto supone un reto para los defensores de la pérdida de información por decaimiento: demostrar que el olvido se produce en condiciones óptimas de claves de recuperación. A partir de ahora, un fallo de memoria podría interpretarte como un problema de adecuación de la clave de recuperación.

El carácter episódico de las características de la clave de recuperación

Después de demostrar la importancia de las claves de recuperación, Tulving y Osler (1968) realizaron un experimento para demostrar que la eficacia de dichas claves no se debe a una asociación preexperimental con las palabras (es decir, a asociaciones semánticas previamente aprendidas), sino que la asociación tiene que ser episódica (asociación ocurrida dentro del experimento, por presentación en la fase de adquisición).

Así, las conclusiones a las que llegaron con su experimento es que:
  • Las claves en la fase de recuperación no son efectivas si no se han presentado previamente en la fase de adquisición.
  • Las asociaciones débiles pueden funcionar como buenas claves de recuperación, pero siempre si se han presentado en la fase de adquisición.
  • La asociación preexperimental por si sola no es suficiente para ser una clave efectiva, sino que es necesario que se establezca una asociación episódica. La categoría en si y su relación asociativa preexperimental con la palabra memorizada es insuficiente como clave de recuperación.
  • La presencia de una clave de recuperación distinta de la usada en la adquisición no aporta ventajas (incluso empeora).

Continuidad asociativa y efectos del contexto

La “continuidad asociativa” es el supuesto por el que se entiende que un dato mantiene su identidad, mantiene unos lazos estables con su categoría (independientemente del momento y de las distintas asociaciones que se puedan hacer con el) y son estos lazos los que facilitan la recuperación del dato a partir de claves como por ej. la categoría. Por ejemplo, la palabra “tormenta” es la misma en la asociación “TORMENTA-verano” que en la asociación “TORMENTA-agua” y por tanto la recuperación de esta palabra no tendría que diferir entre ambas presentaciones. Esto es lo que defiende el modelo espacial.

En su contra, Tulving y Thomson propusieron la “especificidad de la codificación”, que plantea que la continuidad asociativa puede romperse en función de las claves con que sea codificado un determinado ítem. Lo cual conllevaría a deducir que distintas presentaciones de idéntico contenido (distintos episodios idénticos) suponen trazos distintos, lo que hace necesario que para que una clave sea efectiva debe codificarse específicamente junto al ítem en el momento de su almacenamiento.

La hipótesis de la especificidad de la codificación supone que la búsqueda para tener éxito debe partir de las claves presentes en el momento de la codificación ya que una clave ausente, por fuerte que sea su asociación, será infectiva como clave para el recuerdo. por ej.: si en un procedimiento de pares asociados me presentan el par “TORMENTA-verano”, la probabilidad de recordar la palabra “tormenta” será mayor si en la fase de recuerdo me presentan la palabra “verano” que si me presentan la palabra “agua”, con la que no fue asociada en la fase de adquisición.

En el experimento anterior, Tulving y Osler (1968) no habían demostrado esto totalmente, puesto que solo habían demostrado la utilidad de asociados débiles, ahora necesitaban demostrar que un asociado fuerte es una clave ineficaz en el momento de la recuperación sino se ha asociado con la palabra clave en el momento de la codificación.

Para ello, Tulving y Thomson (1970) diseñaron un experimento en el que utilizaban 3 condiciones de codificación (palabra aislada, palabra con asociado débil y palabra con asociado fuerte) y, a su vez, utilizaban también 3 condiciones de recuperación (recuerdo libre, recuerdo con asociado débil y recuerdo con asociado fuerte). Es decir, era un diseño 3x3.

Las conclusiones a las que llegaron fueron las siguientes:
  1. Proporcionando un asociado fuerte solo en la fase de recuperación se consigue un mejor rendimiento que sin proporcionarlo. Lo cual apoya el supuesto de continuidad asociativa.
  2. Si el asociado fuerte se presenta también en la codificación, la recuperación alcanza un nivel aun superior.
  3. Cuando en la fase de adquisición se presenta un asociado débil, en la fase de recuperación es mas eficaz presentar este asociado débil que un asociado fuerte. Lo cual apoya el supuesto de la especificidad de la codificación. Sin embargo, en ese mismo caso, el recuerdo del asociado fuerte mejora la recuperación con respecto a si no se hubiera presentado ningún asociado. Con lo cual, no se demostró que los asociados fuertes fueran ineficaces si no se presentaban en la fase de adquisición. Aunque también hay que decir que la eficacia del asociado fuerte en la recuperación, habiéndose presentado el débil en la codificación, fue la misma o menor que si no se hubiera presentado ninguno de ellos en ningún momento, lo que demuestra que la presentación del débil en la codificación altera la potencia preexperimental del asociado fuerte.

Especificidad de la codificación e identidad transituacional

Tulving y Thomson sospechaban que no se habían cumplido las previsiones de su hipótesis de especificidad de la codificación porque que los sujetos no tenían porque asociar el ítem al asociado débil que se les proponía, también podían utilizar el asociado débil que ellos imaginaban. por ej. Aunque se asociase DUENDE con jardín (asociado débil), los sujetos también podían estar pensando en bosque (asociado fuerte), por lo que si luego por casualidad se les presenta bosque como asociado fuerte, bosque tendría un porcentaje de recuerdo que no solo se debía a la asociación preexperimental, sino a una especificidad de codificación que se había producido espontáneamente. Así, pensaban que las predicciones de la hipótesis de especificidad no se verificaron por falta de potencia en la manipulación experimental.

Con el fin de solucionar este problema, Tulving y Thomson (1970, 2) diseñaron un procedimiento, similar al anterior, pero con estas diferencias:
  • No se incluía la condición de asociación fuerte en la adquisición (diseño 2x3).
  • Los sujetos que formaban parte del experimento habían realizado 2 ensayos previos, en los que siempre el contexto de adquisición era igual al de recuperación, es decir, adquisición sin cave y recuperación sin clave y adquisición con asociado débil y recuperación con asociado débil. Ello con el fin de potenciar la relación entre el asociado débil y descartar la del asociado fuerte.
La novedad de este experimento está en que el grupo que estaba acostumbrado a tener como claves asociados débiles, de pronto se encuentra teniendo que recordar sin asociado o con asociados fuertes. Los resultados demostraban lo siguiente:
  1. Cuando la adquisición se hace con un asociado débil, la mejor ejecución se produce también con dicho asociado débil (lo mismo que en el experimento anterior).
  2. Cuando la adquisición se hace con un asociado débil, la presentación de un asociado fuerte es peor que si no se facilita ninguna clave de recuperación. Este resultado si que demuestra que la actuación de asociados en la fase de recuperación no depende de la historia preexperimental de la asociación, sino de su historia episódica, intraexperimental, de la asociación de la palabra en su contexto de adquisición.
Lo demostrado en este experimento fue también replicado en una investigación posterior (Tulving y Thomson, 1971) para una tarea de reconocimiento de palabras débilmente asociadas: se reconocía mejor el par débil que se había presentado así en la adquisición, que el par fuerte que no había sido asociado previamente. Es decir, que la asociación de una misma palabra con otra hace percibir esa misma palabra como distinta, cuando se proporciona otra clave. Esto cuestiona el principio de continuidad asociativa (el recuerdo de 2 palabras nominalmente idénticas debería mantenerse intacto de una vez para otra).

Muy similar a la continuidad asociativa es el concepto de identidad transituacional: dos episodios nominalmente idénticos y codificados de la misma forma deberían ser funcionalmente idénticos también.

Una de las conclusiones mas importantes de las investigaciones del grupo de Toronto es la complejidad de la interacción que parece producirse entre los procesos de codificación y de recuperación (x lo que no pueden estudiarse por separado ambos procesos). La consecuencia metodológica subsiguiente fue la implantación del esquema de investigación codificación por recuperación (diseño 3x3), para analizar conjuntamente las condiciones establecidas en las fases de codificación y recuperación.

Procesamiento Apropiado para la Transferencia (PAT)

La hipótesis del PAT viene a decir que el rendimiento de los sujetos es mejor cuando las condiciones de codificación y de recuperación de los ítems son similares o compatibles, es decir, cuando tanto en la adquisición del contenido como en la recuperación del contenido se focaliza sobre un determinado aspecto del ítem, por ej. su semántica. Para Tulving esto no es algo distinto a lo que ya recoge la hipótesis de la especificidad de la codificación. Ahora iremos viendo los factores de consolidación que habíamos estudiado antes, pero desde esta perspectiva.

La utilidad de la repetición desde el PAT

Lo primero a señalar es que hay que distinguir entre la repetición y el repaso:
  • En la repetición se muestra el ítem las veces que sea repetido.
  • En el repaso, nos dejan un intervalo de tiempo en el que realizamos la actividad mentalmente, nos la representamos, sin recibir nuevamente el estimulo.
Rundus opinaba que el procesamiento que se lleva a cabo con el repaso no beneficia el trazo de memoria en el sujeto, pero la nueva presentación del ítem, es decir, su repetición, si que provoca un nuevo análisis en el sujeto y añade información, probablemente anotando un nuevo episodio.

¿Que hace pues el repaso? Glenberg y Adams (1978) diseñaron un procedimiento de recuerdo del distractor en el que pretendían averiguar si el repaso afectaba mas a la información semántica o fonética. El procedimiento consistía en una tarea de reconocimiento con las siguientes alternativas:
  1. La palabra objetivo o antigua. Ej.: cuaderno
  2. Una palabra que rime con la antigua (ej.: moderno)
  3. Un sinónimo de la antigua (ej.: libreta)
  4. Una palabra con parecido acústico con el sinónimo: maleta
  5. Una palabra con parecido semántico a la rima o a la de parecido acústico con el sinónimo (ej.: actual o equipaje).
Los resultados muestran como el aumento del intervalo de retención (y supuestamente el nº de repasos) hace que aumenten los errores de rima y disminuyan los semánticos. Es decir, que las alternativas que comparten características fonéticas son mejores distractores a medida que aumenta el tiempo de repaso. Así, los autores concluyeron que el repaso facilita la retención acústica, que se manifiesta en una tarea de reconocimiento, pero no en una de recuerdo.

Así, la repetición permitiría cambios contextuales (internos y externos) o cambios en la forma de procesar los episodios que sean específicos de cada una de las presentaciones, mientras que el repaso de mantenimiento tendería a codificar episodios distintos de forma muy similar.

Esta tesis se ve apoyada por la investigación realizada por Peynircioglu (1955), en la que se mostraban a los sujetos diversas parejas de tonos puros y se les pedía que las recordasen. La investigación demostró que:
  1. Los sujetos reconocían mejor los tonos que habían oído antes de aquellos que no habían oído previamente, pero no había diferencia de reconocimiento con tonos que habían sido repasados.
  2. Si que aumentaba el reconocimiento de los tonos que habían sido repetidos. Es decir, que la repetición deja algo en la memoria que el repaso solo no logra.
  3. Sin embargo, cuando en lugar de 2 tonos el patrón era una serie de 6 tonos, si se encontró también un beneficio con el repaso.
Sobre el efecto de la repetición hay que tener en cuenta que es muy importante como estén distribuidas las repeticionesse ha demostrado que son mas efectivas las repeticiones que están espaciadas en el tiempo o intercaladas por otros ítems, que las repeticiones que son consecutivas. por ej.: el trazo en la memoria conseguido por la repetición de “uva” es mas profundo si digo “pera, uva, naranja, manzana, uva, plátano” que si digo “pera, uva, uva, naranja, manzana, plátano”. Este efecto tiene una importante repercusión para el ámbito educativo: la ventaja del estudio distribuido sobre el estudio masivo o intensivo.

Hay varias hipótesis sobre porque se da este efecto:
  1. Hipótesis del procesamiento deficiente: Los individuos realizan un procesamiento más deficiente de las repeticiones cuando estas se realizan consecutivamente. Lo que viene a decir es q, como para recordar un ítem tengo que adoptar una estrategia de procesamiento, una vez realizado dicho procesamiento, si el siguiente ítem es el mismo, se puede optar por no insistir en su aprendizaje, porque ya lo he realizado justo con el anterior. Cosa que no sucedería si los ítems estuvieran distanciados por otros. Es decir, que el tiempo invertido en el procesamiento de 2 ítems iguales consecutivos es menor que el invertido en 2 ítems iguales pero separados por otros. Aunque la hipótesis anterior explique buena parte del efecto del espaciado, tiene que haber alguna otra causa que justifique este efecto, puesto que se ha demostrado que también se da en niños de 3 años (que por su corta edad no pueden seguir estrategias de recuerdo como las propuestas en el párrafo anterior).
  2. Hipótesis de la variabilidad de la codificación: Aquí se argumenta que al presentar varias veces el ítem espaciado, este se asocia a contextos mentales diferentes, por lo que tiene un abanico mayor de claves de recuperación.
Resumiendo, el espaciado parece un fenómeno de difícil encaje con los supuestos del modelo espacial, mientras que parece encontrar explicaciones aceptables con apenas unos mínimos principios de asociación de la información con claves contextuales, ya sea de manera automática o bien por estrategias de procesamiento que desarrollan los individuos.

Adecuación del procesamiento

Aquí lo que se trata de estudiar es en que medida que la codificación se realice incidiendo en unos aspectos del ítem afecta luego a la recuperación de ese aspecto u otro del ítem. Para ello se realizó un experimento (Morris y Cols, 1977), con un diseño 2x2 típico de los niveles de procesamiento y una tarea orientadora, para inducir a los participantes un determinado procesamiento congruente con unos objetivos particulares de aprendizaje (las tareas orientadoras permiten controlar en cierto modo el tipo de procesamiento que hacen los individuos del material que se les presenta)

Así, en la fase de codificación la tarea consistía en la lectura de una frase y el sujeto tenia que elegir una palabra (entre 2), analizando el significado de la frase y palabra en unas ocasiones (análisis semántico) y en otras viendo solo si rimaba (análisis fonético).

En la fase de recuperación, se dividió a los sujetos en 2 grupos, con una tarea distinta para cada uno:
  • La tarea de un grupo era reconocer si una palabra había sido presentada en la fase de adquisición. Se preveía un mejor reconocimiento de las palabras sobre las que hubo que hacer un análisis semántico. Y esto fue confirmado por el experimento.
  • La tarea del otro grupo era decidir si la nueva palabra presentada rimaba o no con la antigua palabra utilizada en la fase de adquisición. Se preveía una mejor ejecución si la tarea en la primera fase fue la rima en vez del análisis fonético. Y esto fue confirmado por el experimento, en contra de la hipótesis de los niveles de procesamiento.

La distintividad

Antes habíamos visto como la distintividad de los niveles superficiales en la codificación no mejora el rendimiento en una tarea de reconocimiento, con respecto a palabras analizadas semánticamente en contextos de baja distintividad.

Pero, ¿q sucede cuando la distintividad afecta también al contexto de recuperación? Pues en un experimento de Stein (1978), en el que, al igual que antes, había que realizar un reconocimiento semántico o grafico en relación con una adquisición semántica o grafica, también se presento distintividad en el contexto de recuperación, subdividiéndose los grupos en uno con distintividad grafica baja y otro con distintividad grafica alta, y se llego a la conclusión de que el efecto de la distintividad también esta modulado por la congruencia entre el procesamiento en codificación y recuperación: en condiciones de distintividad grafica alta, el reconocimiento de la grafía aumentó considerablemente, respecto a esta misma tarea en condiciones de distintividad grafica baja.

Este resultado replica el fenómeno descubierto por Morris y Cols (1977), demostrando que la calidad del trazo no depende tanto del nivel de procesamiento, sino que lo importante es la congruencia entre el tipo de procesamiento en la adquisición y recuperación.

Símbolos Densos

El conjunto de investigaciones presentadas durante este tema cuestionan todos los supuestos básicos del modelo de memoria como almacén:
  • Supuesto de la estabilidad del símbolo: Se ve cuestionado por el hecho de que el contexto determine el contenido del recuerdo.
  • La identidad transituacional y la repetibilidad de los símbolos.
  • La separación entre la memoria como continente y sus contenidos: la memoria no parece más que las operaciones que llevamos a cabo sobre la información del medio.
Parece que estos descubrimientos concuerdan mejor con la distinción que hizo Goodman (1968) y aplicó en este contexto Kolers (1973), entre símbolos articulados y símbolos densos:
  • Símbolos articulados: son los que componen nuestro lenguaje verbal, lo que siempre hemos entendido por símbolo, son independientes del continente, son copiables en distintos espacios y, por ello no pierden capacidad de comunicación.
  • Símbolos densos: son autográficos (no se pueden copiar porque no son independientes de su continente), son personales, pertenecen a la historia del individuo, con una historia de formación que no puede separarse de su significado y q, por tanto, no es independiente del continente.
Según Kolers, la memoria estaría formada por símbolos densos. No existiría un conocimiento general y abstracto, todo conocimiento estaría estrechamente ligado a los procesos mismos de captación de la info. Esta unión entre conocimientos y procedimientos excluye la división entre los contenidos y los procesos: el conocimiento son los procesos mismos de conocer, por lo que el recuerdo es su reactivación.

No es posible diferenciar entre contenido y continente porque no es posible definir una memoria sin contenido. Tampoco existe diferencia entre el contenido y su utilización, entre estructura de conocimiento y procesos de manipulación de dicha estructura.

Por otro lado, la Diferenciabilidad de los símbolos densos no esta ni mucho menos garantizada, ni la sintáctica ni la semántica. Los símbolos densos son difusos por definición y sus relaciones entre si son cambiantes. La inestabilidad es su característica mas permanente, por lo que la ausencia de la reaparición esta garantizada casi al completo.

Un formalismo para la reaparición

Teniendo en cuenta lo anteriormente expuesto, la psicología de la memoria se enfrenta a la siguiente pregunta ¿Cómo es posible que un procesador de información, cuyo contenido es siempre cambiante, pueda recuperar estados anteriores? O incluso ¿como es posible recuperar una información que no esta tal cual almacenada? Para responder a ello existen diversos modelos, nosotros veremos el modelo de Charm.

Según dicho modelo, la memoria no es un almacén de datos recopilados, sino la consecuencia de determinadas reacciones ante los estímulos y su procesamiento.

En términos asociativos la recuperación es una respuesta –reacción- ante un estímulo expuesto al sistema cognitivo humano. Los modelos asociativos clásicos describen la recuperación de lo aprendido sin almacén, representan la memoria asociativa como un vector, como un conjunto de operaciones vectoriales, específicamente, la convolución y la correlación vectorial. El cálculo vectorial y el álgebra lineal posibilitan la descripción de las asociaciones y las respuestas-recuperaciones sin almacén.

El modelo CHARM, en base a principios holográficos, propone el holograma como modelo, da explicación de la memoria humana, permite recuperar un contenido concreto e individualizado de donde no está presente como tal. Esto se puede expresar así, considerando que el estímulo-presente transforma (convoluciona) al procesador (asociador) para ofrecer una respuesta-futura que pueda “parecer” -desde un punto de vista externo- que estuviera “almacenada”.

Delimitamos un contexto de aprendizaje de pares asociados A-B, representativo de las tareas de memoria. Ante una clave asociada anteriormente con una respuesta, el motor asociador ofrece la “misma” respuesta, incluso ante una clave que se le asemeje.

Los elementos se representan en un vector, como una serie, donde el orden no es arbitrario sino totalmente relevante. La asociación se produce por la operación convolución entre dos vectores. La convolución es una síntesis interactiva de los elementos de dos vectores cualesquiera.

Lo que resulta de mayor interés, en el modelo, es que en el vector resultante de la operación de convolución, los valores de todas, y cada una, de las dimensiones están determinados por todas las dimensiones de los vectores originales. Este carácter interactivo, es en sí, la propiedad formal de un holograma (véase figura).

La convolución no lleva a una relación directa entre el orden de los vectores originales y el del vector resultante. Cada una de las unidades obtenidas en el vector convolución es resultado de la participación (disolución) de varias unidades de las señales (o contexto) originales.

En el nivel de análisis simbólico, esto, nos lleva a la des-localización del significado. El vector convolución es, simultáneamente, representación distribuida y asociación. El significado de sus elementos no se relaciona con el significado de los elementos originales. Hay representación, y asociación, pero no hay simbolismo, por ello, Smolensky 1988, ha hablado de representación sub-simbólica.

Según CHARM, se aprende acumulando experiencias en un vector memoria, M, que es una suma vectorial de convoluciones, el vector M está indexado temporalmente Mt. La representación de los vectores originales, no se almacena en el vector memoria, sino que se diluyen en él. En el vector memoria no se distinguen sus aportaciones, ni siquiera son distinguibles las diferentes convoluciones que se hayan acumulado. Se hace patente que la memoria no es un conjunto de elementos en un almacén, sino que es un solo elemento asociador –matriz- cuya forma y disposición intrínseca es resultado de acumular asociaciones interactivas entre elementos del medio.

Un patrón interactivo resultante de asociar “casi todo” con “casi todo”, en incontables acumulaciones de asociar “cada” elemento con “casi todos” los demás. La convolución vectorial expresa esto paradigmáticamente. Un vector, y una matriz, es un ente formal–matemático, único, singular, no plural, que expresa propiedades emergentes de las partes que han contribuido en su formación, pero sin que estas partes componentes puedan ser reconocibles ni separadas, esas partes no están, se han diluido en una estructura singular en un nivel de análisis diferente: el de la matriz o memoria asociativa.

Un vector memoria en un instante t, no contiene ni más ni menos elementos que en un instante previo, t-1 ó t-n. No hay diferencia de cantidad ni de capacidad de almacenamiento. Los vectores, como otros entes formales se distinguen por pasar por estados diferentes, procesales, no se distinguen por cantidad. Luego no tiene sentido hablar de capacidad de almacenamiento en las memorias biológicas.

Bajo estas condiciones de los sistemas no-supervisados, como las memorias o motores asociativos, la imagen del “almacén” simbólico e individualizado se torna inoperante y poco clarificadora. Surge, sin embargo, la imagen de la memoria asociativa como “una estructura de datos” distribuida y dinámica, capaz de aprender y ofrecer respuestas semejantes ante lo aprendido. Un “recogedor" (recoger, aprehender) no_supervisado de la redundancia y covariación informativa del medio. Pero el “recogedor” no sólo recoge, pues también es un “completador” o un “re-constructor”; cuando se encuentra con trocitos de realidad, segmentos del medio, puede completarlo con los trocitos y segmentos que le faltan. Pero este “completado” no se realiza recuperando de un almacén, sino reconstruyendo –respondiendo con- las claves de asociación, respondiendo con el contexto de aprendizaje. Para la implementación de estas estructuras, cfr., las redes de memoria retroasociativa de Hopfield 1982, o, los mapas de características autorganizativos de Kohonen 1984-2001.

Consecuencia de lo anterior, es que la re-construcción de las claves de aprendizaje -la respuesta-, no es literal e idéntica como ocurriría en la recuperación desde un almacén de símbolos, sino que es una aproximación dinámica -una segregación, una emergencia- sobre un fondo de ruido.

La correlación de un contexto -clave- sobre una memoria acumulada ofrece una respuesta-recuperación, del estímulo aprendido en ese contexto, sobre un fondo de ruido. Según la memoria-vector incluya más aprendizajes ortogonales con el contexto de prueba, más aumentará el ruido de fondo (varianza error). Esto es lo que sucede con los aprendizajes biológicos.

La discriminación, o rescate de la respuesta (recuperación), sobre un fondo de ruido nos coloca en todos los trabajos y estudios existentes sobre análisis de la señal y discriminación de señales, tanto en los desarrollos aplicados en las ingenierías, como en la descripción psicológica (atención, psicofísica, percepción y memoria, y teoría de la decisión), como en ciencia cognitiva.

En los modelos de memoria asociativa como el CHARM, la reacción del sistema al estímulo contiene –no_segregada- la respuesta. Desde mediados del siglo pasado los acercamientos a esta cuestión han incluido el término resonancia “resemblance”, como Neisser 1967-1975. La resonancia del sistema es la aproximación a la respuesta, que será buena mientras la varianza error se mantenga a raya. La información no está almacenada, sino que sólo es una posibilidad reconstruida que tendrá que ser “discriminada” sobre ruido.

Esto es: el recuerdo como posibilidad. Si cambian las condiciones de recuperación, las claves ofrecidas al sistema, la respuesta será otra, y, si la historia de aprendizaje del asociador no es muy “ortogonal” la respuesta también será otra.

Como resumen diremos que la estimulación inicial provoca un cambio de estado en el procesador, de tal forma que este, al reaccionar a una nueva estimulación, si tal estimulación guarda ciertas relaciones con la inicial, va a producir una nueva respuesta q, desde el punto de vista operativo, puede considerarse su reaparición.

Hay que decir que la concepción de la mente humana como procesador de símbolos densos está dentro de un contexto mas amplio que se ha denominado cognición corporeizada, de la que Margaret Wilson (2002) ha definido sus presupuestos:
  1. La cognición está situada en el mundo de las cosas en el que se desenvuelve el individuo.
  2. La cognición está presionada por el tiempo: las cosas se van sucediendo y razonando conforme suceden.
  3. El medio permite simplificar la interacción con el: solo captamos lo relevante del mismo.
  4. El medio es parte del sistema cognitivo: la mente y el entorno se confunden formando un todo (todo esto debe ser de alguna secta en la que participe el profe).
  5. La cognición es para la acción nuestras capacidades cognitivas se van desarrollando para que se desplieguen las conductas adaptativas.
  6. La cognición desconectada está basada en el cuerpo: cuando el individuo no está procesando la información que sobre él proyecta el medio, ni está directamente actuando sobre él, se dice que está desconectado.

La Comunicación de Símbolos Densos

Puesto que hemos expuesto los símbolos densos como únicos y personales e históricos, ¿cómo pueden permitir la comunicación entre individuos? → podemos entender los contenidos mentales de otros por analogía con los nuestros. Los símbolos densos pueden ser entendidos aunque no comunicados. Son empáticamente atribuidos a los otros.

Los símbolos articulados posibilitan la comunicación, el pensamiento simbólico y la representación del mundo. Los símbolos personales, les llamemos como les llamemos, densos o corporeizados o lenguaje “privado”, representan nuestra realidad interior, personal, mi historia y mi relación con el mundo físico y social.

¿Que beneficios nos aportan los símbolos densos?
  • Los símbolos articulados son útiles para la comunicación y para representar el mundo exterior.
  • Los símbolos personales lo son para construir y representar un mundo personal, una historia de mi mismo, y de mi relación con el mundo y los demás.
El regalo de la madre de las putas (musas) → la memoria como almacén juega un papel heuristico:
  1. Es útil para la construcción de mi historia personal.
  2. Es útil para la comunicación de nuestros propios estados mentales a los demás.
  3. Es útil para la indagación racional (científica) de nuestros estados y recursos mentales.

Compartir