Psicologia Cognitiva Eysenck Keane

Share Embed Donate


Short Description

Psicologia Cognitiva Eysenck Keane Riassunto...

Description

capitolo 1

APPROCCI ALLA COGNIZIONE UMANA INTRODUZIONE Psicologia cognitiva: cognitiva: è il tentativo di comprendere l’attività cognitiva umana osservando il comportamento di individui che eseguono vari compiti cognitivi; si occupa dei processi interni (percezione, attenzione, apprendimento, memoria, linguaggio, ragionamento, pensiero) tesi a comprendere l’ambiente e decidere le azioni più opportune. A volte può essere intesa in senso più ampio am pio e includere la neuroscienza cognitiva. Neuroscienza cognitiva: cognitiva: è il tentativo di utilizzare le informazioni sul comportamento e sul cervello al fine di comprendere l’attività cognitiva umana; viene studiato il cervello e il comportamento quando gli individui sono impegnati in compiti cognitivi. Modalità di analisi della neuroscienza cognitiva: tecniche di imaging cerebrale; tecniche elettrofisiologiche per registrare i segnali elettrici generali dal cervello; studio degli effetti delle lesioni cereb rali sull’attività cognitiva umana. 1) Psicologia Cognitiva Sperimentale: Sperimentale: cerca di comprendere l’attività cognitiva umana usando le evidenze comportamentali. 2) Neuroscienza Cognitiva: Cognitiva: usa le evidenze derivate dal comportamento e dal cervello per comprendere l’attività cognitiva umana. Cognitiva: 3) Neuropsicologia Cognitiva: studia i pazienti cerebrolesi per comprendere l’attività cognitiva umana normale. Computazionale: 4) Scienza Cognitiva Computazionale: sviluppa modelli computazionali per ampliare la conoscenza sull’att ività ività cognitiva umana.

PSICOLOGIA COGNITIVA SPERIMENTALE  Approccio di elaborazione delle informazioni: informazioni: popolare negli anni ’70, riteneva che la presentazione di uno stimolo causasse il verificarsi di determinati processi cognitivi interni che alla fine producevano la risposta desiderata. Elaborazione dello stimolo: - bottom-up (dal basso verso l’alto); - seriale (si verifica solo un processo alla volta). Questo approccio è semplicistico, in quanto è anche possibile un’elaborazione: - top-down (dall’alto verso verso il basso); - parallela (i processi implicati in un compito cognitivo si verificano nello stesso momento). Problema dell’impurità del compito : nell’esecuzione di esperimenti (su individui sani in condizioni di

laboratorio) molti compiti cognitivi comportano comportano l’impiego di un’associazione complessa di processi diversi, il che rende difficile l’interpretazione dei risultati. risultati . forza : a) Punti di forza: - è la fonte principale di quasi tutte le teorie e dei compiti usati dagli altri 3 approcci; - è molto flessibile e può essere es sere applicata a qualsiasi aspetto dell’attività cognitiva; - è il primo approccio sistematico per la comprensione dell’attività cognitiva. b) Limiti: Limiti: - il modo in cui le persone si comportano in un laboratorio può essere molto diverso dal comportamento quotidiano (manca una validità ecologica, i risultati non possono essere generalizzati al mondo reale); - le misure della velocità e della precisione della prestazione forniscono solo evidenze indirette dei processi interni implicati nell’attività cognitiva; - le teorie sono spesso espresse in termini linguistici (tendono ad essere vaghe); - vi è specificità del paradigma (i risultati ottenuti da un compito o paradigma sperimentale sono specifici per quel paradigma e non possono essere generalizzati ad altri compiti apparentemente simili; - viene posta molta enfasi su teorie relativamente specifiche ed applicabili solo ad una gamma ristretta di compiti cognitivi (manca un’architettura teorica generale). 1

NEUROSCIENZA COGNITIVA Organizzazione Organizzazione del cervello: - 4 lobi principali per ciascun emisfero (frontale ( frontale,, parietale, parietale, temporale, temporale, occipitale); occipitale); - mappa cito-architettonica basata sulle variazioni della struttura cellulare dei tessuti (aree identificate da Brodmann distinte dal punto di vista  funzionale). Tecniche usate per lo studio del cervello: cervello : ci permettono di stabilire dove e quando abbiano luogo alcuni processi cognitivi nel cervello; le tecniche differiscono nella risoluzione spaziale (precisione con cui identificano le aree cerebrali) e nella risoluzione temporale (la durata dell’attivazione delle aree cerebrali). cerebrali). 1) Registrazione a unità singola: singola : consente lo studio dei singoli neuroni. È una tecnica molto sofistica con ottima risoluzione temporale, ma l’informazione che fornisce è limitata all’attività dei singoli neuroni. neuroni . ERPs): 2) Potenziali evento-correlati (ERPs): viene presentato più volte lo stesso stimolo e si calcola la media dello schema dell’attività cerebrale registrata tramite EEG (elettroencefalogramma); questo per evitare che l’attività cerebrale spontanea di sfondo oscuri la registrazione dello stimolo. La media genera una sola forma d’onda e vengono perciò prodotti  potenziali eventocorrelati (ERPs) dalle registrazioni EEG. Questa tecnica ha una risoluzione spaziale molto limitata ma una risoluzione temporale eccellente: fornisce infatti una misura continua della durata dell’attività cerebrale, sebbene non indichi in modo preciso le regioni del cervello c ervello maggiormente coinvolte nell’elaborazione. PET): 3) Tomografia ad emissione di positroni (PET): si basa sull’individuazione di positroni emessi da sostanze radioattive che vengono iniettate nel corpo in quantità minime (il liquido marcato con isotopi radioattivi si chiama tracciante); il completo decadimento del tracciante avviene nell’arco di 10 minuti, ma la durata di registrazione è di soli 2 minuti. Questa tecnica ha una grande risoluzione spaziale, ma scarsa risoluzione temporale; inoltre la PET fornisce solo una misura indiretta dell’attività neurale, oltre ad essere una tecnica invasiva. 4) Risonanza magnetica (MRI e fMRI): fMRI): nella risonanza magnetica (MRI) vengono usate onde radio per eccitare gli atomi del cervello in modo da fornire un’immagine tridimensionale del cervello estremamente definita; tuttavia fornisce informazioni solo sulla struttura e non sulle funzioni del cervello, le quali tuttavia possono essere ricavate tramite risonanza magnetica funzionale (fMRI). La risoluzione temporale della fMRI è molto bassa (circa 2 -3 secondi), ma ha una buona risoluzione spaziale; poiché i dati forniti sono migliori di quelli della PET, la fMRI la ha sostituita ampiamente. La risonanza magnetica  funzionale evento-correlata (efMRI) è invece un tipo di fMRI che confronta l’attivazione cerebrale associata a diversi eventi. Le tecniche di fMRI forniscono solo una misura indiretta dell’attività neurale e il segn ale subisce distorsioni in alcuni regioni cerebrali (ad es. i seni e la cavità orale); inoltre lo scanner è rumoroso e scomodo, e ciò può influire sulla prestazione dei soggetti. In ultimo, i compiti cognitivi che possono essere costruiti per l’impiego del lo scanner sono molto limitati (sia in riferimento agli stimoli presentati che alle risposte richieste). MEG): 5) Magneto-encefalogramma (MEG): vengono misurati i campi magnetici prodotti dall’attività elettrica del cervello. Fornisce una misura molto precisa dell’attività dell’attività cerebrale in termini di risoluzione temporale e una so ddisfacente risoluzione spaziale; il suo impiego è tuttavia molto costoso e le persone a volte trovano scomodo partecipare a studi con la MEG. 6) Stimolazione magnetica transcranica (TMS): TMS): viene inibita l’attività di elaborazione di un’area del cervello attraverso un impulso di corrente (o più impulsi in un breve tempo, nel caso della rTMS) molto breve ma intenso che crea una sorta di “lesione temporanea” (intesa come alterazione strutturale prodotta da un danno cerebrale); questo permette di determinare se l’attività di una data area cerebrale è necessaria per livelli normali di prestazione in un certo compito, oppure fornire spiegazioni sul momento in cui una determinata area cerebrale è coinvolt a coinvolt a nell’esecuzione di un compito. La TMS è vantaggiosa perché rispetto alle tecniche di neuroimaging può confermare se una data area cerebrale è coinvolta o meno nell’esecuzione di un dato compito; inoltre questo permette di evitare le strategie di co mpensazione o riorganizzazione cognitiva sviluppate da pazienti con lesioni cerebrali, le quali possono complicare il risultato. I limiti di questa tecnica sono dati dalla poca chiarezza degli effetti della TMS, che sono complessi (può non esserci solo una riduzione dell’attivazione dell’area, ma anche un aumento di altre attività cerebrali) e alla difficoltà a stabilire la precisa area cerebrale interessata (a volte gli impulsi possono causare variazioni nell’attività anche in aree distanti da quella stimolata); inoltre essa può essere applicata solo alle aree cerebrali che si trovano al di sotto del cranio ma non a quelle ricoperte da muscoli. a) Problemi (limiti): limiti): - quasi tutte le tecniche di imaging cerebrale rivelano solo associazioni tra configurazioni di attivazione cerebrale e comportamento (non dimostrano che le regioni attivate siano essenziali per l’esecuzione del compito a livello causale); - quasi tutte le tecniche di neuroimaging funzionale sono basate sull’ipotesi di una specializzazione  funzionale, ma essa può essere valida per i processi p rocessi di base o di basso livello, e non per le funzioni cognitive di ordine più elevato (che non sono organizzate in modo netto e preciso); è più probabile che vi sia una sostanziale integrazione e coordinazione nel cervello che non la specializzazione funzionale; 2

NEUROSCIENZA COGNITIVA Organizzazione Organizzazione del cervello: - 4 lobi principali per ciascun emisfero (frontale ( frontale,, parietale, parietale, temporale, temporale, occipitale); occipitale); - mappa cito-architettonica basata sulle variazioni della struttura cellulare dei tessuti (aree identificate da Brodmann distinte dal punto di vista  funzionale). Tecniche usate per lo studio del cervello: cervello : ci permettono di stabilire dove e quando abbiano luogo alcuni processi cognitivi nel cervello; le tecniche differiscono nella risoluzione spaziale (precisione con cui identificano le aree cerebrali) e nella risoluzione temporale (la durata dell’attivazione delle aree cerebrali). cerebrali). 1) Registrazione a unità singola: singola : consente lo studio dei singoli neuroni. È una tecnica molto sofistica con ottima risoluzione temporale, ma l’informazione che fornisce è limitata all’attività dei singoli neuroni. neuroni . ERPs): 2) Potenziali evento-correlati (ERPs): viene presentato più volte lo stesso stimolo e si calcola la media dello schema dell’attività cerebrale registrata tramite EEG (elettroencefalogramma); questo per evitare che l’attività cerebrale spontanea di sfondo oscuri la registrazione dello stimolo. La media genera una sola forma d’onda e vengono perciò prodotti  potenziali eventocorrelati (ERPs) dalle registrazioni EEG. Questa tecnica ha una risoluzione spaziale molto limitata ma una risoluzione temporale eccellente: fornisce infatti una misura continua della durata dell’attività cerebrale, sebbene non indichi in modo preciso le regioni del cervello c ervello maggiormente coinvolte nell’elaborazione. PET): 3) Tomografia ad emissione di positroni (PET): si basa sull’individuazione di positroni emessi da sostanze radioattive che vengono iniettate nel corpo in quantità minime (il liquido marcato con isotopi radioattivi si chiama tracciante); il completo decadimento del tracciante avviene nell’arco di 10 minuti, ma la durata di registrazione è di soli 2 minuti. Questa tecnica ha una grande risoluzione spaziale, ma scarsa risoluzione temporale; inoltre la PET fornisce solo una misura indiretta dell’attività neurale, oltre ad essere una tecnica invasiva. 4) Risonanza magnetica (MRI e fMRI): fMRI): nella risonanza magnetica (MRI) vengono usate onde radio per eccitare gli atomi del cervello in modo da fornire un’immagine tridimensionale del cervello estremamente definita; tuttavia fornisce informazioni solo sulla struttura e non sulle funzioni del cervello, le quali tuttavia possono essere ricavate tramite risonanza magnetica funzionale (fMRI). La risoluzione temporale della fMRI è molto bassa (circa 2 -3 secondi), ma ha una buona risoluzione spaziale; poiché i dati forniti sono migliori di quelli della PET, la fMRI la ha sostituita ampiamente. La risonanza magnetica  funzionale evento-correlata (efMRI) è invece un tipo di fMRI che confronta l’attivazione cerebrale associata a diversi eventi. Le tecniche di fMRI forniscono solo una misura indiretta dell’attività neurale e il segn ale subisce distorsioni in alcuni regioni cerebrali (ad es. i seni e la cavità orale); inoltre lo scanner è rumoroso e scomodo, e ciò può influire sulla prestazione dei soggetti. In ultimo, i compiti cognitivi che possono essere costruiti per l’impiego del lo scanner sono molto limitati (sia in riferimento agli stimoli presentati che alle risposte richieste). MEG): 5) Magneto-encefalogramma (MEG): vengono misurati i campi magnetici prodotti dall’attività elettrica del cervello. Fornisce una misura molto precisa dell’attività dell’attività cerebrale in termini di risoluzione temporale e una so ddisfacente risoluzione spaziale; il suo impiego è tuttavia molto costoso e le persone a volte trovano scomodo partecipare a studi con la MEG. 6) Stimolazione magnetica transcranica (TMS): TMS): viene inibita l’attività di elaborazione di un’area del cervello attraverso un impulso di corrente (o più impulsi in un breve tempo, nel caso della rTMS) molto breve ma intenso che crea una sorta di “lesione temporanea” (intesa come alterazione strutturale prodotta da un danno cerebrale); questo permette di determinare se l’attività di una data area cerebrale è necessaria per livelli normali di prestazione in un certo compito, oppure fornire spiegazioni sul momento in cui una determinata area cerebrale è coinvolt a coinvolt a nell’esecuzione di un compito. La TMS è vantaggiosa perché rispetto alle tecniche di neuroimaging può confermare se una data area cerebrale è coinvolta o meno nell’esecuzione di un dato compito; inoltre questo permette di evitare le strategie di co mpensazione o riorganizzazione cognitiva sviluppate da pazienti con lesioni cerebrali, le quali possono complicare il risultato. I limiti di questa tecnica sono dati dalla poca chiarezza degli effetti della TMS, che sono complessi (può non esserci solo una riduzione dell’attivazione dell’area, ma anche un aumento di altre attività cerebrali) e alla difficoltà a stabilire la precisa area cerebrale interessata (a volte gli impulsi possono causare variazioni nell’attività anche in aree distanti da quella stimolata); inoltre essa può essere applicata solo alle aree cerebrali che si trovano al di sotto del cranio ma non a quelle ricoperte da muscoli. a) Problemi (limiti): limiti): - quasi tutte le tecniche di imaging cerebrale rivelano solo associazioni tra configurazioni di attivazione cerebrale e comportamento (non dimostrano che le regioni attivate siano essenziali per l’esecuzione del compito a livello causale); - quasi tutte le tecniche di neuroimaging funzionale sono basate sull’ipotesi di una specializzazione  funzionale, ma essa può essere valida per i processi p rocessi di base o di basso livello, e non per le funzioni cognitive di ordine più elevato (che non sono organizzate in modo netto e preciso); è più probabile che vi sia una sostanziale integrazione e coordinazione nel cervello che non la specializzazione funzionale; 2

-

-

a volte vi è il dubbio se la ricerca di neuroimaging funzionale sia rilevante per verificare le teorie cognitive (a cui si aggiunge la restrizione sui compiti che possono essere usati negli scanner) i lavori di ricerca di neuroimaging funzionale ipotizzano in genere che l’esecuzione di un compito produca l’aumento dell’attività cerebrale che riflette le richieste del compito, ma in realtà si verifica spesso la cereb rale in alcune aree durante compiti diversi ed in relazione a varie condizioni diminuzione dell’attività cerebrale di base (vi è soprattutto una scarsa conoscenza di cosa la TMS causi al cervello); dato che gli neuroscienziati cognitivi usano compiti sviluppati precedentemente dagli psicologi cognitivi, vi è una mancanza di validità ecologia e una specificità del paradigma (i risultati non possono essere applicati alla vita quotidiana e non possono essere generalizzati da un paradigma all’altro).

forza ): b) Soluzioni (punti di forza): - la varietà di tecniche impiegate permette di aggirare alcune tra le limitazioni poste dalle tecniche singole; - si può studiare l’integrazione funzionale correlando l’attività in diverse aree cerebrali (è possibile quindi la valutazione sia dell’elaborazione cerebrale integrata in tegrata che della specializzazione); - i risultati derivati dagli studi di neuroimaging funzionale sono spesso importanti per risolvere molte controversie teoriche teoriche nell’ambito della psicologia psicologia cognitiva; - la flessibilità della TMS permette deduzioni causali.

NEUROPSICOLOGIA COGNITIVA cerebrale, cioè La neuropsicologia studia le prestazioni cognitive di individui portatori di una lesione cerebrale, un’alterazione strutturale del cervello causata da traumi o da malattia; lo studio di questi pazienti può fornire molte informazioni sull’attività cognitiva umana normale (un sistema complesso infatti rivela il proprio funzionamento più chiaramente quando funziona male che quando funziona regolarmente).  Assunti teorici 1) Modularità: Modularità: il sistema cognitivo è costituto da diversi processori o moduli relativamente indipendenti, ognuno dei quali funziona in un certo senso in isolamento rispetto al resto resto del sistema di elaborazione; si suppone inoltre che un modulo presenti specificità di dominio , ovvero che risponda solo ad una particolare classe di stimoli. Vi sono due ipotesi principali: a) il sistema centrale (implicato in processi di livello superiore come il pensiero è il ragionamento) non è modulare (Fodor); b) quasi tutti i sistemi di elaborazione delle informazioni sono modulari, tali da poter parlare di modularità estesa o massiva (psicologi evolutivi). anatomica: 2) Modularità anatomica: ogni modulo è posizionato in un’area specifica e potenzialmente identificabile del cervello; esistono tuttavia meno prove della modularità anatomica in molti compiti complessi. 3) Uniformità dell’architettura funzionale tra le persone : è un’ipotesi diffusa in tutta la psicologia cognitiva, e se non fosse valida non potremmo essere in grado di usare i risultati provenienti da singoli pazienti per trarre conclusioni sull’architettura funzionale di altre persone. Sottrattività: 4) Sottrattività: una lesione cerebrale può danneggiare o cancellare moduli o connessioni tra moduli ma non può introdurne di nuovi (può cioè sottrarre ma non aggiungere qualcosa al sistema); questo assunto è più corretto quando la lesione cerebrale si sviluppa in età adulta e quando la prestazione cognitiva viene valutata poco tempo dopo l’insorgere della lesione. Dissociazione: Dissociazione: si verifica quando un soggetto riesce ad eseguire normalmente un certo compito (1) ma la sua abilità è danneggiata nell’eseguirne un altro (2); può avvenire tuttavia che un paziente abbia difficoltà nell’esecuzione di un compito rispetto ad un altro semplicemente perché il p rimo è più complesso del secondo (senza perciò dover pensare che il primo compito implichi abilità specifiche che sono state danneggiate). Doppia dissociazione: dissociazione: si verifica quando un soggetto esegue normalmente il compito 1 e ad un livello ridotto il compito 2, mentre un altro soggetto esegue normalmente il compito 2 e ad un livello ridotto il compito 1; dimostrando una doppia dissociazione è quindi possibile negare che uno dei compiti sia più difficile dell’altro ; permette inoltre di dare credito all’ipotesi secondo cui sono all’opera due sistemi (uno per il compito 1 e l’altro per il compito 2), ma vi sono dei limiti: - lo scenario ideale sarebbe dato dal modulo A necessario solo per il compito 1 e il modulo B solo per il compito 2, ma la realtà è generalmente molto più confusa e complessa; - esistono molte doppie dissociazioni, ma poche di esse hanno un’autentica importanza teorica; - possono fornire prove a sostegno dell’esistenza di due sistemi distinti, ma sono poco utili quando si verifica di dimostrare l’esistenza l’esistenza di tre o quattro sistemi. 3

 Associazione:  Associazione: si verifica quando un paziente presenta deficit nell’esecuzione del compito 1 e anche nel compito 2 (come nel caso dell’associazione dell’ associazione di sintomi, che determinano una sindrome); questo approccio basato sulla sindrome presenta un errore, perché le associazioni possono verificarsi anche se i compiti 1 e 2 dipendono da meccanismi o moduli di elaborazione del tutto distinti (se questi meccanismi sono adiacenti nel cervello); le associazioni quindi spesso non dicono nulla sull’organizzazione funzionale del cervello. gruppi : 1) Studio sui gruppi: questo approccio è utile nelle prime fasi della ricerca nel fornire un quadro approssimativo, ma causa parecchi problemi poiché in genere i pazienti differiscono per tipologia di compromissione (ogni paziente infatti può essere considerato unico): - combinare i dati dei vari pazienti richiede l’ipotesi che siano omogenei (uniformi) in relazione alla natura del deficit; - l’omogeneità del deficit non può essere assunta a priori. 2) Studio sui casi singoli: singoli : gli neuropsicologi cognitivi generalmente sono interessati a verificare una teoria e la sua correttezza può essere verificata in base ai singoli pazienti: infatti, soggetti con sintomi molto diversi possono rientrare nel quadro generale della teoria se questa è corretta, mentre invece accade il contrario se essa non è corretta. La diversità dei pazienti è vantaggiosa nella misura in cui questa può permettere di esporre la teoria a molti test diversi, ma rimane il problema che una menomazione selettiva riscontrata nell’eseguire n ell’eseguire un compito può riflettere cose molto diverse a seconda del paziente (ad es. strategie eccentriche, maggiori difficoltà di quel compito, modalità diverse di funzionamento di un sistema riorganizzato, ecc.). forza : a) Punti di forza: - colma il divario tra psicologia cognitiva e neuroscienza cognitiva; - permette di dimostrare legami causali tra lesione cerebrale e prestazione cognitiva; - le doppie dissociazioni hanno fornito importanti evidenze per vari importanti moduli di elaborazione. b) Limiti: Limiti: - alcuni impatti della lesione cerebrale sulla prestazione cognitiva possono essere camuffati perché i pazienti sviluppano strategie compensatorie per gestire la lesione; - molti lavori di ricerca in questo ambito sono basati sull’ipotesi della serialità (secondo cui l’elaborazione è seriale e procede da un modulo all’altro), ma i neuroni sono spesso interconnessi e numerose aree cerebrali sono attivate in modo integrato durante l’esecuzione di compiti; - la lesione cerebrale di solito è molto più pi ù estesa e può coinvolgere più moduli (e non uno solo); - le grandi differenze di età, esperienza ed istruzione tra gli individui che presentano lesioni simili possono avere conseguenze importanti nell’interpretazione dei risultati; - la neuropsicologia cognitiva ha posto spesso enfasi sugli aspetti relativamente specifici del funzionamento cognitivo e non sulle funzioni funzioni cognitive generali.

SCIENZA COGNITIVA COMPUTAZIONE a) Intelligenza artificiale: artificiale: comporta sistemi informatici che producono risultati intelligenti, ma i processi implicati possono avere poca somiglianza con quelli usati dagli esseri umani. computazionali: comportano programmi informatici che mimano alcuni aspetti del funzionamento b) Modelli computazionali: cognitivo umano. Gli studiosi cognitivi sviluppano modelli computazionali per comprendere l’attività cognitiva umana; un buon modello computazionale mostra come è possibile specificare una certa teoria e consente di prevedere il comportamento in nuove situazioni. Vantaggi di un modello computazionale: - hanno la capacità di fornire sia una base esplicativa che predittiva di un fenomeno (a differenza dei modelli matematici che possono essere usati solo per formulare previsioni); - sono programmi informatici che rappresentano le teorie cognitive avendo reso espliciti tutti i dettagli, permettendo di verificare che la teoria stessa non contenga assunzioni nascoste o termini vaghi (a differenze delle teorie formulate dagli psicologi cognitivi che sono in forme linguistiche vaghe). Problemi legati all’uso di simulazioni su computer : - è necessario separare gli aspetti psicologici di un programma da altri aspetti perché ci sono parti del programma che sono presenti semplicemente a causa delle caratteristiche del linguaggio di programmazione usato e del tipo di macchina sulla quale il programma sta girando; - è poco utile mettere in relazione la velocità di prestazione dei soggetti umani con quella del programma perché i tempi di elaborazione sono necessariamente diversi (quelli impiegati da un programma sono condizionati da caratteristiche psicologicamente irrilevanti); il programma deve essere in grado tuttavia di riprodurre risposte uguali a quelle date dai soggetti in presenza degli stessi stimoli. 4

Modelli computazionali produzione : 1) Sistemi di produzione: sono costituiti da produzioni, cioè regole di forma SE… ALLORA; ALLORA ; un es. di modello di produzione è costituito da una memoria a lungo termine (nel quale sono contenute un insieme di regole SE… ALLORA) e da una memoria di lavoro (nel quale sono conservate le informazioni mentre vengono elaborate). I sistemi di produzione hanno le seguenti caratteristiche: - contengono numerose regole nella forma SE… ALLORA; - hanno una memoria di lavoro che contiene informazioni; - il sistema di produzione opera confrontando il contenuto della memoria di lavoro e la parte SE delle regola eseguendo la parte ALLORA; - esiste una strategia di risoluzione dei conflitti che seleziona una regola rispetto ad un’altra nel caso in cui alcune informazioni nella memoria di lavoro corrispondano alla parte SE di molte regole diverse.  ACT-R (che spiega un ampio spettro di risultati): è un’ architettura Anderson ha proposto la teoria dell’ ACT-R cognitiva (cioè un modello cognitivo dominio-generico che include una vasta gamma di applicazione cognitive) che si concentra su quegli aspetti del sistema cognitivo che rimangono pressoché invariati tra gli individui, tipi di compiti e quantità di tempo. L’ACTL’ACT -R si basa sull’ipotesi che il sistema cognitivo sia costituito da numerosi moduli (sottoinsiemi relativamente indipendenti), tra i quali: - modulo visivo per gli oggetti e modulo visivo di posizione; - modulo manuale; - modulo di obiettivo; - modulo dichiarativo. Ogni modulo è associato ad un registro che contiene in quantità limitata le informazioni più importanti; le informazioni vengono poi integrate grazie ad un sistema di produzione centrale che può individuare le configurazioni in questi registri e intraprendere azioni coordinate. 2) Reti connessioniste: connessioniste : sono reti neurali o modelli di elaborazione distribuiti paralleli (PDP), che utilizzano unità elementari o nodi collegati e sono costituite da varie strutture o strati. Le reti connessioniste hanno spesso (ma non sempre) le seguenti caratteristiche: - la rete è costituita da unità elementari (simili a neuroni) chiamate nodi e connesse tra loro; - ogni unità può influenzare le altre (inviando segnali inibitori o eccitatori); - la singola unità assume la somma pesata di tutti i legami in ingresso e produce un unico valore in uscita che viene inviato ad un’altra unità se la somma pesata supera il valore-soglia; valore -soglia; - la rete nel complesso è caratterizzata dalle proprietà delle singole unità, dal modo in cui sono collegate tra loro e dalle regole usate per cambiare la forza fo rza delle connessioni tra le unità; - le reti possono avere diverse strutture o strati (strati di legami in entrate, strati di unità in uscita e strati intermedi detti “unità nascoste”); - la rappresentazione di un concetto può essere conservata in modo distribuito attraverso una specifica configurazione di attivazione diffusa nella rete; - la stessa rete può conservare molti patt ern ern senza che essi interferiscano l’uno con l’altro. Le reti possono rappresentare il comportamento cognitivo senza dover ricorrere alle regole esplicite che si trovano nei sistemi di produzione poiché conservano piuttosto  pattern di attivazione nella rete che associano vari ingressi ad alcune uscite (vi sono diversi strati di unità ): quando la rete ha imparato a produrre una data risposta in uscita in seguito alla presentazione di un certo stimolo in ingresso, allora si comporta come se avesse imparato una regola nella forma SE… ALLORA; le reti apprendono perciò l’associazione tra input input e output diversi modificando i pesi dei legami tra le unità della rete. BackProp: BackProp: è una regola di apprendimento (meccanismo) che consente alla rete di apprendere ad associare una specifica configurazione in ingresso con una corrispondente configurazione in uscita confrontando le risposte effettivamente fornite con quelle corrette; in questo modo la rete può imparare una regola invece che possedere già delle regole esplicite. Distributività: Distributività: le reti connessioniste presuppongono che le rappresentazioni siano i mmagazzinate in modo distribuito (secondo una plausibilità biologica), ma questo p resenta dei problemi: infatti esistono prove che molte informazioni sono immagazzinate in un determinato punto del cervello e non in modo distribuito. Differenze tra i due modelli: modelli : 1)  funzionamento secondo il tempo umano (nell’ACT-R (nell’ACT-R ogni fase di elaborazione è associata ad un tempo, a differenza dei modelli connessionisti che non spiegano gli effetti temporali causati dagli elementi percettivi o motori di un compito); 2) criterio di utilizzo del linguaggio (nell’ACT-R (nell’ACT-R il linguaggio naturale è trattato in modo frammentario, a differenza dei modelli connessionisti che sviluppano numerose teorie nell’area del linguaggio); linguaggio ); spiegazione dei fenomeni evolutivi 3) (l’ACT-R l’ACT-R dice poco sui fenomeni evolutivi, a differenza dei modelli connessionisti); 4) criterio della mappatura tra componenti teoriche e cervello (a differenza dell’ACT-R, dell’ACT-R, i modelli connessionisti sono controversi nella misura in cui affermano che le unità di elaborazione sono si mili ai neuroni biologici). 5

a) Punti di forza: - le ipotesi vengono formulate attentamente e in modo rigoroso; - le architetture cognitive offrono una struttura in cui comprendere il funzionamento del sistema cognitivo; - le reti connessioniste possono autoprogrammarsi (apprendono a generare specifiche risposte); - molti modelli connessionisti sono basati sull’ipotesi che la conoscenza (di una parola o di un concetto) sia rappresentata in modo distribuito nel cervello e non in un punto specifico (ipotesi a ncora discussa); - lo scopo della scienza cognitiva computazionale è progressivamente cresciuto, soprattutto nello sviluppare modelli computazionali applicabili ai dati di neuroimaging funzionale (si appoggia perciò alle conoscenze della neuroscienza cognitiva); - il connessionismo soprattutto riesce a fornire convincenti spiegazioni teoriche dei sistemi di elaborazione  parallela (la ricerche di neuroimaging funzionale indicano che l’elaborazione parallela è la regola e non l’eccezione). b) Limiti: - i modelli computazionali sono stati usati raramente per formulare nuove previsioni (gli studiosi spesso sviluppano un solo modello di un fenomeno invece di analizzare molti modelli); - i modelli connessionisti che affermano di avere plausibilità neurale non sono realmente simili al cervello; - molti modelli computazionali hanno numerosi parametri piuttosto arbitrari per giustificare i dati; - vengono ignorati i numerosi fattori motivazionali ed emotivi (molti dei quali possono essere operativi nello stesso momento) che caratterizzano l’attività cognitiva umana; in generale la scienza cognitiva computazionale si concentra sul sistema cognitivo puro e minimizza il ruolo fondamentale del sistema di regolazione (ovvero il sistema biologico), il quale determina gran parte dell’a ttività del sistema cognitivo (il sistema di regolazione comprende varie necessità come il bisogno di cibo, di protezione, ecc.).

6

capitolo 2

PROCESSI DI BASE NELLA PERCEZIONE VISIVA SISTEMI CEREBRALI Occhio ⇩ Quando uno stimolo visivo raggiunge i recettori nella retina vi sono 3 effetti: - ricezione (assorbimento di energia fisica da parte dei recettori); - trasduzione (l’energia fisica è trasformata in una configurazione elettrochimica nei neuroni); - codifica (processo grazie al quale gli aspetti dello stimolo fisico e la conseguente attività del sistema nervoso hanno caratteristiche corrispondenti). Nella retina sono presenti 2 tipi di recettori visivi: - coni (zona centrale), specializzati per la visione dei colori e consentono una visione nitida; - bastoncelli (zona periferica), specializzati per la visione della luce tenue e l’individuazione del movimento. ⇩ Sistema retino-genicolato-striato: è il percorso principale tra l’occhio e la corteccia e trasmette le informazioni dalla retina prima attraverso i nervi ottici (che si incrociano nel chiasma ottico ) e poi successivamente verso il nucleo genicolato laterale (NGL), che è parte del talamo; in seguito gli impulsi nervosi raggiungo V1 (nella corteccia visiva primaria nel lobo occipitale) e poi nelle aree corticali visive adiacenti (come V2). Esistono due canali più o meno indipendenti (esistono infatti numerose interconnessioni tra i due percorsi) all’interno di questo sistema: 1)  percorso parvocellulare (P), molto sensibile ai colori e ai dettagli sottili (input dai coni); 2)  percorso magnocellulare (M), molto sensibile alle informazioni sul movimenti (input dai bastoncelli). ⇩ Sistemi cerebrali: i neuroni dei percorsi P e M si proiettano principalmente nella corteccia visiva primaria (V1). Successivamente i due percorsi afferiscono a due diversi strati: 1) P allo strato del cosa (ventrale) che procede poi verso l’area V4 (elaborazione dei colori); 2) M allo strato del dove (dorsale) che procede poi verso l’area V5/TM (elaborazione del movimento). 3 aspetti generali: - Il campo recettivo di ogni neurone è la regione della retina in cui la luce ne influenza l’attività; - i neuroni spesso esercitano un certo effetti gli uni sugli altri (es. inibizione laterale); - la corteccia visiva primaria (V1) e quella secondaria (V2) occupano aree abbastanza ampie della corteccia. 2 tipi di cellule: a) cellule on-centre (producono la risposta on ad una luce localizzata al centro del loro campo recettivo, ed una risposta off ad una luce localizzata nell’area periferica); b) cellule off-centre (si comportano all’opposto delle cellule on-centre). 2 tipi di neuroni nei campi recettivi della corteccia visiva primaria (V1): a) cellule semplici, che rispondono ad un meccanismo on e off e agiscono su un campo di forma rettangolare (rispondono in maniera molto forte solo a stimoli che hanno un particolare orientamento); b) cellule complesse, che rispondono per lo più come le cellule semplici a stimoli costituiti da linee rette con particolare orientamento, ma hanno campi recettivi più ampi e rispondono di più ai contorni in movimento. 4 punti importanti: - le cellule corticali forniscono informazioni ambigue perché rispondono nello stesso modo a stimoli diversi; - la corteccia visiva primaria è organizzata come mappa retinotopica (una serie di cellule nervose la cui posizione l’una rispetto all’altra è uguale a quella dei propri campi recettivi sulla superficie della retina), ma ne dispongono anche V2 e V3; - sia V1 che V2 sono implicate nelle prime fasi dell’elaborazione visiva (all’inizio il flusso di attivazione procede in avanti attraverso le aree visive V1 e V2); - vi è una seconda fase ( elaborazione ricorrente ) in cui l’elaborazione procede in direzione opposta. Teoria della specializzazione funzionale: proposta da Zeki, è una teoria secondo cui diverse parti della corteccia sono specializzate per differenti funzioni visive. Motivi per cui dovrebbe esserci specializzazione funzionale: - le caratteristiche qualitative degli oggetti hanno combinazioni complesse e imprevedibili nel mondo visivo; - il tipo di elaborazione richiesto differisce considerevolmente da una caratteristica all’altra (ad es. l’elaborazione del movimento richiede più tempo rispetto all’elaborazione della forma). 7

Le principali funzioni attribuite da Zeki alle aree cerebrali dei macachi che ha studiato: 1) V1 e V2 (fase precoce della visione) che contengono gruppi di cellule che rispondono ai colori ed alle forme; 2) V3 e V3A le cui cellule rispondono alle forme (soprattutto quelle in movimento) ma non ai colori; 3) V4 che possiede cellule che rispondono soprattutto ai colori, ma molte anche all’orientamento delle linee; 4) V5 che è specializzata per il movimento visivo, ma non risponde ai colori. L’ipotesi fondamentale di Zeki è che i colori, le  forme e il movimento vengono elaborati in parti anatomiche distinte delle corteccia visiva. 1) Elaborazione delle forme: numerose aree sono implicate nell’elaborazione delle forme (V1, V2, V3 e V4), ma l’approccio cognitivo si è concentrato soprattutto sulla corteccia infero-temporale. I neuroni della regione anteriore della corteccia inferotemporale differiscono per due aspetti importanti: - selettività degli oggetti (rispondono principalmente a specifici oggetti visivi); - tolleranza (rispondono fortemente alle immagini retiniche dello stesso o ggetto che varia nelle proprietà). Si è scoperto che nelle scimmie i neuroni con alta selettività tendevano ad avere scarsa tolleranza, e quelli con alta tolleranza presentavano scarsa selettività; questo perché è importante avere neuroni che rispondano in modo altamente specifico (selettività) ed altri che rispondano a molti più stimoli (tolleranza), in modo da avere da una parte un’accurata identificazione e dall’altra un’ampia categorizzazione. 2) Elaborazione dei colori: sono stati fatti studi su soggetti con lesioni cerebrali per verifi care l’ipotesi secondo cui l’area V4 è specializzata per l’elaborazione dei colori. I pazienti affetti da acromatopsia non hanno la capacità di percepire i colori (mentre invece hanno una normale percezione di forme e movimenti) e l’analisi di questi soggetti ha portato a 3 risultati: - in quasi tutti i casi è risultata effettivamente danneggiata una piccola zona dell’area V4 (o ad essa vicina); - la perdita della visione dei colori nei pazienti era spesso solo parziale; - quasi tutti i pazienti presentavano gravi deficit a carico della visione spaziale. Ulteriori studi di neuroimaging hanno evidenziato che l’area V4 e le aree adiacenti sono senza dubbio implicate nell’elaborazione dei colori, ma l’associazione tra elaborazione dei colori e interessamento di V4 no n è abbastanza forte da poterla considerare il centro dei colori: - altre aree (come V1 e V2) sono implicate nell’elaborazione dei colori; - una certa elaborazione dei colori è presente in quasi tutti i pazienti con acromatopsia o lesione a V4; - quasi tutti i pazienti con acromatopsia presentano deficit anche in altri tipi di elaborazione visiva; - la dimensione di V4 e la sua posizione fa pensare che esse svolga un ruolo più importante della semplice elaborazione dei colori. 3) Elaborazione del movimento: vi è fortemente implicata l’area V5 (nota anche come TM), ma gli studi di neuroimaging funzionale non dimostrano che sia necessaria per la percezione del movimento; questo è stato invece dimostrato con la TMS, dopo la quale la percezione del movimento risultava quasi del tutto eliminata (altre convalide provengono dagli studi sui pazienti affetti da achinetopsia, una condizione per cui gli oggetti in movimento non vengono percepiti normalmente). Nel movimento è implicata anche un’altra zona vicina a TM, ovvero l’area MST, che è specializzata nel controllo visivo della deambulazione. Vi sono inoltre due tipi distinti di percezione del movimento: a) percezione di primo ordine, in cui la forma in movimento differisce in luminosità rispetto allo sfondo; b) percezione di secondo ordine , in cui bisogna tenere conto di altri cambiamenti per percepire il movimento. Sembra che esistano meccanismi diversi per la percezione di primo e di secondo ordine: ciò è stato dimostrato con pazienti che presentavano una doppia dissociazione (disponevano cioè di percezione di movimento del primo ordine ma non del secondo). Inoltre molti studi sulla percezione del movimento sono stati fatti sulle scimmie, ma negli esseri umani sono implicate molte più aree cerebrali (ad es. V3A): questo perché l’elaborazione del movimento è diventata più importante dal punto di vista comportamentale quando l’uomo emerse dalla famiglia dei primati. Binding problem: è il problema di come vengano combinate e integrate le informazioni sul movimento, s ul colore e sulla forma di un oggetto, ovvero come queste possano essere raggruppate in oggetti coerenti che sono distinti l’uno dall’altro e dallo sfondo sul quale appaiono. Vi sono due possibili approcci: 1) la specializzazione funzionale è minore di quanto sostenuto da Zeki (vi sono numerose interazioni tra le diverse regioni cerebrali); 2) ipotesi di sincronia, secondo cui la presentazione di un dato oggetto causa una diffusa elaborazione visiva, e una percezione visiva coerente dipende dalla sincronizzazione dell’attività neurale in varie aree corticali. L’ipotesi della sincronia è troppo semplicistica e smentita da evidenze sperimentali (ad es. il colore è percepito prima del movimento); l’elaborazione visiva di un oggetto si verifica in aree ampiamente dist ribuite del cervello e procede attraverso varie fasi (non c’è quindi una sincronia precisa). Limiti della teoria di specializzazione funzionale: - le aree cerebrali implicate non sono specializzate in modo così netto né limitate nell’elaborazione; - l’elaborazione nelle aree V1 e V2 è più estesa di quanto suggerito da Zeki; - non affronta in modo soddisfacente il binding problem (a causa dell’ipotesi della specializzazione). 8

SISTEMI VISIVI DI PERCEZIONE ED AZIONE La funzione principale della visione sembrerebbe essere quella di costruire una sorta di modello interno del mondo esterno, ma è un’ipotesi inadeguata; Milner e Goodale hanno invece fornito un’ipotesi, la teoria di percezioneazione, secondo cui esistono due sistemi visivi ognuno dei quali assolve ad una funzione diversa: a) visione-per-percezione (strato ventrale, “cosa”), impiegato nel riconoscimento degli oggetti; b) visione-per-azione (strato dorsale, “dove”), impiegato per il controllo visivo (ad es. afferrare un oggetto). Norman ha proposto un approccio simile (teoria del duplice processo), secondo cui esiste una distinzione funzionale tra strato ventrale (che impiega le informazioni visive per conoscere l’ambiente) e strato dorsale (che impiega le informazioni visive per il controllo del comportamento nel proprio ambiente). 1) Evidenze date dallo studio dei pazienti cerebrolesi: lo studio pazienti cerebrolesi ha confermato l’ipotesi di queste divisione delle funzioni (doppia dissociazione): - pazienti con atassia ottica (che presentano lesioni allo strato dorsale) hanno difficoltà a compiere con precisione movimenti sotto il controllo visivo, anche se la pianificazione iniziale del movimento è normale; - pazienti con agnosia visiva (che presentano lesioni allo strato ventrale) hanno difficoltà a riconoscere gli oggetti, anche se le informazioni visive raggiungono la corteccia. 2) Evidenze date dallo studio delle illusioni ottiche: le illusioni ottiche implicano l’utilizzo del solo sistema visione -per-percezione e gli esperimenti hanno confermato che il sistema visione-per-azione non viene influenzato da esse; le prestazioni basate sull’azione sono quindi spesso immuni da effetti di illusione ottica. I processi implicati nel produrre azioni possono variare notevolmente, a seconda che sia presente o meno una  pianificazione consapevole; un’azione quindi può implicare anche il sistema ventrale (visione-per-percezione) oltre a

quello dorsale (visione-per-azione). Ad es. la modalità di afferrare un oggetto in modo appropriato richiede l’accesso a conoscenze immagazzinate sull’oggetto (e quindi dipende dallo strato ventrale); è quindi probabile che: - le azioni implichino il sistema ventrale quando non sono automatiche (implicano perciò processi cognitivi consapevoli); - lo strato dorsale sia sempre implicato nell’esecuzione di azioni anche se lo strato ventrale è stato coinvolto notevolmente nella precedente azione di pianificazione. Limiti della teoria di percezione-azione: - lo strato ventrale sembra influenzare le risposte che pre vedono l’azione di stendere le mani ed afferrare gli oggetti quando le risposte non sono immediate (tali azioni so no quindi influenzate da entrambi gli strati); - la teoria potrebbe essere sostituita da quella del frame and fill, secondo cui l’elaborazione rapida e grossolana nello strato dorsale fornisce la struttura (frame) per l’elaborazione più lenta e più precisa dello strato ventrale che fornisce il riempimento (fill); - viene posta enfasi sul contributo separato dei due strati, quando invece i due sistemi visivi possiedono numerose connessioni e interagiscono tra di loro; - l’idea secondo cui i due strati elaborano tipi molto diversi di informazione è eccesivo (ad es. le informazioni relative al movimento possono raggiungere lo strato ventrale senza essere state prima elaborate dallo strato dorsale); - è spesso difficile formulare chiare previsioni in base alla teoria perché la maggior parte dei compiti visivi richiede l’impiego di entrambi gli strati (ed esistono differenze individuali nelle strategie di esec uzione); - vi è stato un certo scetticismo in merito alla chiarezza con cui sono state d imostrate le doppie dissociazioni; - alcuni studi sulle illusioni ottiche sembrano in un certo senso incoerenti con la teoria.

PERCEZIONE SENZA CONSAPEVOLEZZA Blindsight  (o visione cieca): è la condizione per cui alcuni pazienti con lesioni a carico dell’area V1 (o BA17) mancano di esperienza visiva consapevole pur riuscendo a rispondere in modo appropriato agli stimoli visivi . Ci sono 3 sotto-tipi di blindsight in base alle capacità residue visi ve dei pazienti: 1) blindsight di azione (i pazienti sono capaci di prendere o indicare oggetti nel campo cieco); 2) blindsight di attenzione (i pazienti individuano gli oggetti e il movimento e ne hanno una vaga consapevolezza anche se affermano di non riuscire a vederli); 3) agnosopsia (i pazienti non hanno alcuna consapevolezza degli stimoli visivi ma mostrano una certa capacità a distinguere le forme). Un punto fondamentale è se i pazienti con blindsight manchino realmente di percezione visiva consapevole; Weiskrantz ha distinto due tipi di blindsight: - tipo 1 (simile all’agnosopsia) in cui è assente la consapevolezza; - tipo 2 (simile al blindsight di attenzione) in cui c’è consapevolezza che stia accadendo qualcosa. Vi sono comunque evidenze a convalida che il blindsight sia molto div erso dalla visione consapevole normale. 9

a) Motivi per cui il blindsight è ritenuto un fenomeno autentico: - i problemi derivati dai resoconti verbali soggettivi dei pazienti sono stati in apparenza superati; - ci sono studi in cui le evidenze a convalida del blindsight non dipendono da resoconti verbali soggettivi; - studi di neuroimaging funzionale dimostrano che molti pazienti presentano attivazione esclusiva nel percorso dorsale (la percezione visiva consapevole è principalmente associata all’attivazione del percorso ventrale). b) Problemi della ricerca sul blindsight: - esistono considerevoli differenze tra i pazienti; - ci sono evidenze sperimentali a convalida del fatto pochi pazienti con blindsight possiedono una certa consapevolezza visiva nel campo che si suppone cieco; - alcuni processi visivi nei pazienti con blindsight possono essere specifici (ad es. presentano connessioni tra aree cerebrali che possono non esistere negli individui sani) e quindi non possono essere generalizzati agli individui normali. - è possibile che della luce casuale cada nel campo visivo intatto dei pazienti (e quindi la loro capacità a mostrare una prestazione al di sopra della casualità in vari compiti potrebbe riflettere l’elabora zione all’interno del campo visivo intatto, anche se non si capisce perché non abbiano consapevolezza di tale elaborazione). Percezione inconscia (o subliminale): sono stati compiuti diversi studi per dimostrarne l’esistenza. Vi sono 3 modi in cui vengono presentati stimoli al di sotto del livello di consapevolezza: 1) gli stimoli sono molto deboli; 2) gli stimoli sono presentati molto brevemente; 3) lo stimolo bersaglio può essere immediatamente seguito da uno stimolo di disturbo ( masking) che serve ad inibire l’elaborazione dello stimolo bersaglio. Ci sono 2 modalità per decidere se un osservatore ha percepito in modo consapevole uno stimolo visivo: a) limite soggettivo (l’individuo è incapace di riferire consapevolezza di uno stimolo); b) limite oggettivo (l’individuo è incapace di prendere accurate decisioni a scelta forzata su di uno stimolo). Gli osservatori spesso mostrano consapevolezza di uno stimolo in base al limite oggettivo anche quando lo stimolo non supera la soglia soggettiva. Evidenze sperimentali indicano che avviene una certa elaborazione percettiva inconscia dello stimolo e che la prestazione al di sotto del livello della casualità suggerisce che i partecipanti non avevano consapevolezza di tale elaborazione. Studi che coinvolgono l’uso di fMRI ed ERPs suggeriscono inoltre che una certa elaborazione si verifica anche quando uno stimolo è presentato al di sotto del livello di consapevolezza: è quindi probabile che la percezione sia un insieme di stadi di elaborazione o meccanismi multipli in cui la consapevolezza rappresenta lo stadio finale di elaborazione.

PERCEZIONE DELLA PROFONDITÀ E DELLE DIMENSIONE Una degli elementi fondamentali della percezione visiva è il modo in cui l’immagine retinica bidimensionale viene trasformata nella percezione di un mondo tridimensionale; esistono numerosi indizi (cioè qualsiasi informazione sensoriale che dà origine ad una stima sensoriale) per la  profondità visiva, e 3 sono quelli principali (disponibili anche quando l’oggetto è fermo): 1) monoculari, che richiedono l’uso di un solo occhio; 2) oculomotori, che sono cinestetici e dipendono dalle sensazione di contrazione dei muscoli peri-oculari; 3) binoculari, che richiedono l’uso di entrambi gli occhi. 1) Indizi monoculari (o indizi pittorici): -  prospettiva lineare (linee parallele che puntano in una direzione distante dall’osservatore sembrano progressivamente avvicinarsi l’una all’altra con l’aumentare della distanza); -  prospettiva aerea (gli oggetti più lontani perdono contrasto e sembrano sfumare in qualche modo); - tessitura o densità (gli oggetti dotati di tessitura inclinati rispetto all’osservatore hanno un gradiente di tessitura, cioè un tasso di variazione della densità della tessitura); - interposizione (un oggetto più vicino copre alla vista parte di un oggetto più distante); - ombreggiatura (la presenza di ombre fornisce una prova della presenza di un o ggetto tridimensionale); -  familiarità delle dimensioni (si fornisce una stima accurata della distanza se si conosce prima la reale dimensione dell’oggetto in questione); -  parallasse di movimento (in riferimento al movimento dell’immagine di un oggetto sulla retina a causa del movimento della testa dell’osservatore, il movimento è maggiore per l’oggetto più vicino), il quale può generare informazioni relative alla profondità in assenza di qualsiasi altro indizio. 2) Indizi oculomotori: - convergenza (gli occhi si girano all’interno per mettere a fuoco un oggetto quando questo è vicino); - accomodamento (la variazione della capacità ottica è prodotta dall’ispessimento del cristallino quando questo mette a fuoco un oggetto vicino). 10

3) Indizi binoculari: -

visione stereoscopica (si basa sulla disparità binoculare, cioè la differenza tra le immagini proiettate sulla

retina dei due occhi quando si osserva una scena).

Gli indizi oculomotori e binoculari sono efficaci solo per facilitare la percezione della profondità su distanze relativamente brevi; inoltre alcuni studi sul cervello hanno indicati che quasi tutte le regioni della corteccia visiva contengono neuroni che rispondono fortemente alla disparità binoculare (questo suggerisce che gli strati di elaborazione dorsale e ventrale sono entrambi coinvolti nella visione stereoscopica). ⇩ Integrazione delle informazioni provenienti dagli indizi: vi è il problema di come si combinano i diversi indizi per formulare giudizi sulla profondità o sulla distanza. Vi sono due possibilità: a) additività (le informazioni derivanti da indizi diversi vanno semplicemente addizionate); b) selezione (vengono usare solo le informazioni derivanti da un singolo indizio). Jacobs ha sostenuto che quando combiniamo le informazioni provenienti da indizi visivi multipli attribuiamo maggiore peso agli indizi attendibili che a quelli non attendibili ; Jacobs ha formulato 2 ipotesi: 1) gli indizi meno ambigui (quelli che forniscono informazioni coerenti) sono considerati più attendibili di quelli ambigui; 2) un indizio è considerato attendibile se le deduzioni basate su di esso sono coerenti con quelle basate su altri indizi disponibili. Le evidenze sperimentali dimostrano che il concetto di additività è corretto, ma nel caso in cui due o più indizi forniscono informazioni contrastanti in merito alla profondità gli osservatori usano talvolta la strategia di selezione ed ignorano alcuni indizi di profondità disponibili (ad es. quando si guarda un film); anche le due ipotesi di Jacobs si sono dimostrate corrette. Costanza delle dimensioni: è la tendenza di qualsiasi oggetto ad apparire della stessa dimensione, indipendentemente dal fatto che la sua dimensione nell’immagine retinica sia grande o piccola; questo avviene perché, principalmente, quando valutiamo la dimensione di un oggetto prendiamo in considerazione la sua distanza apparente. Ipotesi dell’invariabilità dimensione/distanza : per una data dimensione di immagine retinica, la dimensione percepita di un oggetto è proporzionale alla distanza percepita ; non si dovrebbe perciò riscontrare costanza di dimensione quando la distanza percepita di un oggetto è molto diversa dalla distanza reale (ad es. la stanza di Ames

è una prova di questa ipotesi, dato che la distanza percepita sembra influenzare la percezione delle dimensioni). Numerosi fattori influenzano la stima delle dimensioni: - in un ambiente virtuale la complessità della scena e la disparità binoculare contribuiscono entrambe alla costanza delle dimensioni, al contrario della parallasse di movimento; - l’orizzonte fornisce utili informazioni poiché la linea che collega il punto di osservazione all’orizzonte è virtualmente parallela al suolo; - la percezione delle dimensioni degli oggetti dipende in genere dal ricordo delle loro dimensioni familiari piuttosto che unicamente dalle informazioni percettive riguardo alla distanza dall’osservatore; - gli oggetti sembrano più grandi quando sia ha la capacità ad agire in modo efficace rispetto ad essi.

11

12

capitolo 4

ATTENZIONE E PRESTAZIONE INTRODUZIONE  Attenzione: si riferisce in genere alla selettività del processo di elaborazione ed è uno dei processi cognitivi più complessi (è il presupposto di tutte le altre attività psichiche e al suo interno agiscono componenti emotive e motivazionali). Essa può essere: a) attiva, quando è controllata dall’alto verso il basso (top -down) dalle attese che si propone l’individuo; b) passiva, quando è controllata dal basso verso l’alto (bottom -up) da stimoli esterni. Vi è inoltre distinzione tra: a) attenzione focalizzata o selettiva (che si studia presentando contemporaneamente al soggetto due o più stimoli e chiedendogli di rispondere ad uno solo di essi); b) attenzione distribuita (che si studia presentando almeno due stimoli contemporanei, ma con l’indicazione di considerare e rispondere a tutti gli stimoli). Limiti degli studi sull’attenzione: - la maggior parte di essi ha analizzato il fenomeno attentivo unicamente in relazione all’ambiente esterno, nonostante la funzione attentiva possa essere rivolta a stimoli proveniente si a dall’ambiente esterno che da quello interno (ad es. i progetti per il futuro di un soggetto); - ciò che si osserva nel mondo reale è ampiamente determinato dalle finalità che un soggetto si propone di volta in volta e dal suo stato emotivo, ma in questi studi ciò che i partecipanti osservano è determinato dalle indicazioni che vengono loro date anziché dalle condizioni emotive e motivazionali.

 ATTENZIONE FOCALIZZATA UDITIVA Problema del cocktail party: riguarda la capacità di seguire una sola conversazione mentre molte persone parlano contemporaneamente; sembrerebbe che le informazioni uditive trascurate non vengano, in pratica, elaborate. 1a) Teoria del filtro di Broadbent : - due stimoli o messaggi presentati contemporaneamente accedono in parallelo ad un registro sensoriale; - ad uno dei due stimoli è poi consentito di passare attraverso un  filtro, sulla base delle sue caratteristiche fisiche, mentre l’altro stimolo rimane nel registro per essere elaborato successivamente; - il filtro è necessario per prevenire il sovraccarico, al di là di esso, del meccanismo a capacità limitata che elabora lo stimolo completamente (ad es. in termini di significato). La teoria si adatta bene al risultato secondo cui il messaggio trascurato è scartato dal filtro (e quindi riceve un’elaborazione minima); inoltre il filtro seleziona un input alla volta sulla base delle caratteristiche fisiche più salienti che differenziano i due input. L’idea secondo cui il messaggio trascurato sia scartato sempre in una fase precoce di elaborazione non è esatta; inoltre la somiglianza tra i due messaggi riveste un ruolo fondamentale nella memorizzazione del messaggio non soggetto ad ombreggiamento (cioè ripetuto ad alta voce), perché se i due stimoli sono diversi è spesso possibile elaborare entrambi in modo più completo. La selezione può anche basarsi sul significato dell’informazione, e questo no è congruente con la teoria di Broadbent; è inoltre possibile che qualche significato nel messaggio trascurato venga comunque elaborato nonostante l’assenza di consapevolezza. 2) Teoria dell’attenuazione di Treisman: - è una versione modificata della teoria di Broadbent secondo cui l’analisi dell’informazione trascurata è semplicemente attenuata; - mentre Broadbent aveva ipotizzato un collo di bottiglia in una fase precoce dell’elaborazione, Treisman propone che la sua collocazione sia flessibile (gerarchia di caratteristiche dello stimolo); - il livello soglia per l’elaborazione di tutti gl i stimoli congruenti con le aspettative del soggetto risulta abbassato (questo permette di spiegare il fenomeno dell’ affioramento o breakthrough, che si verifica quando una parola del messaggio trascurato viene ritenuta plausibile nel contesto del messaggio soggetto ad ombreggiamento). 3) Teoria di Deutsch e Deutsch: - vi è l’ipotesi secondo cui tutti gli stimoli in arrivo vengono analizzati completamente, ma un solo input  determina la risposta sulla base della sua importanza e rilevanza nella situazione in a tto; - il collo di bottiglia nel sistema di elaborazione è situato molto più vicino alla risposta rispetto alla teoria dell’attenuazione; - studi basati sugli ERPs non supportano la teoria, perché l’elaborazione degli stimoli cui si presta attenzione risulta maggiore. 13

1b) Teoria di Broadbent modificata: - Broadbent aveva sostenuto l’esistenza di un registro sensoriale, o memoria immedia ta, che conserva per un breve lasso di tempo le informazioni relativamente non elaborate. - Esistono distinti registri sensoriali per la modalità uditiva (memoria ecoica) e quella visiva (memoria iconica); se si potesse rivolgere velocemente l’attenzione alle informazioni nell’appropriato registro sensoriale allora ci sarebbe la possibilità di elaborare completamente gli stimoli trascurati; - secondo Treisman l’elaborazione semantica occasionale degli stimoli trascurati dipende da un filtro difettoso, mentre per Broadbent ciò dipende dal fenomeno dello slittamento, secondo cui l’attenzione viene spostata verso stimoli presumibilmente trascurati così che essi non possono definirsi veramente tali (le evidenze sperimentali confermerebbero l’esistenza dello slittamento). Molte evidenze indicano che vi è una elaborazione ridotta degli stimoli trascurati rispetto a quelli cui si presta attenzione e forniscono pertanto un sostegno alla teoria di Treisman; vi sono tuttavia dei limiti nelle ricerche: - è molto difficile controllare l’insorgenza e la scomparsa degli stimoli uditivi con la stessa precisione usata per gli stimoli visivi; - le tre teorie sono espresse in modo abbastanza vago da rendere difficile l’elaborazione di test definitivi; - la scoperto del punto esatto in cui si verifica la selezione non spiega  perché o come questo si verifica.

 ATTENZIONE FOCALIZZATA VISIVA La visione è la modalità sensoriale più importante ed è più facile controllare i tempi di presentazione degli stimoli visivi; nell’attenzione visiva sono implicati due sistemi principali: a) sistema volontario (endogeno) diretto all’obiettivo; b) sistema involontario (esogeno) guidato dallo stimolo.  Attenzione nascosta: ipotizzata da Posner, avviene quando il riflettore attenzionale si sposta in un diverso punto dello spazio in assenza di movimenti oculari; le evidenze sperimentali hanno portato Posner a ipotizzare l’esistenza di due sistemi diversi: a) sistema endogeno, controllato dalle intenzione e dalle aspettative del soggetto (si attiva in seguito alla presentazione di indizi centrali); b) sistema esogeno, che sposta automaticamente l’attenzione (si attiva in presenza di indizi periferici non importanti). Corbetta e Shulman hanno identificato due sistemi (simili a quelli di Posner) che spesso si influenzano a vicenda ed interagiscono l’uno con l’altro: a) sistema diretto all’obiettivo dall’alto verso il basso (rete dorsale) simile al sistema endogeno, che è influenzato dalle attese, dalle conoscenze e dagli obiettivi correnti; b) sistema guidato dallo stimolo dal basso verso l’alto (rete ventrale) simile al sistema esogeno, che ha una funzione di interruzione del circuito (avviene quando viene presentato uno stimolo inatteso e potenzialmente importante). Evidenze sperimentali di neuroimaging hanno convalidato l’esistenza e la separazione dei due sistemi; altre prove sono derivate dallo studio di pazienti con neglect  persistente, i quali ignorano o trascurano gli stimoli visivi presentati a sinistra del campo visivo proprio perché hanno una lesione a carico del sistema guidato dello stimolo. Corbetta e colleghi hanno dimostrato inoltre che è molto più probabile che gli stimoli rilevanti per il compito attraggano l’attenzione della rete ventrale rispetto agli stimoli salienti o distintivi. Limiti di questo approccio: - non si sa molto sulle modalità di interazione dei due sistemi visivi e sul loro tempo di attivazione; - i processi attenzionali sono implicati nell’esecuzione di numerosi compiti ed è improbabile che tutti questi processi possano essere chiaramente attribuiti ad uno dei sistemi ipotizzati; - i processi attenzionali sono influenzati da numerose sostanze (adrenalina, dopamina, ecc.), ma non è chiaro come queste sostante influenzino i due sistemi. 1) Attenzione focalizzata visiva come riflettore: l’attenzione è come un riflettore che illumina e rende visibile ogni cosa all’interno di un’area relativamente piccola del campo visivo ma che, al contempo, non consente di vedere ciò che sta al di fuori del riflettore. 2) Attenzione focalizzata visiva come obiettivo zoom: l’attenzione è come una lenta di un obiettivo (obiettivo zoom) che consente di allargare o ridurre l’area coperta dal fascio luminoso a proprio piacimento. 3) Teoria dei riflettori multipli: l’attenzione visiva è più flessibile di quanto ipotizzato dal modello del’obiettivo zoom, poiché si suppone che sia possibile mostrare un’attenzione divisa in cui l’attenzione è diretta a due o più regioni dello spazio non adiacenti ; le evidenze sperimentali danno effettivamente sostegno a questa teoria. 14

Possibilità di selezione secondo la teoria dell’ obiettivo zoom o dei riflettori multipli: 1) prestare attenzione in modo selettivo ad un’area o ad una regione dello spazio (posizione); 2) prestare attenzione ad un oggetto o a più oggetti; 3) prestare attenzione ad un’area dello spazio (posizione) o ad un dato o ggetto. Le evidenze sperimentali convalidano l’idea secondo cui l’attenzione si basa sia sulla  posizione che sull’oggetto; essa è stata dimostrata anche nel caso dell’inibizione di ritorno, intesa come una priorità percettiva ridotta per le informazioni in una regione che di recente ha goduto di una priorità elevata (l’inibizione di ritorno basata sulla posizione si verifica però più rapidamente e ha un’ampiezza maggiore). Stimoli visivi trascurati: sembra ricevano minore elaborazione rispetto a quelli cui si presta attenzione, ma vi sono evidenze (ad es. pazienti affetti da neglect) che vi sia comunque una certa elaborazione semantica. Lavie ha elaborato una teoria basata su due ipotesi di base: 1) la suscettibilità alla distrazione è maggiore quando il compito prevede un carico percettivo ridotto piuttosto che un carico percettivo elevato; 2) la suscettibilità alla distrazione è maggiore quando vi è un carico elevato sulle funzioni esecutive di controllo cognitivo (ad es. la memoria di lavoro). Quasi tutte le evidenze sperimentali convalidano questa teoria; gli studi di neuroimaging hanno fornito ulteriori evidenze dell’importanza del carico percettivo. Gli effetti degli stimoli di disturbo dipendono quindi dal carico percettivo e dal carico sul controllo esecutivo: un carico percettivo elevato riduce l’impatto degli stimoli di disturbo sulla prestazione, mentre un carico elevato di controllo esecutivo ne aumenta l’impatto (tutto dipende dalla natura del carico stesso). DISTURBI DELL’ATTENZIONE VISIVA

Neglect : è una condizione per cui vi è una perdita di consapevolezza degli stimoli presentati sul lato controlaterale alla lesione; nella gran parte dei casi di neglect persistente la lesione cerebrale è a carico dell’emisfero destro (con conseguente mancanza di consapevolezza degli stimoli posti sul lato sinistro del campo visivo). Estinzione: è un fenomeno che si riscontra di frequenti nei pazienti affetti da neglect e implica l’incapacità a individuare uno stimolo visivo sul lato opposto a quello della lesione cerebrale in presenza di un secondo stimolo visivo posto sullo stesso lato della lesione. Bartolomeo e Chokron hanno proposto 2 ipotesi sui pazienti con neglect: - i processi dal basso verso l’alto risultano maggiormente danneggiati rispetto a quelli dall’alto ver so il basso; - il sistema rivolto all’obiettivo è pressoché integro. Le evidenze sperimentali mostrano che i pazienti con neglect spesso elaborano gli stimoli sul lato trascurato del campo visivo abbastanza compiutamente anche se non ne hanno consapevolezza (e vi sono evidenze che anche gli stimoli estinti vengono elaborati); inoltre è stata accertata che la competizione ha un ruolo rilevante nell’estinzione. I pazienti con neglect ed estinzione possono anche raggruppare gli stimoli visivi proveniente da entrambi i lati del campo visivo (ad es. con stimoli integrati). Vi sono evidenze anche per quanto riguarda l’idea per cui il neglect  implica una compromissione dell’orientamento esogeno (elaborazione guidata dallo stimolo) e non con quello endogeno (attenzione diretta all’obiettivo). Risultati importanti sul neglect e l’estinzione: - i pazienti sono in grado di elaborare stimoli visivi trascurati (a volte anche a livello semantico); - i pazienti forniscono evidenze sulle tipologie di elaborazione pre-attenzionale, che può includere il raggruppamento di stimoli visivi; - i pazienti con neglect presentano numerosi deficit a carico dell’orientamento esogeno, ma deficit minori dell’orientamento endogeno; - il prisma (trattamento per la riduzione dei sintomi) induce una maggiore comprensione dei meccanismi che stanno alla base del neglect. Limiti della ricerca sul neglect e l’estinzione: - i sintomi precisi e le regioni della lesione cerebrale variano considerevolmente da paziente a paziente; - si presuppone che il problema dei pazienti sia concentrato solo sul lato controlesionale del campo visivo (ma non è sempre così); - non è stata ancora precisata la natura dei processi attenzionali nella comprensione del neglect e dell’estinzione. Secondo Posner e Petersen ci sono 3 distinte abilità implicate nel controllo dell’attenzione: 1) disengagement (allontanamento) dell’attenzione da un determinato stimolo visivo; 2) shifting (trasferimento) dell’attenzione da uno stimolo bersaglio ad un altro; 3) engaging (concentrazione o impegno) dell’at tenzione su di un nuovo stimolo visivo. 15

Disengagement, shifting e engaging sono 3 funzioni del sistema attenzionale posteriore (simile al sistema guidato dallo stimolo), ma esiste anche un sistema attenzionale anteriore (simile al sistema diretto all’obiettivo) che serve a coordinare i diversi aspetti dell’attenzione visiva (è simile all’esecutivo centrale della memoria di lavoro). Vi sono evidenze sperimentali che provano l’esistenza di queste 3 abilità: 1) disengagement : i pazienti affetti da neglect (con lesione a carico della regione parietale posteriore implicata nel disengagement attenzionale) hanno più difficoltà a distogliere l’attenzione dagli oggetti (ma non necessariamente da un determinato punto dello spazio); 2) shifting: i pazienti con lesioni al collicolo superiore (implicato nello shifting attenzionale) mostrano la completa assenza dell’inibizione di ritorno; 3) engaging: i pazienti con lezioni al nucleo posteriore del talamo (implicato nell’engaging attenzionale) hanno difficoltà a impegnare l’attenzione sugli stimoli presentati nel campo visivo controlesionale.

RICERCA VISIVA 1a) Teoria dell’integrazione delle caratteristiche : elaborata da Treisman, riguarda il ruolo dell’attenzione nella percezione degli oggetti (in riferimento agli studi sulla ricerca visiva , in cui un bersaglio specifico deve essere individuato il più rapidamente possibile in un’immagine visiva). Si basa sulle seguenti ipotesi: - esiste un’importante distinzione tra le caratteristiche degli oggetti (colore, dimensione, orientamento) e gli oggetti stessi; - si verifica inizialmente una rapida elaborazione in parallelo delle caratteristiche visive degli oggetti presenti nell’ambiente (questa fase non dipende dall’attenzione); - si verifica un secondo processo, in serie , nel quale le caratteristiche visive vengono combinate per formare gli oggetti; - il processo in serie è più lento dell’iniziale processo in parallelo; - le caratteristiche visive possono essere combinate focalizzando l’attenzione selettiva sulla posizione degli oggetti; - la combinazione delle caratteristiche visive può essere influenzata da conoscenze già immagazzinate; - il assenza di attenzione selettiva o di conoscenze pertinenti già immagazzinate, le caratteristiche visive saranno combinate in modo casuale (unioni illusorie). Treisman ha proposto una versione più complessa della teoria in cui vi sono 4 tipi di attenzione selettiva: - selezione di posizione; - selezione per caratteristiche ; - selezione delle  posizioni definite dall’oggetto ; - selezione che ha luogo in una fase tardiva dell’elaborazione e che determina la categoria di oggetto . 1b) Teoria della ricerca guidata: elaborata da Wolfe, è un perfezionamento della teoria dell’integrazione delle caratteristiche, ma afferma che la ricerca visiva implica inizialmente un’efficace elaborazione basata sulle caratteristiche, seguita da processi di ricerca non altrettanto efficaci (a differenza di Treisman che sostiene l’elaborazione iniziale in parallelo a cui segue quella in serie); l’iniziale elaborazione delle caratteristiche fondamentali dà quindi luogo ad una mappa di attivazione, in cui ciascuno degli stimoli presentati possiede un proprio livello di attivazione. Limiti della teoria dell’integrazione delle caratteristiche: - i risultati delle ricerche non attestano l’esistenza di un’elaborazione parallela seguita da una ricerca seriale; - l’individuazione di bersagli costituiti da una combinazione di caratteristiche è più rapida di quanto previsto dalla teoria; - non prende in esame alcuni dei fattori implicati nel processo di individuazione (presenti invece nella teoria della ricerca guidata); - ipotizza che l’effetto del numero degli elementi sulla ricerca visiva dipende soprattutto dalla natura dello stimolo bersaglio (cioè con una solo caratteristica o da un insieme di caratteristiche), ma altri fattori come la natura degli elementi di disturbo (ad es. la loro reciproca somiglianza) svolgono un ruolo importante. 2) Ipotesi dell’integrazione delle decisioni : elaborata da Palmer e colleghi, ritengono che sia implicata una elaborazione parallela sia nella ricerca di stimoli bersaglio con una sola caratteristica che in quelli con un insieme di caratteristiche (a differenza della teoria dell’integrazione delle caratteristiche, per cui vi è variazione considerevole tra i due tipi di ricerca). Evidenze sperimentali indicano che vi è elaborazione parallela per la ricerca di elementi costituiti da uno caratteristica e per quelli costituti da più caratteristiche; inoltre studi con fMRI hanno mostrato come i due tipi di ricerca implicano processi molto simili. Ricerca visiva di bersagli multipli: è possibile determinare se la ricerca visiva è seriale o parallela usando bersagli multipli. Le evidenze sperimentali hanno mostrato che: - alcuni compiti di ricerca visiva implicano una ricerca parallela mentre altri implicano una ricerca seriale; - l’elaborazione seriale è meno frequente e comporta tempi di individuazione più lunghi. 16

EFFETTI CROSS-MODALI Le ricerche generalmente studiano la modalità visiva e quella uditiva in modo isoalto, ma nel mondo reale spesso le persone combinano o integrano le informazioni derivanti da modalità sensoriali diverse nello stesso tempo (attenzione cross-modale) per facilitare la comprensione. Vi è un’importante distinzione tra: - attenzione spaziale endogena , in cui una persona dirige volontariamente la propria attenzione visiva verso un preciso punto dello spazio; - attenzione spaziale esogena , in cui una persona dirige in modo involontario l’attenzione visiva verso un determinato punto dello spazio in base ad alcune caratteristiche dello stimolo. Gli effetti cross-modali si verificano quando il dirigere l’attenzione visiva verso un dato punto attira anche l’attenzione uditiva e/o tattile verso lo stesso punto (o viceversa). Evidenze sperimentali: - nel caso del ventriloqui accade che l’elaborazione all’interno della corteccia uditiva corrisponda alla fonte visiva apparente del suono (questo perché la localizzazione degli eventi ambientali è in genere indicata in modo più preciso dalle informazioni visive e non da quelle uditive); - in riferimento all’attenzione spaziale endogena, studi che coinvolgono ERPs hanno dimostrato che l’allocazione dell’attenzione uditiva influenza anche l’allocazione dell’attenzione visiva; - in riferimento all’attenzione spaziale esogena, studi hanno dimostrato che l’attenzione uditiva involontaria influenza l’allocazione dell’attenzione visiva e viceversa (vi è quindi una forte interdipendenza tra i processi attenzionali delle diverse modalità sensoriali); - la neuroscienza cognitiva ha dimostrato che gli effetti cross-modali dipendono in parte da neuroni multimodali che rispondono agli stimoli in varie modalità; inoltre neuroni che rispondono a stimoli visivi o uditivi sono spesso molto vicini tra loro in numerose aree del cervello ( interazione multi-sensoriale ).

 ATTENZIONE DISTRIBUITA Molte ricerche hanno utilizzato l’approccio del doppio compito per valutare l’abilità ad eseguire due compiti simultaneamente (generalmente la prestazione in uno o entrambi i compiti peggiora); i fattori che influenzano la prestazione nel doppio compito sono: - somiglianza del compito (nella modalità dello stimolo o nelle risposte richieste); -  pratica (può migliorare significativamente la capacità delle persone ad eseguire un doppio compito); - difficoltà del compito (il cui effetto può essere spesso oscurato dagli effetti della somiglianza di compito). 1) Teorie della capacità centrale: si ipotizza che una capacità centrale a risorse limitate (ad es. esecutivo centrale) possa essere usata in modo flessibile in varie attività ; la qualità dell’esecuzione contemporanea di due compiti dipende perciò dalle richieste che ciascun compito pone a queste risorse (se sono insufficienti allora si verifica una compromissione della prestazione). Limiti della teoria: - vi è il rischio di circolarità, poiché quella che viene indicata come spiegazione non è altro che una descrizione dei risultati di per sé evidenti; - le evidenze a favore dell’esistenza di una capacità centrale non ne chiariscono tuttavia la natura; - gli effetti dell’interferenza possono essere causati dalla selezione delle risposte, dalla somiglianza del compito o dalle richieste del compito alla capacità centrale; - è sbagliato presupporre implicitamente che tutti i partecipanti utilizzino le stesse strategie in condizione di doppio compito (infatti le strategie possono essere diverse). 2) Teorie delle risorse multiple: teorici come Wickens ritengono che il sistema di elaborazione sia costituito da meccanismi indipendenti di elaborazione, o risorse multiple; questo permette di spiegare perché il grado di somiglianza tra due compiti sia così importante (infatti compiti diversi coinvolgono risorse diverse e possono non interferire tra di loro, a differenza dei compiti simili). Secondo Wickens ci sono 3 fasi successive di elaborazione: 1) codifica, cioè l’elaborazione percettiva degli stimoli che utilizza in genere la modalità visiva o uditiva; 2) elaborazione centrale , che implica codici spaziali o verbali; 3) risposta, che comporta risposte manuali o vocali. Le ipotesi teoriche fondamentali di Wickens sono 2: - ci sono diversi insiemi di risorse basate sulle distinzioni tra fasi di elaborazione, codici e risposte; - se due compiti impiegano risorse diverse, le persone dovrebbero essere in grado di eseguire entrambi i compiti senza alcuna difficoltà. Evidenze sperimentali mostrano che l’idea secondo cui si attivano aree cerebrali distinti nel caso di compiti diversi tra di loro è corretta (per ogni risorsa dovrebbe quindi avere u na manifestazione identificabile nel cervello). Limiti della teoria: - si concentra solo sugli input o stimoli visivi ed uditivi, trascurando le altre modalità sensoriali; - il modello suppone in modo implicito che le persone usino una stessa strategia nel doppio compito; - vi è spesso una certa compromissione delle prestazioni anche quando i due compiti hanno modalità diverse. 17

3) Teorie della sintesi: è un approccio basato su una sintesi tra l’ipotesi della capacità centrale e quella relativa all’esistenza di moduli (risorse multiple); esisterebbe quindi una struttura gerarchica di processi in cui l’elaboratore centrale (o esecutivo centrale) si trova in cima, mentre al di sotto vi sono i meccanismi specifici di elaborazione che operano in modo relativamente indipendente l’uno dall’altro. La neuroscienze cognitiva ha dimostrato che esistono sostanziali differenze tra l’esecuzione di doppi compiti e compiti singoli: - vi è un limite massimo di risorse di elaborazione che possono essere allocate a due compiti anche quando essi sembrano implicare processi diversi (ad es. nel fenomeno della subadditività, per cui l’attivazione cerebrale nei doppi compiti è inferiore all’attività complessiva nei due compiti eseguiti separatamente); - l’esecuzione di doppi compiti spesso implica richieste di elaborazione (ad es. coordinazione del compito) che non sono presenti nell’esecuzione di compiti singoli (ciò è dimostrato dal fatto che ci sono aree prefrontali che si attivano in condizione di doppio compito ma non in quelle di compito singolo). Limiti dell’approccio: - non è chiaro perché le aree prefrontali non sempre rivestono un ruolo significativo nell’esecuzione di doppi compiti; - le aree prefrontali sono attivate in molti processi cognitivi complessi, ed è difficile identificare i processi specifici responsabili dell’attivazione in una qualsiasi associazione di compiti; - non è ancora chiaro perché si verifica la subadditività. Blink attenzionale: nell’esecuzione di compiti in cui vengono presentati rapidamente degli stimoli visivi, è una capacità ridotta a percepire e rispondere al secondo bersaglio visivo quando esso viene presentato subito dopo il primo. Sono date due spiegazioni: - capacità limitata (le persone dedicano la maggior parte delle risorse attenzionali disponibili al primo bersaglio e non dispongono di risorse sufficienti per il secondo); - soppressione (quando si osserva il primo bersaglio e viene presentato un elemento di disturbo, non vengono elaborati ulteriori input al fine di escludere le informazioni irrilevanti dalla consapevolezza, ma questo effetto di soppressione può essere applicato erroneamente al secondo bersaglio causando quindi il blink attenzionale). La spiegazione della soppressione è risultata solo parzialmente corretta in base alle evidenze sperimentali; la causa del blink attenzionale sta piuttosto nella difficoltà ad impegnare l’attenzione due volte in un breve periodo di tempo per due eventi bersaglio discreti dal punto di vista temporale (questo spiega anche la difficoltà che in genere si incontra nell’impegnare l’attenzione in due compiti che vengono eseguiti contemporaneamente).

ELABORAZIONE AUTOMATICA La pratica migliora drasticamente la prestazione nei doppi compiti perché alcune attività di elaborazione cessano di porre richieste sulla capacità centrale (o attenzione) diventando quindi automatiche ; nell’approccio tradizionale (di Shiffrin e Schneider) è tracciata una distinzione tra: a) processi controllati, che hanno capacità limitata, operano lentamente e in serie , richiedono attenzione e possono essere usati in modo flessibile in differenti circostanze; b) processi automatici, che non hanno capacità limitata, operano rapidamente e in parallelo , non richiedono attenzione e sono molto difficili da modificare una volta appresi. Evidenze sperimentali hanno mostrato che i processi automatici si sviluppano con la  pratica; è stato inoltre dimostrato che essi mancano di flessibilità , e che questo può compromettere la prestazione quando si verifica un cambiamento delle circostanze che definiscono una data situazione. Limiti dell’approccio tradizionale: - il presupposto teorico che i processi automatici operino in parallelo e non richiedano attenzione non è congruente con i risultati ottenuti dai test sperimentali; - l’effetto Stroop (in cui una parola indica un colore ed è stampata con un colore diverso) secondo l’approccio tradizionale non dovrebbe coinvolgere processi attenzionali, ma questo è stato smentito da evidenze sperimentali; - l’approccio tradizionale è più descrittivo che esplicativo (affermare che alcuni processi diventano automatici con la pratica non dice molto su quello che accade). 1) Teoria di Moors e De Houwer: l’automaticità è definita in base a 4 caratteristiche principali che la distinguono dalla non -automaticità: - non collegata all’obiettivo ; - inconscia; - efficace; - veloce. Queste 4 caratteristiche non si riscontrano sempre insieme; non vi è una netta linea divisoria tra automaticità e nonautomaticità (le caratteristiche sono graduali). La neuroscienza cognitiva ha anche fornito prove del fatto che la corteccia prefrontale e la memoria di lavoro hanno un ruolo significativo nei processi non-automatici. 18

2) Teoria di Logan (instance theory): cerca di spiegare, a differenza delle altre teorie, il meccanismo di apprendimento che produce automaticità: - tutto ciò cui si presta attenzione è codificato nella memoria ( codifica obbligatoria ); - il recupero della memoria a lungo termine è una conseguenza necessaria dell’attenzione, in quanto tutto ciò cui si presta attenzione agisce come indizio per il recupero ( recupero obbligatorio ); - ogni incontro con uno stimolo viene codificato, immagazzinato e recuperato separatamente, anche se lo stimolo è stato incontrato prima ( rappresentazione dei casi ); - l’aumento delle informazioni immagazzinate nella memoria a lungo termine quando si incontra uno stimolo molte volte produce automaticità; - la prestazione è automatica quando si basa sul recupero immediato e diretto di soluzioni pregresse contenute in memoria (automaticità significa quindi recupero delle informazioni in memoria); - in assenza di pratica, il compito di rispondere adeguatamente ad uno stimolo richiede sforzo cognitivo ed applicazione di regole (implica recupero non immediato). La teoria spiega quindi la rapidità dei processi automatici e il motivo per cui non sono consapevoli (tra la presentazione di uno stimolo e il recupero della risposta appropriata non ha luogo alcun processo significativo). Le prestazioni del non-esperto sono quindi limitate da una mancanza di conoscenza piuttosto che da una mancanza di risorse; tuttavia, l’acquisizione di conoscenze significa che è necessario un minor numero di risorse attenzionali o di altre risorse per eseguire un compito. Periodo psicologico refrattario (PRP): è l’effetto che si verifica quando il secondo stimolo viene presentato in rapida successione rispetto al primo e avviene un considerevole rallentamento della velocità di risposta a questo secondo stimolo. ⇩ Teoria del collo di bottiglia: vi è un collo di bottiglia nel sistema di elaborazione che rende impossibile prendere contemporaneamente due decisioni in merito alle risposte esatte da dare a due stimoli diversi; la scelta della risposta si verifica inevitabilmente in modo seriale, creando così un collo di bottig lia nell’elaborazione anche in seguito a pratica prolungata. Le evidenze sperimentali suggeriscono che: - l’elaborazione percettiva può verificarsi in parallelo, ma la successiva selezione delle risposte deve aver luogo in serie; - il periodo psicologico refrattario non è in genere molto ampio, il che suggerisce che la maggior parte dei processi (ad es. i processi sensoriali precoci) non si realizza in serie.

19

20

capitolo 5

APPRENDIMENTO, MEMORIA E OBLIO INTRODUZIONE Le teorie della memoria prendono in considerazione la sua struttura (il modo in cui è organizzata) che i suoi processi (le attività che si verificano al suo interno). Apprendimento e memoria implicano una serie di stadi distinti: - codifica; - immagazzinamento; - recupero.

STRUTTURA DELLA MEMORIA 1) Modello multi-magazzino: descrive l’architettura fondamentale del sistema della memoria in termini di numero di magazzini, proponendone tre tipi distinti: - magazzini sensoriali, che sono specifici per ciascuna modalità sensoriale e conservano le informazioni per un tempo molto breve; - magazzino di memoria a breve termine, di capacità piuttosto limitata; - magazzino di memoria a lungo termine, di capacità praticamente illimitata che può conservare le informazioni per periodi di tempo estremamente lunghi. Essi differiscono tra di loro per: - durata temporale; - capacità di immagazzinamento; - meccanismi dell’oblio; - effetti delle lesioni cerebrali. 1a) Magazzini sensoriali: a) magazzino iconico, cioè il magazzino visivo, utile; b) magazzino ecoico, cioè il magazzino uditivo temporaneo. 1b) Magazzino a breve termine: la sua capacità è molto limitata (4 chunk); un effetto che riguarda la memoria a breve termine è l’effetto recency , che capita quando, in un compito di rievocazione libera, si ricordano meglio gli ultimi elementi di una lista rispetto a quelli intermedi. Inoltre: - le informazioni non reiterate vengono annullate con rapidità nella memoria a breve termine attraverso il decadimento; - i meccanismi di oblio sono diversi rispetto a quelli della memoria a lungo termine. 1c) Magazzino a lungo termine: è stata dimostrata la sua distinzione dalla memoria a breve termine tramite studi sulle doppie dissociazioni: - i pazienti affetti da amnesia presentano in genere una scarsa memoria a lungo termine ma una memoria a breve termine normale; - alcuni pazienti cerebrolesi presentano una memoria a breve termine ridotta ma una memoria a lungo termine intatta. Limiti della teoria: - è troppo semplicistica quando afferma che il magazzino a breve termine e quello a lungo termine operano in modo singolo e uniforme (che sono cioè unitari), dato che lo studio di pazienti amnesici ha dimostrato che esistono più sistemi separati di memoria a lungo termine; - l’ipotesi secondo cui il magazzino a breve termine operi come una via di passaggio tra i magazzini sensoriali e la memoria a lungo termine non è corretta (le informazione elaborate nel magazzino a breve termine sono già entrate in contatto con le informazioni immagazzinate nella memoria a lungo termine); - ipotizza che le informazioni nella memoria a breve termine rappresentino il “contenuto della consapevolezza” e che quindi solo le informazioni elaborate in modo consapevole possono ess ere immagazzinate nella memoria a lungo termine, ma sembra esistere apprendimento senza consapevolezza di ciò che è stato appreso (apprendimento implicito ); - l’ipotesi principale afferma che il magazzino a lungo termine conserva un’informazione se è reitera ta o ripetuta nel magazzino a breve termine, ma il ruolo della reiterazione nella vita quotidiana è decisamente meno importante di quanto postulato dalla teoria; - si concentra in modo eccessivo sugli aspetti strutturali della memoria piuttosto che sui processi della memoria stessa.

21

2) Modello a magazzino singolo: ipotizza che la memoria a breve termine sia costituita da attivazioni temporanee di rappresentazioni della memoria a lungo termine o da rappresentazioni di elementi percepiti di recente; tali attivazioni spesso si verificano quando l’attenzione è concentrata su determinate rappresentazioni. Evidenze sperimentali mostrano come sia corretto ritenere che l’attivazione della memoria a lu ngo termine svolga un ruolo importante nella memoria a breve termine; inoltre si è dimostrato come i pazienti amnesici possano mostrare un deficit nella memoria a breve termine in determina circostante (ad es. quando è richiesta memoria relazionale, cioè quando è richiesto di formulare nuove relazioni). Limiti della teoria: - è eccessivamente semplicistico sostenere che la memoria a breve termina sia attivata solo dalla memoria a lungo termine (esistono casi in cui ciò non accade); - non vi sono evidenze convincenti a convalida del l’ipotesi che i pazienti amnesici mostrino deficit di prestazione nei compiti di memoria relazione che dipendono principalmente dalla memoria a breve termine (sembra che essi abbiano una prestazione ridotta solo nei compiti di “memoria a breve termine” che dipendono in gran parte dalla memoria a lungo termine, e che i processi di memoria a breve termine siano intatti); - non vi sono altre evidenze che sostengano in modo decisivo l’approccio a magazzino singolo.

MEMORIA DI LAVORO (WORKING MEMORY) Baddeley e Hitch hanno sostituito il concetto di magazzino a breve termine con quello di memoria di lavoro (working memory); essa è costituta da 4 parti: 1) esecutivo centrale, simile all’attenzione; 2) circuito fonologico, che conserva le informazioni in forma fonologica; 3) taccuino visuo-spaziale, specializzato nella codifica spaziale e/o visiva; 4) buffer episodico, un sistema di immagazzinamento temporaneo che può conservare ed integrare le informazioni del circuito fonologico, del taccuino visuo-spaziale e dalla memoria a lu ngo termine. La componente più importante è l’esecutivo centrale, il quale ha capacità limitata, è simile all’attenzione e gestisce i compiti più impegnativi dal punto di vista cognitivo; ciascuna componente del sistema della memoria di lavoro ha capacità limitata ed è relativamente indipendente dalle altre e ne conseguono 2 ipotesi: - se due compiti utilizzano la stessa componente, non possono essere eseguiti contemporaneamente in modo soddisfacente; - se due compiti utilizzano componenti diverse, dovrebbe essere possibile eseguirli altrettanto bene sia insieme che separatamente. 2) Circuito fonologico: in base ad alcune evidenze sperimentali sembra che il circuito fonologico sia costituto da: - un magazzino fonologico passivo , direttamene coinvolto nella percezione del linguaggio; - un processo articolatorio connesso alla produzione del linguaggio che dà accesso al magazzino fonologico. Le parole presentate uditivamente vengono quindi elaborate in modo differente rispetto a quelle presentate visivamente (la presentazione uditiva produce un accesso diretto al magazzino fonologico, mentre la presentazione visiva permette solo un accesso indiretto al magazzino fonologico attraverso l’articolazione subvocale). La funzione del circuito fonologico non è quella di ricordare parole familiari, ma di apprenderne di nuove; tuttavia è anche possibile che disporre di un lessico ricco aumenti la capacità effettiva del circuito fonologico. 3) Taccuino visuo-spaziale: viene usato nella memorizzazione temporanea e nella gestione delle informazioni spaziali e visive; secondo Logie può essere suddiviso in due componenti: - deposito visivo (cache), che immagazzina le informazioni relative alla forma e al colore; - copista interno (scribe), che gestisce le informazioni spaziali e di movimento, recuperando le informazioni dal deposito visivo e trasferendole all’esecutivo centrale. Evidenze sperimentali hanno dimostrato che il sistema visivo è distinto da quello spaziale, in quanto vengono attivate regioni cerebrali distinte (emisfero destro per i compiti spaziali, emisfero sinistro per quelli visivi); altre evidenze provengono dallo studio di pazienti cerebrolesi che presentano lesioni a carico della componente visiva ma non di quella spaziale. 1) Esecutivo centrale: simile ad un sistema attenzionale, organizza e coordina il funzionamento del sistema cognitivo; sembra sia localizzato nella corteccia prefrontale dorsolaterale, ma non è del tutto vero (i pazienti con sindrome disesecutiva , per cui hanno difficoltà nella pianificazione, nell’organizzazione e nel monitoraggio del comportamento, non presentano sempre lesioni a carico dei lobi frontali). Miyake ha identificato 3 processi esecutivi o funzioni: - funzione di (1) inibizione , che si riferisce alla capacità di inibire deliberatamente risposte dominanti, automatiche quando necessario; - funzione di (2) trasferimento , che si riferisce allo spostarsi tra vari compiti, operazioni, o set mentali (viene usata quando si trasferisce l’attenzione da un compito ad un altro); - funzione di (3) aggiornamento , che si riferisce all’aggiornamento ed al monitoraggio delle rappresentazioni della memoria di lavoro (viene usata quando si aggiornano le informazioni che è necessario ricordare). 22

Evidenze sperimentali dimostrano l’esistenza di queste funzioni (ogni processo è infatti associato all’attivazione di una regione diversa della corteccia prefrontale); è comunque probabile che esista anche una quarta funzione dedicata specificatamente alla coordinazione e all’elaborazione dei (4) doppi compiti . Stuss e Alexander hanno messo in dubbio il concetto di sindrome disesecutiva perché implica la che la lesione cerebrale ai lobi frontali danneggia in genere tutte le funzioni dell’esecutivo centrale; questi pazienti presentano una sindrome disesecutiva globale, ma vi sono 3 processi esecutivi che implicano parti di verse dei lobi frontali: - definizione del compito , la capacità di stabilire una relazione stimolo-risposta (implica la pianificazione); - monitoraggio, il processo di controllo del compito nel tempo per un controllo di qualità; - energizzazione, il processo di inizio e di conservazione delle risposte (implica concentrazione prolungata). Questi processi sono molto generali in quanto vengono usati in un’enorme varietà di compiti; inoltre non sono veramente indipendenti perché possono essere usati simultaneamente quando si affronta un compito complesso. Evidenze sperimentali hanno dimostrato (studiando pazienti cerebrolesi) che a ciascun processo sono associate diverse regioni della corteccia frontale. La differenza rispetto ai processi individuati da Miyake consiste nel fatto che nei soggetti sani i processi di Stuss e Alexander non emergono chiaramente come processi distinti (ma diventano più chiare quando si considerano pazienti con lesioni frontali molto specifiche). 4) Buffer episodico: in questa componente le informazioni provenienti dal circuito fonologico, dal taccuino visuo-spaziale e dalla memoria a lungo termine possono essere integrate ed immagazzinate per brevi periodi di tempo; Baddeley ha aggiunto questa quarta componente al sistema della memoria di lavoro perché le componenti del modello erano troppo separate nel loro funzionamento; questo permette di spiegare le integrazioni di informazioni di diverso tipo (ad es. verbali, visive) in compiti di memoria a breve termine. Evidenze sperimentali dimostrano che c’è una forte correlazione tra buffer episodico ed esecutivo centrale (vi è infatti attivazione dell’area prefrontale in compiti che implicano il buffer episodico); inoltre vi sono degli studi che suggeriscono che il buffer episodico possa funzionare anche indipendentemente dall’esecutivo centrale. a) Vantaggi del sistema di working memory: - si occupa sia dell’elaborazione attiva che dell’immagazzinamento temporaneo di informazioni, e quindi è coinvolto in tutti i compiti cognitivi complessi; - è in grado di spiegare alcuni deficit della memoria a breve termine osservati in pazienti cerebrolesi; - il modello include la reiterazione verbale come processo opzionale all’interno del circuito fonologico (tale ipotesi sembra più realistica rispetto all’enorme importanza attri buita alla reiterazione nel modello multimagazzino). a) Limiti: - è difficile identificare il numero e la natura dei principali processi esecutivi associati all’esecutivo centrale; - sono necessarie ulteriori ricerche sulla relazione tra il buffer episodico e le altre componenti del sistema della memoria di lavoro.

TEORIA DEI LIVELLI DI ELABORAZIONE La qualità del ricordo delle informazioni conservate nella memoria a lungo termine dipende dal modo in cui le elaboriamo durante l’apprendimento; i processi att entivi e percettivi operanti al momento dell’apprendimento determinano il tipo di informazione immagazzinata nella memoria a lungo termine. Secondo Craik e Lockhart  esistono vari livelli di elaborazione , da analisi più superficiali dello stimolo ad analisi profonde o semantiche. I presupposti teorici della teoria sono 2: - il livello o profondità di elaborazione di uno stimolo ha un considerevole effetto sulla sua memorizzabilità; - livelli più profondi di analisi producono tracce mnestiche più elaborate, di maggiore durata e più intense di quanto non facciano livelli superficiali di analisi. Questi teorici non concordano con l’ipotesi formulata da Atkinson e Shiffrin secondo cui la reiterazione accresce in ogni circostanza la memoria a lungo termine; sostengono invece che la reiterazione che implica semplicemente la ripetizione di analisi di analisi precedenti ( reiterazione di mantenimento ) non accresce la memoria a lungo termine. Le evidenze sperimentali convalidano l’ipotesi dei livelli di elaborazione, ma oltre alla profondità bisogna tener conto anche della complessità di elaborazione: la memoria a lungo termine dipende quindi sia dal tipo che dalla complessità di elaborazione. Eysenck ha sostenuto che la memoria a lungo termine è influenzata anche dalla distintività dell’elaborazione: le tracce mnestiche che sono distintive o uniche saranno rievocate con maggior facilità rispetto alle tracce mnestiche simili alle altre. Morris e colleghi hanno anche ipotizzato che l’informazione immagazzinata viene ricordata solo nella misura in cui essa è rilevante per il test di memoria: i risultati sperimentali hanno portato Morris e colleghi a elaborare una teoria di elaborazione appropriata al trasferimento , secondo cui diversi tipi di elaborazione portano chi apprende ad acquisire differenti tipi di informazione su di uno stimolo. I test di memoria sono basati sia sulla memoria esplicita (recupero consapevole o intenzionale) che sulla memoria implicita (che non implica recupero intenzionale): gli effetti dei livelli di elaborazione sono comunque in genere maggiori nella memoria esplicita che nella memoria implicita. 23

a) Vantaggi della teoria: - è corretta l’idea secondo cui i processi che hanno luogo al momento dell’apprendimento hanno un notevole impatto sulla successiva memoria a lungo termine; - la complessità e la distintività del processo di elaborazione sono effettivamente fattori importanti nell’apprendimento e nella memoria. b) Limiti della teoria: - è difficile in generale stabilire l’effettivo livello di elaborazione utilizzato; - è stata sottovalutata notevolmente l’importanza dell’ambiente di recupero per la prestazione di memoria; - anche se la memoria a lungo termine risulta influenzata dalla profondità, dalla complessità e dalla distintività dell’elaborazione, non sono chiari l’importanza relativa di questi fattori e il modo in cui essi sono collegati; - i risultati derivanti da pazienti amnesici non possono essere spiegati in base a tale approccio; - non è stato spiegato dettagliatamente perché l’elaborazione profonda è così efficace, e non è chiaro perché vi sia un effetto dei livelli di elaborazione decisamente minore nella memoria implicita rispetto alla memoria esplicita.

 APPRENDIMENTO IMPLICITO Esiste una modalità di acquisizione di informazioni in assenza di consapevolezza definita apprendimento implicito; è simile alla memoria implicita , ma si differenziano per 3 motivi: - esistono alcune differenze tra apprendimento implicito e memoria implicita; - gli studi sull’apprendimento implicito usano in genere materiali nuovi relativamente complessi, mentre la maggior parte degli studi sulla memoria implicita utilizzano materiali semplici e familiari; - pochi ricercatori hanno preso in considerazione le relazioni tra apprendimento implicito e memoria implicita. L’apprendimento implicito ha 5 caratteristiche: 1) robustezza (i sistemi impliciti sono influenzati relativamente poco dai disturbi che interessano i sistemi espliciti); 2) indipendenza dall’età (l’apprendimento è scarsamente influenzato dall’età o dal livello evolutivo); 3) bassa variabilità (vi sono minori differenze individuali nell’apprendimento e nella memoria implicita che nell’apprendimento e nella memoria esplicita); 4) indipendenza dal QI (la prestazioni nei compiti impliciti non è influenzata dal QI); 5) comunanza di processi (i sistemi impliciti sono comuni alla maggior parte delle specie). 1) Studi sull’apprendimento complesso : dimostrano che le differenze individuali nelle abilità intelle ttive hanno minore effetto sull’apprendimento implicito che sull’apprendimento esplicito (l’intelligenza non è in grado di prevedere la prestazione nel compito di apprendimento implicito). 2) Studi sull’imaging cerebrale : si è ipotizzato che si attivino aree cerebrali diverse a seconda che vi sia un apprendimento implicito o esplicito, in particolar modo è stato associato lo striato all’apprendimento implicito, ma gli studi di neuroimaging hanno dimostrato che non c’è una maggiore attivazione di questa area durante l’apprendimento implicito (ma c’è una maggiore attivazione della corteccia prefrontale e del cingolato anteriore durante l’apprendimento esplicito). 3) Studi sui pazienti cerebrolesi: i pazienti affetti da amnesia dimostrano di avere difficoltà nei test di memoria esplicita, ma spesso hanno una prestazione equivalente a quella dei soggetti sani nei test di memoria implicita (tuttavia le risposte sono molto variabili); i pazienti affetti da morbo di Parkinson invece presentano deficit nell’apprendimento implicito, proprio perché le lesioni cerebrali sono localizzate al livello dello striato (il deficit tuttavia si presenta solo nelle prime fasi della malattia, anche perché questi pazienti presentano generalmente la c ompromissione dell’apprendimento esplicito). a) Risultati: - l’apprendimento implicito è effettivamente distinto dall’apprendimento esplicito; - esistono cerebrali diverse per ciascun apprendimento (all’apprendimento implicito è associata la corteccia prefrontale e il cingolato anteriore, mentre all’apprendimento esplicito è associato lo striato). b) Limiti: - è difficile elaborare test di consapevolezza in grado di individuare tutte le conoscenze rilevanti per il compito di cui le persone hanno consapevolezza; - le aree cerebrali che sono alla base dell’apprendimento implicito e di quello esplicito non sono sempre chiaramente distinte; - è probabile che la misura in cui i partecipanti sono consapevoli di ciò che stanno imparando varia da individuo a individuo e da compito a compito; - l’apprendimento implica quasi sempre aspetti espliciti ed impliciti (a seconda delle situazioni), e l’equilibrio tra questi due tipi di apprendimento varia con il tempo. 24

TEORIE DELL’OBLIO

Quasi tutti gli studi sull’oblio si concentrano sulla memoria esplicita o dichiarativa, che implica il ricordo consapevole di informazioni apprese in precedenza; inoltre evidenze sperimentali dimostrano che l’oblio è più lento nella memoria implicita . 1) Teoria dell’interferenza : ipotizza che la capacità di ricordare ciò che si sta imparando può essere alterata o disturbata da ciò che si ha appreso in precedenza ( interferenza proattiva ) o anche da ciò si apprenderà in futuro ( interferenza retroattiva ); entrambe le tipologie di interferenza sono massime quando due risposte diverse sono associate allo stesso stimolo e minime quando sono implicati due stimoli diversi. Esistono prove a convalida dell’esistenza di entrambe: - interferenza proattiva: è molto utile quando le circostanze cambiano, svolgendo in alcuni casi una funzione altamente adattiva; può essere dovuta a problemi nel recupero della risposta ( discriminabilità) o alla forza della risposta inesatta appresa inizialmente ( bias), ma più frequentemente è dovuta alla seconda possibilità; inoltre evidenze sperimentali dimostrano che le persone usano processi attivi di controllo per ridurre l’interferenza proattiva (gli individui con elevata capacità di memoria di lavoro sono quindi in grado di resistere di più all’interferenza proattiva); - interferenza retroattiva: spiega il motivo per cui un individuo nell’apprendimento di una lingua si dimentica qualche elemento della propria lingua madre; può avere luogo in seguito ad uno sforzo mentale durante l’intervallo di ritenzione o ad un apprendimento di materiale simile a quello di apprendimento originario (la prima causa ha luogo probabilmente più spesso della seconda nella vita quotidiana); inoltre i processi relativamente automatici sono di fondamentale importanza nell’interferenza retroattiva. Limiti della teoria: - l’enfasi è posta sugli effetti dell’interferenza nella memoria dichiarativa o esplicita, mentre mancano informazioni dettagliate sugli effetti dell’interferenza nella memoria implicita; - spiega perché si verifica l’oblio, ma non perché la velocità di oblio diminuisce col tempo; - sono necessarie ulteriori ricerche per comprendere i meccanismi cerebrali implicati nell’interferenza e per capire come ridurla. 2) Teoria della rimozione: Freud sostiene che avvenimenti avvertiti come minacciosi o in grado di generale ansia spesso non riescono ad accedere alla sfera della consapevolezza, e ciò avviene attraverso il fenomeno della rimozione (che consiste nel rifiutare qualcosa tenendolo fuori dalla sfera della consapevolezza). Evidenze sperimentali basate sui falsi ricordi dimostrano che la maggior parte dei pazienti adulti che ammettevano di aver riferito falsi ricordi recuperati avevano terapeuti che suggerivano loro direttamente questi ricordi (è probabile quindi che i ricordi recuperati revocati nell’ambito della terapia siano falsi rispetto a quelli rievocati al di  fuori della terapia). Freud si concentra solo su alcuni elementi dell’ oblio motivato, dato che pone enfasi solo sulla rimozione di ricordi traumatici; al suo posto è stato proposto un approccio molto più ampio sulle funzioni dell’oblio motivato (che svolge un ruolo adattivo, dato che molte informazioni immagazzinate nella memoria a lungo termine sono antiche o irrilevanti per gli obiettivi attuali). Oblio guidato: è un fenomeno che comporta la compromissione della memoria a lungo termine determinata da un’istruzione di dimenticare alcune informazioni presentate per l’apprendimento. Le evidenze sperimentali indicano che non si rileva oblio guidato nella memoria di riconoscimento ma nei processi di rievocazione tramite inibizione del recupero o interferenza. Anderson e colleghi hanno proposto l’ipotesi del deficit esecutivo, secondo cui la capacità a rimuovere i ricordi dipende dalle differenze individuali nella capacità di controllo esecutivo. È stato dimostrato che l’oblio intenzionale implica un processo di controllo esecutivo nella corteccia prefrontale che interrompe l’elaborazione nell’ippocampo (che svolge un ruolo fondamentale nella memoria episodica). Le ricerche sull’oblio guidato hanno dimostrato che: - la rimozione si verifica a causa di deliberati tentativi di controllare la consapevolezza piuttosto che in modo inconscio ed automatico, come suggerito da Freud; - l’oblio si verifica anche nonostante lo sforzo di ricordare, e quindi l’approccio dell’oblio guidato non può essere applicato in generale. Oblio dipendente da suggerimenti: avviene perché non disponiamo di suggerimenti adatti, i quali svolgono un ruolo importante nei casi di rievocazione libera (in cui si verifica interferenza retroattiva). ⇩ Tulving ha sviluppato il concetto di principio della specificità della codifica: ipotizza che la traccia mnestica di un elemento è in genere costituita dall’elemento stesso e dalle informazioni sul contesto, cui consegue che la prestazione di memoria deve essere ottimale quando il contesto al momento del test è uguale al contesto al momento dell’apprendimento; questo principio è simile al concetto di elaborazione appropriata al trasferimento di Morris, secondo cui la memoria a lungo termine è ottimale quando l’elaborazione effettuata al momento del test è molto simile all’elaborazione al momento dell’apprendimento (la differenza consiste che questa seconda idea si concentra più direttamente sui processi implicati). Studi di neuroimaging hanno convalidato l’esistenza di questi due principi. 25

Memoria dipendente dallo stato: è il concetto secondo cui l’oblio dovrebbe essere minore se lo stato d’animo è uguale sia al momento dell’apprendimento che a quello della rievocazione; è una conseguenza dell’importanza del contesto, dato che le informazioni relative allo stato d’animo vengono spesso immagazzinate nelle tracce mnestiche e l’oblio si verifica maggiormente se lo stato d’animo al momento della rievocazione è diverso. Il contesto è importante nel determinare l’oblio, e può essere di vari tipi (anc he linguistico); inoltre gli effetti del contesto sono spesso forti nella rievocazione che nella memoria di riconoscimento. Limiti dell’approccio di Tulving: - può essere applicata direttamente a compiti mnemonici relativamente semplici; - il principio di specificità della codifica si basa sull’ipotesi che il recupero avvenga quasi automaticamente, ma non è sempre così (possono essere implicati anche processi attivi); - vi è pericolo di circolarità, perché si afferma che la memoria dipende dalla sovrapposizione informazionale , ma raramente si dispone di una misura diretta di tale sovrapposizione e si è tentati di dedurne la quantità dal livello della prestazione di memoria (creando così circolarità nel ragionamento); - ciò che importa non è solo la sovrapposizione informazionale tra informazioni in fase di recupero e informazioni immagazzinate, ma anche la misura in cui le prime permettono di discriminare le risposte inesatte da quelle corrette; - Tulving ha ipotizzato che il contesto influisce allo stesso modo sulla rievocazione e sul riconoscimento, ma gli effetti del contesto sono spesso maggiori nella rievocazione piuttosto che nella memoria di riconoscimento. 3) Teoria del consolidamento: fornisce una spiegazione convincente dell’oblio nel tempo. Il consolidamento è un processo che dura molto (forse anni) e fissa le informazioni nella memoria a lungo termine (l’ippocampo dovrebbe svolgere un ruolo centrale nel consolidamento dei ricordi); l’ipotesi fondamentale di questa teoria è che le memorie che si formano di re cente e ancora in fase di consolidamento sono particolarmente soggette a interferenza ed oblio. Il processo di consolidamento implica 2 fasi principali: 1) la prima fase ha luogo nell’arco di ore e si concentra nell’ippocampo; 2) la seconda fase si verifica in un periodo di tempo che oscilla da giorni ad anni ed implica interazioni tra la regione dell’ippocampo, la corteccia entorinale e la neocorteccia (questa seconda fase si applica solo alle memorie episodiche e semantiche). La teoria del consolidamento conferma due antiche leggi sull’oblio: - legge di Jost , secondo la quale la più antica di due memorie che hanno la stessa forza decade più lentamente (secondo la teoria questo accade perché ha subito maggior consolidamento); - legge di Ribot , secondo la quale gli effetti negativi delle lesioni cerebrali sulla memoria sono maggiori sui ricordi di recente formazione che su quelli più antichi (è l’ amnesia retrograda a gradiente temporale , che secondo la teoria riguarda le memorie che si trovano in una fase iniziale di consolidamento e quindi sono più vulnerabili). Numerose evidenze sperimentali convalidano la teoria del consolidamento e le due leggi di Jost e Ribot; tuttavia le evidenze che le memorie di recente formazione siano più suscettibili a interferenza retroattiva sono inconsistenti. Un altro importante punto a favore della teoria è l’effetto provocato dall’alcool sulla memoria: le persone che bevono quantità eccessive di alcoolici a volte soffrono di blackout , una perdita quasi totale di memoria per tutti gli eventi che hanno avuto luogo quando erano vigili sebbene ubriachi; questi blackout probabilmente indicano l’incapacità a consolidare le memoria formatesi durante lo stato di ebbrezza (sembra che l’alcool impedisca la formazione di nuove memorie che interferirebbero con il processo di consolidamento delle memorie formatesi poco prima del consumo di alcoolici). a) Vantaggi della teoria: - spiega perché la velocità di oblio si riduce con il passare del tempo; - prevede in modo efficace che l’amnesia retrograda è maggiore per le memorie formate di recente e che gli effetti dell’interferenza retroattiva sono maggiori poco dopo l’apprendimento; - identifica le aree cerebrali maggiormente associate alle due fasi del consolidamento. b) Limiti della teoria: - non vi sono forti evidenze a convalida del fatto che i processi di consolidamento sono responsabili di tutti gli effetti attribuiti ad essi; - indica in modo generale perché le tracce mnestiche di recente formazione sono particolarmente suscettibili agli effetti dell’interferenza, ma non il risultato più specifico che l’interferenza retroattiva è maggiore quando due risposte diverse sono associate allo stesso stimolo; - l’oblio può implicare numerosi fattori diversi dal consolidamento (ad es. il principio di specificità de lla codifica); - ignora i processi cognitivi che influenzano l’oblio (ad es. l’oblio con interferenza proattiva dipende dalle differenze individuali nella capacità di inibire o rimuovere le informazioni che causano interferenza).

26

capitolo 6

SISTEMI DI MEMORIA A LUNGO TERMINE INTRODUZIONE Sembra non esista un singolo magazzino di memoria a lungo termine, ma numerosi sistemi di memoria, che sono identificabili attraverso 3 criteri: 1) operazioni di inclusione in categorie (ogni sistema di memoria gestisce vari tipi di informazione nell’ambito di una determinata classe o dominio); 2)  proprietà e relazioni (le proprietà di un sistema di memoria includono tipi di informazione che rientrano nel suo dominio, le regole mediante le quali il sistema funziona, i substrati neurali e le funzioni del sistema); 3) dissociazioni convergenti (qualsiasi sistema di memoria deve differire chiaramente in vari modi dagli altri sistemi di memoria).  Amnesia: ci permette di confermare l’esistenza di più sistemi di memoria a lungo termine, dato che questi pazienti presentano problemi a carico di questo sistema (l’acquisizione di nuove conoscenze è in genere gravemente compromessa). La sindrome amnesica presenta le seguenti caratteristiche: - amnesia anterograda (una marcata compromissione della capacità a ricordare nuove informazioni apprese dopo l’esordio dell’amnesia); - amnesia retrograda (difficoltà a ricordare eventi che si sono verificati prima dell’amnesia); - memoria a breve termine relativamente intatta; - di solito, dopo l’esordio dell’amnesia, i pazienti hanno ancora una capacità di apprendimento residua. Lo studio di questi pazienti ha portato alla distinzione tra memoria a breve e lungo termine e ad altre distinzioni nel campo della memoria, tra cui: a) memoria dichiarativa, che implica il ricordo consapevole di eventi e fatti (si riferisce a ricordi che possono essere dichiarati o descritti); b) memoria non dichiarativa, che non implica il ricordo consapevole (si può constatare attraverso l’osservazione dei cambiamenti comportamentali). I pazienti amnesiaci presentano di solito una capacità intatta o quasi a formare memorie non dichiarative; inoltre studi di imaging funzionale hanno confermato che si attivano aree diverse a seconda del tipo di memoria implicata nei test di apprendimento (diverse sia durante il momento della codifica che del recupero). a) La memoria dichiarativa è formata da: 1) memoria episodica, che si riferisce all’immagazzinamento (e al recupero) di specifici eventi o episodi che si sono verificati in un dato luogo e in un dato momento; 2) memoria semantica, che è l’aspetto della memoria umana che corrisponde alle conoscenze generali sugli oggetti, sul significato delle parole, su eventi e persone, senza riferimento ad alcun particolare momento o luogo (si differenzia dalla memoria autobiografica in quanto molte informazioni sono relativamente banali e vengono ricordate solo per un breve periodo di tempo). b) La memoria non dichiarativa è formata da: 1) sistema di rappresentazione percettiva, che è la raccolta di moduli dominio-specifici che opera sulle informazioni percettive in relazione alla forma ed alla struttura di parole e oggetti (riveste molta importanza il  priming di ripetizione , secondo cui l’elaborazione dello stimolo ha luogo più rapidamente e/o più agevolmente alla seconda presentazione e a quelle successive dello stimolo); 2) memoria procedurale, che si riferisce all’apprendimento di abilità motorie e cognitive e che si manifesta in un’ampia gamma di situazioni (ad es. andare in bicicletta) , molto diverso dall’apprendimento specifico associato al priming di ripetizione; 3) altre forme di memoria non dichiarativa, come il condizionamento classico , condizionamento operante , abitazione e sensibilizzazione.

MEMORIA EPISODICA VS. MEMORIA SEMANTICA Le evidenze sperimentali confermano una loro netta distinzione: - nei pazienti con amnesia anterograda vi è scarsa memoria episodica ma una memoria semantica intatta; - esistono casi di doppia dissociazione nei pazienti con amnesia retrograda . Teoria delle tracce multiple: secondo questa teoria ogni volta che viene recuperata una memoria episodica, essa viene nuovamente codificata (ciò causa tracce episodiche multiple di eventi, distribuite ampiamente dal complesso ippocampale). 27

 Aree cerebrali associate ai due tipi di memoria: - memoria episodica : ippocampo; - memoria semantica : neocorteccia (anche se all’inizio le memorie semantiche dipendono dall’ippocampo). Evidenze sperimentali convalidano l’esistenza di aree di attivazione diverse per i due tipi di memoria dichiarativa (ad es. i pazienti con morbo di Alzheimer  presentano lesioni a carico della neocorteccia ed hanno difficoltà con la memoria semantica); tuttavia esistono prove che la memoria episodica e quella semantica siano sistemi che interagiscono tra di loro pure dipendendo da sistemi di memoria diversi e che in genere si combinano nel loro funzionamento (esistono alcune regioni cerebrali associate alla memoria semantica e a quella episodica).

MEMORIA EPISODICA La maggior parte delle memorie episodiche è soggetta a sostanziale e progressivo oblio con il passare del tempo, sebbene esistano delle eccezioni; Bahrick ha usato il termine permastore per far riferimento a memorie stabili a lungo termine, il cui contenuto è costituito principalmente da informazioni apprese in modo soddisfacente. 1) Memoria di riconoscimento: può implicare il ricordo (il processo di riconoscimento di un elemento sulla base del recupero di specifici dettagli contestuali) oppure la  familiarità (il processo di riconoscimento di un elemento sulla base della sua forza mnemonica percepita ma senza recupero di dettagli specifici sull’episodio) . Anche se alcune evidenze sperimentali mostrano che la differenza è basata spesso sulla  forza della memoria (le tracce mnestiche forti causano ricordo, mentre quelle deboli familiarità), esistono convalide dei modelli a doppio processo come il modello di associazione elemento-contesto, il quale ha dimostrato che esistono aree cerebrali diverse nella memoria di riconoscimento: - la corteccia peririnale riceve informazioni su elementi specifici (le informazioni sul “cosa”); - la corteccia paraippocampale riceve informazioni relative al contesto (le informazioni sul “dove”); l’ippocampo riceve informazioni sul “cosa” e sul “dove” e le unisce formando associazioni elemento-contesto che consentono il ricordo. Gli studi di neuroimaging hanno mostrato come il ricordo è associato all’attivazione dell’ippocampo e della corteccia paraippocampale, mentre la familiarità solo alla corteccia peririnale; inoltre studi su pazienti amnesici ha dimostrato che questa distinzione è valida (alcuni presentano infatti prestazioni più scarse nel ricordo e non nella familiarità). 2) Memoria di rievocazione: esiste l’ipotesi secondo cui i processi implicati nella rievocazione libera sono uguali a quelli implicati nella memoria di riconoscimento; infatti la rievocazione libera comporta semplicemente la formazione di associazioni che non sono necessarie per un’efficace memoria di riconoscimento. È possibile trarre 3 conclusioni dagli studi sulla rievocazione libera: - esistono importanti somigliane tra i due tipi di test di memoria (riconoscimento e rievocazione) in quanto si attivano aree cerebrali simili; - la rievocazione libera è associata ad un maggior aumento dell’attività cerebrale in numerose aree al momento della codifica e del recupero rispetto alla memoria di riconoscimento (questo suggerisce il fatto che la rievocazione libera è più difficile); - il fatto che alcune aree cerebrali sono associate ad un’efficace rievocazione libera ma non alla memoria di riconoscimento suggerisce che la prima implica altri processi oltre a quelli implicati nella memoria di riconoscimento. Costruttività della memoria episodica: si riferisce al fatto che la memoria episodica non funziona come un videoregistratore che fornisce informazioni dettagliate e precise sugli eventi passati; più che essere un fenomeno riproduttivo è un fenomeno costruttivo ed è suscettibile di errori (ad es. le memorie distorte dei testimoni oculari). Ci sono 3 motivi per cui la memoria episodica è costruttiva: - produrre una registrazione semi-permanente di tutte le proprie esperienze richiederebbe una quantità incredibile di elaborazione; - in genere si desidera avere accesso all’essenza della proprie esperienze passate, per questo si omettono i dettagli più banali (le memorie sono quindi discriminanti); - forse i processi costruttivi implicati nella memoria episodica vengono usati anche per immaginare il futuro (che è importante per molti motivi, come il pianificare le attività).

MEMORIA SEMANTICA Le conoscenze generali e organizzate sul mondo sono immagazzinate nella memoria semantica ; i concetti organizzati sono rappresentazioni mentali di categorie di oggetti o di elementi. Lo studio della memoria semantica può basarsi su: - le interconnessioni tra i concetti; - l’immagazzinamento di informazioni sui concetti nel cervello. 28

Interconnessioni tra i concetti 1) Modello a rete gerarchica: secondo questa teoria la memoria semantica è organizzata in reti gerarchiche , in cui i concetti principali sono rappresentati come nodi e le proprietà o caratteristiche sono associate a ciascun concetto; il principio di base è di economia cognitiva , in quanto le informazioni relative alle proprietà sono immagazzinate al livello più alto possibile della gerarchia al fine di ridurre al minimo la quantità di informazioni immagazzinate. Le evidenze sperimentali dimostrano che effettivamente il tempo impiegato nella risposta dei test diventa progressivamente maggiore all’aumentare della distanza tra soggetto della frase e proprietà; inoltre il modello sostiene che la memoria semantica è usata in genere in modo efficace inferendo la risposta esatta. Limiti della teoria: - è data troppa enfasi all’idea della distanza gerarchica tra concetto e relativa proprietà, quando invece assume un importante rilievo anche la  familiarità della connessione tra concetto e sua proprietà; - i membri di quasi tutte le categorie variano considerevolmente in termini di tipicità di rappresentatività in relazione alla categoria cui appartengono (vi è l’ effetto tipicità , secondo cui i tempi di verifica sono minori per membri più tipici o più rappresentativi di una categoria rispetto ai membri relativamente atipici) e i membri più tipici di una categoria possiedono un maggior numero di caratteristiche associate a quella categoria; - molti concetti nella memoria semantica non sono chiari e precisi e non appartengono a categorie definite rigidamente. 2) Modello della diffusione dell’attivazione : ritiene che il concetto di gerarchi organizzate è troppo rigido e che bisogna invece pensare alla memo ria semantica come un sistema organizzato in base a relazioni semantiche, o distanza semantica; secondo questa teoria quando una persona vede, sente o pensa ad un concetto, viene attivato il nodo appropriato nella memoria semantica, e questa attivazione poi si diffonde notevolmente ad altri concetti strettamente collegati dal punto di vista semantico e in modo più debole a quelli più distanti dal punto di vista semantico (il modello prevede perciò l’effetto tipicità). Il modello risulta più efficace di quello a rete gerarchia, ma la sua flessibilità lo rende inadatto a formulare previsioni molto precise (ciò rende difficile valutare la sua adeguatezza globale). Organizzazione dei concetti nel cervello È possibile che la conoscenza semantica di concetti e di oggetti sia organizzata in due modi: a) tutte le informazioni che si possiedono su di un dato oggetto o concetto sono immagazzinate in un punto del cervello; b) diversi tipi di informazione (caratteristiche) su di un dato oggetto sono immagazzinate in diversi punto del cervello. 1) Approccio percettivo-funzionale: secondo questa teoria esiste una distinzione importante tra caratteristiche visive o percettive (es. che aspetto ha un oggetto) e caratteristiche  funzionali (es. a cosa serve un oggetto), e la memoria semantica contiene molte più informazioni sulle proprietà percettive che su quelle funzionali degli oggetti; inoltre la conoscenza degli esseri viventi sembra essere più basata sulle informazioni percettive e quella degli oggetti inanimati sulle informazioni funzionali. Evidenze sperimentali basate sullo studio di pazienti cerebrolesi mostrano deficit specifici per categoria , ovvero i pazienti incontrano problemi con specifiche categorie di oggetti; inoltre studi di neuroimaging mostrano come si attivino aree diverse del cervello a seconda che il concetto elaborato richieda informazioni percettive o nonpercettive (sebbene non vi fosse distinzione di attivazione nel caso di oggetti animali e oggetti inanimati). Questo porta a ritenere che è il tipo di caratteristica piuttosto che il dominio dei concetti (ad es. animati-inanimati) è il principale fattore organizzativo della rappresentazione cerebrale delle conoscenze concettuali. 2) Approccio delle proprietà multiple: ritiene che la teoria percettivo-funzionale sia troppo semplicistica e che la definizione di caratteristica funzionale sia molto più ampia: include anche il modo in cui viene manipolato un oggetto oltre al suo impiego. Lo studio di pazienti con aprassia (un disturbo che comporta l’incapacità ad eseguire movimenti corporei volontari) che presentano doppia dissociazione (alcuni hanno una conoscenza intatta del modo di manipolare gli oggetti ma non come impiegarli, e altri la configurazione opposta) confermano il fatto che esiste una distinzione tra conoscenza  funzionale o del per che cosa e conoscenza dell’azione o del come. Le distinzioni tra proprietà percettive e funzionali degli oggetti è quindi troppo semplicistica, e si è proposto un altro modo di classificazione: - caratteristiche funzionali: - comportamenti (che cosa fa un oggetto); - informazioni funzionali (per che cosa viene usato); - proprietà percettive: - visive; - uditive; - tattili; - gustative. 29

Vantaggi della teoria: - è basata sul riconoscimento che la maggior parte dei concetti è costituita da diverse proprietà e che queste proprietà determinano somiglianze e differenze tra essi; - fornisce una spiegazione plausibile delle diverse tipologie di deficit nella conoscenza percettiva osservata nei pazienti cerebrolesi (che hanno problemi a seconda delle proprietà su cui è basata una categoria); - è coerente con gli studi di imaging cerebrale che suggeriscono che diverse proprietà degli oggetti sono immagazzinate in parti diverse del cervello. Vi è un consenso generale sul fatto che gran parte delle conoscenze sugli oggetti e sui concetti è ampiamente distribuita nel cervello: questa conoscenza è modalità-specifica (ad es. visiva o uditiva) e si collega alla percezione, al linguaggio ed all’azione, e probabilmente è immagazzinata in regioni cerebrali che si sovrappongono a quelle preposte alla percezione, all’uso del linguaggio ed all’azione. La memoria semantica contiene anche rappresentazioni amodali relativamente astratte non associate direttamente ad alcuna modalità sensoriale? a) [NO] Teoria della cognizione situata: rifiuta la prospettiva standard secondo cui i simboli amodali rappresentano la conoscenza nella memoria semantica, in quanto la teoria si concentra sui ruoli della simulazione nell’attività cognitiva (che è la ri-emanazione di stati percettivi, motori ed introspettivi acquisiti durante l’esperienza). b) [SI] Teoria del distribuito-più-fulcro: vi è un  fulcro o perno per ciascun concetto o oggetto oltre alle informazioni distribuite modalità-specifiche (ciascun fulcro è una rappresentazione concettuale unificata che sost iene l’attivazione interattiva delle rappresentazioni [distribuite] in tutte le modalità); le funzioni dei fulcri sono: - fornire un modo efficace per integrare le conoscenze su qualsiasi concetto; - rendere più semplice l’individuazione delle somiglianze sema ntiche tra concetti che differiscono notevolmente negli attributi modalità-specifici. Evidenze sperimentali mostrano che le informazioni modalità-specifiche (le informazioni percettive) sono molto importanti nell’elaborazione dei concetti, così come previsto dalla teoria della cognizione situata; tuttavia la teoria non è in grado di spiegare come si formano concetti astratti (come “verità, “libertà”, ecc.) se non affermando che molte delle conoscenze possedute sui concetti astratti sono relativamente concrete. Studi sulla demenza semantica (che implica la perdita delle conoscenze relative ai concetti anche se quasi tutte le funzioni cognitive sono pressoché intatte nelle prime fasi della malattia) hanno dimostrato la validità della teoria distribuito-più-fulcro, dato che la sede cerebrale dei fulcri (le rappresentazioni concettuali amodali) si trova nei lobi temporali anteriori, e sono queste le zone che presentano lesioni nella demenza semantica; inoltre studi basati sulla PET hanno ulteriormente convalidato quest’affermazione. Vantaggi della teoria del distribuito-più-fulcro: - fornisce una spiegazione più completa della memoria semantica rispetto alle teorie precedenti; - le evidenze derivate dai pazienti cerebrolesi indicano che le diverse proprietà degli oggetti sono immagazzinate in diverse aree cerebrali; - lo studio dei pazienti con demenza semantica dimostrano che esistono fulcri relativi ai concetti immagazzinati nei lobi temporali anteriori. Limiti della teoria del distribuito-più-fulcro: - rimane ancora molto da scoprire sulle informazioni contenute nei fulcri relativi ai concetti; - non si sa ancora molto sui processi complessi con cui vengono combinate le informazioni dei fulcri sui concetti con le informazioni distribuite modalità-specifiche.

MEMORIA NON DICHIARATIVA La memoria non dichiarativa non implica il ricordo consapevole, ma si rivela invece attraverso il comportamento; i due tipi principali di memoria non dichiarativa sono: a) l’effetto priming di ripetizione (elaborazione facilitata di stimoli ripetuti); b) la memoria procedurale (apprendimento di abilità). Ci sono numerose differenze tra questi due tipi di memoria non dichiarativa: - il priming spesso si verifica rapidamente, mentre l’apprendimento di abilità è in genere lento e graduale; - vi è la specificità dello stimolo (il priming è legato a stimoli specifici, mentre l’apprendimento di abilità si generalizza a numerosi stimoli); - esistono evidenze sperimentali secondo cui nel priming e nell’apprendimento di abilità sono implicate aree cerebrali diverse. Anche se le evidenze sperimentali mostrano che non esistono correlazioni tra priming e l’apprendimento di abilità, esiste l’ipotesi secondo cui entrambe dipendano da uno stesso meccanismo (è stato scoperto che aree molto simili sono implicate nell’apprendimento di abilità e nel priming, ma altre evidenze non sembrano confermare questa ipotesi). 30

a) Effetto priming di ripetizione: esiste una differenza tra due tipi di priming: - priming percettivo, che si verifica quando la presentazione ripetuta di uno stimolo facilita l’elaborazione delle sue caratteristiche percettive; - priming concettuale, che si verifica quando la presentazione ripetuta di uno stimolo facilita l’elaborazione del suo significato. Lo studio di pazienti amnesici ha mostrato come l’effetto priming di ripetizione implica la memoria non dichiarativa; inoltre numerose evidenze convalidano la distinzione tra i due tipi di priming (tramite doppie dissociazioni). Una prospettiva diffusa indica che i processi implicati nel priming sono basati sulla  fluenza percettiva: la presentazione ripetuta di uno stimolo indica che esso può essere elaborato più efficacemente usando minori risorse (ne consegue che il priming dovrebbe essere associato a livelli ridotti di attività cerebrale). Evidenze sperimentali hanno mostrato che esiste un collegamento causale tra la ripetizione di uno stimolo che causa un effetto di priming e una riduzione dell’attività cerebrale. Si può quindi concludere che tra i due tipi di priming esistono: - somiglianze, in quanto entrambi implicano la memoria non dichiarativa; - differenze, in quanto sono state dimostrate doppie dissociazioni in m erito Inoltre si può concludere che il priming di ripetizione è associato ad una ridotta attivazione cerebrale e che le persone quindi diventano più efficienti nell’elaborazione di stimoli ripetuti. b) Memoria procedurale (apprendimento di abilità): l’apprendimento di abilità si riferisce al graduale miglioramento della prestazione in seguito alla pratica che si generalizza ad una serie di stimoli nell’ambito di un dominio di elaborazione. Esistono numerosi tipi di apprendimento di abilità, e le ricerche sui pazienti amnesiaci hanno dimostrato che esse dipendono dalla memoria non dichiarativa: infatti questi soggetti presentano un apprendimento di abilità fondamentalmente intatto ma una grave compromissione della memoria dichiarativa. Ciò convalida sicuramente l’idea di una netta distinzione tra memoria dichiarativa e memoria procedurale, ma altre evidenze sperimentali mostrano che possono esistere delle interazioni tra i due tipi di memoria. L’AMNESIA

Alcuni studi su soggetti sani e soggetti amnesici ha portato all’idea che la distinzione tra memoria dichiarativa e memoria non dichiarata sia limitata: - secondo l’approccio tradizionale, i pazienti amnesici dovrebbero presentare una prestazione intatta nei compiti di memoria non dichiarativa ed una prestazione scarsa nei compiti di memoria dichiarativa; - secondo l’ipotesi associativa, la caratteristica critica che distingue i compiti nei quali la prestazione è scarsa da quelli in cui è soddisfacente in caso di amnesia dipende dall’eventualità che il compito richieda o meno la formazione di un’associazione (o legame) tra i due concetti; inoltre questa ipo tesi considera l’ippocampo un elemento fondamentale nel processo di associazione, e i pazienti amnesici in genere presentano un’estesa lezione proprio a carico dell’ippocampo. Le evidenze sperimentali mostrano che l’ipotesi associativa è corretta: alcuni pazienti amnesiaci infatti sono in grado di eseguire compiti di memoria dichiarativa in modo soddisfacente a condizione che non sia richiesta associazione. Dal momento però che i compiti di memoria dichiarativa richiedono la formazioni di associazioni, al contrario dei compiti di memoria non dichiarativa, è sp esso difficile decidere quale prospettiva sia preferibile. Risultati a favore dell’ipotesi associativa: - esistono studi che dimostrano che i pazienti amnesici talvolta non mostrano una memoria implicita/non dichiarativa quando è necessaria l’associazione delle informazioni (ad es. stimolo + contesto); - si è dimostrato che i pazienti amnesici talvolta presentano una memoria esplicita/dichiarativa fondamentalmente intatta quando non è necessaria l’associaz ione delle informazioni.

31

32

capitolo 7

MEMORIA QUOTIDIANA INTRODUZIONE Esistono delle differenze tra lo studio della memoria tradizione e quello della memoria quotidiana (intesa come la memoria collocata nel mondo reale): a) la ricerca sulla memoria tradizionale si basa sulla metafora del magazzino, in base alla quale elementi di informazioni vengono immagazzinati nella memoria e ciò che interessa è il numero di elementi accessibili al recupero; b) la ricerca sulla memoria quotidiana si basa sulla metafora della corrispondenza, in base alla quale ciò che è importante è la corrispondenza tra il resoconto di un individuo e l’evento reale (è importante ricordare in questo caso gli elementi fondamentali dell’informazione, il contenuto diventa l’elemento più importante). Ci sono delle differenze importanti tra i due tipi di memoria: - le memorie quotidiane riguardano spesso eventi accaduti molto tempo fa e sono più che altro ricordi di ricordi (al contrario dei partecipanti a studi di laboratorio che di solito ricordano le informazioni presentate poco prima); - l’apprendimento originario in quasi tutte le ricerche sulla memoria quotidiana è incidentale (non deliberato) e le persone apprendono informazioni relative ai propri obiettivi o interessi (a differenza delle ricerche sulla memoria tradizionale in cui l’apprendimento è intenzionale e determinato dalle istruzioni che vengono fornite); - la ricerca sulla memoria quotidiana è in genere basata sul concetto che il ricordare è una forma di azione che ha uno scopo preciso (mentre i partecipanti agli studi sulla memoria tradizionale sono generalmente motivati ad essere il più precisi possibile nella propria p restazione mnemonica). Secondo Neisser, questo approccio implica 3 ipotesi sulla memoria quotidiana: 1) ha uno scopo preciso; 2) ha una qualità personale , ovvero è influenzata dalla personalità e da altre caratteristiche dell’individuo; 3) è influenzata dalle necessità della situazione (ad es. il desiderio di fare colpo sul pubblico). La sostanza della tesi di Neisser è che quello che si ricorda nella vita di tutti i giorni è determinato dai propri obiettivi personali, mentre ciò che si ricorda nella ricerca sulla memoria tradizionale è per lo più determinato dalle richieste di precisione dello sperimentatore (ma in genere la precisione non è il nostro obiettivo principale). Gli obiettivi che si hanno nel ricordare possono alterare la propria memoria a lungo termine successiva anche dopo che questi obiettivi sono cambiati.

MEMORIA AUTOBIOGRAFICA I ricordi autobiografici sono di grande interesse perché si riferiscono agli obiettivi principali della propria vita, alle emozioni e ai valori personali; esiste comunque una differenza tra: a) memoria autobiografica, che è la memoria per gli avvenimenti della propria vita; b) memoria episodica, che riguarda esperienze personali o eventi che hanno avuto luogo in un dato momenti e in un dato luogo. Nonostante si riferiscano entrambe ad eventi vissuti personalmente (e quindi vi sia spesso sovrapposizione) esistono alcune differenze: - la memoria autobiografica riguarda avvenimenti che hanno un significato personale, mentre quella episodica si riferisce spesso ad eventi banali; - la memoria autobiografica abbraccia anni o decenni precedenti, mentre quella episodica (almeno per gli avvenimenti in laboratorio) abbraccia solo minuti o ore; - la memoria autobiografica riguarda in genere ricordi complessi scelti tra un’enorme raccolta di esperienze personali, mentre quella episodica ha uno scopo molto più limitato. Studi di imaging cerebrale hanno dimostrato che esistono alcune chiare differenze negli schemi di attivazione della corteccia prefrontale tra le due forme di memoria; inoltre esiste una differenza di attivazione anche con la memoria semantica, benché tutte e tre attivassero aree cerebrali comuni (questo convalida l’idea secondo cui c’è distinzione tra queste 3 forme di memoria dichiarativa). Ricordi flashbulb o fotografici: sono ricordi autobiografici molto chiari e duraturi di eventi pubblici importanti, drammatici e sorprendenti che attivano un particolare meccanismo neurale che “stampa” i dettagli di tali eventi in modo permanente nel sistema di memoria. Spesso includono informazioni relative all’informato re, al luogo, all’evento, allo stato emotivo del soggetto, di quello degli altri e delle conseguenze dell’evento per il soggetto. 33

Ci sono 2 tesi relative ai ricordi flashbulb: 1) Brown e Kulik affermano che questi ricordi sono molto diversi da altri ricordi per longevità, precisione e per il fatto che si basano su di un particolare meccanismo neurale; 2) Finkenauer e colleghi affermano invece che questi ricordi dipendono da vari fattori, comprese le conoscenze pregresse, la rilevanza personale, la sorpresa, la r eiterazione manifesta, la novità dell’evento e l’atteggiamento emotivo del soggetto nei confronti della persona o delle persone coinvolte nell’evento, e che questi fattori possono essere implicati nella formazione di qualsiasi nuovo ricordo (non esiste quindi alcun meccanismo neurale speciale). Le evidenze sperimentali mostrano che i ricordo flashbulb possono essere imprecisi (a dispetto della tesi secondo cui dovrebbero presentare assenza di cambiamento nel tempo) e che non mostrano maggiore coerenza rispetto ai ricordi quotidiani; inoltre altre evidenze mostrano come ricordi di eventi mondiali drammatici spesso vengono costruiti pochi giorni dopo l’evento. I ricordi flashbulb sono quindi imprecisi e implicano processi ricostruttivi basati su ciò di cui si è presumibilmente fatta esperienza; sono ritenuti speciali probabilmente perché vengono recuperati un alto numero di volte (e la memoria a lungo termine è migliore per le informazioni che vengono recuperate ripetutamente). Studio dei diari: sono importanti per stabilire se i ricordi riferiti dalle persone sono autentici; in effetti esistono molte evidenze del fatto che i ricordi autobiografici soffrono molto spesso di distorsioni. Il livello di rievocazione aumenta in funzione della presentazione di un maggior numero di indizi, e in generale si conferma il fatto che la grande maggioranza degli avvenimenti può essere immagazzinata nella memoria a lungo termine. Anche i livelli elevati di importanza, coinvolgimento emotivo e piacevolezza sono tutti a ssociati ad alti livelli di rievocazione. Un grave limite in questo genere di studi è che l’enfasi è posta su avvenimenti specifici che hanno avuto luogo in un dato giorno, mentre quasi tutti gli eventi autobiografici che si ricordano sono più generali. Ricordi nell’arco della vita : nel chiedere ad alcuni settantenni di rievocare ricordi personali suggeriti da parole

indizio, generalmente si profilano due risultati: - amnesia infantile (mancanza quasi totale di ricordi risalenti ai primi 3 anni di vita); -  picco di reminiscenza (costituito da un numero sorprendente vasto di ricordi risalenti ad un’età compresa tra i 10 e i 30 anni, specialmente tra i 15 e i 25). Questi risultati sono riscontrabili in tutte le culture; inoltre non si verificano nei soggetti di età inferiore ai 30 anni ed è rarissimo che avvenga nei quarantenni. 1) Amnesia infantile: sembra avvenga perché i bambini non riescono a formare memorie a lungo termine (la memoria autobiografica è un tipo di memoria dichiarativa che dipende in larga misura dall’ippocampo, che si sviluppa durante il primo anno di vita); tuttavia i bambini piccoli mostrano la capacità a formare numerosi ricordi a lungo termine nonostante lo sviluppo cerebrale incompleto. Esistono due teorie in merito: - teoria del sé cognitivo, secondo cui il ruolo svolto dallo sviluppo del sé cognitivo ha un certo ruolo nella formazione di memorie autobiografiche, in quanto è possibile formarne solo dopo aver sviluppato l’idea che possono verificarsi eventi che hanno significato personale e il sé fornisce una nuova struttura intorno al quale organizzare i ricordi (e si sviluppa alla fine del secondo a nno di età); - teoria evolutiva socio-culturale, secondo cui sia la lingua che la cultura sono di fondamentale importanza nello sviluppo precoce della memoria autobiografica, in quanto le esperienze che si verificano prima che i bambini sappiano parlare sono difficili da esprimere successivamente. Evidenze sperimentali mostrano che i bambini i cui genitori (soprattutto la madre) presentano uno stile di reminiscenza (quando parlano del passato con i propri figli) elaborativo riferiranno ricordi infantili più numerosi e più ricchi; inoltre le ricerche transculturali rivelano inoltre che gli adulti appartenenti alle culture orientali sviluppano la memoria autobiografica più tardi rispetto alle culture occidentali. Le due teorie comunque non si escludono a vicenda, ma possono integrarsi tra di loro (tutti i fattori principali identificati nelle due teorie sembrano essere implicati nello sviluppo della memoria a utobiografica). 2) Picco di reminiscenza: è stato rilevato in numerose culture e secondo Rubin e colleghi sono implicate: - la stabilità, in quanto è un periodo di stabilità quello che comincia all’inizio della maturità, perché è in quel periodo che si sviluppa il senso di identità adulta; - la novità, propria di molti ricordi che risalgono alla prima maturità (esperienze di “prima volta”) e che si formano proprio poco dopo l’emergere dell’identità adulta (vi è anche una mancanza di interferenza proattiva). Esistono poche prove a favore di questa ipotesi; inoltre è stato scoperto che i soggetti più anziani mostrano un picco di reminiscenza per i ricordi positivi, ma non per quelli negativi (quindi il picco di reminiscenza ha uno scopo più limitato di quanto si riteneva in precedenza). Una possibile spiegazione è basata sul concetto di copione della vita, che è costituito dalle attese culturali che riguardano tipicamente i principali eventi della vita di una persona; le memorie autobiografiche più forti sarebbero quindi associate ad un reale senso di sviluppo e di progresso nella propria vita. Altre evidenze sperimentali mostrano che il picco di reminiscenza è presente solo per i ricordi positivi e che implicano un elevato controllo percepito. 34

Sistema di auto-memoria: è una teoria sulla memoria autobiografica secondo la quale gli individui possiedono un sistema di auto-memoria che ha due componenti principali: a) conoscenza di base della memoria autobiografica, che contiene informazioni personali a tre livelli: - periodi della vita; - eventi generali ; - conoscenza evento-specifica ; b) sé operativo, che è relativo al sé, a che cosa può diventare nel futuro e all’attuale serie di obiettivi dell’individuo (gli obiettivi del sé operativo influenzano il tipo di r icordi immagazzinati nella conoscenza di base della memoria operativa). Secondo la teoria è possibile avere accesso ai ricordi autobiografici attraverso: - recupero generativo, quando costruiamo deliberatamente ricordi autobiografici combinando le risorse del sé operativo con le informazioni contenute nelle conoscenze di base della memoria a utobiografica (i ricordi prodotti mediante questo recupero spesso sono relativi agli obiettivi del soggetto che sono contenuti nel sé operativo); - recupero diretto, che si attiva attraverso inizi specifici ed è meno impegnativo del recupero generativo. Conway ha ampliato questa teoria strutturando gerarchicamente le conoscenze della memoria autobiografica in sé concettuale (contenente la storia di vita e i temi fondamentali ) e ricordi episodici (la conoscenza evento-specifica). Inoltre ha sostenuto che i ricordi autobiografici tendono a sviluppare una lotta tra coerenza (con le opinioni e gli obiettivi attuali) e corrispondenza (la loro precisione), anche se molto spesso la prima tende ad avere la meglio nel corso del tempo. Studi sui pazienti cerebrolesi suggeriscono l’esistenza dei tre tipi di conoscenza autobiografica ( periodi della vita , eventi generali e conoscenza evento-specifica , quest’ultima compromessa nei casi di amnesia retrograda); sono emerse evidenze anche a convalida della distinzione tra recupero generativo (volontario) e recupero diretto (involontario), in quanto si attivano aree cerebrali diverse a seconda del recupero attuato. Limiti della teoria: - la memoria autobiografica può implicare un numero maggiore di processi e di aree cerebrali di quanto ipotizzato; - è necessario disporre di maggiori informazioni sul modo in cui il sé operativo interagisce con le conoscenze autobiografiche di base per produrre la rievocazione di ricordi autobiografici specifici; - rimane da verificare l’esistenza di una chiara distinzione tra recupero generativo e recupero diretto; - i ricordi autobiografici variano nella misura in cui contengono informazioni episodiche ed informazioni semantiche, ma questo aspetto non è trattato in modo esauriente dalla teoria. Cabeza e St. Jacques hanno dimostrato che la corteccia prefrontale svolge un ruolo fondamentale nel recupero dei ricordi autobiografici e hanno individuato 6  processi principali che sono implicati in questo recupero: 1) ricerca e processi controllati (associati al recupero generativo); 2) processi auto-referenziali; 3) rievocazione (recupero di ricordi autobiografici di base che interessa l’ippocampo); 4) elaborazione emotiva (i ricordi autobiografici sono più carichi dal punto di vista emotivo di quelli creati in laboratorio e implicano elaborazione nell’amigdala); 5) immaginazione visiva (i ricordi autobiografici sono più vividi di quelli creati in laboratorio); 6) monitoraggio della sensazione di correttezza (un processo rapido, pre-consapevole, che serve a controllare l’accuratezza dei ricordi autobiografici recuperati).

TESTIMONIANZA OCULARE La testimonianza oculare può essere distorta attraverso tendenze alla conferma, cioè il ricordo dell’evento è influenzato dalle attese e dalle aspettative dell’osservatore: gli individui possiedono numerosi schemi o pacchetti di conoscenze immagazzinati nella memoria a lungo termine, e questi schemi portano a formare certe aspettative che possono alterare la loro memoria facendo ricostruire i dettagli di un evento in base a ciò che deve essere stato vero . Ci sono alcune situazioni che possono influire sulla precisione della memoria: - stress e ansia; - invecchiamento (gli adulti più anziani producono molto spesso ricordi che sono autentici in quanto basati su informazioni o su eventi cui sono stati esposti, ma ricordano in modo inesatto il contesto o le circostanze in cui hanno incontrato tali informazioni; esiste però il fenomeno del bias della propria età , che fa riconoscere meglio un colpevole quando ha un’età simile a quella dell’osservatore, oppure l’ effetto dell’altra razza, simile al bias della propria età ma riferito alla razza di appartenenza dell’osservatore). Trasferimento inconscio: avviene quando un volto viene riconosciuto correttamente come appartenente a qualcuno visto in precedenza ma valutato in modo inesatto come il responsabile di un crimine. Ombreggiamento verbale: è il fenomeno per cui il riconoscimento dei volti da parte di testimoni oculari è in genere peggiore se hanno fornito una descrizione verbale in precedenza (probabilmente dovuto alla riluttanza dei testimoni a identificare successivamente un soggetto dopo aver fornito un resoconto verbale, ma può dipendere da molti altri fattori). 35

Spesso quello che accade dopo l’osservazione del crimine (ad es. delle domande precise poste ai testimoni che veicolano delle informazioni implicite) può alterare i ricordi fragili dei testimoni, e a volte l’influenza può essere molto forte; tuttavia oltre a questa interferenza retroattiva, esiste anche la possibilità che la memoria dei testimoni possa essere alterata da ciò che è avvenuto prima dell’osservazione dell’evento critico (interferenza proattiva). Di solito sono i dettagli minori o periferici ad essere alterati, ma i testimoni mostrano una certa suscettibilità alle informazioni erronee anche in merito alle caratteristiche importanti o centrali. ⇩ Modalità con cui le informazioni erronee successive all’evento potrebbero distorcere i resoconti dei testimoni: - attribuzione sbagliata della fonte , per cui uno stimolo mnemonico (come una domanda) attiva le tracce di memoria che si sovrappongono ad esso in termini di informazioni in esse contenute (qualsiasi stimolo mnemonico può attivare ricordi provenienti da varie fonti) e il soggetto decide la fonte di un ricordo attivato in base alle informazioni che esso contiene (l’errata attribuzione della fonte è probabile quando i ricordi derivanti da una fonte sono simili a quelli deriva nti da una seconda fonte); - caselle mancanti , per cui le informazioni erronee vengono accettate quando le informazioni relative derivanti dall’evento originario non sono immagazzinate nella memoria; - spiegazione della coesistenza , per cui le rappresentazioni mnemoniche dell’evento originario e le informazioni successive all’evento vengono scelte perché i testimoni ritengono che ci si aspetti questo da loro o a causa di errata attribuzione della fonte; - spiegazione dell’associazione , per cui le informazioni successive all’evento e le informazioni derivanti dall’evento originario sono combinate insieme nella memoria; - bias di risposta , secondo cui il modo in cui è condotto uno studio può influenzare i testimoni e farli tendere a riferire le informazioni erronee invece di quelle derivanti dall’evento originario. Sembra che vi sia una differenza tra risultati ricavati da studi di laboratorio rispetto a quelli ricavati da crimini reali : le evidenze sperimentali indicano però che le condizioni artificiali di laboratorio non alterano i risultati. Tuttavia i testimoni di eventi reali sono più imprecisi nei propri ricordi rispetto ai soggetti che osservano gli stessi eventi in condizioni di laboratorio. L’identificazione dei testimoni oculari può essere migliorata attraverso l’avvertimento della  presenza del colpevole e la  presentazione simultanea dei sospetti per l’identificazione (line-up), a meno di non pensare che sia del tutto inaccettabile che persone innocenti vengano identificate come potenziali colpevoli (la line-up può non presentare il colpevole nonostante l’avvertimento di presenza). Intervista cognitiva: è una intervista efficace che aumenta al massimo la quantità di informazioni accurate che possono fornire i testimoni; si è rivelata molto efficace, sebbene comporta una leggera riduzione della precisione. È basata sui seguenti assunti: - le tracce mnestiche sono di solito complesse e contengono vari tipi di i nformazioni; - l’efficacia di un indizio di recupero dipende dalla sovrapposizione delle informazioni in e sso contenute con le informazioni immagazzinate nella traccia di memoria (principio di specificità della codifica); - vari indizi di recupero possono permettere l’accesso a qualsiasi traccia di memoria (se una è inefficace, è possibile cercarne un’altra). Componenti dell’intervista cognitiva: - il testimone ricrea il contesto esistente al momento del crimine, comprese le informazioni ambientali ed interne (come lo stato dell’umore); - il testimone riferisce tutto ciò che è in grado di ricordare sull’incidente anc he se le informazioni sono frammentarie; - il testimone riferisce i dettagli dell’incidente in vario ordine; - il testimone riferisce gli eventi da varie prospettive. Limiti dell’intervista cognitiva: - l’aumento della quantità di informazioni inesatte rievocate dai testimoni (anche se esiguo) può indurre gli investigatori ad interpretare in modo inesatto le evidenze; - ricreare il contesto del momento dell’incidente è un elemento chiave dell’intervista cognitiva, ma il contesto ha meno effetto sulla memoria di riconoscimento che sulla rievocazione e quindi non migliora l’identificazione dei sospetti in base a fotografie o confronti all’americana (line -up); - l’intervista cognitiva è in genere meno efficace nel favorire la rievocazione quando viene usata ad intervalli di ritenzione più lunghi; - le componenti dell’intervista cognitiva sono molteplici (specialmente nella versione arricchita) e non è molto chiaro quali siano più o meno importanti; - alcune evidenze suggeriscono che è inefficace nel ridurre gli effetti negativi delle informazioni fuorvianti.

MEMORIA PROSPETTICA La memoria prospettica implica il ricordare di eseguire determinate azioni e si distingue dalla memoria retrospettiva, che è la capacità di ricordare eventi. In generale il ricordo e l’oblio spesso implicano un misto di memoria prospettica e retrospettiva; inoltre ci sono correlazioni tra i due tipi di memoria. 36

La memoria prospettica implica 5 fasi: 1) codifica (il soggetto immagazzina le informazioni relative a quale azione compiere, al quando compierla e all’intenzione di agire); 2) ritenzione (le informazioni immagazzinate devono essere conservate per un certo periodo di tempo); 3) recupero (quando si presenta l’opportunità adatta, è necessario recuperare l’intenzione dalla memoria a lungo termine); 4) esecuzione (quando l’intenzione è recuperata allora è necessario agire); 5) valutazione (si valuta il risultato delle fasi precedenti, e se la memoria prospettica ha fallito è necessaria una nuova pianificazione). La memoria retrospettiva in genere implica il ricordare ciò che si sa di qualcosa e può avere un ricco contenuto informativo, mentre la memoria prospettica in genere si concentra sul quando fare qualcosa ed ha uno scarso contenuto informativo. Nella memoria prospettica vi è una inoltre differenza importante tra: - memoria prospettica basata sul tempo (eseguire una data azione in un momento specifico); - memoria prospettica basata sull’evento (eseguire un’azione nelle circostanze opportune). Generalmente la memoria prospettica basata sull’ evento è migliore di quella basata sul tempo (probabilmente perché i compiti sono più semplici e perché possono esserci indizi esterni) e vi è una tendenza generale della memoria prospettica ad essere migliore in condizioni naturali che in quelle di laboratorio (in quanto vi è l’ influenza della motivazione). Nonostante questa differenza, sembra che le strategie impiegate da entrambe le memorie prospettiche siano simili e che l’idea che quelle basate sull’evento siano più facili è un’eccessiva semplificazione; si ipotizza invece ch e la specificità del compito di memoria prospettica sia più importante del tipo (tempo/evento), e che siano necessarie maggiori risorse di elaborazione quando le intenzioni di un soggetto in un compito di memoria prospettica non sono ben specificate. L’importanza della memoria prospettica nella vita quotidiana è molto rilevante: le interruzioni possono compromettere seriamente la memoria prospettica e non sempre fornire promemoria espliciti è efficace nel risolvere il problema (le persone hanno bisogno di alcuni secondi per formulare un nuovo piano quando un’interruzione modifica la situazione). 1) Teoria dei processi attenzionali e mnemonici preparatori (PAM): afferma che una prestazione efficace della memoria prospettica implica sempre un monitoraggio attivo ed impegnativo (ad es. attenzione). La memoria prospettica richiede due processi: -  processo di monitoraggio impegnativo , che ha inizio quando un soggetto formula un’intenzione che è mantenuta fino all’esecuzione dell’azione richiesta; -  processi di memoria retrospettiva , che assicurano che ci si ricordi quale azione debba essere eseguita nel compito di memoria prospettica. La prestazione in un compito di memoria prospettica dovrebbe essere più soddisfacente quando i partecipanti possono dedicare ad esso tutte le proprie risorse attenzionali, e questa previsione ha ricevuto numerose convalide; tuttavia è poco plausibile che si utilizzino sempre processi attenzionali preparatori quando si cerca di ricordare un’azione futura (a volte ricordarsi di eseguire un’azione può semplicemente “affacciarsi” alla mente). 2) Teoria dei processi multipli: ritiene che è possibile usare vari processi cognitivi (compresi i processi attenzionali) per eseguire compiti di memoria prospettica; tuttavia l’individuazione degli inizi per la risposta sarà in genere automatica (non prevede quindi processi attenzionali) quando sono soddisfatti tutti i criteri seguenti o alcuni di essi: - l’inizio e l’azione bersaglio da eseguire sono altamente associati; - l’indizio è evidente o import ante; - l’elaborazione in corso per un altro compito che viene eseguito contemporaneamente a quello di memoria prospettica dirige l’attenzione verso gli aspetti rilevanti dell’indizio; - l’azione programmata è semplice. Le evidenze sperimentali non portano a sostenere una teoria rispetto all’altra (esistono casi in cui vi è monitoraggio nonostante la presenza di tutti i criteri dell’elaborazione automatica) e le risposte sono ancora controverse. a) Risultati della ricerca sulla memoria prospettica: - si conoscono abbastanza bene le somiglianze e le differenze tra memoria prospettica basata sugli eventi e quella basata sul tempo; - esistono evidenze derivanti dal mondo reale che seri deficit nella memoria prospettica sono più probabili quando si viene interrotti mentre si sta eseguendo un programma di azione; - si è iniziato a capire i ruoli dei processi attenzionali, del monitoraggio e dei processi automatici nella memoria prospettica. b) Limiti della ricerca sulla memoria prospettica: - nel mondo reale in genere si formula l’intenzione di eseguire una certa azione futura perché si spera di raggiungere qualche obiettivo a differenza della situazione ricreata in laboratorio; - si suppone troppo prontamente che i processi implicati nella memoria prospettica siano molto diversi da quelli applicati nella memoria retrospettiva, ma in realtà esistono evidenze a favore di un fattore di memoria generale che comprende sia la memoria prospettica che quella retrospettiva; - molte ricerche non fanno una chiara distinzione tra le varie fasi della memoria prospettica. 37

38

capitolo 9

COMPRENSIONE DEL LINGUAGGIO INTRODUZIONE La comprensione può avvenire a livello di: - frasi (l’analisi grammaticale,  parsing, e l’analisi del significato,  pragmatica); - testo (il discorso, fatto da più frasi, e la storia, un’unità di linguaggio più ampia).

PARSING Il  parsing è l’analisi sintattica della frasi e si riferisce ai processi che i lettori e gli ascoltatori compiono in fase di comprensione. È molto importante la relazione tra analisi sintattica e analisi semantica: l’ordine e la modalità con cui vengono effettuati i due tipi di analisi può essere dato da 4 possibilità: - l’analisi sintattica precede in genere ed influenza l’analisi semantica: - l’analisi semantica ha luogo di solito prima dell’analisi sintattica; - entrambi i tipi di analisi hanno luogo contemporaneamente; - l’analisi sintattica e quella semantica sono strettamente collegate. Può avvenire ambiguità nell’analisi delle frasi: a) a livello globale (la frase ha due o più possibili interpretazioni); b) a livello locale (solo a partire da un certo punto del processo di parsing sono possibili varie interpretazioni). Nella comprensione di una frase vengono forniti indizi utili per il processo di parsing dalla prosodia, cioè l’accento e l’intonazione con cui una o più parole vengono pronunciate : quando le frasi sono ambigue gli indizi prosodici aiutano molto nella comprensione (nei testi scritti invece esistono indizi prosodici impliciti). È stato ipotizzato che sia la configurazione globale della frase prosodica ad essere rilevante per comprensione, e non la prosodia in un punto particolare della frase stessa; inoltre gli ascoltatori utilizzano gli indizi prosodici anche per  prevedere le informazioni che saranno presentate. 1) Modello del garden-path: ipotizza che il tentativo iniziale di analizzare una frase implichi il solo impiego delle informazioni sintattiche. È un modello a due fasi, basato sui seguenti assunti: - per ciascuna frase viene inizialmente presa in considerazione una sola struttura sintattica; - nella scelta della struttura sintattica iniziale il significato non ha alcun ruolo; - viene scelta la struttura sintattica più semplice, secondo due principi generali: a) minima unione, secondo cui viene preferita la struttura grammaticale che dà luogo al minor numero di parti costituenti di una frase (chiamate nodi), come frase verbale e frase nominale; b) tarda chiusura, secondo cui le parole nuove incontrate in una frase vengono collegate alla clausola corrente se ciò è possibile dal punto di vista grammaticale; - se esiste un conflitto tra i due principi citati, esso viene ri solto in favore del principio della minima unione; - se la struttura sintattica che un lettore costruisce per una frase durante la prima frase di elaborazione è incompatibile con informazioni che vengono aggiunte più tardi ( es. semantiche) generate da un elaboratore tematico, allora vi è una seconda fase di elaborazione in cui viene rivista la struttura sintattica iniziale. Evidenze sperimentali mostrano che i lettori applicano i principi della minima unione e della tarda chiusura e che i fattori semantici non influenzano la costruzione della struttura sintattica della frase: essi sono efficaci in quanto riducono al minimo la pressione sulla memoria a breve termine; inoltre pazienti cerebrolesi con demenza semantica comprendono correttamente la struttura sintattica in assenza quasi completa di informazioni semantiche (ma questo non significa che gli individui sani facciano scarso uso di informazioni semantiche). Esistono però altre evidenze secondo cui i lettori non sempre seguono il principio di tarda chiusura, e che a volte le informazioni semantiche possono essere utilizzate in una fase precoce di elaborazione, soprattutto quelle contenute nel contesto precedente piuttosto che nella frase da elaborare (e questo è contrario alla teoria). Limiti della teoria: - l’ipotesi che il significato non rivesta alcun ruolo nell’assegnazione iniziale di una struttura grammaticale ad una frase sembra poco plausibile; - il contesto precedente spesso sembra influenzare l’interpretazione delle frasi in una fase molto più precoce di quanto ipotizzato dal modello; - il concetto che la scelta iniziale della struttura grammaticale dipenda solo da due principi è troppo drastico; - il modello non prende in considerazione le differenze tra le lingue; - è difficile fornire una verifica definitiva del modello (esistono infatti informazioni semantiche utilizzate in una fase precoce dell’elaborazione, e questo è incoerente con il modello). 39

2) Modello dei vincoli: ipotizza che tutte le fonti di informazioni (sintattiche, semantiche e conoscenza generale del mondo) vengano usate fin dall’inizio per costruire un modello sintattico della frase; queste fonti vengono chiamate vincoli in quanto limitano il numero di interpretazioni possibili. Secondo la teoria di MacDonald l’ipotesi fondamentale è che tutti i vincoli siano immediatamente disponibili all’individuo che esegue il parsing (verrebbero cioè attivate fin dall’inizio del processo diverse ipotesi di analisi della frase in esame), e che la scelta sia basata su una classificazione in ranghi in base alla forza della loro attivazione. Il sistema di elaborazione utilizza 4 caratteristiche del linguaggio al fine di risolvere le ambiguità: - la competenza grammatica pone dei vincoli alle possibili interpretazioni delle frasi; - le diverse forme di informazioni associate ad ogni parole della frase non sono in genere indipendenti l’una dall’altra; - una parola può essere meno ambigua per certi aspetti piuttosto che per altri; - le varie interpretazioni possibili secondo le regole grammaticali sono in genere notevolmente diverse per frequenza e probabilità di accadimento, sulla base delle esperienze pregresse. Ad influenzare l’assegnazione di una struttura sintattica può essere capace anche il bias del verbo, che consiste nell’identificare la forma sintattica più frequentemente associata al verbo in questione (dato che molti verbi possono reggere più di una struttura sintattica); evidenze sperimentali mostrano che questa influenza è reale, e ciò smentisce la teoria del garden-path secondo cui il bias del verbo non dovrebbe influenzare l’identificazione iniziale della struttura sintattica. Altri risultati mostrano che il contesto precedente influenza l’elaborazione delle frasi in una fase precoce. Vantaggi della teoria: - ci possono essere più interpretazioni sintattiche di una frase, ciascuna con un proprio livello di plausibilità; - i lettori utilizzano effettivamente tutte le informazioni importanti disponibili sin dall’inizio del processo di elaborazione; - esiste una certa flessibilità nelle decisioni di parsing perché sono implicate varie fonti di informazione, mentre il modello del garden-path non richiede di prevedere flessibilità nelle decisioni di parsing. Limiti della teoria: - non è del tutto corretto sostenere che tutti i vincoli importanti vengono usati immediatamente; - la teoria resta vaga sui processi implicati nell’attribuzione di strutture sintattiche a frasi complesse; - ritiene che si formino varie rappresentazioni in parallelo, la maggior parte delle quali viene in seguito scartata, ma ci sono scarse evidenze dirette dell’esistenza di queste rappresentazioni parallele; - si sospetta che gli effetti alla base della teoria abbiano luogo perché la seconda fase del parsing avviene molto rapidamente e che molti esperimenti che si ritiene analizzino la prima fase in realtà si concentrano sulla seconda fase del parsing. 3) Modello dell’unrestricted race : questa teoria associa alcuni aspetti del modello del garden-path e alcuni aspetti del modello basato sui vincoli. Gli assunti principali sono i seguenti: - tutte le fonti di informazione (semantiche e sintattiche) vengono usate per identificare una struttura sintattica (come il modello basati sui vincoli); - tutte le altre possibili strutture sintattiche vengono ignorate, a meno che la struttura sintattica scelta non sia confutata da informazioni successive; - se la struttura sintattica scelta inizialmente deve essere scartata, ha luogo un ampio processo di ri-analisi prima di selezionale un’altra struttura (come il modello del garden-path). Le evidenze sperimentali derivanti dalle neuroscienze cognitive convalidano fortemente il modello dell’unrestricted race: sia le conoscenze semantiche che quelle del mondo influenzano l’elaborazione di frasi in una fase molto precoce. Tuttavia l’elaborazione delle frasi è più flessibile di quanto ipotizzato dalla teoria (l’accuratezza dell’elaborazione delle frasi dipende in parte dagli obiettivi di comprensione del lettore). Rappresentazioni good-enough: è un assunto in base al quale l’obiettivo tipico della comprensione è effettuare un’analisi dell’input che sia abbastanza soddisfacente (good-enough) da produrre una risposta in considerazione del compito in esame; il limite delle teorie precedenti è infatti quello di essere basa te sull’assunzione che l’elaborazione del linguaggio generi rappresentazioni complete, dettagliate ed accurate dell’input linguistico. Le interpretazioni di frasi ascoltate quindi non sono sempre precise e corrette: i lettori infatti, quando si aspettano domande di comprensione più dettagliate e non superficiali, elaborano le frasi in modo più accurato. Le neuroscienze cognitive hanno dimostrato che informazioni semantiche di vario tipo vengono elaborate attivamente in una fase molto precoce dell’elaborazione; inoltre hanno mostrato che è falso ritenere che le informazioni contestuali vengano elaborate dopo le informazioni relative al significato delle parole all’interno di una frase (vengono piuttosto utilizzate in una fase molto precoce del’elaborazione d elle frasi). Altre evidenze sperimentali del fatto che si fa uso della propria conoscenza del mondo, di quella del parlante (le quali aggiungono perciò una dimensione prettamente sociale ai meccanismi di interpretazione del linguaggio) e di quelle contestuali in una fase precoce convalidano maggiormente il modello basato sui vincoli rispetto al modello del garden-path.

40

PRAGMATICA La  pragmatica si occupa dell’uso concreto del linguaggio in una dato contesto, in particolare di quegli aspetti che vanno al di là del significato letterale di ciò che viene detto e che tengono in considerazione il contesto sociale; si riferisce perciò al significato inteso dal parlante, piuttosto che a quello letterale espresso dalle parole che compongono le frasi, e spesso implica la formulazione di deduzioni da parte dell’ascoltatore (il significato del parlante spesso non coincide con il significato letterale). 1) Modello pragmatico standard (Grice): secondo questa teoria nella comprensione del significato inteso dal parlante sono implicate 3 fasi: - inizialmente l’ascoltatore ha accesso al significato letterale; - l’ascoltatore decide se il significato letterale ha senso nel contesto in cui è letto o ascoltato; - se il significato letterale è inadeguato l’ascoltatore ne cerca uno non letterale che ha senso nel contesto. L’accesso al significato letterale dovrebbe essere più rapido rispetto a quello non letterale o figurato , e solo le interpretazioni letterali sono derivate in modo automatico; tuttavia le evidenze sperimentali non forniscono convalida del modello pragmatico standard, dato che: - i significati letterali e metaforici sono elaborati in parallelo, e coinvolgono gli stessi meccanismi cognitivi; - il significato non letterale o metaforico è compreso in genere altrettanto rapidamente di quello letterale (solo le metafore non convenzionali sono più difficili da elaborare rispetto a quelle tradizionali). 2) Ipotesi della salienza graduale (Giora): secondo questa teoria l’elaborazione iniziale è determinata dall’im portanza o dalla salienza dei significati piuttosto che dal tipo di significato (letterale e non letterale); questa ipotesi è congruente con i risultati derivati dallo studio delle metafore non convenzionali, che infatti sono meno salienti e familiari e richiedono più tempo di elaborazione rispetto alle metafore tradizionali. 3) Modello del predicato (Kintsch): cerca di spiegare la non reversibilità delle metafore, affermando che nell’interpretazione vengono selezionate solo quelle caratteristiche del predicato (secondo termine della metafora) rilevanti alla tesi (primo termine della metafora) e che nel cambiare la tesi si cambiano anche le caratteristiche selezionate; la comprensione delle metafore dipende quindi dalla capacità ad inibire le proprietà semantiche del predicato che sono irrilevanti rispetto all’argomento. Generalmente gli individui con elevata capacità di memoria di lavoro sono più abili a inibire le informazioni potenzialmente di disturbo. 1) Teoria del terreno comune: è la prospettiva di Grice secondo la quale il parlante e l’ascoltatore in genere si conformano al Principio di Cooperazione , ovvero operano insieme per garantire una reciproca comprensione, e condividono un terreno comune formato da conoscenze e opinioni condivise tra gli interlocutori (chi ascolta si aspetta che il parlante faccia per lo più riferimento ad informazioni e conoscenze che rientrano nel terreno comune, e tende a interpretare le frasi del parlante conformemente a tale aspettativa). 2) Modello di aggiustamento della prospettiva: secondo Keysar gli ascoltatori utilizzano un’ euristica egocentrica , rapida e non impegnativa, che è una tendenza a considerare come potenziali referenti (ciò a cui ci si riferisce) gli oggetti che pur non rientrando nel terreno comune possano essere referenti potenziali in base alla propria prospettiva (le informazioni sul terreno comune verrebbero quindi calcolate più lentamente e usate per correggere eventuali incomprensioni). ⇩ Le evidenze sperimentali mostrano che il modello di aggiustamento della prospettive è corretto, ma che raramente si fa uso dell’euristica egocentrica; inoltre la distinzione questa euristica e il terreno comune è troppo semplicistica, dato che la realtà è molto più complessa (ad es. si fa maggior uso del terreno comune quando si ascolta qualcuno le cui opinioni sono molto familiari). Anche il principio di cooperazione è più spiegabile come un’aspettativa che i parlanti siano coerenti.

ELABORAZIONE DEL DISCORSO Quando si comprende un brano o un discorso si costruisce una rappresentazione unitaria dell’argomento, e per far questo bisogna trarre numerose inferenze dal materiale che si sta elaborando, anche se in genere non si è consapevoli di ciò. Esistono 3 tipi di inferenze: 1) logiche, che dipendono solo dal significato delle parole; 2) di collegamento, che stabiliscono la coerenza tra la parte del testo che si sta leggendo e quella precedente; 3) di elaborazione, che servono ad arricchire il testo o ad aggiungere dettagli (inferenze “in avanti”). 1-2) Inferenze logiche e inferenze di collegamento: sono essenziali per la comprensione e vengono tratte in modo automatico durante il processo di comprensione (a differenza delle inferenze di elaborazione). Ci sono 2 fasi nella produzione di inferenze di collegamento: - collegamento (processo di basso livello che implica l’attivazione automatica delle parole della prima frase e che consente un rapido legame di queste con le parole incontrate successivamente); - definizione (accertarsi che l’interpretazione complessiva sia coerente con le informazioni del contesto). 41

L’ Anafora è la forma più semplice di inferenza di collegamento, e consiste nell’identificazione di un nome o di un pronome con un altro nome o una frase nominale menzionati in precedenza. Esistono evidenze a convalida dell’ipotesi che le informazioni sul  genere e l’ordine atteso rendono più semplice la risoluzione dell’anafora; inoltre i soggetti con elevata capacità di memoria di lavoro sono più sensibili alle sottigliezze della lingua e tendono a prendere in considerazione altre interpretazioni possibili rispetto a quella più “evidente”. Secondo il modello del vincolo parallelo interattivo si usano numerose e diverse fonti di informazioni nello stesso tempo per interpretare le anafore, e quando si creano conflitti tra le fonti c’è più difficoltà nel decidere l’interpretazione più appropriata. 3) Inferenze di elaborazione: ci sono due teorie che spiegano come si originano le inferenze di elaborazione: a) approccio costruzionista (Bransford), secondo cui i lettori costruiscono in genere un modello mentale relativamente completo della situazione e degli avvenimenti descritti nel testo e che le inferenze di elaborazione vengono in genere effettuate durante la lettura di un testo; b) approccio minimalista (McKoon e Ratcliff), secondo cui, in assenza di processi strategici specifici e mirati, vengono costruiti solo 2 tipi di inferenza: quelle che stabiliscono rappresentazioni localmente coerenti delle parti di un testo che vengono esaminate e quelle che si basano su informazioni che sono disponibili in modo semplice e veloce. Le principali assunzioni sono: - le inferenze sono automatiche o strategiche (mirate); - alcune inferenze automatiche stabiliscono una coerenza locale, e sono inferenze che interessano parti del testo che si trovano nello stesso momento in memoria di lavoro; - altre inferenze automatiche si basano su informazioni facilmente disponibili in quanto sono menzionate in modo esplicito nel testo; - le inferenze strategiche vengono tratte dal lettore al fine di raggiungere degli obiettivi legati alla propria attività di lettura (talvolta esse servono a generare coerenza locale); - quasi tutte le inferenze di elaborazione vengono effettuate al momento della rievocazione e non durante la lettura. Le differenze principali consistono nel fatto che: - l’approccio costruzionista sostiene che durante la lettura vengono tratte svariate inferenze automatiche; - l’approccio minimalista sostiene che il numero di inferenze generate automaticamente sia limitato da vincoli ben precisi. Le evidenze sperimentali convalidano l’ipotesi secondo cui esistono inferenze automatiche e inferenze strategiche; inoltre il trarre un’inferenza può dipendere dalle intenzioni o dagli obiettivi del lettore (il che suggerisce la maggiore validità dell’ipotesi minimalista). L’ipotesi minimalista è più congruente con l’ipotesi che accanto alle inferenze automatiche (tratte per stabilire una coerenza locale fra le informazioni contenute nella memoria di lavoro) vi siano anche delle inferenze globali, che sono le inferenze che collegano pezzi separati delle informazioni contenute nel testo e che non vengono tratte in modo automatico (nell’ipotesi costruzionista non c’è differenza tra inferenze locali e globali). Anche il concetto secondo cui alcune inferenze vengono tratte solo se sono coerenti con gli obiettivi del lettore è valido. È stato comunque dimostrato che i lettori talvolta, durante la lettura, traggono un numero di inferenze maggiore rispetto a quanto previsto dall’ipotesi minimalista; inoltre secondo la teoria i lettori non traggono inferenze  predittive (cioè il dedurre che cosa succederà in base alla situazione attuale), ma sono state registrate evidenze contrarie. Limiti della teoria minimalista: - non è sempre possibile predire in modo preciso in base alla teoria quali inferenze verranno tratte; - l’ipotesi minimalista è troppo minimalista e sottostima in qualche modo le inferenze tratte dal testo; - né l’approccio minimalista né quello costruzionista forniscono una spiegazione adeguata delle differenze individuali nella produzione di inferenze (è il limite più grave comune alle due teorie); - spiega meglio i casi in cui il lettore legge il testo molto rapidamente e senza sufficiente conoscenza di fondo (mentre quella costruzionista ha più successo di spiegare le situazioni in cui il lettore sta cercando di comprendere appieno il testo con ritmo più rilassato).

ELABORAZIONE DI STORIE La descrizione di una storia è altamente selettiva (implica quindi processi selettivi che operano al momento del recupero), dato che il ricordo di una storia è simile ad un riassunto in cui ci si concentra principalmente sulle informazioni importanti. L’elaborazione di storie o di altri testi implica il mettere in relazione le informazioni contenute nel testo con le conoscenze strutturate immagazzinate nella memoria a lungo termine . 1) Teoria degli schemi: questa teoria pone l’accento sugli schemi, che sono pacchetti ben integrati di conoscenze sul mondo, su avvenimenti, persone ed azioni immagazzinati nella memoria a lungo termine, ed includono: - script , cioè le conoscenze sugli eventi e sulle conseguenze di eventi; -  frame, cioè le conoscenze specifiche su alcuni aspetti del mondo Gli schemi sono importanti perché contengono gran parte delle conoscenze che vengono utilizzate per facilitare la comprensione di ciò che si ascolta e si legge, e consentono di creare aspettative (il mondo diventa più prevedibile). 42

Bartlett è stato il primo a sostenere che gli schemi svolgono un ruolo importante nel determinare ciò che si ricorda di una storia: la memoria infatti è influenzata non solo dalla storia che viene presentata ma anche dalle conoscenze rilevanti o schemi già presenti in memoria. L’errore di rievocazione che si verifica quando una storia presenta un conflitto tra il contenuto presentato e la sua conoscenza precedente (lo schema) è stato definito razionalizzazione. Secondo Bartlett il ricordo del materiale presentato svanisce con il passare del tempo, al contrario del ricordo degli schemi sottostanti, e perciò il numero degli errori di razionalizzazione aumenta ad intervalli di ritenzione più lunghi; lo schema viene quindi usato come meccanismo di recupero per facilitare la rievocazione, ma può anche avere l’effetto opposto di distorcere i ricordi durante il processo ricostruttivo al momento del recupero. Studi sui pazienti con demenza semantica hanno mostrato come essi non sono capaci di riconoscere il significato di oggetti di uso comune, ma conservano un discreto accesso alle conoscenze degli script (ad es. svolgono azioni quotidiane); invece i pazienti con demenza fronto-temporale presentano lo schema opposto, con una conoscenza semantica intatta e un deficit della conoscenza degli script (esiste quindi una doppia dissociazione). Questo è congruente con la teoria degli schemi, dato che ipotizza l’esistenza di un’ organizzazione gerarchica delle informazioni immagazzinate nella memoria semantica: un livello superiore, dove sono presenti schemi e script, e un livello inferiore, dove vi sono unità più specifiche di informazione. Limiti della teoria: - è difficile individuare le caratteristiche degli schemi; - quasi tutte le versioni della teoria degli schemi non possono essere sottoposte a verifica (è impossibile dimostrare l’esistenza degli schemi); - le condizioni che determinano il momento in cui sarà attivato un dato schema sono poco chiare; - vi sono molti elementi complessi associati alla doppia dissociazione apparentemente riscontrata nei pazienti cerebrolesi, ma è necessario poter disporre di un numero maggiore di ricerche prima di poter valutare appieno tali evidenze. 2) Modello di integrazione-costruzione: è la teoria proposta da Kintsch (include alcuni aspetti della teoria degli schemi e della teoria del modelli mentali di Johnson-Laird) che cerca di spiegare nel dettaglio i processi implicati nel comprendere e nel ricordare le informazioni di una storia. Il modello ipotizza che la comprensione di storie implichi la formazione di proposizioni, cioè affermazioni che affermano o negano uno stato di cose (e possono essere vere o false); esistono comunque molte evidenze a convalida dell’importanza delle proposizioni nell’elaborazione di frasi. Durante il processo di comprensione si verificano le seguenti fasi: - le frasi presenti nel testo vengono trasformate in proposizioni che rappresentano il significato del testo; - queste proposizioni stazionano in un magazzino di lavoro a breve termine che ha capacità limitata, e formano una rete proposizionale; - ogni proposizione costruita dal testo recupera alcune proposizioni collegate in modo associativo (comprese le inferenze) dalla memoria a lungo termine; - le proposizioni costruite dal testo, insieme a quelle recuperate dalla memoria a lungo termine, formano la rete proposizionale elaborata ; - viene poi utilizzato un processo di diffusione dell’attivazione per la rappresentazione del tes to, in cui vengono scartate le proposizioni non pertinenti attivano invece quelle strettamente interconnesse ( processo di integrazione ); - la rappresentazione del testo è una struttura organizzata che viene immagazzinata nella memoria episodica del testo (in questa rappresentazione sono incluse anche le informazioni sulla relazione tra due proposizioni, se queste sono state elaborate insieme nel magazzino di lavoro a breve termine). Come risultato di tali processi vengono costruiti 3 livelli di rappresentazione: - rappresentazione superficiale (il testo stesso); - rappresentazione proposizionale (le proposizioni che si formano dal testo); - rappresentazione situazionale (un modello mentale che descrive la situazione riportata nel testo), che può essere costruita attraverso schemi (che sono come “mattoni”). L’ipotesi fondamentale è che i processi implicati nella costruzione della rete proposizionale elaborata siano relativamente inefficaci, dal momento che includono nella rete numerose proposizioni non pertinenti: essendo un approccio bottom-up, la rete proposizionale elaborata è costruita senza prendere in considerazione il contesto fornito dal tema globale del testo, e solo in seguito il processo di integrazione userà le informazioni contestuali del testo per eliminare le proposizioni non pertinenti (durante la fase di costruzione l’input del testo lancia un processo bottom-up nelle conoscenze di base del lettore, mentre i fattori top-down come la prospettiva di lettura o l’obiettivo esercitano la propria influenza nella fase di integrazione). Differenze con gli altri modelli: - quasi tutti gli altri modelli sulla comprensione tentano di specificare regole forti che, guidate dagli schemi, arrivino proprio alle interpretazioni giuste; - le regole deboli incluse nel modello integrazione-costruzione sono più versatili e possono essere quindi teoricamente utilizzate in qualsiasi situazione. Le evidenze sperimentali mostrano che esistono effettivamente i 3 livelli di rappresentazione proposti dalla teoria; inoltre confermano l’ipotesi secondo cui i lettori con maggiori conoscenze costruiscono livelli più profondi di rappresentazione di un testo rispetto agli altri (inoltre anche gli obiettivi di chi legge influenzano il tipo di rappresentazioni che verrà formato). 43

È stato confermata anche l’ipotesi per cui l’elaborazione di inferenze implichi un processo di  produzione ed un successivo processo di integrazione; tuttavia è stato smentito il concetto per cui le informazioni contestuali non possono essere utilizzate prima delle conoscenze generali durante la lettura. Limiti della teoria: - l’ipotesi secondo cui solo i processi bottom-up verrebbero attivati in una fase di costruzione dell’elaborazione del testo è opinabile (ad es. gli obiettivi dei lettori possono indurli ad allocare l’attenzione visiva in modo selettivo molto precocemente nell’elaborazione del testo); - il concetto secondo cui fonti di informazione come il contesto vengono usate solo nella fase di integrazione è stato confutato; - l’ipotesi secondo cui i lettori costruiscono invariabilmente numerose proposizioni durante la lettura di un testo non ha ricevuto sufficiente convalida; - ignora due livelli di rappresentazione del discorso, il livello del  genere del testo (che riguarda la natura del testo stesso) e il livello di comunicazione (che si riferisce al modo in cui l’autore cerca di comunicare con i suoi lettori); - il modello non è specifico sui processi implicati nella costruzione di modelli situazionali. 3) Modello di indicizzazione degli eventi: secondo questa prospettiva i lettori tengono sotto controllo 5 aspetti, o indici, del modello situazionale che stanno generando nel leggere una storia (e i 5 indici vengono monitorati in maniera indipendente l’uno dall’altro): - il protagonista (il personaggio principale o l’attore dell’evento attuale); - sequenza temporale (la relazione tra il momento in cui si è verificato l’evento attuale e gli eventi precedenti ad esso); - causalità (la relazione causale dell’evento attuale con l’evento precedente); - spazialità (la relazione tra l’ambiente nello spazio dell’evento attuale e di quello precedente ad esso); - intenzionalità (la relazione tra gli obiettivi del personaggio e l’evento attuale). Nella lettura di un testo il lettore aggiorna di continuo il modello situazionale affinché rifletta le informazioni presentate riguardo ai 5 aspetti, e la discontinuità richiede un maggior sforzo elaborativo rispetto alla situazione in cui i 5 aspetti rimangono immutati. Esistono due prospettive sull’aggiornamento dei modelli sit uazionali: -  prospettiva della risonanza , secondo cui le informazioni nuove di un testo entrano in risonanza con tutte le informazioni relative al testo immagazzinate nella memoria (di conseguenza anche le informazioni vecchie o inesatte potrebbero influenzare il processo di comprensione); -  prospettiva del qui e ora , in cui le informazioni più attuali sono maggiormente disponibili rispetto alle informazioni più vecchie. Il modello di indicizzazione degli eventi prevede la  prospettiva del qui e ora , ed evidenze sperimentali hanno dimostrato la correttezza di questa prospettiva. Anche l’ipotesi secondo cui la discontinuità richiede più tempo nella lettura si è rivelata corretta; si è visto inoltre che i lettori spesso aggiornano le proprie conoscenze anche quando questo processo di aggiornamento è faticoso. Limiti della teoria: - non è completamente corretto considerare del tutto separati i vari aspetti di una situazione; - i modelli situazionali non vengono sempre costruiti (ad es. la maggior parte dei lettori non costruisce un modello situazione durante la lettura di un complesso resoconto dei dettagli della scena di un delitto); - il modello sostiene che i lettori aggiornano il loro modello situazionale per prendere in considerazione le nuove informazioni, ma ciò in genere non accade quando le persone leggono storie in cui l’impressione originaria della personalità di un individuo viene poi confutata dalle informazioni successive; - il modello non è dettagliato riguardo le rappresentazioni interne degli eventi che i lettori e gli ascoltatori formano quando sono impegnati nella comprensione del linguaggio. 4) Approccio delle simulazioni esperienziali: sostiene che la comprensione è legata alla creazione di rappresentazioni che sono simili in natura alle rappresentazioni che si creano quando si fa esperienza diretta o si rivivono le rispettive situazioni ed eventi; questo approccio è più economico del modello di integrazione-costruzione, perché si ipotizza che l’unica rappresentazione significativa che si forma sia una simulazione percettiva, laddove il modello di integrazionecostruzione prevede la costruzione di tre rappresentazioni. Esistono alcune conferme a sostegno di questo approccio, in quanto i lettori costruiscono effettivamente una simulazione percettiva della situazione descritta nelle frasi lette (anche nel caso di frasi negative, in cui viene creata una seconda simulazione esperienziale del corretto significato della frase). L’approccio delle simulazioni esperienziali è complementare a quello di indicizzazione degli eventi: il primo è più specifico mentre il secondo è più generico. Limiti del modello: - non sempre è possibile costruire simulazioni esperienziali (è impegnativo dal punto di vista cognitivo); - l’approccio ha poco da dire sui processi implicati nella comprensione di materiale astratto.

44

capitolo 10

PRODUZIONE DEL LINGUAGGIO INTRODUZIONE Esistono differenze e somiglianze nei processi psicologici implicati nel linguaggio parlato e nel linguaggio scritto. Somiglianze: - condividono una prima fase in cui viene deciso il significato generale da comunicare, a cui poi segue la fase di produzione vera e propria (orale o scritta); - condividono alcuni processi; Differenze: - chi parla sa esattamente chi sta ricevendo il suo messaggio; - chi parla riceve un continuo feedback da chi ascolta e modula ciò che dice in risposta a questi feedback; - chi parla in genere ha meno tempo di chi scrive per pianificare la propria produzione linguistica; - chi scrive ha accesso diretto a quanto ha prodotto fino a quel momento e può quindi modificarlo; - la scrittura è fondamentalmente un processo più consapevole rispetto al linguaggio parlato; - il linguaggio parlato è solitamente informale e di struttura semplice e veicola le informazioni in modo semplice, mentre il linguaggio scritto è più formale ed ha una struttura più complessa.

LA CONVERSAZIONE Grice ha evidenziato come ogni conversazione sia il frutto di un lavoro di cooperazione tra due o più persone che si sono date un obiettivo comune ( Principio di Cooperazione ); inoltre la cooperazione si sviluppa anche in termini di avvicendamento del turno di parola. L’obiettivo di ogni parlante è che il suo messaggio venga compreso dall’interlocutore. Terreno comune: è la somma delle convinzioni, delle aspettative e delle conoscenze comuni dei parlanti; esistono due diverse posizioni teoriche in merito: - modello del piano iniziale, che è basato sul principio del piano ottimale, secondo il quale il parlante desidera che l’interlocutore basi le proprie inferenze solo sulle conoscenze e su lle convinzioni comuni; - modello di monitoraggio e di regolazione, secondo cui chi parla modula il proprio discorso inizialmente solo sulla base delle informazioni di cui dispone, senza considerare la prospettiva di chi ascolta. Le evidenze sperimentali sono più compatibili con il modello di monitoraggio e regolazione; tuttavia il terreno comune viene costruito molto più facilmente in una situazione che comporti interazione e dialogo (rispetto agli esperimenti di laboratorio in cui l’interlocutore ha solo il ruolo di ascoltatore). Limiti delle ricerche sul terreno comune: - è probabile che il terreno comune venga utilizzato quando il tempo non è limitato e quando è possibile l’interazione con l’ascoltatore; - i partecipanti ai test generalmente non conoscono i propri interlocutori (e quindi è più impegnativo tener presente le conoscenze dell’altra persona); - nella vita comune il terreno comune, a differenza di quello solo visivo dei test, si può riferire a esperienze o eventi passati, a conosce comuni, alla conoscenza del mondo e anche ad informazioni direttamente presenti nella situazione. Modello di allineamento interattivo: prevede che parlante e ascoltatore condividano, nel corso del dialogo, una certa quantità di conoscenza del mondo e anche della situazione in corso; il processo che porta ad una conoscenza condivisa sempre maggiore viene chiamato allineamento interattivo , e implica che gli interlocutori aggiustino e confermino le loro conoscenze durante una conversazione, con l’obiettivo di arrivare a una conoscenza condivisa più estesa. Può accadere che gli interlocutori manchino delle risorse cognitive necessarie per massimizzare il terreno comune , e quindi entrano in gioco processi automatici che ne garantiscono la creazione o il mantenimento. Uno di questi processi è dato dal prime, o suggerimento, che è l’effetto per cui un partecipante al dialogo utilizza frasi o termini detti dall’interlocutore durante il suo turno di parola (le parole o le frasi di uno dei due parlanti suggeriscono quindi quelle che l’altro potrà dire). Priming sintattico: è l’effetto per cui una struttura sintattica utilizzata precedentemente dall’interlocutore influenza la scelta delle strutture sintattiche del parlante; evidenze sperimentali dimostrano la sua esistenza (ha la funzione di rendere più facile coordinare le informazioni a chi è coinvolto in una conversazione). ⇩ Quando non si crea un buon terreno comune o la conversazione esce dal terreno comune gli interlocutori, secondo il modello, cercano di risolvere il problema (è il concetto di responsabilità condivisa ). 45

PIANIFICAZIONE DEL DISCORSO Nella produzione del linguaggio in genere la prima fase consiste nel decidere quale messaggio si desidera comunicare (pianificazione). Esistono varie possibilità teoriche: 1) la pianificazione del discorso avviene spezzettando il discorso in  proposizioni, cioè in parti che contengono almeno un soggetto ed un verbo (gli errori del linguaggio ne sono una prova a favore); 2) la pianificazione del discorso avviene a livello più microscopico, cioè a livello delle locuzioni, cioè gruppi di parole in relazione grammaticale tra loro, che esprimono un solo concetto; 3) la pianificazione è estremamente limitata. Le evidenze sperimentali mostrano che i risultati sono poco coerenti, ma possono essere spiegati tramite il concetto di flessibilità del linguaggio, e che la pianificazione può variare in base alla situazione (oltre ad esistere significative differenze individuali). Un limite dato da questi studi è il fatto che è difficile valutare l’entità precisa della pianificazione (soprattutto impiegando compiti artificiali e non situazioni più naturali).

 ASPETTI DI BASE DEL LINGUAGGIO PARLATO Quando si parla vengono impiegate strategie di vario tipo per ridurre le richieste di elaborazione mentre si pianifica cosa dire in seguito: - preformulazione, che implica la riduzione dei costi di elaborazione mediante la produzione di frasi usate in precedenza (circa il 70% del proprio linguaggio è costituito da combinazioni di parole usate spesso); - sottospecificazione, che implica l’impiego di espressioni semplificate in cui il significato non viene espresso in modo esplicito, ma è comunque facilmente desumibile nel contesto di formul azione; - marcatori del discorso, che non contribuiscono direttamente al contenuto dell’enunciato, ma rivestono una certa importanza nella comprensione del discorso assolvendo molte funzioni (è molto importante anche il contesto d’uso); - indizi prosodici, che includono il ritmo, l’accento e l’intonazione con cui viene pronunciata una frase, e rendono più semplice agli ascoltatori la comprensione di ciò che viene detto, anche se non sempre vengono prodotti intenzionalmente (vengono impiegati soprattutto quando il contesto non è sufficiente a chiarire il significato di una frase ambigua); - gestualità, basata su gesti coordinati in termini di sincronia e significato con le parole pronunciate (ha lo scopo di facilitare la comunicazione, anche se spesso sono il prodo tto dell’abitudine).

ERRORI NEL LINGUAGGIO Gli errori di linguaggio sono molto utili per identificare i processi cognitivi coinvolti normalmente nella produzione del linguaggio e per capire la misura in cui i parlanti pianificano in anticipo il loro contributo alla conversazione: - spoonerismo, in cui vengono scambiate la lettera o le lettere iniziali di due parole; - lapsus freudiano, un errore non casuale, ma rivelatore dei desideri inconsci del parlante; - errori di sostituzione semantica, che hanno luogo quando la parola corretta è sostituita da una parola di significato simile; - errori di scambio di morfemi, in cui solitamente le inflessioni, o suffissi, rimangono al proprio posto, ma sono collegate alle parole sbagliate (questo dimostrerebbe come le radici delle parole vengano elaborate prima dell’aggiunta delle desinenze); - errore di concordanza del numero, in cui i verbi singolari vengono erroneamente usati con soggetti plurali o viceversa (questo perché la concordanza del verbo non è un fenomeno esclusivamente sintattico, ma dipende da una serie di elementi sintattici e non sintattici, la cui gestione può generare conflitti). Sembra che si ha bisogno di usare considerevoli risorse di elaborazione per evitare gli errori, o per riconoscerli (si aggiunge quindi un carico cognitivo alla memoria di lavoro ).

TEORIE SULLA PRODUZIONE DEL LINGUAGGIO a) Modello della diffusione dell’attivazione (Dell): secondo questa teoria i processi implicati nella produzione del linguaggio avvengono in parallelo , rendendo possibile l’elaborazione contemporanea e l’integrazione di tipi di informazione molto diversi; i processi coinvolti sono quindi molto flessibili e anche un po’ caotici. Secondo Dell la produzione del linguaggio è costituita da 4 livelli: 1) livello semantico (il significato di quanto si deve comunicare); 2) livello sintattico (la struttura grammaticale delle parole nell’enunciato da pronunciare); 3) livello morfologico (i morfemi della frase da pronunciare, cioè sequenze di uno o più fonemi che costituiscono la più piccola unità linguistica dotata di significato); 4) livello fonologico (i fonemi della frase da pronunciare, cioè le unità sonore basilari). Ad ogni livello si forma una differente elaborazione del discorso che si sta pianificando; inoltre l’elabora zione avviene contemporaneamente a tutti e 4 i livelli e i processi di qualsiasi livello possono influenzare quelli degli altri. 46

Gli assunti principali della teoria sono i seguenti: - diffusione dell’attivazione , che consiste nell’ipotizzare che i nodi all’interno di una rete (molti dei quali corrispondono a parole) varino nel loro livello di attivazione o energia (quando si attiva un nodo o una parola, l’attivazione si diffonde da esso ad altri nodi correlati); - regole categoriali, cioè regole per ciascun livello (semantico, sintattico, morfologico e fonetico) che definiscono le categorie appropriate per quel livello e che definiscono le categorie di elementi e la combinazione di categorie accettabili nel costruire le rappresentazioni; - lessico (dizionario), che è organizzato come una rete connessionista; - regole di inserzione, cioè regole che selezionano gli elementi da includere nella rappresentazione a ciascun livello secondo il criterio della maggiore attivazione (viene scelto il nodo maggiormente attivato da quella categoria); - sistema di monitoraggio (vigile sintattico ) su ciò che si intende dire, che inibisce le parole che non appartengono alla categoria sintattica appropriata (questo spiega perché gli errori del linguaggio sono spesso sostituzione di nomi con nomi o di verbi con verbi e non viceversa); - gli errori del linguaggio si verificano quando un elemento scorretto ha un livello di attivazione più elevato dell’elemento corretto. Evidenze sperimentali mostrano la correttezza dell’idea secondo cui più livelli di elaborazione possono agire contemporaneamente sulla pianificazione della frase; inoltre è stata confermato il concetto secondo cui gli errori appartengono alla categoria appropriata. Molti errori commessi nel linguaggio sono coerenti con la teoria (ad es. errori di anticipazione, errori di scambio, ecc.). Punti di forza della teoria: - l’effetto degli errori misti (che si verificano quando una parola inesatta è collegata sia dal punto di vista semantico che da quello fonemico alla parola corret ta) indica che l’elaborazione associata alla produzione del linguaggio può essere altamente interattiva, come previsto dalla teoria; - è in grado di spiegare molti tipi di errori del linguaggio; - l’enfasi posta sulla diffusione dell’attivazione consente di fo rnire spiegazioni anche per altri fenomeni linguistici, come il riconoscimento di parole (ad es. gli errori del linguaggio tendono ad essere parole reali piuttosto che non-parole, e questo effetto è noto come effetto di distorsione lessicale ); - spiega come la capacità di produrre frasi nuove dipende molto dall’attivazione in parallelo dell’elaborazione ai vari livelli. Limiti della teoria: - ha poco da dire sui processi che operano a livello semantico, attribuendo scarsa attenzione alle questioni relative alla costruzione di un messaggio ed al suo significato intenzionale; - predice la natura ed il numero di molti errori del linguaggio, ma non riesce a spiegare in modo preciso il tempo necessario a produrre le parole enunciate; - si concentra molto sullo studio degli errori, e i processi di interazione fra livelli sono più evidenti nei dati relativi agli errori rispetto ai dati ricavabili da conversazioni esenti da errori; - un sistema interattivo come quello proposto dalla teoria sembra predire molti più errori di quanti se ne osservino realmente nel linguaggio. b) Modello WEAVER++ (Levelt): secondo questa teoria l’elaborazione è seriale e procede in modo ordinato; i processi interessati nella produzione del linguaggio sono strutturali e soggetti a regole rigide. Il modello si concentra sui processi implicati nella produzione di singole parole e si basa sui seguenti assunti: - esiste una rete di diffusione in avanti dell’attivazione (l’attivazione procede in una rete con un movimento in avanti), e l’elaborazione procede dal significato che si vuole comunicare al suono che si pronuncerà; - nella rete vi sono 3 livelli principali disposti gerarchicamente: 1) nodi che rappresentano i concetti lessicali (il livello più elevato); 2) nodi che rappresentano i lemmi o le parole astratte del lessico mentale (i lemmi sono rappresentazioni di parole che sono specificate dal punto di vista sintattico e semantico ma non da quello fonologico); 3) nodi che rappresentano le forme delle parole in termini di morfemi ed i loro segmenti fonetici o suoni (il livello più basso); - la produzione del linguaggio implica una serie di fasi di elaborazione che si susseguono in modo seriale; - gli errori linguistici vengono evitati attraverso un meccanismo di controllo. La teoria è stata elaborata per dimostrare in che modo la produzione di parole proceda dal significato (concetti lessicali e lemmi) al suono: vi è una fase di selezione lessicale (selezione del lemma), a cui segue una codifica morfologica e in seguito una codifica fonologica . L’intero processo è chiamato lessicalizzazione, ed è il processo della produzione del linguaggio per mezzo del quale si traduce una rappresentazione semantica di una parola, il significato, nella sua rappresentazione o forma fonologica, il suono. WEAVER++ è quindi un modello: - discreto, perché il sistema di produzione del linguaggio completa il suo compito di identificazione del lemma o della parola astratta corretti prima di iniziare ad elaborare il suono della parola selezionata; - proiettato in avanti, perché l’elaborazione procede in una direzione rigidamente rivolta in avanti (dal significato al suono). 47

Evidenze sperimentali basati sul fenomeno della  parola-sulla-punta-della-lingua sembrano confermare il modello WEAVER++: in questi casi infatti l’elaborazione semantica ha succ esso, ma non ha successo quella fonologica (e questo si verifica quando i collegamenti tra i sistemi semantico e fonologico sono deboli, generalmente perché le persone incontrano difficoltà nel valutare la rappresentazione fonologica della parola corretta). Inoltre alcuni studi basati su ERPs hanno confermato che il parlante ha accesso alle informazioni semantiche e sintattiche sulle parole  prima di avere accesso a quelle fonologiche; tuttavia la maggior parte delle evidenze sperimentali non conferma le previsioni del WEAVER++ secondo cui la selezione del lemma viene completato prima dell’accesso alle informazioni fonologiche sulla parola (né conferma in modo definitivo l’elaborazione seriale). Punti di forza della teoria: - il concetto secondo cui la produzione di parole comporta una serie di fasi che vanno dalla selezione lessicale alla codifica morfologica fornisce una ragionevole approssimazione di ciò che accade nella realtà; - ha il vantaggio di spostare l’attenzione della ricerca dagli errori del linguaggi o alla sequenza temporale precisa dei processi di produzione delle parole in condizioni di laboratorio; - è un modello semplice ed elegante che formula molte previsioni verificabili; - gli studi su pazienti affetti da agrammatismo e quelli affetti da  gergo-afasia sono coerenti con il modello (nel primo caso i soggetti trovano le parole appropriate, ma non sanno ordinarle dal punto di vista grammaticale, mentre nel secondo caso lo schema è opposto), anche se esistono delle controversie. Limiti della teoria: - la maggior parte del lavoro di ricerca riguarda la produzione di singole parole, e di conseguenza i processi implicati nella pianificazione e nella produzione di intere frasi non vengono considerati in dettaglio; - numerose evidenze di laboratorio indicano che vi è molta più interazione tra i diversi livelli di elaborazione di quanto ipotizzato dal modello; - molte evidenze sperimentali che riguardano gli errori del linguaggio suggeriscono che vi sia una considerevole elaborazione parallela durante la produzione del linguaggio (ad es. gli errori di scambio di parola, di scambio di suono, gli errori misti e l’effetto di distorsione lessicale sono difficili da spiegare con il modello WEAVER++); - i dati non indicano in modo chiaro e univoco la necessità teorica di ipotizzare i lemmi, dato che la maggior parte delle evidenze richiede solo una distinzione tra livello semantico e livello fonologico.

SCRITTURA La scrittura comporta il recupero e l’organizzazione delle informazioni immagazzinate nella memoria a lungo termine, e implica processi di pensiero complessi; essa dipende da altre facoltà cognitive (si è sostenuto che sia una forma di pensiero) e l’ alfabetizzazione può accrescere la capacità di pensiero. I processi generali della scrittura sono: 1) pianificazione, che consiste nella produzione di idee e nella loro organizzazione in un modo che soddisfi gli obiettivi che lo scrivente sta cercando di raggiungere; 2) produzione di frasi, cioè la trasformazione del programma di scrittura nell’effettiva scrittura di frasi; 3) revisione, che implica la valutazione di quanto è stato scritto (può attuarsi a livello delle singole parole o a livello della coerenza strutturale dello scritto). Anche se di solito la sequenza naturale delle fasi è questa, spesso chi scrive ne altera l’ordine; evidenze sperimentali mostrano inoltre che i processi si susseguono velocemente e che sono tra di loro molto interdipendenti (e forse sono meno distinti di quanto si possa immaginare), soprattutto la produzione e la pianificazione. La memoria di lavoro svolge un ruolo molto importante nella scrittura e la pratica determina la maggior bravura a scrivere di certi individui rispetto ad altri: tutte le sue componenti hanno capacità limitata ed è probabile che le richieste a carico di tali componenti si riducano con la pratica. Bereiter e Scardamalia hanno individuato due strategie fondamentali utilizzate nella fase di pianificazione: 1) strategia di comunicazione delle conoscenze, che prevede che chi scrive si limiti ad annotare tutto ciò che sa in merito ad un determinato argomento, senza particolare pianificazione; 2) strategia di trasformazione delle conoscenze, che implica uno spazio per i problemi retorici (cioè il raggiungimento degli obiettivi del compito di scrittura) e uno spazio per i problemi di contenuto (cioè le informazioni specifiche da scrivere). Kellogg ha sostenuto che gli scriventi davvero esperti raggiungano una terza fase: 3) strategia di creazione delle conoscenze, che implica la considerazione del punto di vista del lettore per contrastare l’effetto della conoscenza, cioè la tendenza ad ipotizzare che altre persone condividano le stesse conoscenze di chi scrive (quindi in questa fase chi scrive è in grado di conservare nella mente le idee dell’autore, le parole del testo stesso e le interpr etazioni del testo del potenziale lettore). Secondo Kellogg i principali processi di scrittura sono impegnativi e faticosi, e pongono considerevoli richieste di elaborazione alla memoria di lavoro (specialmente l’esecutivo centrale ), che possono essere particolarmente gravose durante la revisione o la correzione; tuttavia non è chiaro se la scrittura dipenda necessariamente dall’interessamento del circuito fonologico , dato che alcuni pazienti con grave deficit del circuito fonologico hanno capacità di scrittura pressoché normali. 48

SPELLING Goldberg e Rapp hanno proposto un modello esplicativo dei principali processi e strutture implicate nello spelling di parole udite: - ci sono due tipi di processi o vie che possono portare dall’ascolto di una parola alla sua pronuncia: 1) la via lessicale, che contiene le informazioni necessarie per mettere in relazione la rappresentazione fonologica (suono), la rappresentazione semantica ( significato) e la rappresentazione ortografica (spelling) delle parole; 2) la via non-lessicale, che non implica accesso a informazioni dettagliate sul suono, sul significato e sullo spelling delle parole udite, ma usa regole standard, contenute nella memoria a lungo termine, per trasformare i suoni ( fonemi) in gruppi di lettere ( grafemi); - la prima via è usata quando si esegue lo spelling di parole familiari, mentre la seconda quando si esegue lo spelling di parole poco familiari o non-parole; - entrambe le vie utilizzano un buffer grafemico che trattiene brevemente nella memoria di lavoro le rappresentazioni grafemiche prodotte, costituite da lettere astratte o gruppi di lettere, fino al momento in cui vengono scritte. Evidenze derivate da pazienti con disgrafia fonologica e disgrafia superficiale mostrano l’esistenza della via lessicale e di quella non-lessicale (i pazienti con disgrafia fonologica riescono a fare lo spelling di parole note ma non di quelle non familiari, mentre quelli con disgrafia superficiale non hanno accesso alle informazioni lessicali sulle parole, e quindi vi è una doppia dissociazione). Tuttavia altre evidenze sperimentali mostrano come le due vie non siano del tutto indipendenti, ma che interagiscono tra di loro. Lessico: sembra che non esista un unico lessico ortografico, ma che vi siano 2 lessici: 1) uno per la lettura (chiamato lessico dell’input ortografico , perché usato su una informazione in input, la parola che si sta leggendo); 2) uno per la scrittura (chiamato lessico dell’output ortografico , perché usato per produrre un output  ortografico). Evidenze sperimentali suggeriscono l’esistenza dei due lessici ortografici, ma altre evidenze mostrano come potrebbe essercene uno solo: infatti si è visto come aree cerebrali comuni siano interessate nella lettura e nello spelling delle parole, e quest o è coerente con l’ipotesi dell’esistenza di un solo lessico ortografico. Sembra dunque che le prove (soprattutto basate sullo studio di pazienti cerebrolesi) pendano più verso l’ipotesi di un unico lessico ortografico.

49

50

capitolo 13

ATTIVITÀ COGNITIVA ED EMOZIONI INTRODUZIONE Negli individui vi è una forte relazione tra attività intellettiva ed emozioni, soprattutto nella misura in cui questi ultimi producono effetti sull’attività cognitiva. Esistono due scuole di pensiero sulla struttura delle emozioni : a) approccio categorico, secondo il quale vi sono numerose emozioni distinte come la felicità, la rabbia, la paura, il disgusto e la tristezza (è un approccio che si adatta alla propria esperienza soggettiva); b) approccio dimensionale, secondo il quale [Barrett e Russell] esistono due dimensioni non correlate di infelicità piacere e risveglio-sonno (un’altra prospettiva [Watson e Tellegen] è basata su due dimensioni non correlate di affetto  positivo e affetto negativo ; in generale affetto è un termine che include sia l’emozione [esperienza breve e intensa] che l’umore [esperienza prolungata e meno intensa]). L’approccio dimensionale (o bi-dimensionale, nella combinazione delle due prospettive) ha ricevuto numerose convalide, e in genere è relativamente semplice conciliarlo con l’approccio categorico: la maggior parte degli stati emotivi può infatti rientrare nello spazio bidimensionale (vedi figura).

TEORIE SULLA VALUTAZIONE I processi cognitivi sono importanti nel determinare quando si sperimentano degli stati emotivi e quale particolare stato emotivo si prova, ma in generale numerosi teorici sostengono che i processi cognitivi più importanti implicano la valutazione della situazione: le teorie sulla valutazione sostengono che le valutazioni danno inizio al processo emotivo, innescando le variazioni fisiologiche, espressive, comportamentali ed altre ancora che comprendono il conseguente stato emotivo (sono quindi le valutazioni che causano gli stati emotivi). Secondo una nota teoria (Lazarus) esistono 3 forme di valutazione: 1) valutazione primaria, in cui una situazione ambientale è vista come positiva, stressante o irrilevante per lo stato di benessere; 2) valutazione secondaria, in cui si tiene conto delle risorse cui l’individuo può fare appello per far fronte alla situazione; 3) rivalutazione, in cui vengono monitorate le situazioni stimolo e le strategie per fronteggiarla, modificando se necessario le valutazioni primaria e secondaria. Inoltre secondo Lazarus l’elaborazione implicata da queste forme di valutazione non è sempre consapevole: esistono infatti due tipi di processi di valutazione, uno che opera in modo automatico s enza consapevolezza o controllo della volontà, ed un altro che è consapevole, deliberato e volontario. Vi sono stati due principali sviluppi della teoria: 1) si ipotizza che ogni emozione sia suscitata da una configurazione specifica e peculiare di valutazione e che le componenti di valutazione siano 6, due delle quali (a) implicano la valutazione primaria e quattro (b) la valutazione secondaria: 1a) rilevanza motivazionale ; 2a) congruenza motivazionale ; 3b) responsabilità; 4b) capacità di gestione centrata sul problema ; 5b) capacità di gestione centrata sulle emozioni ; 6b) aspettative future ; è possibile distinguere i diversi stati emotivi in base alle componenti di valutazione implicate ed al modo in cui esse sono implicate; 51

2) ci sono tre meccanismi di base nella produzione delle valutazioni: - elaborazione associativa, che implica il priming e l’attivazione dei ricordi (ha luogo rapidamente ed in modo automatico e manca di flessibilità); - ragionamento, che implica il pensiero deliberato (è più lento e più flessibile dell’elab orazione associativa); - rilevatori della valutazione, che sottopongono a continuo monitoraggio le informazioni derivanti dai processi associativo e di ragionamento (lo stato emotivo di un individuo è determinato da tutte le informazioni registrate dai rilevatori della valutazione). Evidenze sperimentali mostrano che l’esperienza emozionale può essere influenzata dalla valutazione cognitiva; inoltre le diverse reazioni emotive sono prodotte da differenze individuali nella valutazione della situazione. Altre prove hanno evidenziato come la valutazione può implicare processi associativi molto rapidi che hanno luogo al di sotto del livello di consapevolezza. Limiti della teoria: - l’ipotesi che la valutazione della situazione attuale svolga sempre un ruolo fondame ntale nel determinare l’esperienza emotiva è troppo forte; - mentre si ipotizza che la valutazione causi esperienze emotive, è probabile che la causalità sia spesso nella direzione opposta, e in genere la valutazione e l’esperienza emotiva spesso sfumano l’u na nell’altra; - ha considerato il paradigma (modello) dell’esperienza emotiva come un fenomeno relativo ad un soggetto passivo che affronta uno stimolo minaccioso e potenzialmente mortale, ma così facendo vi è il pericolo di de-enfatizzare il contesto sociale in cui quasi tutte le emozioni vengono esperite (l’esperienza emotiva in genere deriva da un’attiva interazione sociale); - la distinzione tra processi di valutazione automatici e deliberati o controllati è importante, ma esistono ancora relativamente poche ricerche dedicate a chiarire quando e come tali processi operino; - Lazarus non è riuscito a giustificare nel dettaglio l’elenco di emozioni identificate.

REGOLAZIONE DELLE EMOZIONI La regolazione delle emozioni è la serie di processi per cui le persone cercano di reindirizzare il flusso spontaneo delle proprie emozioni; il prototipo della regolazione delle emozioni è un processo deliberato e impegnativo che cerca di superare le risposte emotive spontanee delle persone. Esistono diverse strategie per regolare le emozioni, ed esse possono essere usate in vari momenti: 1) scelta della situazione ; 2) modifica della situazione ; 3) schieramento dell’attenzione ; 4) variazione cognitiva (valutazione); 5) modulazione della risposta . 3) Schieramento dell’attenzione : spesso è utile distrarsi per ridurre uno stato d’umore negativo, e molte evidenze sperimentali convalidano questa previsione. La memoria di lavoro, che è implicata nell’elaborazione e nell’immagazzinamento delle informazioni, ha capacità limitata: se la maggior parte della capacità della memoria di lavoro è dedicata all’elaborazione di stimoli che inducono distrazione, vi è scarsa capacità residua per elaborare informazioni emotive negative. Una strategia potenzialmente utile per la regolazione delle emozioni e di cui è stata dimostrata l’esistenza è la contro-regolazione dell’attenzione, che implica l’impiego dei processi attenzionali per ridurre gli stati emotivi positivi e negativi (se ne fa uso soprattutto quando si sente la necessità di essere freddi, calmi e raccolti, e in effetti questa strategia è usata di frequente). 4) Rivalutazione cognitiva (variazione cognitiva): la rivalutazione implica la reinterpretazione del significato di uno stimolo per cambiare la risposta emotiva nei suoi confronti; l’ipotesi fondamentale è che la regolazione delle emozioni associata alla rivalutazione cognitiva spesso implichi processi di controllo cognitivo di livello più elevato nella corteccia prefrontale e nel cingolato anteriore. È probabile che le strategie di rivalutazione varino nei processi specifici e nelle aree cerebrali implicate. Esistono due tipi di strategie di rivalutazione (anche se entrambe attivano la corteccia prefrontale e il cingolato anteriore): - reinterpretazione, che implica il cambiamento del significato del contesto in cui viene presentato uno stimolo; - distanziamento, che implica l’assunzione di una prospettiva distaccata e impersonale. Evidenze sperimentali derivate da studi di neuroimaging mostrano che le strategie di rivalutazione producono la riduzione dell’attivazione dell’ amigdala (che è fortemente implicata nella risposta emotiva) in seguito all’attivazione della corteccia prefrontale e del cingolato anteriore , ma non è stata ancora dimostrata una connessione causale tra i due fenomeni; inoltre si è dimostrato che sia la reinterpretazione che il distanziamento possono regolare le emozioni in modo efficace, ma le evidenze sperimentali hanno mostrato che le due strategia implicano meccanismi molto diversi. 52

TEORIE A LIVELLI MULTIPLI È probabile che numerosi processi cognitivi diversi siano alla base dell’esperienza emotiva (che è influenzata da processi associativi e dal ragionamento), ed è per questo che vengono proposte sempre più spesso teorie a livelli multipli, che tentano di spiegare per quale motivo esistono i fenomeni di conflitto emotivo che si provano molto spesso (ad es. una paura immotivata). LeDoux ha proposto una teoria a livelli multipli autorevole, in cui enfatizza il ruolo svolgo dall’ amigdala (il “computer” emotivo del cervello) in quanto è in grado di spiegare il significato emotivo degli stimoli (le informazioni sensoriali sugli stimoli emotivi vengono trasmesse contemporaneamente dal talamo all’amigdala ed alla corteccia). Nella paura esistono due diversi circuiti emotivi: - un circuito lento talamo-corteccia-amigdala che implica l’analisi dettagliata delle informazioni sensoriali (fornisce una valutazione dettagliata del significato emotivo della situazione e consente di fronteggiare le situazioni nel modo più appropriato); - un circuito veloce talamo-amigdala basato su semplici caratteristiche degli stimoli (come l’intensità) che esclude la corteccia (consente di rispondere in modo rapido a situazioni ritenute minacciose, e quindi può rivelarsi prezioso nel garantire la sopravvivenza). Sebbene LeDoux si sia occupato principalmente della paura, si è visto che anche altre emozioni dipendono da percorsi di elaborazione consapevoli e non consapevoli alquanto distinti. ⇩ Elaborazione emotiva inconscia: esistono prove secondo cui i processi al di sotto del livello della consapevolezza possono produrre reazioni emotive; inoltre lo studio di pazienti con blindsight affettivo ha mostrato come essi possono distinguere i diversi stimoli emotivi in assenza di percezione consapevole (e questo è stato dimostrato), anche se altre evidenze sperimentali suggeriscono che la percezione consapevole può bloccare l’accesso alle informazioni percepite in modo inconsapevole. Modello SPAARS: è un modello a livelli multipli che tiene conto della distinzione tra processi consapevoli e processi inconsci nelle emozioni. Le varie componenti del modello sono le seguenti: 1) livello analogico (interessato nell’elaborazione sensoriale di base degli stimoli ambie ntali); 2) livello proposizionale (un sistema fondamentalmente scevro da emozioni, che contiene informazioni relative al mondo e al sé); 3) livello schematico (al suo interno gli eventi reali desunti dal sistema proposizionale si combinano con le informazioni relative agli obiettivi individuali, in modo tale da produrre un modello interno della situazione, e questo causerà una reazione emotiva se viene ostacolato il raggiungimento di tali obiettivi) [le emozioni di base sono 5: tristezza, felicità, rabbia, paura e disgusto]; 4) livello associativo (a questo livello, che opera in genere al di sotto del livello della consapevolezza, le emozioni possono essere generate rapidamente ed in modo automatico senza l’attivazione dei relativi modelli schematici). Secondo il modello le emozioni possono avere luogo in base a due modalità diverse: a) si possono verificare come risultato dell’elaborazione cognitiva complessiva quando è implicato il sistema schematico; b) si verificano in modo automatico e senza l’interessamento dell’elaborazione conscia quando è implicato il sistema associativo . Le esperienze emotive dipendono dal livello associativo in alcuni casi: - quando si hanno esperienze ripetute di un dato oggetto o evento, e ciò può consentire di rispondere emotivamente mediante l’impiego del sistema associativo; - è più probabile rispondere in modo associativo ad alcuni oggetti rispetto ad altri che possono essere ritenuti più pericolosi (ad es. ragni), probabilmente per eredità evolutive (si sviluppano maggiori fobie nei confronti di oggetti che hanno minacciato a lungo la sopravvivenza della propria specie). Il modello non afferma che la consapevolezza è associata solo al livello schematico, in quanto esistono altri fattori importanti come l’allocazione dell’attenzione e i processi inibitori: - se un soggetto ha numerosi modelli di sé come individuo ricco di qualità positive ma un maggior numero di modelli negativi, i primi possono inibire la consapevolezza dei s econdi; - i fattori culturali possono produrre inibizione e perdita di consapevolezza. È stato anche dimostrato che le 5 emozioni di base si riscontrano in tutte le culture e che molte altre possono essere ricondotte ad una combinazione di esse (sono cioè emozioni complesse). Altre evidenze sperimentali mostrano l’esistenza di tutte le componenti principali del modello. Il limite principale della teoria è dato dalla necessità di effettuare ulteriori ricerche per chiarire il modo in cui i vari processi implicati nelle emozioni interagiscono l’uno con l’altro.

53

UMORE ED ATTIVITÀ COGNITIVA In generale qualsiasi stato d’umore (negativo o positivo) sembra influenzare l’elaborazione cognitiva così che quando si pensa e si ricorda vi sia una corrispondenza o una congruenza con lo stato dell’umore. 1) Teoria della rete: è una teoria della rete semantica sviluppata da Bower per rendere conto di fenomeni legati allo stato d’umore e si basa su 6 presupposti teorici: 1) le emozioni possono essere considerate come unità o nodi in una rete semantica, con numerosi collegamenti ad idee correlate, a sistemi fisiologici, ad eventi, e così via; 2) il materiale emotivo è immagazzinato nella rete semantica sotto forma di  proposizioni o asserzioni; 3) il pensiero si verifica attraverso l’attivazione di nodi all’interno della rete semantica; 4) i nodi possono essere attivati da stimoli interni o esterni; 5) l’attivazione si diffonde da un nodo attivato ai nodi collegati (questa ipotesi è fondamentale perché significa che l’attivazione di un nodo emotivo induce l’attivazione di nodi collegati a questa emozione); 6) la consapevolezza è costituita da una rete di nodi attivati al di sopra di un valore soglia. I presupposti precedenti conducono a 4 ipotesi verificabili: a) rievocazione dipendente dallo stato dell’umore (la rievocazione è migliore quando l’umore a questa correlato è uguale a quello che si aveva al momento dell’apprendimento); b) congruenza dell’umore (l’informazione connotata emotivamente è appresa e recuperata meglio quando c’è corrispondenza tra il suo valore affettivo e l’attuale condizione dell’umore di chi apprende); c) congruenza del pensiero (le associazioni libere di un individuo, le interpretazioni, i pensieri e i giudizi tendono ad essere nematicamente congruenti alle sue condizioni di umore); d) intensità dell’umore (aumenti di intensità dell’umore causano aumenti di attivaz ione di nodi collegati nella rete associativa). Numerose evidenze sperimentali hanno convalidato molti aspetti della teoria, comprese le 4 ipotesi; tuttavia si sono verificati numerosi insuccessi nel confermare le predizioni che derivano dalla teoria, in parte a causa della motivazione dei soggetti che si trovano in uno stato negativo dell’umore a modificare il proprio stato d’animo. Limiti della teoria: - prevede che l’umore influenzi l’elaborazione cognitiva più ampiamente di quanto accada in realtà; - è notoriamente difficile da confutare in quanto è difficile fornire a priori una specifica completa del tipo di contenuti cognitivi presumibilmente attivati in qualsiasi particolare compito cognitivo; - è troppo semplicistica (le emozioni, o stati dell’umore, ed i concetti cognitivi sono entrambi rappresentati come nodi all’interno di una rete semantica, ma in realtà questi due elementi so no molto diversi e una teoria che considera le emozioni al pari delle parole o concetti individuali è confusa dal punto di vista teorico); - è limitata nella sua possibilità di applicazione essendo progettata in modo specifico per rappresentare solo le relazioni tra singole parole. 2) Modello di infusione dell’affetto : questa teoria è simile al modello di Bower ma ha uno scopo più ampio; il suo punto di partenza è il concetto di infusione dell’affetto , che si verifica quando le informazioni relative all’affetto influenzano selettivamente l’attenzione, l’apprendimento, la memoria, la presa di decisioni e la valutazione. Secondo la teoria esistono 4 strategie di elaborazione che variano nella misura in cui interessano l’infusione dell’affetto: a) accesso diretto, che implica il recupero fortemente guidato di contenuti cognitivi immagazzinati e non è influenzato dall’infusione dell’affetto; b) strategia di elaborazione motivata, che implica che l’elaborazione delle informazioni è influenzata da qualche forte obiettivo pre-esistente (vi è scarsa infusione dell’affetto); c) elaborazione euristica, che implica (richiedendo il minimo sforzo) l’impiego dei propri attuali sentimenti come informazioni che influenzano i propri atteggiamenti (vi è consi derevole infusione dell’affetto); d) elaborazione effettiva, che implica elaborazione estesa e prolungata e in cui l’affetto svolge spesso un ruolo principale, proprio perché influenza le informazioni usate durante l’elaborazione cognitiva (chi lo usa sceglie, impara ed interpreta le informazioni e poi le collega alle conoscenze pregresse). La differenza principale con il modello di Bower consiste nel fatto che gli effetti dell’umore o dell’affetto sull’attività cognitiva sono molt o meno diffusi: infatti il modello ipotizza che l’umore influenzi l’elaborazione e la prestazione quando viene usata l’elaborazione euristica o effettiva ma non quando si usa l’accesso diretto o l’elaborazione motivata; inoltre delle 4 strategie solo l’elaborazione effettiva ha gli effetti previsti da Bower. Le evidenze sperimentali hanno convalido maggiormente il modello di infusione dell’affetto che il modello della rete. Limiti della teoria: - è difficile verificare il modello in modo esaustivo, perché spesso non vi sono evidenze dirette che riguardano la strategia precisa usata dai soggetti (è possibile usare parallelamente strategie diverse); - anche se è possibile identificare il tipo di strategia di elaborazione impiegato dai partecipanti in un dato compito si può tuttavia non conoscere i precisi processi usati; - il modello non si concentra abbastanza sulle differenze di elaborazione associate ai diversi stati dell’umore (ad es. i soggetti in uno stato d’animo positivo tendono ad usare l’elaborazione eur istica mentre quelli in uno stato d’animo negativo usano l’elaborazione effettiva). 54

View more...

Comments

Copyright ©2017 KUPDF Inc.
SUPPORT KUPDF