ARTICOLO n. 15 / 2022

IL NUOVO INCONSCIO

C’è una conseguenza del test di Turing di cui si parla poco ma che a me sembra l’aspetto più interessante dell’intera faccenda: se un computer può essere equiparato a un umano nel momento in cui finge efficacemente di esserlo, significa che apparire umano è la prima condizione per diventarlo. Da qui a dire che qualsiasi cosa sembri umana è nei fatti umana il passo è breve, e infatti già oggi c’è chi comincia a riflettere sui diritti dei robot o sviluppa legami sentimentali con le intelligenze artificiali (un film come Lei di Spike Jonze era profetico quando uscì 2013, dieci anni dopo è solo un passo avanti alla realtà).

È evidente che a essere in gioco qui non è il futuro della macchina, ma il futuro dell’uomo: è l’essere umano a venir ridefinito dall’intelligenza artificiale e non viceversa. Se c’è un aspetto che esce completamente trasformato dal confronto è quello dell’inconscio, dato che la presenza o meno di una mente inconscia (almeno per come l’ha definita la psicanalisi) è una delle grandi discriminanti tra uomo e macchina. Le azioni dell’uomo, ci ha detto Freud, sono in larga parte determinate da una dimensione della psiche invisibile dall’esterno; ci sono cause nascoste a muovere i gesti più banali; nulla è come sembra. Nella macchina è l’esatto opposto: come nelle grandi maschere cave di Ron Mueck, dietro l’apparenza non si nasconde niente; non c’è una causa propriamente detta, solo il determinismo del codice binario; tutto è esattamente ciò che sembra.

Questo aspetto della visione dall’esterno (ciò che posso vedere è tutto ciò che esiste) è centrale. Com’è noto Turing teorizzò il suo test in un articolo del 1950. Solo due anni più tardi, nel 1952, l’American Psychiatric Association pubblicò la prima versione del suo Diagnostic and Statistical Manual of Mental Disorders, oggi arrivato alla quinta edizione e tuttora il principale strumento diagnostico in psichiatria e in psicologia clinica. Una delle critiche che il DSM-5 non smette di attrarre, come tutti i suoi predecessori, ha proprio a che vedere con il suo approccio empirico: i disordini mentali sono classificati – e dunque trattati – solo sulla base dei sintomi, mentre le cause del malessere vengono ritenute inconoscibili o quantomeno irrilevanti ai fini della cura.

Cosa rimane dell’inconscio in un simile approccio? Non molto, e infatti per diverse decine di anni l’idea freudiana di una dimensione nascosta eppure enormemente rilevante della nostra vita psichica è stata accantonata a favore del metodo più operativo della psicologia cognitiva. Che, come ricorda Frank Tallis nel suo Breve storia dell’inconscio (Il Saggiatore 2019, traduzione di Alessia Ranieri e Monica Longoni) si è affermata proprio negli anni Cinquanta grazie al paradigma computazionale entrato in voga con l’arrivo dei primi computer.

E oggi? Oggi sembriamo assistere a due movimenti apparentemente opposti, che però a ben guardare si rivelano parte di un arco coerente. Il primo filone era già stato ben analizzato da Massimo Recalcati in un libro del 2010 dal titolo emblematico, L’uomo senza inconscio (Raffaello Cortina), sul quale vale la pena spendere qualche parola. Come a volte capita, il titolo dice qualcosa di diverso, e in un certo senso di più, del libro stesso, che personalmente reputo forse la cosa migliore scritta da Recalcati ma che si inserisce comunque in un orizzonte di clinica lacaniana abbastanza tradizionale.

A un livello esplicito, l’assenza di inconscio di cui parla Recalcati va vista come una «perdita del soggetto dell’inconscio», che viene meno nel momento in cui il tecno-capitalismo impone l’imperativo di una soddisfazione immediata della pulsione e il godimento si sostituisce al desiderio (infatti non è un caso che il sequel ideale de L’uomo senza inconscio sia intitolato Le nuove melanconie e sia stato pubblicato sempre da Raffaello Cortina alla fine del 2019, in un momento compresso tra la diffusione mortifera dei nuovi sovranismi e lo scoppio della «psicodeflazione» pandemica, entrambe manifestazioni di quella che potremmo definire una «melanconia sociale»). Nella clinica del terzo millennio, dice Recalcati, il sintomo nevrotico viene sostituito dalla «frattura verticale» di quei disturbi che hanno a che vedere con le dicotomie del tipo tutto/niente, come le dipendenze, l’anoressia o – aggiungo io – il disturbo bipolare. Siamo chiaramente di fronte a un paradigma che mutua le proprie metafore dagli 1 e 0 del codice binario, termini netti tra i quali non esistono sfumature né momenti di elaborazione simbolica.

Ciò che Recalcati non dice esplicitamente, ma che il titolo suggerisce per lui, è che questi nuovi umani sono davvero «senza inconscio», nel senso che somigliano sempre di più alle macchine da cui sono (siamo) agiti e di cui sono (siamo) strumenti. Ecco insomma che la profezia oscura del test di Turing si trasforma in realtà.

L’altro movimento a cui stiamo assistendo, invece, va in direzione di un recupero del concetto di inconscio dopo anni in cui la psicologia cognitiva prima e le neuroscienze poi hanno minimizzato l’esistenza o quantomeno la rilevanza di una dimensione nascosta e simbolica della mente. Questo recupero però non ha a che vedere con la psicanalisi, come si vede nei concetti di «nuovo inconscio» e «nonconscio» che vengono mutuati proprio dal cognitivismo se non addirittura dalle scienze naturali o dall’informatica.

Del primo parla Tallis in Breve storia dell’inconscio quando si sofferma sugli sviluppi contemporanei dell’approccio cognitivo. È vero, dice Tallis, che il cognitivismo ha svilito l’inconscio al punto da arrivare quasi a metterne in discussione l’esistenza tout court, ma è altrettanto vero che proprio la metafora informatica ha portato una corrente di pensiero a concentrarsi su quei «processi di background» che nel cervello agiscono continuamente raggiungendo solo in minima parte la soglia della coscienza, come si vede per esempio quando ci fermiamo prima di fare un passo davanti a un’auto che ci stava per investire e che non avevamo visto. Cosa ci ha fatto fermare se non una parte della nostra mente non cosciente eppure abbastanza vigile da salvarci la vita? Oppure pensiamo alla capacità istintiva di calcolare gli spazi e le dimensioni, o le miriadi di operazioni mentali che sono necessarie per attività quotidiane come scrivere o parlare. Tutto questo è tecnicamente «inconscio», cioè oltre la soglia della nostra coscienza eppure essenziale per il suo funzionamento. Naturalmente si tratta di un inconscio che non ha niente a che vedere con il caotico luogo delle pulsioni di Freud, né tantomeno con l’archivio di simboli sovraindividuali di Jung, ma è pur sempre una forma di psiche altra rispetto alla vita cosciente, che rientra così dalla finestra negli interessi della psicologia  dopo essere stata cacciata dalla porta.

Il concetto di «nonconscio» invece è più sottile. A coniarlo è stata una critica letteraria che da molti anni si occupa del confine sempre più sfumato tra umano e postumano, N. Katherine Hayles, in un libro recentemente pubblicato in Italia da Effequ (L’impensato. Teoria della cognizione naturale, 2021, traduzione di Silvia Dal Dosso e Gregorio Magini).

A differenza del nuovo inconscio di cui parla Tallis, che come l’inconscio freudiano è in larga parte sommerso ma può diventare cosciente a fronte di uno sforzo di autoconsapevolezza o di un accidente (come nell’esempio dello scampato investimento che ho portato sopra), il nonconscio si riferisce a una dimensione totalmente inaccessibile alla coscienza. Inoltre il nonconscio pertiene una condizione base della cognizione, che l’uomo non condivide solo – come presumibilmente nel caso del nuovo inconscio – con gli altri animali, ma anche con le piante e, dice Hayles, con i sistemi informatici complessi. In un certo senso, il concetto di nonconscio ha a che vedere con l’interoperabilità tra specie e regni diversi, e addirittura tra esseri viventi e non viventi in un panorama complesso dove l’interazione con le macchine è diventata parte integrante della vita di tutti i giorni. Se possiamo «capire» un computer, e se un computer può «capire» noi, ciò non si deve solo al fatto che condividiamo un sistema simbolico di tipo umano (ad esempio: una tastiera; un altro esempio: la matematica), ma anche una forma base di cognizione.

Questo nonconscio cognitivo, sostiene Hayles, ha a che vedere con la capacità di entità diversissime di interpretare le informazioni che provengono dall’esterno. Non è necessario che ci sia una coscienza, né tantomeno una consapevolezza di sé e dell’informazione che viene elaborata, perché ci sia cognizione. Un computer può «capire» senza veramente «capire» – ma questa assenza di una «comprensione» a livello cosciente non impedisce che tra noi e una macchina ci sia uno scambio informativo di qualche tipo. Per usare una metafora della cibernetica, uomini, altri esseri viventi e sistemi tecnici complessi sono tutti parte di uno stesso meccanismo che si scambia informazioni e si autoregola tramite processi di feedback.

Può sembrare curioso, ma questa prospettiva mi pare rassicurante rispetto al problema paventato da molte direzioni, spesso a ragione, delle intelligenze artificiali. Quello di Hayles è uno sguardo normalizzante, che tende a smussare i picchi della uncanny valley nella quale ci ha portato il contatto quotidiano con le macchine «intelligenti».

Facciamo un esempio. Nel 2020 si è creduto che un’intelligenza artificiale basata su un modello linguistico autoregressivo conosciuta come GPT-3 avesse finalmente superato il test di Turing. Effettivamente i risultati ottenuti da GPT-3 erano impressionanti: l’IA era in grado di sostenere conversazioni complesse sulla natura della propria «coscienza» e su questioni morali con filosofi e cognitivisti, nonché di comporre una lettera spacciandosi per David Chalmers tanto riuscita da ingannare lo stesso Chalmers sulla sua veridicità. Ma in realtà era una finzione: GPT-3 infatti era perfettamente capace di rispondere a domande sensate, ma andava in crisi con il nonsense – un aspetto che avrebbe probabilmente stuzzicato l’animo inglese dello stesso Turing.

Eludendo i problemi tradizionalmente legati alla natura della coscienza e alla sua imitizaione, la prospettiva di Hayles ci colloca in un paradigma molto diverso rispetto al discorso che solitamente circonda il problema dell’intelligenza delle macchine. Il test di Turing, in fondo, potrebbe essere allo stesso tempo già superato e insuperabile. O meglio ancora, forse guardare al problema dell’interazione uomo-macchina dal punto di vista del test di Turing è sbagliato: in realtà noi e le macchine siamo già parte di uno stesso regno ontologico, almeno a un livello noncosncio che è insieme più reale e meno spaventoso dell’idea fantascientifica di robot indistinguibili dagli umani alla Blade Runner.

Questa potrebbe anche essere una prospettiva efficace per non cadere nel tranello dell’intelligenza artificiale che già vent’anni fa Jaron Lanier aveva inquadrato in maniera precisa quando scriveva che l’unico modo per cui un computer potrà mai passare il test di Turing è che gli umani si abbassino al livello delle macchine, arrivando a considerarsi tanto meccanizzati che la differenza svanisce. Se è così che si crea l’intelligenza artificiale, «artificializzandov l’intelligenza umana, allora dobbiamo ammettere che siamo molto vicini a dare finalmente vita al nostro Golem – e a dimostrarlo, come spiegava già Recalcati, è più la psicologia che l’informatica.

Oppure possiamo ribaltare completamente il tavolo, come fa Hayles, e smettere di seguire il sogno prometeico di costruire macchine capaci di sostituirci. Invece che perseguire l’evoluzione verticale sulla linea della coscienza possiamo espanderci in orizzontale sul piano del nonconscio, entrando in un territorio ancora tutto da esplorare dove ogni forma di cognizione ha il suo spazio, il suo ruolo e la sua specificità, e dove è possibile una convivenza che non prenda i caratteri di una trita distopia.

ARTICOLO n. 33 / 2024