contatore visite

mercoledì 14 gennaio 2026

L’illusione della coscienza artificiale: pareidolia semantica, interfacce cognitive ed AI nel confronto tra Floridi, Hoffman, Chalmers, Tononi e Bostrom.

Negli ultimi anni i sistemi di intelligenza artificiale hanno imparato a dialogare in modo incredibilmente naturale: scrivono testi, rispondono alle domande, ricordano conversazioni passate e danno l’impressione di comprendere emozioni ed intenzioni.

Di fronte a questa sorprendente fluidità linguistica sono in molti a chiedersi se le macchine non stiano già acquisendo una qualche forma di coscienza.

Luciano Floridi (1) propone una risposta netta e controintuitiva: "... il vero problema non sta nel fatto che l’IA stia diventando cosciente o meno, quanto piuttosto nel fatto che noi stiamo diventiamo sempre più inclini a crederlo ...".

Per descrivere questo fenomeno utilizza il concetto di pareidolia semantica che definisce come la tendenza a vedere significato, comprensione e persino coscienza là dove in realtà esistono solo correlazioni statistiche e simulazioni linguistiche.

Il termine compare per la prima volta nell’articolo "AI and Semantic Pareidolia: When We See Consciousness Where There Is None" (2) pubblicato nella prima metà del 2025.

Mutuato dalla psicologia - dove con pareidolia visiva si intende la tendenza a vedere forme familiari, quali ad esempio i volti, in oggetti casuali come nuvole o macchie - l'aggiunta dell'aggettivo "semantica" ne consente l'applicazione nel campo dell'Intelligenza Artificiale dove definisce la tendenza psicologica umana ad interpretare come significative sequenze statistiche di dati (prodotte da modelli di AI) come fossero intenzionali o dotate di significato profondo (vediamo cioè un senso dove in realtà c’è solo elaborazione algoritmica di pattern).

"... Stupefatti dalle capacità mostrate dai moderni LLM" - scrive Floridi -"tendiamo ad attribuire alle AI consapevolezza, intenzionalità, emozioni o addirittura 'coscienza', anche quando non ne hanno alcuna ..."

Non si tratta di un errore tecnico - specifica - quanto piuttosto di un bias profondamente umano, radicato nella nostra evoluzione cognitiva e nella nostra avversione al vuoto di significato: gli esseri umani hanno da sempre proiettato agency e coscienza su fenomeni complessi, dagli dèi atmosferici sino ai primi chatbot come ELIZA (3), e l’AI moderna, progettata per sembrare intelligente e dialogare in modo convincente, sfrutta e amplifica questa vulnerabilità.

.

L'autore ritiene che la pareidolia semantica sia destinata ad intensificarsi per l’azione congiunta di quattro forze principali:

  • una immersione digitale crescente: viviamo sempre più immersi nella tecnologia, e l’esposizione continua ai sistemi AI rende più facile attribuir loro caratteristiche che sono tipiche del genere homo;

  • la presenza di interessi commerciali e di marketing che incentivano l’antropomorfizzazione delle intelligenze artificiali: le aziende coinvolte nello sviluppo delle AI tendono a pubblicizzare queste ultime come dotate di “intelligenza superumana” o addirittura di una “coscienza” al fine di attirare utenti ed investimenti, accentuando in questo modo l'illusione che esse siano dotate di capacità superiori;

  • l'isolamento sociale e la solitudine, situazioni che rendono le persone più inclini a legami artificiali: in assenza di forti relazioni umane, alcune persone tendono ad interpretare gli agenti digitali come entità sociali reali;

  • il miglioramento continuo delle capacità linguistiche e comportamentali dell’AI: l'aumentato realismo alimenta l’illusione della presenza di una coscienza.

Esempio emblematico di tutto ciò è rappresentato da Replika (4), un "chatbot AI-companion" utilizzato da decine di milioni di persone, in grado di simulare empatia e relazioni affettive.

Sebbene si tratti di un mero sistema statistico molti utenti hanno sviluppato legami emotivi reali, un fatto che solleva seri interrogativi etici sulla manipolazione delle fragilità umane, sull’effetto placebo dell’IA e sul rischio che relazioni artificiali sostituiscano quelle autentiche.

Floridi ci avverte che il passo successivo, oggi già in atto, è rappresentato dall’incarnazione fisica dell’IA in corpi artificiali sempre più realistici quali robot sociali, sex dolls intelligenti o giocattoli dotati di AI. (5)

Questa evoluzione renderà la pareidolia semantica ancora più potente perché la distinzione tra simulazione e realtà diventerà sempre più difficile da mantenere.

Rischio ultimo è rappresentato da una deriva dalla pareidolia all’idolatria tecnologica: l’AI non più vista come strumento ma come entità superiore o divina ("... vediamo dèi dove ci sono solo algoritmi ..."). (6)

Il problema centrale non è dunque tecnologico, ma filosofico ed educativo: se crediamo che le macchine siano coscienti rischiamo di delegare decisioni morali a sistemi irresponsabili, indebolire i legami umani e perdere il senso della responsabilità.

Alcune aziende stanno già introducendo contromisure - quali disclaimer, design anti-antropomorfico, collaborazioni con psicologi - ma esse sono ancora insufficienti: servono standard industriali, design responsabile ed una cultura critica diffusa.

"... L’AI ha un enorme potenziale trasformativo" - scrive Floridi -"ma solo se impariamo ad usarla senza scambiarla per ciò che non è: la vera sfida è sviluppare 'anticorpi culturali' contro la pareidolia semantica, per evitare di finire a venerare le nostre stesse creazioni ...".


Questa diagnosi di Floridi non vive nel vuoto, ma si inserisce in un dibattito più ampio che coinvolge filosofi e teorici di primo piano - tra cui Donald Hoffman, David Chalmers, Nick Bostrom e Giulio Tononi -, ognuno dei quali illumina un aspetto diverso del nostro rapporto con la coscienza e con l’AI.


Secondo Donald Hoffman (7) ciò che percepiamo non è la realtà “così com’è” (la realtà oggettiva), quanto piuttosto una interfaccia adattiva.

Come le icone sul desktop di un computer, le nostre percezioni sarebbero “utili, non veritiere”: loro compito consisterebbe infatti nel guidare il comportamento, non nel rivelare la reale struttura del mondo.

Floridi applica implicitamente questa intuizione all’AI: quando interagiamo con un chatbot non vediamo il modo in cui funziona “internamente” (basato su matrici, probabilità e funzioni di ottimizzazione) quanto piuttosto un’interfaccia linguistica progettata per essere intuitiva, facilmente comprensibile, empatica e convincente.

La pareidolia semantica nasce proprio qui: scambiamo l’icona per il file, l’interfaccia conversazionale per una mente.

In modo simile a quanto afferma Hoffman, per Floridi l’illusione non è casuale, è piuttosto funzionale.

Ma mentre l’illusione percettiva è evolutivamente inevitabile, Floridi avverte che l’illusione semantica potrebbe diventare eticamente e socialmente pericolosa.

David Chalmers (8) è noto per aver formulato il celebre hard problem of consciousness: "perché e come l’elaborazione fisica dell’informazione produce esperienza soggettiva? "

Chalmers non esclude che, in linea di principio, anche una macchina possa essere cosciente: se la coscienza dipende infatti dall’organizzazione funzionale (e non dal substrato biologico) allora anche una AI, purché sufficientemente complessa, potrebbe avere esperienza.

Tuttavia Chalmers riconosce un rischio cruciale: non abbiamo accesso diretto alla coscienza altrui dunque potremmo facilmente confondere un comportamento cosciente con la presenza di una coscienza reale.

L’illusione di coscienza è epistemicamente indistinguibile dalla coscienza stessa.

Qui Floridi interviene con forza: ciò che per Chalmers è una possibilità teorica, per Floridi è già una certezza sociologica.

Anche se una coscienza artificiale fosse possibile in astratto, oggi stiamo già attribuendo una coscienza a sistemi che ne sono quasi certamente privi.

Il problema non è metafisico, ma pratico: credere troppo presto.

Nick Bostrom (9) nel suo saggio Superintelligence mette in guardia contro i rischi esistenziali connessi alla comparsa di una AI che superi l’intelligenza umana ed acquisisca capacità strategiche autonome: in questo quadro l’AI è trattata come un potenziale agente, qualcosa che ha obiettivi, prende decisioni e può sfuggire al controllo umano.

Floridi non nega i rischi tecnologici ma critica il modo in cui vengono raccontati.

Parlare di AI come di un soggetto quasi autonomo rafforza proprio quella pareidolia semantica che rende difficile individuare le vere responsabilità: le macchine oggi non “decidono in autonomia", sono gli esseri umani che le progettano, le addestrano e le distribuiscono a prendere decisioni.

Dove Bostrom guarda al futuro e teme ciò che l’AI potrebbe diventare, Floridi guarda al presente e teme ciò che noi stiamo già credendo: il pericolo immediato non è una superintelligenza ribelle quanto una società che delega senso, autorità e giudizio a sistemi che non comprendono nulla.

Giulio Tononi (10) con la sua Integrated Information Theory (IIT) propone una via radicale: la coscienza consistebbe una proprietà misurabile dei sistemi fisici, quantificabile tramite un parametro chiamato Φ (phi) che ci ritorna quanta informazione risulta integrata in un sistema.

In teoria questo approccio potrebbe risolvere alla base il problema: se fosse possibile misurare la coscienza, potremmo sapere se una AI sia cosciente oppure no.

Floridi resta scettico: anche se Φ fosse calcolabile (cosa estremamente difficile nei sistemi reali), la pareidolia semantica non dipende da questo parametro quanto piuttosto dall’esperienza dell’utente, dall’interfaccia, dal linguaggio: un sistema potrebbe apparire profondamente cosciente ed esser dotato un Φ basso, oppure presentare un Φ alto e non sembrare affatto una mente.

Illusione e coscienza reale in una macchina, ammesso che esista, non coincidono.


Provando a mettere insieme tutti questi contributi vediamo come emerga un quadro coerente: Hoffman ci spiega perché scambiamo interfacce per realtà, Chalmers mostra quanto sia difficile sapere se qualcosa è cosciente, Bostrom amplifica l’idea di AI come agente futuro e Tononi tenta di oggettivare la coscienza con una misura, là dove Floridi ci avverte che, indipendentemente da quale tra queste proposte risulti "vera", noi stiamo già sbagliando il modo di guardare al problema: la pareidolia semantica è il punto cieco comune, un errore cognitivo antico, reso sistemico, scalabile e monetizzabile dall’AI generativa.

"Dobbiamo evitare di adorare le icone": l’intelligenza artificiale è uno strumento potentissimo in grado di amplificare conoscenza, creatività ed efficienza, ma proprio per questo dobbiamo resistere alla tentazione di vederla come qualcosa di più, una mente, un soggetto, un’entità quasi sacra.

Il rischio non è da cercarsi nel fatto che le macchine possano un giorno "diventare dèi", ma che noi oggi le si tratti come tali.

Coltivare anticorpi culturali contro la pareidolia semantica non significa essere tecnofobici, ma lucidi: è indispensabile imparare ad interagire con sistemi sempre più sofisticati senza perdere la capacità di distinguere tra simulazione e comprensione, tra interfaccia e realtà, tra potenza computazionale e coscienza.

In gioco non c’è solo il futuro dell’AI, ma il modo in cui continuiamo a riconoscere ciò che rende umana la nostra esperienza.


Note:

(1) Luciano Floridi è un filosofo di origine italiana che vive in UK, conosciuto per il suo lavoro di ricerca nell'ambito della filosofia dell'informazione, della filosofia dell'informatica e dell'etica informatica; ha scritto più di 400 saggi ed è famoso per aver coniato il termine "onlife"..

(2) L'articolo di Luciano Floridi AI and Semantic Pareidolia: When We See Consciousness Where There Is None” (Intelligenza artificiale e pareidolia semantica: quando vediamo coscienza dove non c’è nulla) è stato pubblicato il 18 giugno 2025 come working paper/preprint su SSRN (Social Science Research Network) ed è la versione in inglese di quello originariamente pubblicato in italiano su Harvard Business Review Italia (sempre nel giugno 2025).

(3) ELIZA è stato il primo chatbot psicoterapeuta sviluppato da Joseph Weizenbaum nel 1966: consisteva in un analizzatore lessicale ed un insieme di regole che permettevano di simulare una conversazione in inglese, gallese o tedesco.

Il nome ELIZA trae origine da Eliza Doolittle, la protagonista della commedia "Pigmalione" di George Bernard Shaw.

(4) Lanciato nel 2017 dalla Luka Inc., Replika - con la sua offerta di amicizia, supporto emozionale e (nella versione premium) di relazioni romantiche ed interazioni erotiche - nell'agosto 2024 annoverava nel mondo oltre 30 milioni di utenti.

Si tratta di un sistema di elaborazione del linguaggio naturale che simula risposte empatiche sulla base di pattern statistici ricavati da milioni di conversazioni.

(5) "... Il prossimo salto evolutivo" - scrive Floridi - " è già all’orizzonte: l’incarnazione fisica dei bot in forme sempre più credibili e seducenti.

Indicatore inquietante è il mercato globale delle sex dolls che registra vendute ogni anno tra le 100.000 e le 400.000 unità: valutato intorno ai 3–5 miliardi di dollari, nel 2023 risulta in crescita di un 30–50% annuo ad iniziare dal 2020.

Questo mercato include bambole iperrealistiche di fascia alta, tra 2.000 sino ad oltre 10.000 dollari.

Recentemente Mattel, casa produttrice delle bambole Barbie, ha firmato un accordo con OpenAI per utilizzare i suoi strumenti di intelligenza artificiale nella progettazione e nell’animazione dei nuovi giocattoli.

Viene spontaneo chiedersi che cosa potrebbe mai andare storto: il precedente esperimento con una Barbie connessa ad Internet si rivelò un disastro sul piano della privacy ...".

La vicenda delle Barbie che si connettevano ad internet e trasmettevano alla casa madre dati raccolti nelle interazioni con le piccole propietarie - la cui vendita è stata proibita in EU - è stata raccontata in dettaglio da Gerd Gigerenzer nel saggio del 2023 "Perché l'intelligenza umana batte ancora gli algoritmi", oltre ad esser stato argomento del suo intervento al Festival della Mente di Sarzana 2023 (video disponibile su Youtube).

"... Quando corpi artificiali saranno dotati di IA conversazionali avanzate" - ci ammonisce Floridi - "avremo creato simulacri umani di una verosimiglianza senza precedenti, e non si tratta di fantascienza, è solo una questione di tempo.

Il passaggio dal virtuale al fisico amplificherà esponenzialmente i rischi della pareidolia semantica: se già oggi milioni di persone instaurano legami affettivi con chatbot disincarnati, che cosa accadrà quando vivremo accanto a compagni artificiali indistinguibili dagli esseri umani? ll confine tra gioco consapevole e credenza superstiziosa è sottile ..."

(6) Esistono già oggi movimenti reali che trattano l’AI in termini religiosi o salvifici (immortalità digitale, resurrezione tecnologica): la pareidolia diventa teologica.

Tra i molti casi Floridi ricorda: "The Way of the Future" fondato da Anthony Levandowski nel 2015, "Terasem Movement" fondato da Martine and Bina Rothblatt nel 2004, "The Turing Church" fondata da Giulio Prisco nel 2011. (7) Donald Hoffman è scienziato cognitivo e filosofo della mente statunitense noto per aver formulato e sviluppato la Teoria dell’Interfaccia Percettiva (TIPPerceptual Interface Theory) ed autore del saggio "L'illusione della realtà" ("The Case Against Reality", 2019).

Si occupa di percezione visiva, psicofisica, evoluzione della cognizione e fondamenti matematici della coscienza. (8) David John Chalmers è un filosofo australiano appartenente all'area analitic e particolarmente attivo nell'ambito della filosofia della mente.

Il suo lavoro è incentrato soprattutto sul problema della coscienza. (9) Nick Bostrom è un filosofo svedese noto per le sue riflessioni sul cosiddetto rischio esistenziale dell'umanità e sul principio antropico. (10) Giulio Tononi, - una delle massime autorità mondiali nello studio della genetica e dell'eziologia del sonno (coature della "teoria del downscaling sinaptico") - è uno psichiatra e neuroscienziato italiano attivo negli USA che si è dedicato allo studio sulla natura della coscienza.



Nessun commento:

Posta un commento

L’illusione della coscienza artificiale: pareidolia semantica, interfacce cognitive ed AI nel confronto tra Floridi, Hoffman, Chalmers, Tononi e Bostrom.

Negli ultimi anni i sistemi di intelligenza artificiale hanno imparato a dialogare in modo incredibilmente naturale: scrivono testi, rispond...