La recente lettura dell'ultimo libro di Guido Barbujani, "Un evangelista ed il suo DNA", che racconta con finezza narrativa e rigore scientifico l’intreccio tra genetica, storia ed identità, offre lo spunto per riflettere su un tema più ampio: il rapporto tra descrizione e misura, tra interpretazione e formalizzazione nella scienza.
In uno degli episodi evocati nel testo emerge una battuta fulminante, capace di attraversare i decenni e di risuonare ancora oggi - nel tempo delle Intelligenze artificiali - con rinnovata forza. Negli anni ’60, nel cuore della biologia sistematica, si consuma infatti un conflitto che oggi suona sorprendentemente familiare: da un lato i tassonomi “classici”, eredi di una tradizione secolare fatta di osservazione, descrizione e giudizio esperto, dall’altro una nuova generazione di scienziati - tra cui Robert R. Sokal (che fu il "capo" di Barbujani quando quest'ultimo era post doc alla SUNY di Long Island) e, in modo più divulgativo e provocatorio, Paul Ehrlich - che propone di rifondare la classificazione biologica su basi quantitative.
Per comprendere la portata della frattura, bisogna chiarire cosa fosse in gioco.
La cosiddetta tassonomia numerica (o fenetica) nasce come reazione a questa opacità: l’idea era quella di trasformare la classificazione in un processo esplicito e replicabile. Si raccolgono centinaia di caratteri osservabili, li si codifica in forma numerica (presenza/assenza, misure quantitative, categorie discretizzate), e si costruisce una matrice di similarità tra organismi. A questo punto intervengono algoritmi (oggi diremmo di clustering) che raggruppano gli organismi in base alla loro somiglianza globale.
In termini tecnici, si passa da una scelta qualitativa dei caratteri ad una misura quantitativa della distanza (ad esempio distanza euclidea o coefficienti di correlazione), e da una classificazione “argomentata” a una classificazione “calcolata”.
Nel 1961 Paul Ehrlich avanzò una previsione destinata a suscitare reazioni: nel giro di pochi anni la matematica sarebbe diventata lo strumento principale dei tassonomi, i grandi trattati descrittivi avrebbero perso centralità e sarebbero stati sostituiti da tabelle di somiglianza biologica.
Alla protesta indignata di uno zoologo “Stai dicendo che saremo rimpiazzati dai computer?” seguì la sua risposta, divenuta celebre, “No, sto dicendo che alcuni di voi possono già essere rimpiazzati da un pallottoliere”.
Al di là dell’ironia la frase coglie un nodo epistemologico profondo: non tutte le attività scientifiche hanno lo stesso statuto cognitivo.
Alcune richiedono intuizione, capacità di cogliere strutture latenti, sensibilità al contesto mentre altre sono, almeno in linea di principio, riducibili a procedure ripetitive. La provocazione implica che una parte della tassonomia tradizionale fosse ormai degenerata in routine: classificare non come atto creativo, ma come applicazione meccanica di criteri impliciti.
La reazione dei tassonomi classici non è però semplice conservatorismo, rivela piuttosto una consapevolezza importante: i dati non parlano da soli. La scelta dei caratteri da misurare, il modo in cui vengono codificati, la decisione su quale metrica utilizzare, tutto questo precede il calcolo e lo orienta. In altre parole, anche il metodo più “oggettivo” incorpora decisioni teoriche e interpretative: l'illusione di una classificazione completamente automatica nasconde una stratificazione di scelte umane.
Col senno di poi, entrambe le posizioni risultano parziali.
La tassonomia numerica ha avuto il merito di imporre rigore, trasparenza e replicabilità, ma è stata a sua volta superata dall’emergere della filogenetica moderna che non si limita a misurare somiglianze ma cerca di ricostruire le relazioni evolutive tra organismi. Con l’introduzione dei dati molecolari (sequenze di DNA) e di modelli statistici espliciti dell’evoluzione, la classificazione diventa un problema inferenziale: non più “chi assomiglia a chi”, ma “chi discende da chi”.
La disciplina si è quindi trasformata in qualcosa di più complesso, né puramente automatica né puramente intuitiva ma profondamente ibrida.
Gli algoritmi sono indispensabili ma non autosufficienti: il giudizio esperto è insostituibile ma non più sovrano.
Ed è qui che possiamo fare un parallelo con l’intelligenza artificiale contemporanea.
Anche oggi assistiamo ad una tensione tra formalizzazione ed intuizione, tra automazione e competenza esperta.
I moderni sistemi di AI (in particolare quelli basati su machine learning e reti neurali) operano in modo non del tutto dissimile dalla tassonomia numerica: partono da grandi quantità di dati, costruiscono rappresentazioni interne e identificano pattern di somiglianza o correlazione.
In molti casi, eccellono proprio laddove il problema può essere espresso come riconoscimento di strutture in uno spazio ad alta dimensionalità.
Ma, come nella tassonomia degli anni ’60, emergono limiti analoghi: sono potentissimi nel trattare ciò che è formalizzato, ma dipendono criticamente da quali dati vengono raccolti, come vengono rappresentati e quali obiettivi vengono definiti.
La parte più “intelligente” del processo spesso non sta nel calcolo ma nella definizione del problema.
C’è poi un aspetto ancora più sottile.
La tassonomia numerica presupponeva che la somiglianza fosse un criterio sufficiente per classificare, ma la filogenetica ha mostrato che non è così: organismi molto simili possono non essere strettamente imparentati, e viceversa.
Analogamente, i sistemi di AI possono individuare correlazioni estremamente precise senza cogliere relazioni causali o significati profondi: riconoscono pattern ma non necessariamente comprendono.
Il rischio, ieri come oggi, è confondere efficacia operativa con comprensione.
La battuta del “pallottoliere” sopravvive perché colpisce esattamente questo punto: non riguarda davvero le macchine ma la natura del lavoro intellettuale.
Ogni disciplina contiene al suo interno una tensione tra ciò che può essere ridotto a procedura e ciò che richiede pensiero; quando una nuova tecnologia (matematica ieri, algoritmica oggi) entra in gioco, questa linea viene ridisegnata.
E il risultato è sempre lo stesso: alcune pratiche si rivelano automatizzabili mentre altre no; alcune competenze perdono valore, altre emergono; e, soprattutto, cambia la definizione stessa di cosa significhi “capire”
In questo senso, il passaggio dal pallottoliere all’algoritmo non è solo un’evoluzione tecnica ma una trasformazione epistemologica: ci costringe a chiederci dove finisca la procedura e dove inizi il pensiero, e se questa distinzione sia mai stata davvero stabile.
Nessun commento:
Posta un commento