Qualche giorno fa su "Repubblica.it" è apparso l'articolo (che si legge a questa pagina) di neurologia fra i più interessanti di queste settimane.
Alcuni ricercatori hanno condotto degli esperimenti con l'ausilio della Risonanza Magnetica Funzionale (fMRI, functional Magnetic Resonance Imaging) per individuare pattern di connessioni neuronali fra oggetti concreti e l'immagine mentale ad essi collegati - e hanno fatto predire al computer il percorso e le aree del cervello interessate rispetto ad un campione di parole/oggetto concreto non completamente coincidente con quello analizzato in partenza. Insomma, una sorta di previsione del pensiero, condotta con i metodi statistico-probabilistici che consentono ai computer attuali interazioni di larga scala con moli enormi di dati.
Io ho subito pensato (chissà quali aree del cervello mi si sono attivate) ad una sorta di ulteriore esperimento della Stanza Cinese, il famoso argomento ed esperimento mentale proposto e usato da John Searle per criticare le pretese della "teoria dell'intelligenza artificiale forte" (una lunga e articolata voce si legge su Wikipedia a questa pagina, con link verso l'articolo originale di Searle, che è del 1980).
In sostanza (e riassumendo in maniera forse troppo brutale) Searle afferma e argomenta che un computer, essendo un manipolatore di simboli, non sia tenuto ad interpretare ciò che riceve e trasmette per dare l'idea di comprendere effettivamente quel che "dice" - la correttezza della sintassi, e l'adeguatezza comunicativa, non porterebbero dunque ad una effettiva comprensione semantica, quindi al significato di quel che si dice.
Siccome l'esperimento è costruito con l'interazione macchina-uomo (si immagina una conversazione in cinese fra un parlante cinese e un computer adeguatamente istruito), forse una fMRI potrebbe svelarci qualcosa sulla "creazione di significato" nell'uomo - risolvendo il dubbio se sia anche una questione di adattamento da parte dell'uomo che riceve risposte plausibili da parte del computer il fatto che creda di parlare ad un'altra persona.
Non si risolverà forse il problema di come dalle strutture sorga il significato - quindi dalla sintassi si arrivi alla semantica: René Thom e Jean Petitot-Cocorda (a questa pagina una interessante tesi di Henk Verdru che analizza la semiotica di Umberto Eco e la confronta in un capitolo denso, con le posizioni di Petitot-Cocorda) hanno provato con la modellizzazione matematica della teoria delle catastrofi e della morfogenesi del senso - che è il titolo del libro più famoso di Petitot-Cocorda, edito da Bompiani - a dare una visione generale di questa epigenesi del significato, analogamente a quanto avviene in chimica o in biologia.
Almeno però avremo la possibilità, durante l'esperimento anche mentale di Searle, di mettere uno specchio di fronte all'uomo, e osservare le sue reazioni neuronali - chissà che Narciso non spunti fuori con la mano tesa...
Alcuni ricercatori hanno condotto degli esperimenti con l'ausilio della Risonanza Magnetica Funzionale (fMRI, functional Magnetic Resonance Imaging) per individuare pattern di connessioni neuronali fra oggetti concreti e l'immagine mentale ad essi collegati - e hanno fatto predire al computer il percorso e le aree del cervello interessate rispetto ad un campione di parole/oggetto concreto non completamente coincidente con quello analizzato in partenza. Insomma, una sorta di previsione del pensiero, condotta con i metodi statistico-probabilistici che consentono ai computer attuali interazioni di larga scala con moli enormi di dati.
Io ho subito pensato (chissà quali aree del cervello mi si sono attivate) ad una sorta di ulteriore esperimento della Stanza Cinese, il famoso argomento ed esperimento mentale proposto e usato da John Searle per criticare le pretese della "teoria dell'intelligenza artificiale forte" (una lunga e articolata voce si legge su Wikipedia a questa pagina, con link verso l'articolo originale di Searle, che è del 1980).
In sostanza (e riassumendo in maniera forse troppo brutale) Searle afferma e argomenta che un computer, essendo un manipolatore di simboli, non sia tenuto ad interpretare ciò che riceve e trasmette per dare l'idea di comprendere effettivamente quel che "dice" - la correttezza della sintassi, e l'adeguatezza comunicativa, non porterebbero dunque ad una effettiva comprensione semantica, quindi al significato di quel che si dice.
Siccome l'esperimento è costruito con l'interazione macchina-uomo (si immagina una conversazione in cinese fra un parlante cinese e un computer adeguatamente istruito), forse una fMRI potrebbe svelarci qualcosa sulla "creazione di significato" nell'uomo - risolvendo il dubbio se sia anche una questione di adattamento da parte dell'uomo che riceve risposte plausibili da parte del computer il fatto che creda di parlare ad un'altra persona.
Non si risolverà forse il problema di come dalle strutture sorga il significato - quindi dalla sintassi si arrivi alla semantica: René Thom e Jean Petitot-Cocorda (a questa pagina una interessante tesi di Henk Verdru che analizza la semiotica di Umberto Eco e la confronta in un capitolo denso, con le posizioni di Petitot-Cocorda) hanno provato con la modellizzazione matematica della teoria delle catastrofi e della morfogenesi del senso - che è il titolo del libro più famoso di Petitot-Cocorda, edito da Bompiani - a dare una visione generale di questa epigenesi del significato, analogamente a quanto avviene in chimica o in biologia.
Almeno però avremo la possibilità, durante l'esperimento anche mentale di Searle, di mettere uno specchio di fronte all'uomo, e osservare le sue reazioni neuronali - chissà che Narciso non spunti fuori con la mano tesa...
Nessun commento:
Posta un commento