Le diciannove nuove idee della scienza elenca brevemente “le teorie più interessanti degli ultimi anni”, a una delle quali avevo accennato in Dimmi cosa parli e ti dirò chi sei:
Il linguaggio è la chiave del pensiero
Negli anni Sessanta Noam Chomsky formulò l’idea che tutti i linguaggi umani si basano su impostazioni del cervello già presenti alla nascita. Negli ultimi anni, diverse ricerche etnografiche hanno tentato invece di dimostrare che non è così, spiegando che nulla è pre-programmato. Il modo di pensare delle diverse culture e il loro linguaggio sarebbero legati indissolubilmente, e uno influenzerebbe l’altro.
Proprio sull’argomento mente e linguaggio recentemente ho letto due articoli rilevanti, A Thinking Machine: On metaphors for mind [non più disponibile] e la pubblicazione a cui fa riferimento, Computing Machinery and Understanding di Michael Ramscar (Stanford University) che, partendo dalla constatazione che la mente viene spesso paragonata a un computer, analizzano due diverse metafore relative all’acquisizione del linguaggio.
Finora la metafora prevalente è stata quella della mente come foglio di calcolo, ovvero un sistema potente governato da regole (una struttura complessa) che mette a disposizione dell’utente una serie di funzioni codificate dai programmatori: una volta apprese le funzioni, basta inserire l’input appropriato in base alle regole e il programma restituirà un output determinato. Chomsky spiegava la grammatica universale con la metafora dell’impianto elettrico, con parametri rappresentati da interruttori: nel processo di apprendimento il bambino impara quale delle due possibili posizioni di ciascun “interruttore” è prevista dalla sua lingua. La metafora di Chomsky può essere aggiornata pensando appunto a un foglio di calcolo, che contiene già la struttura logica e richiede solo l’inserimento dei dati (che verranno elaborati – processed – in base alle funzioni precedentemente definite).
Ramscar ritiene però che la metafora del foglio di calcolo sia errata e sarebbe più appropriato usare il paradigma del motore di ricerca.
Un motore di ricerca mette a disposizione poche funzioni ma i suoi algoritmi (potenti anche se relativamente semplici) hanno l’abilità di imparare dai dati scoprendo una struttura all’interno delle informazioni, una modalità di apprendimento probabilistica e predittiva. Con l’esperienza vengono ottimizzate le ricerche per ottenere l’output desiderato, sia da parte del motore che dell’utente. Non c’è la certezza di un risultato determinato, come per il foglio di calcolo, ma possono essere previsti risultati probabili, che rispondono alle aspettative*, anche se l’input non è del tutto adeguato: ad esempio, se nel foglio di calcolo anziché =SOMMA(1+2) digito =SOMMA(l+2), il programma mi restituisce un errore, mentre se faccio una ricerca per terminologla etc riuscirò comunque ad arrivare su questo blog.
Associando l’acquisizione del linguaggio alla metafora di un diverso modello computazionale, contrapposto quindi al modello tradizionale che richiede “hardware” molto complesso (la grammatica universale o un dispositivo innato per l’acquisizione del linguaggio), si possono spiegare la comprensione e la produzione del linguaggio come processi sostanzialmente predittivi anziché determinati, e si può suggerire che la struttura linguistica debba essere scoperta dal bambino all’interno dell’ambiente linguistico.
Vedi anche: hard-wired (la metafora del cervello come circuito neurale preprogrammato).
* Per un esempio di come Google analizza le ricerche per costruire modelli linguistici: Making search better in Catalonia, Estonia and everywhere else [2008]