Con afasia si intende un forte disturbo del linguaggio, che impedisce di comprendere ed utilizzare correttamente parole ed espressioni. La persona non ha problemi meccanici alle corde vocali che impediscano di parlare, ma il cervello non lo consente. Di solito l’afasia viene da patologie cerebrali come l’ictus, ed il 40% dei sopravvissuti ne soffre. Sappiamo di circa 150.000 nuovi pazienti all’anno in Italia, 250.000 nel Regno Unito, due milioni in America, quindi un disturbo molto importante per impatto sulla vita del paziente e per diffusione.
Come il Parkinson, anche l’afasia è una candidata ideale per una cura basata sull’interfaccia cervello-computer. Il mercato di queste applicazioni è in forte crescita per curare patologie come queste, aumentando del 15% all’anno verso i $4 miliardi nel giro di qualche anno. Oltre al Neuralink di Elon Musk, anche la Kernel di Bryan Johnson ci lavora molto.
Ricercatori dell’Università della California a San Diego sono riusciti a riprodurre il canto degli uccelli dopo avere collegato dei sensori piazzati nel loro cervellino ad un algoritmo di intelligenza artificiale. Per approfondimento, qui . Mentre cinguettio di passerotti e canto di usignoli sono diversi dalla nostra lingua parlata o dal canto per la sintassi, alcune similitudini danno spunti interessanti. Scopriamo che la parte del cervello che gestisce la sequenza dei suoni, come recepirli e memorizzarli, è molto simile tra bipede alato e bipede umano. Specialmente la produzione del suono, ovvero il coordinamento delle istruzioni che mandiamo ai muscoli e corde vocali, funziona in modo quasi identico.
Grazie a sensori che monitorano in tempo reale l’area sensomotoria che controlla i muscoli che il bengalino (taeniopygia guttata) usa per cantare, i ricercatori di San Diego hanno individuato i flussi di corrente e sono riusciti a riprodurli in un modello digitale. Facendo girare un motore di intelligenza artificiale (FFN, Feedforward Neural Network), sono riusciti a capire i parametri che possono essere utilizzati anche nel caso del cervello umano.
Pensate, possiamo costruire una protesi vocale per farci cantare, e parlare. Come sempre la sperimentazione animale precede di anni quella sugli esseri umani, e non sempre queste invenzioni vanno a buon fine. Il bengalino non costruisce il suo fraseggio come una persona, lo impara e lo affina solo per trovarsi la bengalina: non compone nuove melodie e non canta per svago o altri motivi. È questa la grossa differenza tra animali canterini (uccelli, balene, etc.) ed essere umano: solo noi sviluppiamo linguaggio e musica. Anche le scimmie più evolute, che imparano qualche centinaio di parole, non sono paragonabili al comando del linguaggio o del canto di un bimbo.
È dai sette mesi che balbettando (bababa, lalala) il nostro cervello impara la relazione tra movimenti muscolari e suono recepito, e già verso i 3-4 anni di età siamo in grado di emettere tutti i suoni necessari a parlare in qualsiasi lingua del mondo, e possiamo imparare più lingue. Questo determina una complessità delle memorie e della nostra corteccia pre-frontale ben maggiore di qualsiasi animale, quindi i test di questa protesi prenderanno ancora del tempo, ma questa innovazione è molto promettente.