La forza delle sinapsi digitali, ossia delle connessioni tra i neuroni sintetici, sta’ nella plasticità della loro architettura, ossia nella capacità di cambiare forma a seconda dei segnali che sono passati bene o male attraverso di essi.
Sono proprio le reti di Hopfield, in cui ogni neurone digitale è connesso ad altri attraverso legami che cambiano nel tempo a seconda dei dati gestiti, che hanno poi consentito all’algoritmo di Hinton di costruire la terza dimensione, impilando una rete sopra l’altra e portando il ranocchio elettronico ad imparare. Nonostante questa rappresentazione tri-dimensionale sia solo virtuale e frutto di un programma, riprende in modo molto semplificato la struttura della nostra zucca, ispirata allo stesso design. È proprio impilando una rete sopra l’altra che puoi decidere se propagare dati ed informazioni in un senso o anche nell’altro, andando quindi a mettere le basi per valutazioni probabilistiche.
La capacità di apprendere delle macchine deriva essenzialmente dal lavoro fatto da Hinton e Hopfield 40 anni fa, a quei tempi molto teorico ed oggi molto pratico grazie alle performance dei chip e delle memorie che sempre di più arrivano ad imitare quanto abbiamo nella scatola cranica. Negli anni di Zafferano abbiamo visto i progressi, sempre più rapidi, di ranocchi elettronici che prima avevano problemi a riconoscere animali diversi, ora sono affidabili nel riconoscere cellule e proteine, ed arrivano a comporre testi ed immagini in modo piacevole ed efficiente.
Il Nobel per la chimica a Baker, Hassabis e Jumper viene riconosciuto per il contributo che l’intelligenza artificiale ha dato allo studio delle proteine, al loro riconoscimento, analisi della struttura tri-dimensionale e specialmente alla loro ricombinazione. Ricorderete che le proteine sono composte di mattoncini conosciuti come aminoacidi ed al microscopio sembrano delle catene tutte ripiegate su sé stesse. Oggi sappiamo che proprio il modo in cui sono attorcigliate determina a cosa servono e come funzionano le diverse proteine.
Vent’anni fa Baker fu il primo a disegnare una nuova proteina, artificiale, mai esistita prima. Scrisse un software aperto, Rosetta Commons, e diede il via a quella che oggi conosciamo come chimica proteica computazionale, la disciplina che ci consente sia di capire le proteine naturali, sia di inventarne di nuove di sana pianta, per questo o quell’obiettivo medicale. Il suo lavoro è proseguito con Hassabis e Jumper, che usando il DeepMind di Google è passato dal predire strutture di proteine a quello di altre biomolecole e pure del DNA. Vi avevo già scritto che all’Harvard Medical School hanno sviluppato un LLM che invece della lingua inglese usa le proteine per scrivere e chiedere al ranocchio elettronico di creare nuove molecole, esso funziona grazie all’innovazione di questi due novelli Nobel.
Per chi si avvicina oggi all’università, a prescindere dall’indirizzo scelto, rinnovo l’invito a guardare le neuroscienze e l’intelligenza artificiale da vicino, giocandoci e provando ad imparare almeno alcuni degli strumenti open a disposizione. Da un lato è curioso e divertente, dall’altro è un passo quasi obbligato se volete capire e costruire qualcosa. Se vi state chiedendo come mai dei fisici, e non dei medici clinici, siano riusciti a comprendere la struttura del cervello, semplificarla notevolmente, astrarla e riprodurla nel digitale, avete una buona ragione per iscrivervi a Fisica.