Tuttavia, questi sistemi funzionano in modo quantitativo, statistico e supervisionato. Mancano di un "filtro interno" comparabile a quello umano, in cui l'attenzione non è solo diretta da input esterni, ma da aspettative, stati mentali e motivazioni soggettive.
Negli ultimi anni, alcuni tentativi per colmare il divario tra umani e IA nell’esperienza cosciente sono stati compiuti attraverso lo sviluppo di sistemi di attenzione neurale, reti neurali ricorrenti (RNN) e architetture transformer, come GPT o BERT. Tuttavia, questi meccanismi restano formalismi matematici che emulano la selettività dell’attenzione senza avere coscienza del contesto in cui operano. Per ora, rimangono insomma modelli funzionali, ma non esperienziali.
In sintesi, l’IA eccelle nel riconoscere pattern e correlazioni, ma non possiede ancora la capacità di evincere ciò che è significativo in modo soggettivo e contestuale. L’esperienza umana nasce invece da una complessa convergenza di sensazione, significato e intenzionalità, elementi che restano oggi in gran parte estranei alle macchine.
Ad allontanarci per ora da macchine coscienti ci sono anche dati oggettivi relativi alla potenza di calcolo che si dovrebbe mettere in campo per conseguirle. Diversi studi quantificano i flussi senso-riali umani in termini di bit di informazioni al secondo: circa 11 milioni di bit al secondo che l’elaborazione cosciente della mente riduce subito a 50-200 bit/s.
Per le tecnologie attuali, un sistema artificiale non avrebbe tanto problemi nello stoccare i dati in memorie artificiali. Per registrare i dati delle nostre esperienze di un anno intero si calcola posano bastare “solo” 43 TB di memoria. Tanto, ma non impossibile con gli hard disk ad alta densità di cui disponiamo. Quello che è il vero collo di bottiglia è la potenza di calcolo necessaria all’IA per digerire questi dati rispetto a quella del nostro cervello. La cosa stupefacente è che, per operare, il cervello consuma solo 20 W, essendo in grado di operare con una efficienza computazionale di 1015 FLOPS/W, laddove i supercomputer migliori raggiungono i 1010 FLOPS/W (Tera FLoating point Operations Per Second = 1012 operazioni al secondo). Questo dovrebbe spingerci quanto meno a migliorare l’efficienza computazionale delle macchine se vogliamo mantenere l’ambizione di approssimare o superare le prestazioni del cervello umano attraverso le macchine nel campo della coscienza. Trasformare l’esperienza in percezione cosciente costa dunque molto vuoi in termini di hardware e software complessi, vuoi e soprattutto in termini energetici.
Possiamo dunque escludere che le macchine possano diventare prima o poi coscienti?
Ne parliamo la prossima settimana.