Le multinazionali digitali stanno andando nel panico: il fondatore di Google ha caldamente consigliato ai dipendenti impegnati sul fronte AI di andare in ufficio tutti giorni e lavorare almeno 60 ore la settimana. Tra ChatGPT, Gemini, Claude, DeepSeek, Microsoft Copilot e GitHub Copilot la scelta è soddisfacente per ogni tipo di utilizzo: dalla produzione di documenti, allo sviluppo del software, al design di nuovi prodotti, alle prenotazioni alberghiere, chiamate telefoniche col customer service, e via dicendo in una lista sempre più lunga. Siamo già al punto in cui dui sistemi di AI dialogano e negoziano tra loro per l’acquisto di prodotti industriali.
L’ultimissima versione di ChatGPT non sembra aggiungere nulla di particolare, se non dimostrare che il ritorno sugli investimenti mega-miliardari è scemato. Dai laboratori delle università sparse per il mondo, Cina, India, Italia, America, Brasile viene un flusso continuo di novità interessanti, la cui utilità marginale si muove verso lo zero. Allo stesso tempo le multinazionali arricchiscono di funzionalità le loro piattaforme per asfaltare la concorrenza delle aziende più piccole. ChatGPT, per esempio, riesce a fare il lavoro di Outreach per la raccolta di potenziali clienti, diminuendo fortemente il valore di questa azienda da 700 dipendenti specializzati in questo specifico servizio.
Gli operatori di borsa e le multinazionali ci raccontano la canzone degli ABBA, vogliono farci credere che tra una settimana, un mese o un anno uscirà la killer application, lo squalo tigre dell’intelligenza artificiale. I risparmiatori cominciano a dubitare di questa narrativa, ed i valori di borsa iniziano a perdere. E se invece del vincitore assoluto ci ritrovassimo una commodity? Se l’intelligenza artificiale, con tutti i suoi costi energetici, i neuroni spremuti per inventarla e raffinarla, i miliardi spesi in chip e datacenter, ci arrivasse al pari di latte, zucchero ed elettricità?
Per ora siamo ancora in una fase dove pochissime scommesse estremamente vincenti consentono ancora un guadagno, nonostante la gran maggioranza si spenga in un nulla di fatto. La probabilità che si vada verso la commoditizzazione di questa tecnologia è materiale: per non saper né leggere né scrivere diciamo 50%. Il fattore chiave per evitare questo destino continua ad essere lo studio della nostra zucca, le neuroscienze, per avere spunti creativi nuovi e disegnare nuove architetture, nuovi modi di ragionare.
Per avere un esempio, date un’occhiata a Symbolica: questa soluzione riproduce il meccanismo della nostra memoria episodica per insegnare al ranocchio elettronico in modo estremamente più efficiente rispetto agli LLM correnti. Avrà successo da sola o sarà fagocitata da una delle multinazionali quest’azienda?
La memoria episodica è quella che ci ricorda cosa, dove e quando è successo qualcosa, diversa da quella semantica che attiviamo con lo studio e che il ranocchio elettronico gestisce bene da sempre. Qui per maggiori informazioni. È evidente che il meccanismo di Symbolica è primitivo, ispirato alla nostra zucca ma quasi banale al confronto, tuttavia potrebbe dare un grande beneficio alla capacità di imparare dell’AI, e questa a sua volte potrebbe arricchire l’azienda e chi segue questo filone sviluppo.
Resta valida la raccomandazione di sempre: studiare, provare, giocare con questa tecnologia innovativa. I costi sono minimi, è alla portata di tutti, e quello che conta è la creatività. Possiamo concepire idee nuove da sole o trasporle da altre discipline, e tra queste quelle che studiano la nostra zucca sono ricche di spunti.