E tra due anni? Già il 10-20% dei Large Language Model che stanno sviluppando OpenAI e Anthropic è auto-generato dal computer, secondo un “auto-miglioramento ricorsivo”. In buona sostanza le macchine impareranno sempre più a scrivere i codici da sole auto-migliorandoli senza più intervento umano.
Cosa succederà quando questo crescerà di importanza? Beh, molto. Schmidt prevede che entro 3-5 anni avremo la cosiddetta IA generale, AGI, che può essere definita come un sistema intelligente quanto il più intelligente matematico, fisico, artista, scrittore, pensatore, politico, …mettete voi chi volete, basta che sia un individuo solo.
Esiste un poi? Per Schmidt entro 6 anni arriveremo alla super-intelligenza, in gergo ASI, per la quale i computer, auto-addestrandosi e migliorandosi, diventeranno più intelligenti della somma di tutti gli esseri umani.
Cosa dovremo attenderci quando ognuno di noi potrà avere in tasca l'equivalente dello scibile umano su ogni problema? Questo scenario non è neanche lontanamente ben compreso nella nostra società. Finanche non esistono parole adeguate a descrivere cosa potrebbe capitare e per questo non se ne parla!
L’Italia rischia di essere irrilevante negli scenari globali dove la competizione tra Stati Uniti e Cina sull’IA non è una semplice gara economica, ma una dinamica che definirà gli equilibri di potere di questo secolo. I due Paesi seguono strategie opposte. Washington e la Silicon Valley puntano su modelli “chiusi”, proprietari e controllati. Pechino, invece, sta diventando leader dell’open-source, come dimostra il caso di DeepSeek.
Questa biforcazione strategica ha conseguenze tutt’altro che trascurabili. L’approccio americano punta alla sicurezza, mentre quello cinese accelera una diffusione più rapida - e potenzialmente incontrollata - dell’IA. Questa espansione, sebbene più “democratica”, mette strumenti estremamente potenti nelle mani di chiunque, aumentando i rischi per la sicurezza globale, in assenza di una regolamentazione. Intanto l’Europa si concentra sulla regolamentazione di tecnologie altrui.
Il pericolo maggiore è quello di un attacco preventivo: un Paese potrebbe decidere di colpire per primo non in risposta a un’aggressione, ma per neutralizzare una minaccia futura ritenuta inevitabile. Diversamente dalla deterrenza nucleare, nella corsa alla super-intelligenza chi arriva per primo ottiene un vantaggio potenzialmente irreversibile. Dobbiamo prepararci a un’escalation che parte dal furto di codice, passa per l’infiltrazione informatica e arriva fino ad attacchi fisici ai data centre. Secondo Schmidt tali scenari sono già oggetto di discussione in ambienti strategici di alto livello. Il rischio è che un incidente apparentemente minore possa innescare una spirale fuori controllo. E questo scenario, secondo alcune analisi, potrebbe diventare concreto già entro i prossimi cinque anni.