È in fase avanzata di definizione, di riflesso all’approccio “risk-based” dell’AI Act europeo, una strategia digitale nazionale, e in particolare una “Bozza di linee guida per l’adozione dell’intelligenza artificiale nella pubblica amministrazione”, oramai nella fase di consultazione pubblica. Essa rispecchia correttamente una visione “antropocentrica”, nel rispetto del bagaglio soggettivo dei diritti di ogni individuo, riconosciuti e riconoscibili in un prossimo futuro.
L’allegato III del Regolamento Europeo, che individua, ai sensi dell’art. 6, n. 3, lett. b), i sistemi ad alto rischio, prevede nell’elenco anche quelli destinati ad essere utilizzati per valutare i risultati dell’apprendimento, ovvero quelli usati per orientare il processo di apprendimento. In questi termini, i profili più problematici dell’utilizzo dell’alleato digitale sono la condivisione dei dati, inseparabilmente legati al diritto alla loro riservatezza, con una attenzione particolare ai dati derivanti dall’uso di sensori biometrici per valutare condizioni di attenzione, stanchezza, o salute psico-fisica.
Di certo, la condivisione dei dati di apprendimento scolastico o quelli relativi alla predisposizione dell’individuo ad acquisire efficacemente insegnamenti, utilissima a rendere l’alleato digitale più adeguato a migliorare la sua prestazione, dovrà essere autorizzata da utilizzatori maggiorenni o da genitori, nel caso di minorenni. Le deduzioni che da tali dati si trarranno, che individueranno carenze da colmare e conseguenti traiettorie di apprendimento personalizzate da avviare, dovranno poi a loro volta essere autorizzate per la trasmissione agli insegnanti. Dalla messa in condivisione dei dati di più studenti e studentesse si potrebbero poi, purché adeguatamente anonimizzati, trarre indicazioni preziose sull’efficacia delle pedagogie introdotte dei docenti o del livello di attenzione dei discenti. Tutte informazioni rilevanti, e oggi sostanzialmente assenti, che potrebbero consentire di rimediare prontamente a lacune, sia di chi apprende sia di chi insegna.
Le criticità giuridiche dipenderanno anche dal modello economico e di mercato sotteso all’alleato digitale e ai suoi periodici aggiornamenti nell’hardware e nel software. Sul fatto che la nostra personal AI debba svilupparsi nel libero mercato sono profondamente convinto, ma confido che il suo sviluppo sarà guidato da precise norme che ne regolino il funzionamento e soprattutto permettano ad organismi statali un accesso ai dati di interesse per lo sviluppo e la definizione di politiche pubbliche sull’istruzione. Una sorta di cabina di regia dovrà dunque nascere, anche per garantire che uno strumento tanto importante per la formazione delle persone, lungo la loro intera vita, non porti a diseguaglianze nella possibilità di usufruirne. Serviranno poi forti investimenti in infrastrutture per lo sviluppo di LLM “open”, per la protezione e lo stoccaggio in cloud dei dati, e per il loro utilizzo nella direzione del miglioramento continuo del nostro sistema formativo.