Il Preside ha anche riunito il consiglio d’istituto e chiamato la Polizia: per il ragazzino si prospetta un futuro vivibile solo a 2000 miglia da qui. Mentre il pirla si fa due settimane di sospensione, si vede compromessa la possibilità di andare al college, o fare qualsiasi lavoro in qualche modo rinomato, a scuola gli psicologi consolano i pupetti che si sentono offesi, a prescindere dal fatto che siano ebrei o meno.
Se pensate che il racconto sia estratto da un libro horror di Stephen King, ricredetevi: fatti di cronaca bostoniana. Se pensate che a 15 anni di sale in zucca ce ne sia ancora poco, e che la punizione ecceda notevolmente l’offesa, specie visto che le svastiche son state viste dalla sola insegnante e nessun altro, siete in buona compagnia. Il giudice in carne ed ossa avrà dei problemi con questo caso. Dal punto di vista legale, disegnare una svastica in luogo pubblico può essere processato come aggressione di primo grado, ma occorre provare il danno subito da chi ha visto il simbolo nazista. In questo caso però solo una persona ha visto l’asse del bagno pitturato, nessun altro, ed il ragazzino ha un’età ed un pregresso che non supportano l’idea di odio intenzionale. Considerando l’aspetto morale e pedagogico del fatto, è discutibile che il Preside ne abbia voluto fare un casus belli quando pulire le scritte avrebbe risolto il tutto in dieci minuti. Anche dal punto di vista logico, sopprimere un ragazzino per un disegno visto da un insegnante è punizione eccessiva rispetto alla colpa. Ma il giudice subirà la stessa pressione woke che guida il Preside, quell’idea di volare alto quando gli altri volano basso, e di dover cancellare la possibilità di rivedere questo genere di comportamenti, cancellando il ragazzino. Un robot resisterebbe alla pressione woke? Riuscirebbe a formulare un giudizio corretto senza influenze del contesto?
In Cina Xiaofa è un robot che può rispondere con certezza ad oltre 40.000 domande legali e risolve correttamente 30.000 casi diversi. In un paese con solo 120.000 giudici e quasi venti milioni di cause l’anno, ci son cento Xiaofa ad aiutare nel gestire l’enorme carico di lavoro giudiziale, che altrimenti bloccherebbero il paese. Oltre al beneficio di produttività, Xiaofa ha dimostrato di aver meno pregiudizi rispetto ai suoi colleghi in carne ed ossa, e questo si vede specificamente nella valutazione del rischio di ripetizione del crimine. Anche Australia, Canada, Estonia e Sud Africa hanno iniziato ad usare robot per processare casi in giudizio. Vengono impiegati per reati amministrativi e criminali dove colpa e sanzione sono abituali.
Affinché un giudice elettronico possa dirimere un caso, giudicare il colpevole e disporre l’ammenda, occorre che il suo ragionamento sia trasparente, dimostri correttezza procedurale e sia imparziale. Non è possibile avere una macchina che giudica senza spiegare esattamente com’è arrivata a quella conclusione. Per un buon approfondimento, raccomando questo articolo.
Al ragazzino del caso in questione è andata male: disegnare svastiche a Boston e dintorni spegne il futuro. Chissà un domani, se un robot giudice saprà usare il cervello e resistere alle pressioni sociali che arrivano dai media: sarà un buon giorno.