In queste pagine abbiamo già visto che la miglior rappresentazione della nostra mente è il linguaggio, e molteplici studi di neuroscienze esplorano il meccanismo che porta dalla lingua all’immagine: l’inferenza. Quando parliamo o scriviamo, l’utilizzo delle metafore e specialmente di quelle visive è il modo più efficace per passare il messaggio che vogliamo. “Un immagine vale più di mille parole” è un modo di dire molto attinente a come funziona la nostra zucca.
In redazione siamo in tanti appassionati di Tex Willer, uno dei fumetti che hanno accompagnato la crescita di generazioni, perché dai disegni e stringate battute si entra appieno nella narrativa creata dall’autore, comprendendo il messaggio ed emozionandosi, quindi imparando. Per chi volesse approfondire l’importanza dei fumetti nel plasmare la nostra capacità cognitiva, qui. Ma se da lettore io volessi diventare creatore di fumetti, dato che le mie capacità grafiche già all’asilo erano penose, come potrei fare?
Mi occupo del tema da anni perché nella progettazione di nuovi prodotti, siano essi quello finale o suoi componenti, l’utilizzo di strumenti CAD (progettazione assistita dal computer), e di recente l’impiego dell’intelligenza artificiale, sono importantissimi per la produttività e la qualità dei progettisti. Da qualche tempo abbiamo sistemi che aiutano a completare un disegno già avanzato in modo automatico, perché il robot capisce l’obiettivo progettuale, il contesto, e riesce a rifinire da solo gli ultimi passaggi. Soluzioni di machine learning consentono di creare prodotti di ogni genere, e nel mondo della moda si esagera, con la creazione di centinaia di migliaia di capi che son destinati ad esser buttati troppo presto.
Come spesso accade, l’intelligenza artificiale utilizzata in questo campo trae ispirazione dal nostro cervello, qualcosa che possiamo misurare in modo banale con elettroencefalogramma or risonanze magnetiche, o anche riempirlo di cavetti miniaturizzati come fa Musk con la sua Neuralink. Se voglio disegnare una protesi, ad esempio, posso usare l’approccio avversario per paragonare le caratteristiche dell'arto biologico con i vincoli meccanici e fisici della protesi, e vedere cosa mi propone il robot. Macchina e persona fanno lo stesso passaggio mentale, dal paragone tra due cose molto diverse (gamba di muscoli, tendini ed ossa contro gamba in carbonio con viti e molle). Per chi volesse approfondire questo aspetto, raccomando qui
Quanto son bravi questi robot? Come sempre più sono specializzati, meglio è, quindi le aziende personalizzano le proprie applicazioni sulla base dei prodotti che vogliono disegnare. Ma anche voi lettori di Zafferano potete giocare con versioni open-source di questi creativi artificiali, ad esempio con Dalle-E che gira sulle spalle del famoso GPT-3 per il riconoscimento verbale delle istruzioni. Per dare un esempio pratico di cosa potete fare:
1. “Progettami una teiera a forma di avocado”
2. “Disegnami una lumaca come un arpa”
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC7884514/
Li trovate belli, buffi, brutti, scontati? Non ho il minimo senso estetico, quindi non mi esprimo in merito, ma sottolineo che dal comando al disegno il robot ha impiegato meno di un secondo, cosa che è umanamente impossibile per qualunque progettista in carne ed ossa.
Come nel caso degli articoli scritti da GPT-3 su The Guardian ed in Italia sul Senza Filtro di Osvaldo Danzi, questi modelli non sono finiti: servono ancora tante attività di affinamento e produzione che solo una persona può fare, ma restano una buona pase di partenza. Ecco a voi la risposta al dubbio “e se poi il robot mi ruba il lavoro?”: questi strumenti fanno molto bene una, due, alcune specifiche attività, ma per vendere una teiera a forma di avocado serve tanto altro. I robot danno un aiuto di produttività ed anche creatività, sta poi a noi usarli al meglio per vincere sul mercato.