Ogni azienda ha a disposizione una mole enorme di dati non strutturati, in silos separati, processati per ragioni diverse, e la speranza di mescolare il tutto con uno spruzzo di intelligenza artificiale, grazie ai guru che sono gli scienziati dei dati, è spesso mal riposta. Il sogno di trasformare questi dati in profitti non tiene mai conto dell’analisi e dei tempi richiesti. Qualità, rumore ed affidabilità delle fonti nel tempo richiedono un lungo sforzo di preparazione, e capita spesso che questi professionisti si trovino a fare cose molto più banali e noiose, come appunto ripulire i dati e formattare delle serie storiche.
Nel loro turnover si nasconde il secondo problema: i Data Scientist mediamente non stanno abbastanza a lungo per capire davvero prodotti e processi in gioco, e così facendo non riescono a stabilire il giusto dialogo con il resto dell’azienda che cerca di risolvere problemi o trovare nuove possibilità di business. Già difficile per le grandi aziende digitali formare una squadra di Data Scientist, il compito diventa molto complesso per tutte le altre.
Oltre all’aspetto organizzativo, per riuscire a trattenere questi professionisti in azienda almeno 5-6 anni in modo che aggiungano valore, anche quello tecnologico viene in soccorso della complessità del lavoro richiesto. Sul mercato arrivano nuovi strumenti no-code per la classificazione ed analisi statistiche dei dati, ed anche per lo sviluppo robotizzato di codice in Python ed R in modo da sgravare questi professionisti delle attività più ripetitive.
Gli approcci no-code e low-code sono veramente importanti in azienda: da un lato consentono ai colleghi “del business” di essere sempre più indipendenti nella creazione di reportistica ed analisi statistiche, dall’altro aiutano il personale digitale ad aumentare la propria produttività e qualità degli algoritmi che sviluppano. Ai Data Scientist servono strumenti no-code che si occupino della raccolta, pulizia, controllo qualità dei dati, e della creazione dei modelli di formazione dell’intelligenza artificiale. Strumenti che, provando in autonomia quale tecnica di machine learning si adatti meglio al problema, alla ricerca dei parametri chiave ed anche alla valutazione del modello, consentono al Data Scientist di concentrarsi sulla creazione del modello.
Di recente sono emerse soluzioni in grado di processare, capire ed anche generare linguaggio naturale, ovvero comunicare in inglese o italiano comune, senza doversi imbattere in linee di codice software. Se fino a ieri parlavamo ad Alexa per accender la luce o cercare un brano musicale, adesso siamo al punto di chiedere a questi strumenti di aiutarci nella creazione di modelli di intelligenza artificiale. Pensate al vantaggio di poter parlare con una macchina ed arrivare assieme ad un modello previsionale di prezzi sul mercato. Questo scenario non è un futuro lontano, ma domani, e per prepararsi al meglio occorre fare una squadra dove Data Scientist ed altri professionisti si concentrano solo sui problemi di business.