Nel 2023 se ne sono venduti 1.2 miliardi, in calo del 3% rispetto all’anno precedente ma sempre preponderanti rispetto ai PC, che sono calati del 15% a 243 milioni, pochissimi. Vendite in calo, Apple che per la prima volta abbassa i prezzi: cosa succede? Ci stiamo annoiando, ma arrivano degli occhiali sempre più facili da usare, belli, e ricchi di funzionalità impossibili per il telefonino.
La settimana scorsa Apple ha lanciato il suo concorrente ai Ray-Ban di Meta, con un prodotto completamente diverso. Ingombrante e fatto tipo maschera da sub, costa $3.500 ed il giorno del lancio ha raccolto 200.000 ordini, il 40% della produzione annua. Nonostante io sia un early-adopter ed avessi comprato già i primi occhiali di Google, rivendendoli dopo tre capocciate contro le porte, $3.500 li lascio spendere all’amico, e proverò questi di Apple tra qualche giorno. Secondo me i Ray-Ban di Meta, con una forma molto più elegante, leggeri, ed accesso ad un Llama2 open source, reggeranno la concorrenza di Cupertino: sicuramente il loro successo commerciale fino ad oggi ha sorpreso lo stesso Zucki, normalmente ottimista su suoi prodotti.
Il vantaggio degli occhiali, armati di LLM che comprendono ed interpretano la voce e quindi coniugano la nostra vista con l’udito, è quello di bombardarci di dati molto meglio del solo telefonino. Tuttavia, riuscire a coordinare questi input visivi e sonori in modo efficace per tutti i tipi di utenti, dai giovani ai vecchi, da chi ha più a meno dimestichezza digitale, da chi usa diversi alfabeti e viene da culture lontane rispetto agli sviluppatori, da chi può avere problemi clinici con i sensi coinvolti, è un lavorone.
Nel design si dice che la forma deve seguire la funzione dell’oggetto; quindi, un edificio dev’essere funzionale a chi lo abita, un contenitore a raccogliere e versare il contenuto, un visore multisensoriale a farci interpretare lo stimolo nel modo più rapido, efficiente ed affidabile, senza stressarci. Ricordo i primi giorni con i Google Glass, la difficoltà nel mettere a fuoco la lente e poi lontano, la fatica nel coordinare il passaggio da uno schermo all’altro. Con queste nuove versioni ci posso parlare, ma come faccio a spiegargli di mettere a fuoco su un testo o immagine?
In questi giorni anche Neuralink ha fatto un notevole progresso, impiantando il suo brain computer interface (BCI) nel cervello di un paziente che partecipa al programma di test approvato dalla FDA. In questa prima fase il test è centrato sull’accertarsi che non ci siano danni neurologici o di rigetto dell’impianto. È quindi troppo presto per speculare sulla capacità di questa interfaccia BCI di interagire a livello multisensoriale con cellulari o occhiali digitali. Tuttavia, ci siamo abituati all’accelerazione che queste innovazioni prendono in poco tempo, e magari gli occhiali saranno il nostro ingresso nel mondo dei cyborg prima di quanto crediamo.