La doppia pressione del polso dell’Apple Watch è molto migliore di quanto ci si aspetti e ne voglio di più

La doppia pressione del polso dell'Apple Watch è decisamente superiore alle aspettative e ne desidero di più

Per gli Apple Watches di quest’anno, l’azienda ha introdotto un gesto di doppio tocco sulla punta delle dita derivato dalle funzioni di accessibilità introdotte anni prima. Mi ha fatto fare molto tapping con le dita. Passeggiate. Sul treno. Questo era prima che la funzione fosse resa disponibile. Mi sono trovato a fare piccoli gesti di tocco, immaginando cosa potessi attivare improvvisamente.

Il gesto di doppio tocco di Apple è qui ora, e lo sto provando da oltre una settimana. A volte è fantastico. A volte sembra limitato in modo fastidioso. Ma mi ha fatto desiderare di più. Molto di più. Dopo aver sognato per anni interfacce future su polsi e visori AR/VR, questo piccolo doppio tocco sembra il più piccolo punto di accesso a molto altro. Quasi come se Apple ci stesse gradualmente introducendo a un intero nuovo linguaggio di interfaccia, passo dopo passo.

L’anno prossimo, Apple lancerà un prodotto molto più ambizioso: la Vision Pro, una combinazione di visore AR/VR che incorpora tutto iOS in un’interfaccia di realtà mista. Si affida interamente al tracciamento degli occhi e delle mani per controllare tutto, e il doppio tocco è uno dei gesti chiave che utilizza per “cliccare” su cose.

Il doppio tocco di Apple Watch, così com’è adesso, è una vera porta verso un futuro di interfaccia gestuale? Non ancora. È troppo lento nella versione attuale e troppo limitato. Ma è un movimento che mi aspetto si espanda, migliori e venga adottato anche da altri dispositivi indossabili prodotti da altre aziende.

Apple/Gif di Arielle Burton/CNET

Un punto d’appoggio per nuove idee

Apple è pronta a sottolineare e chiarire che il doppio tocco su Apple Watch non è lo stesso del doppio tocco su Vision Pro. Funziona tramite tecnologie diverse: l’orologio utilizza la frequenza cardiaca ottica e le misurazioni dell’accelerometro/ghirometro, mentre Vision Pro utilizza telecamere esterne per rilevare il movimento delle mani. L’orologio non può nemmeno essere utilizzato per controllare Vision Pro, almeno per ora. Ma non è un caso che questi gesti si assomiglino.

Aziende come Meta hanno già descritto un futuro in cui braccialetti e visori si intersecano. Nella visione di Meta, tecnologie di input neurali come l’elettromiografia (EMG) rileveranno con precisione i movimenti delle mani. Nel frattempo, probabilmente ci sarà un periodo di alcuni anni in cui gli orologi svilupperanno una consapevolezza dei gesti che raggiungerà un livello “sufficientemente buono” senza ancora aggiungere l’EMG. Proprio come i telefoni hanno iniziato a mostrare effetti di realtà aumentata utilizzando solo telecamere e rilevamento del movimento prima di aggiungere tecnologie di rilevamento della profondità come il lidar, stiamo vedendo l’inizio del tracciamento dei gesti “sufficientemente buono” e un futuro in cui saranno aggiunti sensori più avanzati per affinare ulteriormente le capacità.

Vedi questo:

Apple ha già un insieme più ampio di movimenti gestuali nei Apple Watches esistenti, nelle Impostazioni di accessibilità in una categoria chiamata Assistive Touch. Questi gesti possono essere utilizzati per navigare completamente l’orologio e attivare qualsiasi funzione “touch” sullo schermo per le persone che non possono attivare il tocco e hanno bisogno di un’altra alternativa accessibile.

Il singolo doppio tocco di Apple è un miglioramento sui nuovi Series 9/Ultra 2 Watches che utilizza nuovi algoritmi per consentirne l’accessibilità senza consumare troppa batteria. Apple si è concentrata su questa singola funzione per questo rilascio, ma è chiaro che l’azienda potrebbe creare altri gesti successivi con nuovi algoritmi. Pugni chiusi, o singoli tocchi, fanno parte degli altri controlli nelle impostazioni di accessibilità, insieme a un puntatore controllato dal movimento. È probabile che compaiano ulteriori controlli a base di tocco, sbloccando il doppio tocco per fare più di quanto le semplici azioni attualmente limitate che può compiere. Le app di terze parti non possono ancora utilizzarlo, a meno che non sia all’interno di una notifica popup.

Apple/Gif di Arielle Burton/CNET

Deve essere più fluido

L’intera idea degli input gestuali non è tanto una cosa di realtà virtuale o aumentata, quanto una cosa di computing ambientale. Mi ricorda Soli, i sensori gestuali basati sul radar su cui Google ha sperimentato per anni, progettati per essere utilizzati idealmente a casa o ovunque altro, senza dover toccare uno schermo o un pulsante.

Per far funzionare tutto ciò, non deve essere fastidioso, e non posso saperlo fino a quando non lo userò per un po’ di tempo. Tendo a ignorare nuove scorciatoie e funzioni sul mio telefono, preferendo usare i flussi di lavoro che già conosco bene. Sull’Apple Watch, a volte ancora tocco il pulsante “rispondi” sullo schermo invece di ricordarmi che avrei potuto fare semplicemente un doppio tocco. Nella realtà virtuale, ho sviluppato una certa memoria muscolare per alcuni gesti quotidiani: il doppio tocco sul lato dell’headset Quest può mostrare il mondo reale tramite le telecamere. Eppure dimentico di usare i comandi vocali nella realtà virtuale.

L’esempio migliore di doppio tocco sull’Apple Watch al momento è quando compaiono i messaggi. Il doppio tocco in ogni fase avvia una funzione diversa: prima entra nella dettatura, e poi invia il messaggio. Rende il processo di una risposta rapida molto più fluido. Ma per i timer, ad esempio, posso solo fermarne uno, non avviarne uno. Su alcune facce dell’orologio, posso scorrere attraverso alcune schede popup di base nello “smart stack” dell’orologio, ma non posso aprirne nessuna con un doppio tocco. Siri potrebbe fare alcune di queste cose, ma ancora non è del tutto chiaro come funzioni insieme al doppio tocco.

Mark Zuckerberg che utilizza il braccialetto EMG in una demo che ho visto un anno fa. I gesti dell’orologio troveranno una via per evolversi a questo livello di complessità per la realtà aumentata e virtuale?

Meta

Perché questo sarà importante

Rifletto sulle scorciatoie e sul flusso di lavoro perché penso al futuro di Apple nel campo del computing spaziale. Il Vision Pro sarà un headset avvolgente controllato interamente da movimenti delle mani e degli occhi. Le mie brevi demo del Vision Pro hanno mostrato alcuni controlli piuttosto basilari, come se le mie mani scorressero, puntassero e toccassero per aprire e spostare le cose. Ma se voglio fare le cose più velocemente? Ci saranno modi per impartire comandi rapidi, eseguire movimenti rapidi simili a come uso gesti multi-touch sul mio trackpad, o scorciatoie da tastiera? Potrebbe un orologio, che non deve essere sempre visibile alle telecamere del Vision Pro, essere un modo più affidabile per fare queste cose? O potrebbe il display dell’orologio combinarsi in qualche modo con i gesti?

Sto cercando un po’ alla cieca immaginando questo futuro perché non è ancora stato scritto. Gli headset VR attualmente esistenti utilizzano ingressi standard simili a quelli dei controller di gioco, e alcuni gesti manuali, ma dipendono anche da tastiere e trackpad. Non sono ancora dispositivi di computing di prossima generazione perfetti. Apple sembra stia cercando di far avanzare la conversazione sugli input, mentre Meta sta facendo lo stesso su un percorso parallelo. Ma Apple ha già i suoi gesti intelligenti sull’orologio, anche se non sono ancora collegati alla realtà virtuale e aumentata.

Se i comandi diventano abbastanza buoni, potrebbero estendersi anche al lavoro su iPad, Mac o con le TV o ovunque altro? Questo è l’obiettivo del computing ambientale. Ma fino ad ora, nessuna azienda ha trovato quel nuovo linguaggio gestuale nell’uso quotidiano di dispositivi indossabili. In un futuro più lontano, con occhiali e orologi intelligenti e sensori di input neurali, sarà essenziale. Nel frattempo, stiamo iniziando a vedere i più piccoli passi in avanti…un tocco alla volta.