O gesto de toque duplo do Apple Watch é muito melhor do que o esperado e eu quero mais

O recurso de toque duplo do Apple Watch é surpreendentemente melhor do que eu esperava e já estou ansioso por mais

Para os Apple Watches deste ano, a empresa apresentou um gesto de duplo toque na ponta dos dedos, derivado de recursos de acessibilidade introduzidos anos antes. Fazia-me tocar os dedos muitas vezes. Passeando. No trem. Isso foi antes mesmo do recurso estar disponível. Eu me peguei fazendo pequenos gestos de toque, imaginando o que eu poderia ativar de repente.

O gesto de duplo toque da Apple está aqui agora, e eu tenho tentado por mais de uma semana. Às vezes é fantástico. Às vezes, parece irritantemente limitado. Mas me fez querer mais. Muito mais. Depois de sonhar por anos com interfaces futuras nos pulsos e em óculos de realidade aumentada/virtual, esse pequeno duplo toque parece o menor ponto de entrada para muito mais. Como se a Apple estivesse nos introduzindo de forma sutil a uma linguagem de interface totalmente nova, passo a passo.

No próximo ano, a Apple lançará um produto muito mais ambicioso: o Vision Pro, um headset de realidade aumentada/virtual que combina todo o iOS em uma interface de realidade mista. Ele depende completamente do rastreamento dos olhos e das mãos para controlar tudo, e o duplo toque é um dos gestos-chave que ele usa para “clicar” nas coisas.

O duplo toque do Apple Watch, da forma como está agora, é verdadeiramente uma porta de entrada para um futuro de interfaces gestuais? Ainda não. Está muito lento na iteração atual e muito limitado. Mas é um movimento que eu espero que se expanda, melhore e seja incorporado a outros wearables fabricados por outras empresas também.

Apple/Gif por Arielle Burton/CNET

Um pé na porta para novas ideias

A Apple faz questão de ressaltar e esclarecer que o duplo toque no Apple Watch não é igual ao duplo toque no Vision Pro. Eles funcionam por meio de tecnologias diferentes: o relógio usa medições ópticas de frequência cardíaca e acelerômetro/ giroscópio, enquanto o Vision Pro usa câmeras externas para detectar o movimento das mãos. O relógio nem mesmo pode ser usado para controlar o Vision Pro – ainda. Mas não é por acaso que esses gestos se assemelham.

Empresas como a Meta já esboçaram um futuro onde os rastreadores de pulso e os headsets se entrelaçam. Na visão da Meta, tecnologias de entrada neural, como a eletromiografia (EMG), detectarão com precisão os movimentos das mãos.

Enquanto isso, é provável que ocorra um período de alguns anos em que os relógios evoluam com a consciência gestual suficiente, sem adicionar a EMG ainda. Assim como os telefones começaram a mostrar efeitos de realidade aumentada usando apenas câmeras e detecção de movimento antes da adição de tecnologias de sensor de profundidade, como o lidar, estamos vendo o início de um rastreamento de gestos “suficientemente bom” e um futuro onde sensores mais avançados são adicionados para aprimorar ainda mais as capacidades.

Assista a isso:

A Apple já possui um conjunto mais abrangente de movimentos gestuais nos Apple Watches existentes, nas Configurações de Acessibilidade, em uma categoria chamada Assistive Touch. Esses gestos podem ser usados para navegar completamente no Watch e ativar qualquer função de “toque” na tela para pessoas que não podem ativá-lo diretamente e precisam de uma alternativa acessível.

O único recurso de duplo toque da Apple é um refinamento nos novos Series 9/Ultra 2 Watches que usa novos algoritmos para estar sempre disponível sem gastar muita bateria. A Apple focou apenas nesse recurso para esse lançamento, mas claramente a empresa poderia criar outros gestos com novos algoritmos. Socos de punho, ou toques únicos, fazem parte dos outros controles nas configurações de Acessibilidade, além de um ponteiro controlado por movimento. Controles adicionais por toque parecem ser um próximo passo provável, desbloqueando o uso do duplo toque para mais do que as ações simples às quais está atualmente limitado. Aplicativos de terceiros também não podem usá-lo ainda, a menos que esteja dentro de uma notificação pop-up.

Apple/Gif por Arielle Burton/CNET

Precisa ser mais suave

A ideia toda de entradas gestuais não é tanto uma ideia de VR/AR, mas sim de computação ambiente. Lembra-me do Soli, os sensores gestuais baseados em radar que o Google experimentou por anos, projetados para idealmente serem usados em casa ou em qualquer outro lugar sem precisar alcançar uma tela sensível ao toque ou um botão.

Para fazer isso funcionar, precisa ser algo que não seja irritante, e eu só conseguirei saber isso quando conviver com isso por um tempo. Tenho tendência a ignorar novos atalhos e recursos no meu telefone, seguindo o fluxo com o qual já estou familiarizado. No Apple Watch, ainda estou às vezes tocando o botão “responder” na tela em vez de me lembrar que poderia ter feito apenas um duplo toque. No VR, eu desenvolvi alguma memória muscular para alguns gestos cotidianos: Fazendo um duplo toque no lado do headset Quest, eu posso ver o mundo real através das câmeras. E mesmo assim, eu esqueço de usar comandos de voz no VR.

O melhor exemplo de duplo toque no Watch agora é quando as mensagens aparecem. Fazendo um duplo toque em cada fase, inicia-se uma função diferente: Primeiro entra em ditado e depois envia a mensagem. Isso torna o processo de resposta rápida muito mais fluido. Mas para timers, por exemplo, eu só consigo parar um, não começar um. Nos mostradores, posso rolar por algumas janelas básicas de widgets no “smart stack” do relógio, mas não consigo abrir nenhuma com um duplo toque. A Siri poderia fazer algumas dessas coisas, mas novamente, como isso se conecta com o duplo toque ainda não está totalmente resolvido.

Mark Zuckerberg usando a pulseira de EMG em uma demonstração que vi há um ano. Serão os gestos dos relógios uma forma de evoluir para esse nível de complexidade para AR e VR?

Meta

Por que isso será importante

Penso sobre atalhos e workflow porque penso sobre o futuro da computação espacial da Apple. O Vision Pro será um headset envolvente controlado totalmente pelas mãos e movimentos oculares. Minhas breves demonstrações do Vision Pro mostraram alguns controles bem básicos, como se minhas mãos estivessem deslizando, apontando e tocando para abrir e mover coisas. Mas e se eu quiser fazer as coisas mais rápido? Haverá maneiras de realizar comandos rápidos, invocar movimentos rápidos semelhantes ao uso de gestos de vários dedos no meu trackpad ou atalhos de teclado? Poderia um relógio, que não precisa estar sempre à vista das câmeras do Vision Pro, ser uma forma mais confiável de fazer essas coisas? Ou poderia a tela do relógio se combinar de alguma forma com os gestos?

Estou meio perdido imaginando esse futuro porque ele ainda não foi escrito. Os headsets de VR que existem atualmente utilizam entradas padrão semelhantes a controles de videogame, e alguns gestos de mão, e também dependem de teclados e trackpads. Eles ainda não são dispositivos de próxima geração perfeitos. A Apple parece estar tentando avançar a conversa sobre entradas, enquanto a Meta está fazendo o mesmo em uma trajetória paralela. Mas a Apple já tem seus gestos de smartwatch, mesmo que ainda não estejam conectados com VR e AR.

Se os comandos se tornarem bons o suficiente, eles também poderiam ser estendidos para trabalhar no iPad, ou no Mac, ou com TVs, ou em qualquer outro lugar? Esse é o objetivo da computação ambiente. Mas até agora, nenhuma empresa descobriu essa nova linguagem gestual no uso cotidiano de dispositivos vestíveis. Em um futuro mais distante, com óculos inteligentes e relógios e sensores de entrada neural, isso será essencial. Enquanto isso, estamos começando a ver os menores dos passos… um toque de cada vez.