Isso faz com que o usuário saiba quando o gesto é concluído, mesmo antes de sua classificação ser retornada do serviço Azure Deep Learning, tornando a experiência muito mais tátil e funcional. Se a resposta ao gesto voltar com sucesso, um som de estalo mais profundo será reproduzido e uma imagem do tipo de gesto será mostrada no canto inferior esquerdo. Embora o sistema nem sempre antecipe corretamente o gesto pretendido pelo usuário, a execução do gesto, de certa maneira, pode melhorar muito a chance de reconhecimento. Adicionando os ruídos e removendo rapidamente as classificações de rastreamento de gestos em perspectiva e de gestos previstos, o usuário recebe um feedback claro e instantâneo quando o reconhecimento de gestos falha e pode ajustar sua técnica de acordo.
Embora ainda seja possível realizar muitas melhorias, a capacidade de aumentar as opções de gestos foi fundamental para os desenvolvedores 3D, que foram obrigados a se contentar por muito tempo com as limitações. Outro aspecto interessante que pode ser explorado é o uso de uma exportação do ONNX em conjunto com a inferência no dispositivo WinML, que foi introduzida com a atualização RS4 do Windows. Isso ajudará a melhorar a latência e também contribuirá com a superação de possíveis problemas com conectividade de back-end e limitações de rede.