Viajando um pouco aqui, vislumbrei a Web 4.5:
- As interações homem-máquina passam ser por comando de voz (ou texto, somente para inclusão de pessoas com dificuldade de fala ou congnitivas), nada de botões ou clicks.
- O output das interações acotencem por meio de apresentação em realida aumentada ou virtual, quase sempre gerada por IA, ou seja, sem a necessidade de um designer de UX.
- Sensores de toque e vibração (no estilo do Dualsense do PS5) acrescidos a sensores de gesto, começam a ser utilizados para permitir um input/output preciso e orgânico.