
Elliptic Labs toont zijn zogenoemde Multi Layer Interaction-technologie in een video aan de hand van een hoesje dat om een bestaande Android-telefoon heen zit. Uiteindelijk moeten de sensoren in nieuwe telefoons ingebouwd worden.
Met de ultrasone sensoren kunnen gebruikers hun smartphone bedienen met handgebaren. Omdat de sensoren niet met infrarood licht werken, is het bereik ruimer. Daarom gebaren van rondom een hele telefoon opgevangen worden.
De sensoren kunnen niet alleen gebaren als vegen waarnemen, maar ook verschil in afstand. Zo kunnen apps worden bediend door de hand dichterbij of juist verder van het scherm van de telefoon af te houden.
Elliptic Labs stelt zich voor dat gebruikers met een gebaar richting hun scherm door verschillende lagen berichten bladeren. Ook wordt getoond hoe de bediening van een video wordt opgeroepen als een hand het scherm nadert.