Der menschliche Seh-, Hör- und Tastsinn findet sich wieder in der Blick- und Gestensteuerung, der Sprachverarbeitung und Steuerung durch Ton oder Haptik. Interfaces erkennen diese menschlichen Fähigkeiten, interpretieren sie und reagieren darauf. Durch maschinelles Lernen kann die intuitive Interaktion stetig optimiert werden.
Besucher können diese intuitive Interaktion auch jenseits von Maus und Tastatur erleben. So sind etwa Avatare nur durch Blicke und Gesten steuerbar. Auf einem verformbaren Display können Daten buchstäblich fühlbar gemacht und durch Drücken oder Ziehen beliebig angeordnet werden. Mithilfe von Lauten und Klatschgeräuschen lässt sich ein Teddy in einem intergalaktischen Spiel steuern.
Besucher können selbst entdecken und ausprobieren, wie die Maschinen ihre Vorgaben umsetzen. Auch Sensorhandschuhe und VR-Brillen fungieren als Interfaces und sind ausgestellt.