Die beste Technik ist unsichtbar. Gut gemachte Technik passt sich dem Nutzer an und nicht umgekehrt. Maus, Tastatur und das Paradigma des Schreibtischs samt Papierkorb auf PCs – all das waren Krücken, die die abstrakte Computer-Interaktion greifbar machen sollten.
Es ist daher kein Wunder, dass die „Krücken“ bei mobilen Geräten der intuitiveren Bedienung direkt mit den Fingern gewichen sind. Wie natürlich, eingängig und leicht verständlich diese Art der Bedienung ist, wird deutlich, wenn man Babys und Kleinkindern ein Tablet in die Hand gibt (was aus anderen Gründen an dieser Stelle aber keinesfalls empfohlen wird).
Wie zum Beispiel zeigen Sie in einer vollen Kneipe einem Kellner an, dass Sie gerne drei neue Bier hätten? Einfach per Handzeichen. Eine derartige Gestensteuerung ist künftig auch für Geräte wie eine Mikrowelle denkbar – wie beispielsweise das Projekt GestureID vom Fraunhofer-Instituts für Digitale Medientechnologie IDMT zeigt. Schon jetzt gibt es auch kommerzielle Produkte mit Gestensteuerung wie Microsofts Kinect für die Spielekonsole Xbox 360 oder Sonys Move für die Playstation 3.
Sprache ist die natürlichste Form der Kommunikation
Der natürlichste Weg für Menschen zu kommunizieren ist allerdings die Sprache – schließlich wird diese Art der Kommunikation auch mit anderen Menschen am häufigsten gewählt. Noch sind Computer nicht im Ansatz in der Lage, das komplexe Sprachverständnis eines Menschen zu emulieren. Spricht ein Mensch mit einem Computer, muss er sich ihm anpassen – laut, langsam und deutlich sprechen und dabei nur einfache Worte verwenden. Und selbst dann wird der Nutzer in vielen Fällen noch falsch verstanden – siehe Apples Siri.
Gelingt es Programmierern jedoch, die stets steigenden Rechenressourcen mit immer intelligenteren Algorithmen zu füttern, könnte der Sprachsteuerung schon in ein, zwei oder drei Jahrzehnten der Durchbruch gelingen. Sobald es schneller geht, dem mobilen oder stationären Computer zu erklären, was man möchte, statt es händisch einzugeben, wird die Sprachsteuerung zur natürlichen Eingabemethode.
Steuerung per Gedanken
Heute haben viele Menschen jedoch noch große Hemmungen, in der Öffentlichkeit mit ihrem Telefon zu sprechen. Für sie wird vielleicht erst der nächste Sprung in der Interface-Entwicklung interessant: Die beste, weil unsichtbarste und direkteste Interaktion mit Geräten wäre die Steuerung per Gedanken.
Dass diese Vision keine Science-Fiction bleiben muss, zeigen beispielsweise Forscher an der TU Berlin. Sie entwickelten einen Flipper, der sich nach einiger Eingewöhnungszeit allein mit den Gedanken in Echtzeit steuern via Hirnstrommessung steuern lässt. Die Forscher nennen es das System aus 64 Elektroden das Berlin Brain Computer Interface (BBCI). Ähnliche Experimente gibt es auch mit Querschnittsgelähmten, die dank Gedankensteuerung mittels Roboterarm wieder greifen können.
Damit diese Art der Steuerung wirklich gut funktioniert, müssten die Hirnsignale allerdings deutlich hochauflösender gemessen werden, als es per Elektroden von außen möglich ist. Ob sich Menschen irgendwann einmal aber beispielsweise einen Chip ins Hirn pflanzen lassen, um damit Geräte steuern zu können, wird die Zukunft zeigen müssen – die sich damit eröffnenden neuen Möglichkeiten für Hacker sollen an dieser Stelle besser gar nicht erst erläutert werden.
Big Data erfordert neue Interaktionsmöglichkeiten
Auch die professionelle IT könnte noch die eine oder andere Revolution in der Interaktion zwischen Anwender und Computer erleben. Heutige Rechner können riesige Datenmengen verarbeiten, aus denen Forscher und Unternehmen wertvolle Informationen gewinnen.
Flaschenhals der modernen Datenverarbeitung ist dabei häufig nicht mehr Rechenleistung oder Speicher, sondern die Darstellung der verarbeiteten Daten, sodass ein Mensch daraus sinnvolle Schlüsse – wie die Entscheidung für oder gegen eine Investition treffen kann. Beim Umgang mit sehr großen Datenmengen – in der Fachsprache Big Data genannt – könnten sich daher virtuelle interaktive Flächen durchsetzen, die ganze Räume ausfüllen. Ein entsprechendes Modellprojekt präsentierte das Hasso-Plattner-Institut aus Potsdam bereit im Oktober 2009 in New York.
Dieser Beitrag von Stephan Dörner ist Teil der twenty.twenty-Blogparade „Human Interface. Machine Interface“ und erschien ursprünglich auf Wall Street Journal Deutschland.