FSFE supporters Vienna


Posts Tagged ‘Gesten’

Gesunde Computernutzung ist möglich

Thursday, March 31st, 2016

Zahllose täglich lange Zeit am Computer arbeitende Menschen leiden unter den Folgen des vielen nahezu unbewegten Sitzens. Dabei gibt es schon lange keine technische Notwendigkeit mehr Computer nur über Maus und Tastatur oder Touchscreens zu bedienen.

Es existieren bereits Schnittstellen, die anhand von Kameras und spezifischer Software Gesten und sogar Mimik interpretieren können. Bekannt sind aber bisher nur rudimentäre Formen dieser Möglichkeiten über Spielkonsolen wie der Kinect geworden. Einzelne Versuche Technologien einzuführen sind kaum bekannt und zielen nicht auf eine Lösung des Bewegungsmangels in unserer Gesellschaft ab. Die Leap Motion ist ein nettes Spielzeug, das aber in seinem kleinen angepeilten Anwendungsgebiet noch kaum überzeugen kann. Und Motix versucht nicht mal ansatzweise ohne Tastatur – also ohne Schreibtisch – auszukommen.

Wie eine zumindest gestenbasierte Bedienung von Computern aussehen könnte, zeigt der Film Minority Report, wo der Hauptdarsteller auf diese Weise Videosequenzen analysiert. Auch eine wissenschaftliche Arbeit vom Institut für Visualisierung und Interaktive Systeme der Universität Stuttgart nimmt auf diesen Film Bezug und der verfasser Nico Ploner untersucht darin die Möglichkeit einer Gestensteuerung für Powerwall-basierte Visualisierungen.

Dem entsprechend ist eigentlich kaum zu rechtfertigen, dass so viele Menschen weiterhin unter Bewegungsmangel leiden, bloß weil sie bei ihrer Arbeit täglich viele Stunden lang Computer nutzen müssen.

Der aktuelle Standard

Dabei ist die traditionelle Bedienung von Computern über Maus und Tastatur kein naheliegendes Konzept, dass uns Menschen grundsätzlich intuitiv erscheinen würde. Allein schon die Steuerung eines Mauspfeils erfordert viel Übung weil wir dazu erst lernen müssen die Wirkung unserer Bewegungen an einer anderen Stelle zu erwarten als wir sie durchführen. Wir alle haben anfangs nur langsam und hoch konzentriert tippen können. Erst durch die viele Übung haben wir den Eindruck gewonnen, dass diese Art der Textbearbeitung selbstverständlich und hochgradig effizient ist.

Wir erledigen an Comptern mittlerweile zweifellos wesentlich mehr als nur die Bearbeitung von Texten. Jenseits von Textverarbeitung erleben wir unsere konventionellen Schnittstellen allerdings nur selten als optimal. Zum Zeichnen und Malen verwenden wir lieber Stifte und für viele andere Aktivitäten erscheinen Maus und Tatsatur ohnehin wie ein enger Käfig. Stellen wir uns einmal elektronisches Musizieren und die Gestaltung von dreidimensionalen Umgebungen über sinnvolle Gesten vor! Welche Erleichterung haben beispielsweise Touchscreens gebracht, wenn es um das Skalieren von Bildschirmdarstellungen geht? Heutzutage erscheint seltsam, dass noch irgendwo Schaltflächen für diese offensichtlich mit einer Geste viel besser steuerbare Funktion gebraucht werden.

Unsere Physionomie erlaubt uns grundsätzlich wesentlich vielfältigere Bewegungsabläufe als nur die rasche und präzise Bewegung unserer Finger. Leider wird dieses Potenzial von Computerschnittstellen bisher nicht genutzt. Mit dem Wachstum des Anteils jener Zeit, in der wier Computer nutzen, verkümmert unsere angeborene Bewegichkeit. Das ist nicht nur eine bedauerliche Verschwendung, sondern der chronische Mangel an Bewegung macht uns auf Dauer Krank und verursacht sehr vielen Menschen chronische Schmerzen, die nur ein Teil der Betroffenen wieder überwinden kann.

Angesichts dieses volkswirtschaftlich höchst relevanten Faktors, der die Krankenkassen stark belastet, ist es daher sehr erstaunlich, dass es mir bisher bei meiner Recherche nicht gelungen ist konkrete Projekte zu finden, die sich mit dieser Thematik befassen.

Wo ist die Expertise?

Es gibt bereits seit vielen Jahren Forschung im Bereich der computerisierten Erkennung von Gestik und Mimik. Doch wird dies bisher nicht in Kontext mit einer generellen Computernutzung gesetzt. Vor allem fehlt es an einem Ansatz eine sinnvolle und effiziente Steuerung eines Betriebssystems jenseits von Zeigegeräten oder akustischer Spracherkennung. (Spracherkennung ist zweifellos ein spannendes Feld. Allerdings hat akkustische Sprache den großen Nachteil, dass sie schnell Lärm erzeugt, wenn sie viele Menschen auf engem Raum praktizieren und dass sie in vielen Aspekten eher umständlich ist. Bewegungen einigermaßen genau zu beschreiben, ist beispielsweise wesentlich mühsamer, als sie einfach auszuführen.)

Es gibt auch bereits die Möglichkeit über ein Monitoring unserer Augenbewegungen einen Cursor zu steuern.

Es mangelt nicht an technischen Möglichkeiten

Aus den mir bekannten technischen Möglichkeiten schließe ich, dass eine Bewegungsbedienung von Allzweckcomputern derzeit nicht an den technischen Möglichkeiten scheitert. Es fehlt viel mehr an Leuten die das gesellschaftliche Problem des allgemeinen Bewegungsmangels auf diese Weise anpacken.

Die größete Herausforderung in diesem Kontext scheint mir die Entwicklung einer internationalen, einigermaßen intuitiven “Bewegungssprache” zu sein, die möglichst leicht von Computern interpretiert werden kann und die die physionomischen Möglichkeiten unseres Bewegunsapparates ebenso berücksichtigt wie fördert und vielleicht sogar erhöht.

Gebärdensprache scheint auf den ersten Bilck eine naheliegende Grundlage für die Erfüllung der Anforderungen zu sein. Allerdings ist die Gebärdensprache für eine wirkliche Nutzung unseres Bewegungsapparates zu beschränkt. Sie nutzt immerhin nur Handbewegungen und Mimik. Für die Erfüllung der angepeilten gesundheitlichen Wirkung der Bewegungsbedienung müssen wir unseren gesamten Körper einbringen. Abgesehen davon gibt es leider nicht eine internationale Gebärdensprache, sondern viele verschiedene, die nicht mit einander kompatibel sind.

Das Ziel

Meine Vision ist ein Amt in dem Menschen zumindest teilweise turnen bzw. tanzen, anstatt permanent zu sitzen.

Damit eine Bewegungssteuerung im Alltag wirklich nützlich ist und Fuß fassen kann, muss sie ein offener Standard sein, der nicht von unerschwinglicher Hard- und Software abhängt.

Freilich müssen Individuen eine neu entwickelte Bewegunssteuerung erst erlernen, aber angesichts der gesundheitlichen Probleme, mit denen wir im Moment konfrontiert sind, lohnt sich der Aufwand garantiert sehr rasch.

Liste zu berücksichtigender Gedanken:

  • Die Basisbewegungungen sollten nicht zu schwer durchzuführen sein, damit auch weniger agile Menschen leicht mit Computern interagieren können.
  • Es ist wichtig einen möglichst vielfältigen Bewegungsablauf in der praktischen Arbeit zu kreieren. Einseitige Belastungen durch monotone Tätigkeiten sollen vermieden werden.
  • Zumindest die Grundlagen sollten möglichst intuitiv sein.
  • Die Steuerung soll nicht sprachabhängig sein. Die Bewegungssteuerung muss sprachneutral, also international funktionieren.
  • Es soll möglich sein neue “Befehle/Shortcuts” durch neue “Figuren” oder spezifische Bewegungsabläufe anzulegen.
  • Es ist wichtig flüssige Bewegungen zwischen verschiedenen Positionen machen zu können. Diese dürfen auch keine unabsichtlichen Befehle auslösen.
  • Das Grundkonzept von Steno könnte die Notwendigkeit zum Buchstabieren weitgehend unnötig machen.

Für das Projekt benötigte Expertisen:

  • Mensch (Physionomie, Sport, Tanz, Lernkonzepte)
  • Computer (Sensorik, Programmierung, Usability)
  • Sprache (Sprachaufbau, adaptionsfreudig und trotzdem leicht nachvollziehbar!)

Ich freue mich über Hinweise zu Menschen und Projekten, die sich ebenfalls mit dieser Thematik befassen.