Multi-Touch-Screen

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
Typische Multi-Touch-Geste
Samsung Galaxy Tab mit Multi-Touch-Bildschirm
Abgeschlossene Fingerspreiz-Geste zum Heranzoomen von Text

Ein Multi-Touch-Screen (englisch touch = berühren; Bildschirm mit Mehrfingergestenerkennung) ist eine besondere berührungsempfindliche Oberfläche für die Eingabe von Daten mit Hilfe von Gesten. Der kapazitive oder optische Touchscreen erkennt gleichzeitig mehrere Berührungen, meist mit den Fingern, womit mehr Bedienmethoden zum Einsatz kommen können als bei Systemen, die nur einen einzigen Berührungspunkt gleichzeitig erfassen können.

Meist sind Bildschirm und Multi-Touch-Screen kombiniert und liegen übereinander. Der Anwender kann dann auf die am Bildschirm angezeigten Elemente tippen, sie verschieben oder mehrere gleichzeitig auswählen. Populäre Anwendungsbeispiele sind das Vergrößern und Drehen von Bildern, indem man zwei Finger voneinander wegbewegt oder sie um einen gemeinsamen Mittelpunkt dreht.

Drehen mit zwei Fingern auf einem Multi-Touch-Bildschirm

Die Technologie, auf der u. a. das Apple iPhone und Microsoft PixelSense basieren, wurde schon ab 1982 entwickelt.[1] Bereits damals fanden an der University of Toronto sowie an den Bell Laboratories erste Forschungen zu Multi-Touch-Geräten statt.

Die weiteren Forschungen zu Multi-Touch-Geräten begannen bereits Anfang der 1990er Jahre.[1] Führende Institute waren dabei die University of Toronto sowie die Bell Laboratories.

Apple ließ die Technik 2004 zum Patent anmelden[2] und versuchte auch, das Wort Multi-Touch als Marke zu registrieren, was jedoch abgelehnt wurde, weil der Begriff als zu allgemein erachtet wurde.[3]

2005 brachte die französische Firma Jazzmutant das Multimedia-Kontrollgerät Lemur[4] – als eines der ersten multi-touch-fähigen Produkte – zum Steuern von Mischpulten im professionellen Audio- und Videobereich auf den Markt.

2006 wurde der Forscher Jeff Han von der New York University durch die Demonstration eines Multi-Touch-Prototypen auf der TED-Konferenz bekannt. Das seiner Multi-Touch-Oberfläche zugrundeliegende FTIR-Prinzip (englisch Frustrated Total Internal Reflection[5], deutsch Verhinderte Interne Totalreflexion) besitzt den Vorteil, dass solche Oberflächen kostengünstig und beliebig skalierbar herstellbar sind. Ein Video der Präsentation Hans wurde einige Monate später ins Internet gestellt und fand dort große Verbreitung. Han war auch der erste, der FTIR-basierte Multi-Touch-Geräte vermarktete, wozu er selber die Firma Perceptive Pixel gründete, die Multi-Touch-Wände unter anderem an die CIA verkaufte.

Obwohl schon die im ersten Halbjahr 2007 marktüblichen Synaptics-Touchpads diese Eingabemethode unterstützten (beispielsweise das Lenovo-ThinkPad T61 unter GNU/Linux), wurde sie erst durch das Mitte 2007 auf den Markt gebrachte Apple iPhone einer größeren Öffentlichkeit bekannt.

Im Musikbereich erlangte der Synthesizer Reactable eine größere Bekanntheit, nachdem das Instrument von der isländischen Sängerin Björk neben dem Lemur auf ihrer letzten Volta-Welttournee prominent eingesetzt wurde. Der Reactable vereint eine Multi-Touch-Oberfläche mit der Gegenständlichkeit eines Tangible User Interface und macht elektronische Musik akustisch, visuell und auch haptisch begreifbar.

Commons: Multi-Touch-Screen – Sammlung von Bildern, Videos und Audiodateien

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. a b Bill Buxton, Multi-Touch Systems that I Have Known and Loved, Version vom 21. Juli 2016.
  2. Multipoint Touchscreen. Europäisches Patentamt, abgerufen am 29. November 2009.
  3. Apple Denied Trademark for Multi-Touch. MacRumors, abgerufen am 23. September 2012.
  4. Pascal Joguet: Lemur. Abgerufen am 24. Juli 2017.
  5. FTIR-Prinzip von Multi-Touch-Flächen