Eye Tracking Ein Überblick über Geschichte, Methoden und Anwendungen Sebastian Flothow [email protected] 2009-02-24 1 Inhaltsverzeichnis 1 Grundlagen des Sehens 1.1 Aufbau des Auges . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Augenbewegungen . . . . . . . . . . . . . . . . . . . . . . . . 3 3 3 2 Geschichte 5 3 Aktuelle Messverfahren 3.1 Relevante Eigenschaften der Systeme 3.2 Elektrookulographie . . . . . . . . . 3.3 Kontaktlinsenbasierte Systeme . . . . 3.4 Hornhautreflektion . . . . . . . . . . 3.5 Purkinje-Bilder . . . . . . . . . . . . 3.6 Darstellung der Ergebnisse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 7 7 8 8 8 9 4 Anwendungen 4.1 Medizinische Forschung und Diagnose . . . . . . . . . 4.2 Evaluation und Optimierung von Benutzeroberflächen 4.2.1 Web Usability . . . . . . . . . . . . . . . . . . 4.3 Eingabe im Normalbetrieb von Systemen . . . . . . . 4.3.1 Maussteuerung . . . . . . . . . . . . . . . . . 4.3.2 Texteingabe . . . . . . . . . . . . . . . . . . . 4.3.3 Adaptive Anzeigequalität . . . . . . . . . . . 4.3.4 Sonstiges . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 10 10 11 12 13 13 14 14 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Literatur 15 Abbildungsverzeichnis 1 2 3 4 5 6 Aufbau des Auges . . . . . . . . . . . . . Augenbewegungen beim Lesen . . . . . . Der unerwartete Besucher“ . . . . . . . ” Entstehung der Purkinje-Bilder . . . . . Aufmerksamkeitsforschung in Fahrzeugen Bannerblindheit . . . . . . . . . . . . . . 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 . 4 . 6 . 9 . 11 . 12 1 1.1 Grundlagen des Sehens Aufbau des Auges Abb. 1 zeigt vereinfacht den Aufbau des Auges. Erwähnenswert ist hierbei, dass der Augapfel als Ganzes keineswegs rund ist, sondern die Hornhaut deutlich vorgewölbt ist. Insgesamt erfasst das Auge ein Gesichtsfeld von etwa 120 ◦ vertikal und 150 ◦ horizontal [Wik09c]. Die Rezeptoren der Netzhaut haben ihre maximale Dichte dort, wo die optische Achse des Auges die Netzhaut schneidet, in der fovea centralis. Nur hier, auf einem Gesichtsfeld von etwa 1 – 2 ◦ , erreicht das Auge seine höchste Auflösung; mit zunehmender Entfernung von der fovea centralis fällt die Rezeptordichte der Netzhaut rapide ab [MH86]. Hieraus folgt, dass die Lage der optischen Achse tatsächlich relevant ist, um zu bestimmen, worauf die Aufmerksamkeit einer Person gerade gerichtet ist. Bewegungen des Auges können Winkelgeschwindigkeiten bis zu 500 ◦ /s erreichen [RS04a, S. 2]. Hornhaut optische Achse Linse Netzhaut Abbildung 1: Aufbau des Auges, beschriftet sind nur die im Weiteren relevanten Teile. Basierend auf http: // commons. wikimedia. org/ wiki/ File: Eye_ scheme. svg . 1.2 Augenbewegungen Die Augenbewegungen lassen sich klar einteilen in Fixationen auf einzelne Punkte, sowie schnelle, sprunghafte Bewegungen zwischen diesen Punkten, den Sakkaden. Fixationen haben üblicherweise eine Dauer von 200 – 300 ms [RS04a]. 3 Sakkaden werden anhand der peripheren Wahrnehmung vorausgeplant; während der Sakkade findet keine Wahrnehmung statt [MH86], eine einmal begonnene Sakkade kann also auch nicht korrigiert werden. Abb. 2 zeigt eine typische Abfolge von Fixationen und Sakkaden beim Lesen eines Texts; es lässt sich allgemein beobachten, dass vorwiegend längere, inhaltstragende Wörter Fixationen auf sich ziehen und diese zumeist in den vorderen Teil eines Worts fallen [RS04b, S. 12 – 13]. Abbildung 2: Verlauf typischer Augenbewegungen (Fixationen und Sakkaden) beim Lesen. Entstanden im Rahmen einer Studie an der Universität Lund, Schweden, 2005. Bildquelle: http: // en. wikipedia. org/ wiki/ File: ReadingFixationsSaccades. jpg Es wird oft angenommen, dass die Fixationen stark mit dem Denkprozess der jeweiligen Person verknüpft sind und Rückschlüsse auf diesen ermöglichen, teils wird dies jedoch auch angezweifelt [MH86]. Mit hinreichend präzisen Instrumenten sind auch während einer Fixation fortwährende Augenbewegungen messbar, Mikrosakkaden bzw. Mikrotremor; diese ermöglichen erst die Wahrnehmung, da die Rezeptoren der Netzhaut nur auf Veränderungen reagieren. 4 Daneben kann das Auge auch langsame, gleichmäßige Bewegungen ausführen, während derer eine Wahrnehmung stattfindet, z. B. bei der Verfolgung eines bewegten Objekts. 2 Geschichte Das Interesse an einer Untersuchung der Augenbewegung ist bereits im 19. Jahrhundert erwacht, allerdings musste man damals mangels geeigneter Instrumente mit der direkten Beobachtung vorlieb nehmen. Beim Lesen eines Buches ist das beispielsweise möglich, indem ein kleiner Spiegel in das Buch gelegt wird und der Experimentator der Versuchperson über die Schulter schaut. Naturgemäß ist diese Methode starken Einschränkungen unterworfen – eine Bestimmung des genauen Fixationspunkts ist gar nicht möglich, schnelle Augenbewegungen können leicht übersehen werden. Es ist also allenfalls eine qualitative Beurteilung möglich, und auch diese ist nicht unbedingt objektiv und wiederholbar [RS04a]. Um das Jahr 1900 herum entstanden die ersten mechanischen Gerätschaften für das Aufzeichnen von Augenbewegungen, die für die Versuchsperson zumeist unangenehm waren, so z. B. kontaktlinsenartige Vorrichtungen mit einem hervorstehenden Aluminiumzeiger, der die Blickrichtung anzeigt. E. B. Delabarre stellte 1898 eine Methode vor, bei der ein Draht mit Gips am Auge befestigt wird und den Griffel eines Kymographen betätigt, zumindest eine Dimension der Bewegung kann somit als Funktion der Zeit aufgetragen werden. Weiterhin berichtete er, dass sich die damit einhergehenden Beschwerden binnen einer Woche wieder legen [wiedergegeben in RS04a, S. 3]. Ungefähr zur gleichen Zeit, etwa zwischen 1900 und 1920, begann der Einsatz von Filmaufnahmen. Diese haben zweifellos den Vorteil, dass sie keinen Eingriff am Auge benötigen, beide Bewegungsrichtungen erfassen und eine objektive Aufzeichnung bilden, die nach Abschluss des Experiments in Ruhe untersucht werden kann; allerdings ist die Genaugkeit der Blickrichtungserkennung nicht unbedingt besser als bei der direkten Beobachtung. Ebenfalls ab 1900 wurden die ersten Systeme auf Basis der Hornhautreflektion entwickelt, 1921 entstanden auf diesem Wege die ersten zweidimensionalen Aufzeichnungen [RS04a, S. 4]. All diesen Methoden ist gemein, dass der Kopf der Versuchsperson absolut unbeweglich bleiben muss, also eine Fixierung mit Riemen und / oder Beißbrett nötig ist. Untersuchungen in einer natürlichen Umgebung sind folglich unmöglich. Erwähnenswert sind weiterhin die Arbeiten von A.L. Yarbus [Yar67], der als erster Augenbewegungen präzise aufgezeichnet hat. Verwendet wur5 de hierfür eine Kontaktlinse, die mittels eines Ventils fest an das Auge gesaugt werden konnte; sodann wurde die Reflektion einer Lichtquelle an einem auf der Kontaktlinse befestigten kleinen Spiegel aufgezeichnet. Insbesondere konnte er zeigen, dass bei gleichem Gegenstand der Verlauf der Augenbewegung sehr stark davon abhängig ist, welche Aufgabe dem Probanden gestellt wird (s. Abb. 3), was ebenfalls für eine enge Verbindung von Augenbewegungen und kognitiven Prozessen spricht. Abbildung 3: Unterschiedliche Augenbewegungen bei der Betrachtung eines Gemäldes ( Der unerwartete Besucher“ von Ilya Repin), in Abhängig” keit von der Aufgabenstellung [Yar67]. Bildquelle: http: // en. wikipedia. org/ wiki/ File: Yarbus_ The_ Visitor. jpg 6 3 3.1 Aktuelle Messverfahren Relevante Eigenschaften der Systeme Die derzeits verfügbaren Systeme lassen sich anhand unterschiedlicher Kriterien klassifizieren: Zunächst nach der Befestigungsart; neben Geräten, die am Kopf der Versuchsperson befestigt werden, gibt es solche, die fest im Raum aufgestellt werden. Letztere behindern zwar die Bewegungen der Versuchsperson nicht, beschränken sie jedoch auf den erfassbaren Raum, während kopfbefestigte Systeme einzig durch die Länge der Anschlusskabel begrenzt sind. Bei kopfbefestigten Geräten ist üblicherweise eine Kamera vorhanden, deren Bildfeld ungefähr dem Gesamtgesichtsfeld des Probanden entspricht, so dass in das Bild dieser Kamera dann der momentane Fixationspunkt eingespielt werden kann. Ein weiterer Unterschied besteht bezüglich des Bezugssystems – abhängig von der Befestigungsart, aber auch der Erfassungsmethode wird die Ausrichtung der Augen entweder bezüglich des Kopfs oder bezüglich der Umgebung erfasst. Je nachdem, welches Bezugssystem gewünscht wird, kann es also nötig werden die Kopfbewegung separat zu erfassen und hinzu- oder herauszurechnen. Ansonsten unterscheiden sich die Systeme in der erreichbaren räumlichen und zeitlichen Auflösung sowie im erfassbaren Gesichtsfeld. Am häufigsten sind Erfassungsraten von 50 – 60 Hz anzutreffen, es sind jedoch auch Raten bis zu 1250 Hz erreichbar [Wik09b]. In den folgenden Abschnitten werden die verschiedenen Funktionsweisen gängiger Systeme vorgestellt. 3.2 Elektrookulographie Die Elektrookulographie (EOG) macht sich zunutze, dass zwischen Vorderund Rückseite des Augapfels ein elektrisches Potential von ca. 1 mV besteht; an Elektroden, die oberhalb und unterhalb bzw. seitlich der Augen auf der Haut angebracht werden, ist eine zur Auslenkung des Augapfels proportionale Spannung bis etwa 100 µV messbar. Diese Spannung ist jedoch auch von der Umgebungshelligkeit abhängig, außerdem sind ihr u. U. Störspannungen überlagert, z. B. durch Aktivität der Gesichtsmuskulatur [MH86; Wik08]. Die Auflösung beträgt lediglich etwa 2 ◦ innerhalb eines Gesichtsfelds von 30 ◦ , wenn man ein weiteres Absinken der Auflösung in Kauf nimmt lässt sich ein Gesichtsfeld bis zu 70 ◦ erfassen. Außerdem ist die EOG die einzige Methode, die Bewegungen am geschlossenen Auge zu erfassen vermag. 7 3.3 Kontaktlinsenbasierte Systeme Hier sind vor allem die induktiven Systeme zu nennen, bei denen die Versuchsperson eine mit Spulen versehene Kontaktlinse einsetzt, es kann dann die Auswirkung dieser Spulen auf ein externes Magnetfeld erfasst werden. Besonderes Merkmal ist die überragende Auflösung von 5 – 10 00 , allerdings ist das erfassbare Gesichtsfeld auf 5 ◦ beschränkt. Nachteilig ist weiterhin, dass die nötigen rigiden und festsitzenden Kontaktlinsen für jede Versuchsperson maßangefertigt werden müssen und unangenehm zu tragen sind [MH86]. 3.4 Hornhautreflektion Dies ist das Verfahren, das derzeits von der Mehrzahl der Geräte verwendet wird. Grundlage ist die Auswölbung der Hornhaut und die Lage des Drehpunkts des Augapfels, die Position der Reflektion einer punktförmigen Lichtquelle bewegt sich dadurch abhängig von der Ausrichtung des Auges [MH86]. Mittlerweile wird hierfür üblicherweise eine Infrarot-Lichtquelle verwendet, da die Versuchsperson dadurch nicht gestört wird und eine deutliche Unterscheidung von eventuellen externen Lichtquellen möglich ist; teils wird anstelle einer ungerichteten Lichtquelle auch ein Muster projiziert. Dementsprechend wird der Augenbereich der Testperson durch eine Infrarotkamera beobachtet – im Falle kopfbefestigter Systeme zumeist eine Kamera für jedes Auge, während bei feststehenden Geräte üblicherweise eine Kamera den gesamten Arbeitsbereich abdeckt. Meist wird bei der Analyse der Bilder zusätzlich die Position der Pupille ermittelt und in Bezug zur Position des Hornhautreflexes gesetzt, dies ermöglicht eine Bestimmung der Blickrichtung auch dann, wenn sich der Kopf der Versuchsperson relativ zum Eyetracker bewegt. Die typische Auflösung liegt im Bereich von etwa 2 – 12 0 ; es wird ein Gesichtsfeld von 20 – 60 ◦ abgedeckt. Nach diesem Verfahren arbeitende feststehende Eyetracker können sehr unauffällig im Gesichtsfeld der Versuchsperson untergebracht werden, insbesondere sind Systeme verfügbar, die nahezu unsichtbar in den Rahmen eines Computermonitors integriert sind – die Erprobung von Benutzeroberflächen ist dadurch in einer weitgehend natürlichen Umgebung möglich, die Beeinflussung des Verhaltens des Probanden wird minimiert. 3.5 Purkinje-Bilder Purkinje-Bilder, benannt nach ihrem Entdecker Jan Evangelista Purkyně, sind Spiegelbilder der Umgebung, die an den optischen Grenzflächen des Au8 ges entstehen: Vorder- und Rückseite der Hornhaut sowie Vorder- und Rückseite der Linse (s. Abb. 4). Für das Eyetracking relevant sind das erste und vierte Purkinje-Bild, da sie die größte Helligkeit haben. Infolge der unterschiedlichen Wölbungen der Grenzflächen sind die ersten drei Bilder seitenrichtig, das vierte dagegen gespiegelt; aus der relativen Bewegung von erstem und viertem Bild kann daher mit hoher Genauigkeit auf die Augenbewegung geschlossen werden: Eyetracker nach dem Purkinje-Bild-Verfahren erreichen Auflösungen von 2 0 bei einer Gesichtsfeldabdeckung von 15 ◦ [MH86]. Abbildung 4: Entstehung der Purkinje-Bilder durch Reflektion an den optischen Grenzflächen. Das 1. und 4. Bild sind deutlich heller als die übrigen. Bildquelle: http: // rcswww. urz. tu-dresden. de/ ~ cogsci/ bilder/ abb3_ 4. jpg 3.6 Darstellung der Ergebnisse Die geeignete Darstellung der gemessenen Augenbewegungen kann bei einer Videoaufnahme im Einspielen des momentanen Fixationspunkts des Probanden bestehen; für die Darstellung in einem stehenden Bild haben sich zwei Ansätze durchgesetzt: Die Augenbewegungen einer einzelnen Person können anschaulich als Scanpath eingezeichnet werden wie in Abb. 2 auf Seite 4; zur eindeutigen Kenntlichmachung der Fixationsreihenfolge können die Fixationspunkte auch nummeriert werden, wobei die Verbindungslinien dann entfallen können. Die Dauer der Fixationen kann durch Kreise unterschiedlicher Größe oder Farbe gekennzeichnet werden. Alternativ ist die Darstellung als Heatmap möglich, hier wird durch Einfärbung von Bildbereichen die Häufigkeit und Dauer von Fixationen gekennzeichnet (s. Abb. 6 auf Seite 12). Der wesentliche Vorteil dieser Methode ist 9 die Möglichkeit, die Ergebnisse zahlreicher Probanden zu aggregieren; andererseits enthält die Heatmap keine Information über die Reihenfolge der Fixationen. 4 4.1 Anwendungen Medizinische Forschung und Diagnose Ein Anwendungsgebiet, auf das hier nur kurz eingegangen werden soll, ist der medizinische Bereich – Grundlage ist hierbei die Tatsache, dass viele Augenbewegungen unwillkürlich sind, also auch über bewusstes Denken hinausgehende Einblicke bieten können, z. B. in die Funktion des Gleichgewichtssinns. Die Elektrookulographie ist üblicher Bestandteil der Polysomnographie bei der Untersuchung von Schlafstörungen [Wik08]. Daneben wird die Elektrookulographie auch bei der Diagnose von Netzhauterkrankungen eingesetzt. Weiterhin erwähnenswert ist, dass bestimmte Störungen der Augenbewegungen, z. B. die Unfähigkeit, kontrolliert langsame Bewegungen auszuführen, stark mit Erkrankungen wie der Schizophrenie korreliert sind; hierdurch ist eine Früherkennung teils Jahre im Voraus möglich [RS04b, S. 12]. 4.2 Evaluation und Optimierung von Benutzeroberflächen Eine wichtige Anwendung ist die Überprüfung und eventuelle Anpassung von Benutzeroberflächen, wobei dieser Begriff hier weit zu fassen ist: Neben Software fallen darunter auch gedruckte Dokumente, insbesondere Formulare, sowie Bedienoberflächen von Fahrzeugen und Maschinen. So werden beispielsweise bei Volvo Anstrengungen unternommen, das allgemeine Verhalten beim Führen eines Fahrzeugs zu erforschen, und vor allem Ursachen für Unaufmerksamkeit zu erkunden; die gewonnenen Erkenntnisse sollen dann bei der Gestaltung von Fahrzeuginnenräumen berücksichtigt werden [IVs01], siehe auch Abb. 5 auf der nächsten Seite. Wo die Umgebung nicht beeinflusst werden kann, lässt sich Problemen u. U. durch Anpassung der Ausbildung von Bedienpersonal begegnen. Naturgemäß sind solche Untersuchungen auch im militärischen Bereich von Interesse, da hier eine schnelle und zuverlässige Bedienbarkeit auch unter ungünstigen Bedingungen von besonderer Bedeutung ist. 10 Abbildung 5: Beispielaufnahmen eines fahrzeugbasierten Eyetracking-Systems für die Untersuchung von Ursachen für Unaufmerksamkeit, entwickelt in einer Zusammenarbeit von Volvo und der Australian National University. Das System kann auch bei ungünstigen Lichtverhältnissen die Blickrichtung erkennen und mit hoher Zuverlässigkeit Zielen z. B. auf der Instrumententafel zuordnen. [IVs01] 4.2.1 Web Usability Großen Raum nimmt dabei die Web Usability ein, also die Evaluation und Optimierung der Benutzerfreundlichkeit von Websites; nicht zuletzt, weil Websites beim Gewinnen und Halten von Besuchern sehr stark miteinander konkurrieren. Von besonderer Wichtigkeit ist dabei eine natürliche Umgebung und realistische Aufgabenstellung [Nie05]; so sollten etwa beim Testen einer Ecommerce-Website nicht einzelne Seiten und Formulare getestet werden, sondern der gesamte Ablauf vom Ausfindigmachen des gewünschten Produkts bis zum Abschicken der Bestellung. Für gewöhnlich ist das Eyetracking nicht die einzige Informationsquelle, üblicherweise wird der Testnutzer angewiesen, seine Gedanken laut auszusprechen, während eine weitere Kamera die Mimik aufzeichnet. Von der Untersuchung einzelner Layouts abgesehen lassen sich dabei interessante allgemeine Beobachtungen machen – so entwickeln Web-Nutzer durchgängig eine richtiggehende Bannerblindheit“, also die Fertigkeit, Wer” beanzeigen bereits in der peripheren Wahrnehmung als solche zu erkennen und auszublenden. Untersuchungen wie die in Abb. 6 auf der nächsten Seite gezeigte lassen erkennen, dass meist gar keine Fixationen auf Werbebanner entfallen, aber auch redaktionelle Inhalte leicht übersehen werden, wenn sie 11 eine gestalterische Einheit mit Anzeigen bilden [Nie07a]. Dies erweist sich für Webdesigner mitunter als Falle, wenn sie mit besten Absichten einen Text besonders hervorheben, etwa weil er der zentrale Inhalt der Seite ist – erreicht wird leicht das Gegenteil, die Leser bewerten die Passage als Werbeaussage und ignorieren sie [Nie07b]. Abbildung 6: Untersuchung der Bannerblindheit“, dargestellt sind Fixa” tionen auf verschiedenen Webseiten als Heatmap. Die Werbebanner wurden zur Verdeutlichung nachträglich grün eingerahmt. Auffällig ist insbesondere im linken Bild die Tatsache, dass auch die Spalte redaktionellen Inhalts unterhalb der kleinen Anzeige keinerlei Beachtung findet. [Nie07a] 4.3 Eingabe im Normalbetrieb von Systemen Es ist naheliegend, Eyetracking nicht nur zur Begleitung der Systementwicklung zu verwenden, sondern auch als Eingabekanal neben oder anstatt Tastatur, Maus etc. vorzusehen. Grundsätzlich gibt es dabei zwei Ansätze, nämlich einerseits Systeme zur expliziten Eingabe, die die üblichen Eingabegeräte ersetzen können; andererseits solche, die gewissermaßen nebenbei Informationen über die Absichten des Nutzers erfassen und der Software zusätzlich zur Verfügung stellen, während die expliziten Eingaben weiterhin in gewohnter Weise erfolgen. Leider machen die bisher hohen Kosten von Eyetrackern den umfassenden Einsatz unattraktiv, außerdem ist die explizite Eingabe mit den Augen meist langsamer und unkomfortabler als mit den üblichen Eingabe12 geräten. Die Nutzung beschränkt sich bislang daher auf Anwendungsfälle, in denen keine anderen Möglichkeiten bestehen oder besondere Vorteile zu erwarten sind; ein ganz wesentlicher Bereich ist Zugänglichmachung von Computersystemen für schwer körperbehinderte Nutzer. 4.3.1 Maussteuerung Während die Positionierung des Mauszeigers durch Bestimmung des Fixationspunkts auf ersten Blick einfach erscheint, ergeben sich bei zeitgemäßen Bildschirmauflösungen und entsprechend kleiner Anzeige der Widgets einer typischen grafischen Oberfläche deutliche Probleme mit der Präzision der Zeigerpositionierung. Eine ganz wesentliche Schwierigkeit ist weiterhin das Auslösen von Mausklicks, Zwinkern z. B. erweist sich als wenig geeignet, da es kaum von unwillkürlichem Blinzeln unterscheidbar ist. Lankford beschreibt in [Lan00] ein System, dass diesen Problemen erfolgreich begegnet: Mausklicks werden ausgelöst durch fortgesetztes Fixieren eines Punkts, durch die Dauer der Fixation kann ausgewählt werden zwischen verschiedenen Aktionen wie einfachem Klick, Doppelklick, Rechtsklick etc. Durch zusätzliche visuelle Hinweise wird dabei der Fortschritt des Zeitablaufs verdeutlicht. Zur Erlangung der nötigen Präzision ist vorgesehen, dass der Benutzer zunächst mit einem ersten Klick den Zielbereich grob auswählt, dieser wird dann für die Platzierung des eigentlichen Klicks vergrößert angezeigt. 4.3.2 Texteingabe Sobald eine Möglichkeit zur Maussteuerung vorhanden ist besteht der naheliegendste Weg der Texteingabe darin, auf dem Bildschirm eine Tastatur anzuzeigen, auf der durch Anlicken der einzelnen Buchstaben geschrieben werden kann. [Lan00] stellt hierzu ein Verfahren vor, bei dem zur Beschleunigung nach Eingabe einiger Buchstaben anhand eines Wörterbuchs die wahrscheinlichsten Wörter bestimmt und auf zusätzlichen Tasten zur direkten Auswahl angeboten werden. Das resultierende Gesamtsystem aus Maussteuerung und Bildschirmtastatur wird von mehreren Nutzern erfolgreich verwendet, für die es die einzige Kommunikationsmöglichkeit darstellt und von entsprechender Bedeutung ist. Dennoch lässt ein solches System bezüglich der Eingabegeschwindigkeit zu wünschen übrig; außerdem ist es natürlich nachteilig, dass ein erheblicher Teil der Bildschirms von der Tastaturanzeige belegt wird und damit nicht mehr für die reguläre Anwendungsinteraktion zur Verfügung steht. Ein völlig anderer Ansatz der Texteingabe wird in [Iso00] beschrieben, hierbei kommen 13 Blickziele außerhalb der Bildschirmfläche zum Einsatz. Isokoski stellt verschiedene hierzu geeignete Eingabemethoden vor, unter anderem einige, die ursprünglich für PDAs mit Stiftbedienung entwickelt wurden, und vergleicht sie bezüglich der durchschnittlichen Anzahl von Fixationen, die für die Eingabe eines Buchstabens nötig ist. 4.3.3 Adaptive Anzeigequalität Eine Anwendung, die Augenbewegungen als Informationsquelle für die optimierte Nutzung von Systemressourcen heranzieht, sind Anzeigen mit adaptiver Qualität; die Bildschirmanzeige erfolgt also nur in der direkten Umgebung des Fixationspunkts mit maximaler Detailtreue, während die restlichen Bereiche vereinfacht dargestellt werden. In [LM00] werden die Ergebnisse umfangreicher Experimente wiedergegeben, in denen untersucht wurde welche Eigenschaften ein solches System aufweisen muss; die betrachteten Parameter waren die Reaktionszeit des Systems, die Größe des hochqualitativen Anzeigebereichs sowie das Ausmaß der Qualitätsreduktion in den umliegenden Bereichen. Weiterhin wurden zwei denkbare Zielsetzungen unterschieden, einerseits die Anforderung, dass keinerlei Unterschied zu einer regulären Anzeige (maximale Qualität auf der gesamten Bildfläche) erkennbar sein soll; andererseits die abgeschwächte Anforderung, dass zwar ein Unterschied erkennbar sein darf, daraus jedoch kein Nachteil bei der Ausführung typischer Aufgaben erwachsen soll. 4.3.4 Sonstiges Bei allgemeiner Verfügbarkeit von Eyetracking-Hardware zu vertretbaren Kosten wären sicherlich etliche weitere Anwendung denkbar, mit denen die Bedienoberflächen von Rechnern stärker auf das Verhalten des Nutzers eingehen könnten, beispielsweise die Auswahl des aktiven Fensters durch den jeweiligen Fixationspunkt, insbesondere bei Systemen mit mehreren Bildschirmen; aber auch das Anzeigen von Tooltips bei längerem Fixieren eines Elements etc. Im militärischen Bereich kommen Eyetracker bisher offenbar nicht zum Einsatz, stattdessen wird z. B. für das Zielen von Waffensystemen in Kampfflugzeugen lediglich die Kopfbewegung des Piloten erfasst. Die Verwendung von Eyetrackern wird jedoch auch hier erprobt [Pap07]. 14 Literatur [Iso00] Isokoski, Poika: Text input methods for eye trackers using offscreen targets. In: Proceedings of the 2000 symposium on Eye tracking research & applications. Palm Beach Gardens, Florida, United States : ACM, 2000. – ISBN 1–58113–280–8, S. 15 – 21 [IVs01] IVsource.net: Volvo Incorporates SeeingMachines System for Driver Inattention Research. http://ivsource.net/archivep/ 2001/nov/011108_volvoseeingmachines.html. Version: 2001. – [Online; Stand 2009-02-22] [Lan00] Lankford, Chris: Effective eye-gaze input into Windows. In: Proceedings of the 2000 symposium on Eye tracking research & applications. Palm Beach Gardens, Florida, United States : ACM, 2000. – ISBN 1–58113–280–8, S. 23 – 27 [LM00] Loschky, Lester C. ; McConkie, George W.: User performance with gaze contingent multiresolutional displays. In: Proceedings of the 2000 symposium on Eye tracking research & applications. Palm Beach Gardens, Florida, United States : ACM, 2000. – ISBN 1–58113–280–8, S. 97 – 103 [MH86] Mickasch, Heidemarie D. ; Haack, Johannes H.: Blickbewegungsforschung – Einführung in die physiologischen Grundlagen, Techniken und in die Problem- und Anwendungsbereiche. In: Blickbewegung und Bildverarbeitung. Frankfurt am Main : Verlag Peter Lang, 1986. – ISBN 3–8204–8628–3, S. 11 – 36 [Nie05] Nielsen, Jakob: Authentic Behavior in User Testing. http: //www.useit.com/alertbox/20050214.html. Version: 2005. – [Online; Stand 2009-02-23] [Nie07a] Nielsen, Jakob: Banner Blindness: Old and New Findings. http://www.useit.com/alertbox/banner-blindness.html. Version: 2007. – [Online; Stand 2009-02-21] [Nie07b] Nielsen, Jakob: Fancy Formatting, Fancy Words = Looks Like a Promotion = Ignored. http://www.useit.com/alertbox/ fancy-formatting.html. Version: 2007. – [Online; Stand 2009-02-21] 15 [Nie09] Nielsen, Jakob: Eyetracking Research into Web Usability. http://www.useit.com/eyetracking/. Version: 2009. – [Online; Stand 2009-02-21] [Pap07] Pappalardo, Joe: How do military aircraft helmets track where a pilot is looking? In: Air & Space Magazine (2007). http: //www.airspacemag.com/need-to-know/NEED-helmets.html. – [Online; Stand 2009-02-21] [RS04a] Richardson, Daniel C. ; Spivey, Michael J.: Eye-Tracking: Characteristics and Methods. http://www.eyethink.org/ publications_assets/EyeTrackingEBBE.pdf. Version: 2004. – [Online; Stand 2009-02-21] [RS04b] Richardson, Daniel C. ; Spivey, Michael J.: Eye-Tracking: Research Areas and Applications. http://www.eyethink.org/ publications_assets/EyeTrackingEBBE.pdf. Version: 2004. – [Online; Stand 2009-02-21] [Wik08] Wikipedia: Elektrookulografie – Wikipedia, Die freie Enzyklopädie. http://de.wikipedia.org/w/index.php?title= Elektrookulografie&oldid=53344186. Version: 2008. – [Online; Stand 2009-02-23] [Wik09a] Wikipedia: Blickbewegungsregistrierung – Wikipedia, Die freie Enzyklopädie. http://de.wikipedia.org/w/index. php?title=Blickbewegungsregistrierung&oldid=56644730. Version: 2009. – [Online; Stand 2009-02-21] [Wik09b] Wikipedia: Eye tracking – Wikipedia, The Free Encyclopedia. http://en.wikipedia.org/w/index.php?title=Eye_ tracking&oldid=268900832. Version: 2009. – [Online; Stand 2009-02-21] [Wik09c] Wikipedia: Gesichtsfeld – Wikipedia, Die freie Enzyklopädie. http://de.wikipedia.org/w/index.php?title= Gesichtsfeld&oldid=56583287. Version: 2009. – [Online; Stand 2009-02-24] [Yar67] Yarbus, Alfred L.: Eye Movements and Vision. New York : Plenum Press, 1967 16