Bachelor 30Mai
Short Description
hjugjgnjknjkn...
Description
Bachelorarbeit
Inhaltsverzeichnis 1.0 AUGMENTED REALITY 1.1 Geschichte 1.2 Die Technische Umsetzung von AR 1.2.1 Das Tracking Verfahren 1.3 Die Unterschiedlichen AR Systeme 1.4 Die Verschiedenen Anwendungsgebiete von AR 2.0 AR IN DER AUTOMOBILBRANCHE 2.1 Die Verschiedenen Einsatzgebiete in der Automobilbranche 2.2 Einsatzgebiete von AR im Auto-Interieur 2.3 Fazit 3.0 Anforderungen an das UX-Design bei AR 3.1 Was ist UX Design? (jesse james garrett Modell) 3.2 Computer Mensch Interaktionen 3.3 Interfacedesign 3.4 Fazit/Kriterien für gutes UX 3.5 Designanalyse bestehender AR Konzepte in der Automobilbranche 3.5.1 Fazit (Vorteile Nachteile) 4.0 Lösungungsansätze für das UX Design 4.1 Erläutern der Schwierigkeiten mit Lösung
2
1.0 Augmented Reality
In diesem Kapitel wird auf die Geschichte der Augmented Reality eingegangen und aufgezeigt was für solch eine Anwendung nötig ist und die technischen Hintergründe erläutert.
3
1.1 Geschichte
Das erste Head-Mounted Display entwickelt von Ivan Sutherland 1968
Der Begriff Augmented Reality heißt auf deutsch übersetzt „Erweiterte Realität“, da die reale Welt mit zusätzlichen virtuellen Informationen in Echtzeit überlagert wird. Diese virtuellen Informationen können z.B Grafiken oder Text sein.Sie stehen mit dem realen Objekt in einer Bezieung und werden in Echtzeit übertragen. Dies bietet dem Anwender eine Interaktionsmöglichkeit zwischen der realen- und virtuellen Welt. Ron Azuma definierte Augmented Reality 1997 als eine Kombination zwischen der Realität und der Virtualität. Einer der ersten Forscher in diesem Gebiet war Ivan Sutherland. Er veröffentlichte 1965 seine Arbeit „The Ultimate Display“, in der er deutlich macht wie die Fortschritte in der Computertechnik eventuell die menschlichen Sinne durch zusätzliche virtuelle Erfahrungen erweitern könnnte. Drei Jahr später entwickelte er das erste Head-Mounted Display. Diese Entwicklung gilt als die Geburtsstunde der Augmented Reality (Im Folgenden AR genannt). Nach längerem Forschen an dieser Technik wurde der Begriff „Augmented Realtiy“ in den 90er Jahren fest eingeführt. In dieser Zeit setzte man die Technik vor allem für das Flugmilitär ein. Das Flugdisplay der Piloten wurde durch zusätzliche
Radarinformationen erweitert. Mit voran schreitender Technik eröffneten sich für AR immer mehr Perspektiven und im Jahr 2009 auch erstmals für Heimanwender. Denn mit der Entwicklung des IPhone 3 war zum ersten mal ein Gerät auf dem Markt, dass alle notwendige Hardware für eine AR-Anwendung mitbrachte. Heutzutage hat AR viele verschiedene Einsatzgebiete. In meiner Arbeit möchte ich auf das Gebiet der Automobilbranche und das Userexperience Design in einer AR-Anwendung eingehen.
4
1.2 Die Technische Umsetzung von AR
Um eine AR-Anwendung umsetzten zu können benötigt man unterschiedliche Komponenten. Marcus Tönnis teilte in seinem Buch „Augmented Reality - Einblicke in die Erweiterte Realität“ diese Komponenten in 3 Bereiche ein: Darstellung, Tracking und Interaktion. Es wird also eine Darstellungshardware benötigt, die die Sicht des Nutzers durch erweiterte Daten, die mit Hilfe von Tracking erlangt werden, erweitert. Die deutsche Firma Metaio ist Marktführer für AR-Anwendungen in vielen Gebieten. Sie verfeinerten die Ausage von Tönnis noch etwas. Sie Teilen den Prozess für AR in vier Aufgabenbereiche ein. Diese sind der Sensoreniput, die Software, die Positionserkennung und die Darstellungshardware. Im folgenden möchte ich näher auf diese Punkte eingehen und sie kurz beschreiben.
5
DAS SYSTEMATISCHE VORGEHEN IN EINER AR-ANWENDUNG
Sensoreninput
• • • •
Kamera Ultraschall GPS Webcam
Bildaufnahme und Verarbeitung
Software
• AR Darstellungsprogramme z.B Junaio Browser
Lageerkennung
Positionserkennung
• Tracking
Rendering
Darstellungshardware
• Bildschirm • Beamer • ...
6
SENSORENINPUT: Der Sensoreninput und das Tracking arbeiten eng miteinander. Denn erst durch diese erhaltenen Daten kann die Postionserkennung für das Trackingverfahren statt finden. Es gibt verschiedene Arten durch welches Medium ein Sensoreninput statt finden kann. Das gängste Medium, dass am Besten für den Anwender nutbar ist, ist der Bildsensor in einer Kamera. Andere Arten wären z.B GPS-Daten, Ultraschall, Magnetische Wellen oder Sound. Wie in Kapitel 1.0 erwähnt, war Ivan Sutherland der Wegbereiter einer AR Anwendung. Sein Projekt Sketchpad basierte auf den Sensoreninput von Lichtwellen, die mit Hilfe eines Lichtgriffels auf einem Röhrenbildschirm erzeugt wurden. SOFTWARE: Die Software für eine AR-Anwendung ist sozusagen die Darstellungsengine, die auf einem Leistungsfähigen Hardware läuft, um AR-Aplikationen darstellen zu können. Je nach Art der AR-Anwendung gibt es hierfür unterschiedliche Software. In Kapitel 1.3 werde ich diese unterschiedlichen Arten genauer erläutern. Sollte es sich z.B um
eine „Wearable“-Anwendung auf einem Smartphone handeln wäre eine AR fähige Software der Junaio Browser. Dieser Browser wurde von der Firma Metaio entwickelt und bietet Heimanwendern die Möglichkeit AR-Anwendungen selbst zu programmieren. Je nach Art des AR-Systems werden auch unterschiedliche Schnittstellen für die Software benötigt. Viele Anwendungen basieren z.B auf Daten aus dem Internet. PROZESSOREN: Für eine Leistungsfähige AR-Anwendungen werden meist Mehrkernprozessoren verwendet. Diese sind z.B wichtig für aufwendige 3D-Renderings oder die Software an sich. Da eine AR-Anwendung viel Arbeitsspeicher benötigt konnte man viele Ideen Anfang der 90er Jahre noch nicht umsetzten. Mittlerweile sind bereits sehr gute Prozessoren in Smartphones und Tablets verbaut, die eine Ar-Anwendung möglich machen können. POSITIONSERKENNUNG Die Positionserkennung ist ein wichtiger Bestandteil in einem AR-System. Für eine funktionierende AR-Anwendung wird die Position des Nutzers so7
Google Glass, zum ersten Mal vorgestellt im Jahr 2012
wie die Position der Standorte von Virtuellen Objekten benötigt um diese überlagert darstellen zu können. Dieses Vorgehen wird auch als Tracking bezeichnet. Da das Tracking Verfahren ein sehr wichtiger Bestandteil eines Ar-System ist, möchte ich darauf in Kapitel 1.1.2 noch näher eingehen. DARSTELLUNGSHARDWARE: Die Darstellungshardware bei einer AR-Anwendung stellt ein wichtige Verbindung zwischen der realen und der virtuellen Welt da. Sie ist sozusagen das Verbindungsstück zwischen diesen Welten für den Nutzer. Als Darstellungshardware werden in der Regel Displays oder Headmounted Displays verwendet. Wie bereits in Kapitel 1.0 erläutert erfand Ivan Sutherland eines der ersten Headmounted Displays. Diese Displays werden in zwei Kategorien unterteilt: Optical-See-Through und Video-See-Through-Systeme. In einem Optical-See-Through System hat der Nutzer weiterhin Sicht auf die Reale Umwelt. Google stellte 2012 die Google Glass vor. Diese Brille blendet zusätzliche Daten auf einem kleinen Display auf das Sichtfeld des Nutzers ein. Die Umgebung wird dabei weiterhin wahr genommen.
Video-See-Through-Systeme werden vorallem für Virtual Reality verwendet. Benutzt man sie allerdings für Augmented Reality werden dem Nutzer Kamerabilder vor dem Auge vorgeführt, die er in einer normalen Umgebung auch wahrnehmen würde. Diese Kamerabilder werden dann durch zusätzliche Informationen erweitert. Ron Azuma befasste sich in seiner Arbeit mit den Vor- und Nachteilen dieser beiden Systeme.
8
1.2.1 Tracking
Ein klassischer Flachmarker und die virtuelle Information, die er enthält
Es gibt eine Vielzahl an unterschiedlichen Trackingverfahren, die für AR-Anwendungen einsetzbar sind. Wie schon erwähnt kann es unterschiedliche Sensoreninputs geben und dementsprechend gibt es auch unterschiedliche Verfahren, die diese eingelesenen Daten verarbeiten. Dazu gehört z.B das akustische Tracking (Ultraschall) oder das elektromagnetische Tracking (Magnetfeld). Aber zu den häufigst eingesetzten Verfahren in einer AR-Anwendung gehört das Optische Tracking, weshalb ich dieses Vorgehen genauer betrachten möchte. Wie der Name „Optisches“ Tracking schon verrät, ist es dem Nutzer hier möglich das Trackingverfahren optisch nachvollziehen zu können in dem ein sichtbares Spektrum getrackt wird. Im folgenden möchte ich die Methoden Markertracking und Markerloses Tracking erklären. MARKERTRACKING In einem Markertracking wird nach einem Bestimmten Muster im Sichtfeld des Nutzers gesucht und das gewünscht virtuelle Objekt auf der Position des Musters Abgebildet. Natürlich muss wie üblich hierbei auch die Position und der Blickwinkel des Nutzers mit bedacht werden. Diese
Muster werden auch Flachmarker genannt. Flachmarker bestehen meist aus einfachen Formen wie z.B simple Rechtecke und sind oftschwarz weiß gestaltet. Werden diese Marker nun von einer Kamera getrackt wird nach einem starken Kontrastpunkt im Raum gesucht. Wird der Marker als solcher Kontrastpunkt erkannt können durch die Rechteckige Form auch gleich die Eckpunkte definiert werden. Aus jedem Rechteck in einem Marker können verschiedene Informationen gefiltert werden. Sollte es sich nicht um einen Marker handeln befinden sich auch keine Informationen für das System in den Mustern und die Software erkennt dies nicht als Marker. So entsteht eine optisch getrackte Fläche im Raum, auf der Objekte abgebildet werden können. Sollte man den Marker nun im Raum bewegen oder um drehen, so kann sich das virtuelle Objekt mitbewegen.
9
Markerloses Trackingsystem, dass die Struktur des Raumes erkennt
MARKERLOSES TRACKING / FEATURTRACKING Das Markerlose Tracking kann, wie der Name schon verrät, die nötigen Standorte ohne einen Marker tracken. Hierbei orientiert sich das Trackingverfahren nicht an Kontrastpunkten sondern basiert auf das Wiederfinden Lokaler Bildmerkmale wie z.B „Linien“, Ecken“ oder Strukturen. Es gibt verschiedene Arten von Markerlosen tracking. Manche greifen auf GPS Koordinaten zurück und ermitteln so alle Erkennungsmerkmale, die sich in der Nähe befinden müssten. Andere bauen auf bereits eingelsene kalibrierte Daten auf. Markerloses Tracking stellt bis zum heutigen Stand der Technik noch eine herausforderung dar, da das Trackingverfahren hier stark vom Lichtverhältnis abhängig ist und Daten, die zuvor einglesen wurden, sich ändern können und daraufhin nicht mehr erkannt werden.
10
1.3 Unterschiedliche AR Systeme
WEARABLE AR Smartphones und Tablets gehören mitlerweile zum Altag vieler Menschen. Deshalb bieten sich Wearable AR-Systeme, also „tragbare“ AR-Aplikationen besonders für den Endnutzer an, da in diesen Geräten schon alle notwendige Hardware eingebaut ist, die man für das durchführen einer AR-Anwendung benötigt. Wichtig hierbei sind z.B die eingebaute Kamera und das GPS-System, für das Tracken der Objekte. Das erste Gerät, dass auch den leistungsstarken Prozessor mit brachte war das Apple Iphone 3 im Jahr 2009. Mit diesem Telefon war es Heimanwendern zum ersten mal möglich AR Apps zu entwicklen. ///// Bild Iphone 3 -> Wikitude als eine der ersten AR-basierten Apps Auch Headmounted Displays und Datenbrillen gehören
-> z.B Smartphones oder Tablets Vorteil: -> Bringt alles mit was man für eine AR Anwendung benötigt z.B Kamera, GPS systeme, Kompassanwendung -> Stetige Weiterentwicklung der Technik und somit immer leistungsfähigere Geräte -> Auch Datenbrillen oder Head Mounted Displays gehören dazu -> Microsoft Hololens STATIONÄRES AR z.B Modeläden -> Große Displays die an einer Position aufgestellt werden können -> Durch festen Standort kann besseres Equip verwendet werden. z.B hochauflösende Kameras und größere Prozessoren -> Das Display ist immer lesbar und wird nicht durch anderen Lichteinfall gestört
-> Revulution Google Glass Datenbrille SPATIAL AUGMETED REALITY
11
Mixed Reality Realität
-> Projektion des Interface auf alle Gegegstände in der Umwelt Vorteil: -> Alles kann in ein Display verwandelt werden -> Kostenreduzierung -> Das Interface kann genau positioniert werden (kein großer rechenaufwand wegen der Postion des Betrachters) -> Bei Bedarf kann das Interface versteckt werden
Virtualität
überlagern. Er kann also noch normal in der realen Welt interagieren, was in VR nicht mehr möglich ist. -> Beispiel für VR: Okulus Rift
DER UNTERSCHIED ZWISCHEN AR UND VR Bei einer VR Anwendung befindet sich der Benutzer mit seinem Sichtfeld komplett in einer computergenerierten virtuellen 3D Welt. Er hat in dieser Anwendung keinen Bezug mehr zur realen Welt. Eine Beispiel für die virtuelle Realität ist die Video Brille Okulus Rift. Mit dieser Brille fühlt sich der Benutzer als wäre er komplett in einer Virtuellen Welt integriert. Anders als bei Augmented Reality. Denn hier wird die Reale Welt mit der virtuellen verbunden. Dem Benutzer ist es möglich, weiterhin sein normales Umfeld zu sehen allerdings mit zusätzlichen virtuellen Objekten, die sich in seinem Sichtfeld
12
1.4 Die verschiedenen Anwendungsgebiet von AR
LOGISTISCHER BEREICH
-> Pinguinnavi
-> DHL -> Zwar noch nichts Umgesetzt es bestehen aber schon Konzepte z.B -> Mit Hilfe einer Datenbrille schnellerer Arbeitsprozess im Lager (Navigationsleitung) und schnellere Hilfe bei Technischen Fehlern, bessere Nachverfolgung des Paketes => Fehlerreduzierung und somit schnellerer Prozess
SPIELE INDUSTRIE
WERBEBRANCHE -> Ikea werbeapp, Kaufprozess des Kunden wird schneller, da er das Produkt gleich in seinem Zimmer virtuell plazieren kann -> Auf Messen wird die Aufmerksamkeit der Menschen auf das Produkt gezogen durch virtuelle Gadgeds (z.B Tiger sitzt auf einem Auto) -> Auf Automessen können Kunden das Auto virtuell in einer anderen Farbe sehen -> Vielfalt für den Kunden -> Tangible Interface im Kaufprozess. z.b Kauftresen auf dem das Produkt steht. Nimmt man es weg erscheinen Informationen zu dem Produkt z.B Kaufrezessionen, die man normal online nachgoogeln würde
-> Sehr viele unterschiedliche Spiele Arten -> z.B für Apps das Spiel TreckSpek light hier muss man mit Hilfe der Kamera Geister sammeln. Bassiert auf GPS koordinaten -> Ingress lässt den Spieler durch die echte Welt laufen und Portale finden. -> Firma Magic Leap stellt im März 2015 konzeptvideo vor in dem man das Büro in ein Spielfeld verwandeln kann MEDIZINBRANCHE -> Frauenhofer entwickelte app MEVIS die den Ärzten z.B bei einer Operation echtzeitanweisungen geben können -> TU München entwickelt eine Anwendung mit der man mit hilfe eines HMD den verlauf der Aterien oder die Lage der Organen bei einem Menschen direkt sehen kann -> Röntgenblick MILITÄR -> schon erste AR Anwendungen wurden für das Militär entwickelt. Das Militär gehört auch zu ei13
nem der größten investoren für AR Anwendugnen -> Zuerst entwickelte man ein Display, dass das Sichtfeld von Düsenjets erweiterete und ihnen anzeigen konnte wo sich der Feind befindet und in welche Richtungen sie fliegen mussten -> Q-Warrior Helmet wird gerade Entwickelt. Sozusagen ein tragbarer PC für einen Soldaten. Kann dem Soldaten einen schnellen überblick über das gesamte Schlachtfeld vermitteln. Wurde anfangs mit Hilfe der Google Glass Entwickelt. AUTOMOBILBRANCHE -> Sehr Vielfältig deswegen möchte ich im nächsten Kapitel näher darauf eingehen
14
2.0 AR in der Automobilbranche
AR wird in der Automobilbranche immer gefragter. In diesem Kapitel möchte ich auf die verschiedenen Einsatzgebiete eingehen und besonders den Einsatz im Auto Interieur genauer erläutern. // in der foglenden Arbeit weiter auf die Automobilbranche warum?
15
2.1 Einsatzgebiete von AR in der Automobilbranche
SERVICEBEREICH -> Vorteil? Fahrzeuge werden heut zu Tage immer Komplexer. Mit der rasanten Entwicklung der Technik müssen auch Servicekräfte im Automobilbereich ihr Können stetig schulen damit sie weiterhin genügend Kompetenz in ihrem Fachbereich aufbringen. Denn besonders in der Automobilbranche wird ein hoher Standard an Fachwissen vorausgesetzt. BMW hat dieses Problem besoners bei Fachkräften im Montagebereich erkannt und entwickelte daraufhin das Konzept einer Datenbrille, die den Arbeitern zukünftig zeigt, welche Reperaturmaßnahmen erfüllt werden müssen oder welcher Fehler vorliegen könnte. Die Brille würde d -> BMW setzt diesen Gedanken mit einer AR App um. ->BMW stellt ein Konzeptvideo vor in dem ein Mitarbeiter mit Hilfe einer Datenbrille ein Auto reparieren kann. Die Software zeigt dem Arbeiter genau an welche Teile er bewegen muss. Jeder Arbeitsschritt wird durch hilfreiche 3D Elemente deutlich gemacht. 16
PROTOTYPEN BAU
Zukunft aussehen könnte. -> Mit Hilfe von Headmounted brillen können die -> Der Entwicklungsweg eines Autos ist lange und Entwickler hier einen Prototypen in Echtzeit mobevor es zum Entgültigen Produkt kommt müssen delieren und können so sofort proportionen und viele Schritte abgearbeitet werden Positionen verschiedener Teile besser erkennen. -> Bei der Produktion eines Prototypen stehen oft nicht alle Hardware Komponenten zur verfügung. Sie werden zwar in CAD bereit gestellt können aber oftmals nicht gleich produziert werden, da es sich hierbei um eine Aufwendige Einzelproduktion handeln würde. Die Anfertigung aller Teile dauert lange und ist mit viel Zeitaufwand und großen Kosten verbunden. -> Durch eine AR Aplikation beispielsweise in einer Datenbrille könnten die Entwickler den Prototypen direkt vor ihren Augen in Echtgröße aufbauen und modelieren. So können mögliche Fehlkonstruktionen schneller erkannt werden und später viel Geld einsparen. Auch der Arbeitsprozess kann so effizient verbessert werden, da es nicht mehr nötig wäre alle Einzelteile nachzubauen . -> Die Firma Canon stellte 2012 ein Methode vor, wie die modelierung eines Auto Prototypen in der
-> Auch VW hat die Vorteile von AR bei der Entwicklung von Prototypen erkannt. Im Rahmen eines Forschungsprojekts könen durch Spatial AR können Enwürfe direkt auf das Model projektziert werden. Das Model kann hierbei ein Fahrzeug sein auf das durch spatial AR z.B verschiedene Materialien und Farben projektziert werden. So können die Designer schon früh beurteilen welche Materialarten gut sind. Aber auch im Interior kann diese Technik verwendet werden um zu erkennen welche Interiorelemente an welcher Position für den FAhrer am sinvollsten sind. Durch diese Technik können viele Modelkosten eingespart werden.
17
MARKETING BEREICH -> AR bietet einen Vielzahl an Möglichkeiten um ein Produkt dem Kunden näher zu bringen. Vorallem in der Automobilbranche möchte man dem Kunden das Auto so gut wie möglich präsentieren können. -> Printmedien bieten zwar einen guten Überblick über ein Produkt allerdings bekommt der Kunde so kein Gefühl für Raum und Dimensionen über ein Auto.
de der neue Mahindra XUV500 auf einer Indischen Automesse Präsentiert. Als Gadget wurde ein virtueller Leopard auf das Auto gesetzt mit dem die Messebesucher interagieren konnten. -> Sollte noch kein Modell zu einem Konzeptauto bestehen kann den Besuchern mit Hilfe von AR eine Virtuelle Version präsentiert werden. Diese Möglichkeit nahm Toyota im Jahr 2008 war, als sie den Toyota Scion präsentierten.
-> Nissan stellt seinen Kunden z.B einen Ausdruck zur Verfügung mit dem der Kunde mit Blick durch eine Webcam das Auto als kleine 3D Darstellung direkt auf dem Blatt hat. -> Auf dem Blatt befinden sich verschiedene Funktionen mit denen man die Farbe des Autos änderen kann, die Türen öffnen und schließen oder direkt ein Video abspielen. -> Durch solch ein Werbeblatt erhält der Kunde einen Besseren Bezug zu dem Produkt. Dies kann die Kaufentscheidung deutlich beschleunigen. -> Aber Auch auf Messen können Menschen durch Augmented Reality angelockt werden. 2012 wur-
18
INTERIOR BEREICH - Auch im Interieur Bereich des Autos gibt es heut zu Tage viele Anwendungsgebiete in denen AR eingesetzt wird. - Headup Displays - Datenbrillen - Holographic Dashboards • Mercedes Headup Display 2012 • Hunday Konzept? • VW Holographic Dashboard?
19
2.1 Einsatzgebiete von AR im Auto Interieur
AR kann im Auto Interieur verschieden eingesetzt werden. Im Folgenden möchte ich auf verschieden mögliche Methoden eingehen
20
HEADUPDISPLAYS -> Viele Unfälle im Straßenverkehr passieren, da Fahrer abglenkt waren und nicht auf den Verkehr geachtet haben. -> Mit Hilfe von Headup Displays kann sich der Fahrer besser auf den Straßenverkehr konzentrieren und muss seinen Blick nicht von der Straße abwenden um auf das Navi oder Dashboard zu sehen. -> Headup Displays sind heut zu Tage schon in vielen Autos verbaut. Sie zeigen dem Fahrer zusätzliche Informationen auf der Frontscheibe seinen Fahrzeugs an -> Das erste Headup Display wurde 2003 von BMW für die neue 5er Limusine in Serie Gebracht
-> Hunday stellte im Jahr 2015 ein Headupdisplay vor, dass mit Hilfe von einem sog. „Transparent Pillar“ funktioniert. Dabei Handelt es sich um ein großes Headupdisplay, dass die gesammte Sicht der Windschutzsscheibe integrieren soll. Mit dieser Technologie wäre es auch möglich alle Aktionen rund um das fahrende Auto mit einzubeziehen. Das erste Konzept dazu stelle Jaguar im Dezember 2014 vor. In diesem Video werden verschiedene denkbare Ansätze gezeigt. So kann der Fahrer z.B anstatt von Navi-Anweisungen einem Goastcar folgen, der dem ihm den Weg leitet. Dieses Situation kann z.B an Kreuzungen mit mehreren Abbiegemöglichkeiten hilfreich sein, da der Fahrer so sicher dem Goastcar hinterherfahren kann und sich nicht von irreführenden Pfeilen des Navis leiten lassen muss.
-> Headup Displays wurden im Lauf der Jahre stetig weiterentwickelt und verbessert. Dennoch beruhen weiterhin viele Anzeigelemente an statischen Informationen und der Straßenverkehr kann noch nicht vollständig mit einbezogen werden. So kann ein Fußgänger, der die Straße überquert, bespielsweise nicht als Gefahr gekennzeichnet werden. 21
Windschutzscheibe
Betrachter Combiner
Display
Kurze Funktionsbeschreibung eines HeadupDisplays:
Optikmodul (Spiegle)
Realitätsbedingt angebeldent werden, wie z.B Anweisungen eines Navigation Systems
-> Headup Displays bestehen in der Regel aus einem Display, einem Optik Modul und einem Combiner -> Auf dem Display werden die Daten angezeigt diese werden dann mit Hilfe der Optik an einen Combiner gespieglt. Unter Optik versteht man hierbei das Ausbreiten des Lichtsprektrums. Bei einem Combiner handelt es sich um eine durchsichtige Scheibe, auf der es möglich ist Daten an zu zeigen ohne dass der Hintergrund dabei verschwindet. Er bildet also ein Display zwischen der Realität und der Virtualität. -> Die Headupdisplay Anzeigen können in 2 Punkten unterschieden werden: statische Informationen kontaktanaloge Informationen -> Bei statischen Informationen handelt es sich um Anzeigen, die dem Fahrer jederzeit angezeigt werden während kontaktanaloge Informationen
22
DATENBRILLE -BMW entwickelt erste Datenbrille für das Autofahren - Vorteile - Nachteile
23
HOLOGRAPHISCHES DASHBOARD - Gerade in der Entwicklung - VW hat bereits ein Konzept dazu vorgestellt
24
2.2 Fazit
Vor und Nachteile aus den verschiedenen Einsatzgebieten gewinnen. Vergleiche Auto-Interieur AR Systeme?
25
3.0 Anforderungen an ein User Experience Design
Mit der fortschreitendem Entwickeln von Augemented Reality Anwendungen steigt auch der Anspruch an das User Experience Design dieser Systeme. In diesem Kapitel möchte ich auf den Begriff User Experience eingehen und klären, welche Elemente für ein gutes UX Design notwendig sind.
26
3.1 Was ist UX Desigen?
Der Begriff User-Experience-Design, im folgenden UX-Design genannt, ist ein umfassender Begriff für das Designen eines Produkts nach Nutzerbedürfnissen. Das heißt, dass in jedem Schritt des Designprozess der Nutzer mit einbezogen wird und sich das Design seinen Bedürfnissen anpasst. Ich möchte mich im folgenden an das Diagramm „Elementes of User Experience“ von Jesse James Garrett orientieren um den Prozess eines guten UX-Design besser aufzeigen zu können. Jesse James Garrett teilte den Prozess in 5 Ebenen ein: • • • • •
Die Oberfläche Das Raster Die Struktur Der Anwendungsbereich Die Strategie
Mit Hilfe dieser Einteilung ist es ihm gelungen eine strukturierte Arbeitsweise zu entwickeln, in der er sich von Abstrakter Ebene zu Konkreten Darstellungsweisen heranarbeitet. Jede Ebene ist von der darunterliegenden Abhängig und jede Entscheidung die auf einer Ebene gemacht wird, beeinflusst die nächste Ebene.
Sollte sich auf einer Ebene ein Fehler feststellen müssen die Entscheidung auf darunter liegenden Ebenen eventuell neu durchdacht werden. Aus seinem Model geht klar hervor, dass alle Ebenen von einander abhängig sind und somit alle unteren Ebenen das Fundament für die nächste bilden. Jede Ebene ist in 2 Segmente Unterteilt. Auf der linken Seite steht die Funktionalität und auf der rechten Seite alle Informationen zum Produkt. So lässt sich der Fokus auf jeder Ebene nochmal genauer betrachten. Im folgenden möchte ich anhand der 5 Ebenen von Jesse Games Garret, auf den Prozess eines Userexperience Design eingehen.
27
DIE STRATEGIE EBENE Der Umfang, den ein Projekt annehmen kann, wird in erster Linie durch die verfolgte Strategie festgelegt. In dieser Strategie wird definiert was das Produkt können muss und welche Ansprüche somit der Nutzer an das Produkt hat. Für die Umsetzung und Definition dieser Ziele gibt es verschiedene Methoden und Ansätze, die verfolgt werden können um am Ende die Anforderungen des an das Produkt sowie die Bedürfnisse des Nutzers herausfiltern zu können. DIE ANWENDUNGSEBENE Nachdem auf der Strategieebene geklärt wurde, was gebraucht wird und was der Nutzer will, kann auf der Anwendungsebene nun genauer auf die Funktionalitäten und die inhaltlichen Anforderungen eingegangen werden. Oft wird ein Produkt mit möglichen Funktionen überhäuft ohne jegliche Hintergrundgedanken, ob diese Funktionen auch wirklich nötig sind. Auf dieser Ebene wird mit Hilfe einer Funktionspezifikation genau herausgearbeitet welche Funktion für das Produkt und für den Anwender sinnvoll ist und wie viel Aufwand hinter jeder dieser Funktionen steckt. Ebenso wie die Zusammenhänge zwischen verschiedenen Funktionen. DIE STRUKTUREBENE Mit der genauen Prioisierung der Funktionen aus der Anwendungsebene kann auf dieser Ebene nun ein strukturiertes Konzept erarbeitet werden. Auf dieser Ebene wird unterschieden zwischen Interaktion Design und der Informationsarchitekur. Beide Bereiche sind wichtig um ein strukturiertes Konzept aufstellen zu können. Unter Interaktiondesign wird hier verstanden, wie der Nutzer mit dem Produkt interagiert und welche reaktionen ihm darauf gegeben werden. Die Informationsarchitecktur beinhaltet den Aufbau von Informationen die das System dem Nutzer liefert und wie der Nutzer mit den, ihm zur Verfügung stehenden, Informationen umgeht.
28
DIE RASTEREBENE DIE OBERFLÄCHE
29
3.2 Computer Mensch Interaktion -> Computer Mensch Handlungsräume -> Mögliche Interaktionen bei AR Anwendungen im Automobilbereich
30
3.3 Interfacedesign
Was ist für ein gutes Design wichtig? (AR Systeme müssen so gestaltet sein, dass sie die menschliche Sinneswahrnehmung optimal ansprechen) Worin liegen die Schwierigkeiten bei AR Anwendungen (Auto)?
31
3.4 Fazit / Kriterien
32
3.5 Designanalyse bestehender AR Konzepte in der Automobilbranche
33
3.5.1 Fazit (Vorteile Nachteile)
34
4.0 Lösungsansätze für die Umsetzung einer AR Anwendung im Automobilbereich -> Eigene Aufgabenstellung, wie sieht meine Lösung aus? Im welchem Rahmen findet die Lösung statt -> Zuvor in Designanalyse festgestellte Nachteile -> Was muss für das Design bedacht werden? Schwierigkeiten? -> Lösung -> Was muss technisch beachtet werden? -> Lösung -> Was muss für die Interaktion zwischen Mensch und System eingehalten werden? -> Lösung
35
View more...
Comments