b_800_800_16777215_00_images_Abschlussarbeiten_master_arlt.jpg
Masterarbeit Hans Christian Arlt

Durch die große Verbreitung von ”Smartphones“ der neuen Generation von mobilen Telefonen gewinnt die Erweiterte Realität (engl.: Augmented Reality, kurz: AR), in letzter Zeit einen immer größeren Bekanntheitsgrad. Unter Augmented Reality versteht man die Überlagerung des Kamerabildes mit situationsgerechten Zusatzinformationen. Diese werden als virtuelle Daten in Form von Text, Bild, Video oder auch 3D Modellen zu Verfügung gestellt. Die heutige Technik der mobilen Telefone ist durch die eingebauten Kameras und mehreren Sensorikbauteilen gut nutzbar, um einfache Erweiterungen im Kamerabild auf dem Display umzusetzen. Jedoch kommen die heutigen mobilen Telefone mit begrenzter Prozessorleistung und Arbeitsspeicher an ihre Grenzen, wenn es darum geht, eine Vielzahl von aufwendigen und großen AR-­‐Trackingdaten mit dem aktuellen Kamerabild in Echtzeit zu vergleichen. Markerlose Tracking-­‐Systeme sind die anspruchsvolleren Verfahren. Zur Erkennung werden Bilder (2D Markerless) sowie reale Objekte (3D Markerless) benutzt.

Die Struktur des Bildmarkers oder die Beschaffenheit der Form des Objektes sind hierbei relevant. Beim 3D Markerless-­‐ Verfahren werden Punktwolken mit Tiefeninformationen benutzt um Objekte oder auch Räumlichkeiten zu erkennen und zu verfolgen. Im Projekt PIMAR ist die Zielsetzung ohne Benutzereinwirkung ortsgebunden unterschiedliche markerlose Tracking-­‐Szenarien zu laden. Es gibt verschiedene SDKs auf dem Markt, die es ermöglichen nach mehreren Punktwolken zu suchen und das jeweilige Tracking zu starten bzw. die gewünschte Information anzuzeigen. In dem SDK von metaio, welches im Projekt PIMAR zur Verwendung kommt, ist die maximale Anzahl von Trackingdateien nach eigenen Angaben auf 15 limitiert. Jedoch machen sich schon kleinere Anzahlen sehr stark in einer sinkenden Framerate der Anzeige beim Tracking bemerkbar. Für jedes potentielle Szenario, dessen virtuelle Objekte dargestellt werden sollen, muss permanent eine angelernte Punktwolke im Gerätespeicher gehalten und wiederholt mit den aktuellen Kamerabildern abgeglichen werden. Die große Datenmenge fordert hier nicht nur entsprechend viel Speicher, sondern insbesondere auch eine hohe Prozessorlast. Erst wenn das System eine der 3D-­‐Punktwolken erfolgreich zuordnen kann, können die anderen Punktewolken verworfen und die Verfolgung der Szene und deren virtuelle Überlagerung gestartet werden. In vielen Fällen werden deshalb zur Initialisierung QR-­‐Codes verwendet oder der Benutzer muss über eine grafische Benutzeroberfläche in der Anwendung das jeweilige Szenario starten. Um dieses Problem zu lösen, soll ein Verfahren entwickelt werden, dass mit der vorhandenen Technik eine automatische Initialisierung vor das eigentliche AR-­‐Tracking setzten kann. Es soll in verschiedenen mobilen prototypischen Applikationen umgesetzt werden und auf Leistungsfähigkeit, Benutzerfreundlichkeit und Effizienz getestet werden. Der Praxistest soll mit einem Prototypen in einer Applikation für das mathematische Mitmach-­‐Museum ”Mathematikum“ realisiert werden. Hier sollen unterschiedliche Exponate im Museum erkannt und daraufhin passende AR-­‐Szenen geladen werden.