Dipl.-Math.
Andreas Tarnowsky

Büro: A 447
Tel.: 0511 762 - 2914

Gottfried Wilhelm Leibniz Universität Hannover

Institut für Mensch-Maschine-Kommunikation
FG Graphische Datenverarbeitung

Welfengarten 1 • 30167 Hannover

Curriculum Vitae

Andreas Tarnowsky studierte Mathematik mit Studienrichtung Informatik (Diplom) an der Leibniz Universität Hannover. Die Diplomarbeit "Head Position Invariant Gaze Tracking" schrieb er im Jahr 2012 und erhielt für diese im Jahr 2013 den Förderpreis der Victor Rizkallah - Stiftung und der Stiftung Niedersachsenmetall. Ebenfalls im Jahr 2013 wurde er mit dem "Preis des Präsidiums" prämiert.

Seit dem Erhalt seines Diploms in Mathematik ist er am Lehrstuhl Graphische Datenverarbeitung als wissenschaftlicher Mitarbeiter und Doktorand tätig. Neben Lehrtätigkeiten (Labor Grafikprogrammierung) ist Andreas Tarnowsky an einem durch die DFG geförderten Projekt zum Thema "taktiles Display" beteiligt. 

Betreute Bachelor- und Masterarbeiten

Masterarbeit
Jan Jamaszyk
Leibniz Universität Hannover
Implementierung eines Self-Sensing-Konzepts in die Ansteuerung eines Taktilen Displays
Beschreibungstext anzeigen

Im Rahmen eines DFG-Projektes entwickeln das Welfenlab, das IDS und das IMPT ein taktiles Display, das das Ertasten von unterschiedlichen virtuellen Oberflächenstrukturen wie Textilien, Leder, Holz und Kunststoffen ermöglichen soll. Für die taktile Wahrnehmung ist eine Vielzahl von unterschiedlichen, sich im Finger befindlichen Mechanorezeptoren zuständig. Jeder Rezeptortyp reagiert auf bestimmte Reize und Anregungsfrequenzen besonders sensibel. Um taktile Oberflächeneindrücke möglichst exakt nachbilden zu können, muss eine gezielte Anregung dieser unterschiedlichen Rezeptoren erfolgen. Dazu bedarf es neben der mechanischen Aktorik auch eines geeigneten Ansteuerungsmodells und einer gezielten Steuerung.

Die Modellierung einer konsistenten Ansteuerung hängt unter anderem auch von dem Systemverhalten des Displays sowie der mechanischen Impedanz der Fingerkuppe ab und ist im Allgemeinen nicht a priori bekannt. Insbesondere individuelle Unterschiede im Gewebeverhalten des Fingers und der variable Anpressdruck auf das Display können im bereits bestehenden System zurzeit nicht erfasst werden und erschweren damit die Vergleichbarkeit der Eindrücke zwischen verschiedenen Benutzern.

Ziel dieser Arbeit ist der Entwurf und die Implementierung einer Erweiterung des bestehenden Systems, die es erlaubt während der Benutzung des Displays Impedanzmessungen durchzuführen und durch regelungstechnische Maßnahmen individuelle Unterschiede zwischen den Anwendern auszugleichen. Als Grundlage für diese Messungen soll das Prinzip des "Self-Sensings" genutzt werden, welches es erlaubt aus Strom- und Spannungsvariationen an einem piezoelektrischen Biegeaktor Rückschlüsse auf die anliegenden Kräfte und Geschwindigkeit zu ziehen. Teil dieser Arbeit ist der Entwurf einer Verstärkerschaltung, welche den Anforderungen an die Betriebsspannung des eingesetzten Biegeaktors genügt, sowie der Entwurf und die softwareseitige Implementierung einer aktiven Kompensation über einen Mikrocontroller.

Im Rahmen dieser Arbeit ergeben sich insbesondere die folgenden Aufgabenpunkte:

  • Entwurf und Ausführung einer Verstärkerschaltung zur Ansteuerung von piezoelektrischen Biegeaktoren für Betriebsspannungen von ca. 200 V

  • Erarbeitung eines Konzepts zur Strom- und Spannungsmessung am betriebenen Biegeaktor

  • Entwicklung eines Algorithmus / einer Regelschleife zur aktiven Kompensation der anwenderspezifischen Fingerimpedanz auf einer gegebenen embedded Umgebung
Beschreibungstext verbergen
Januar 2016
Juli 2017
Masterarbeit
Falk-David Deppe
Institut für Mensch-Maschine-Kommunikation
Erkennung und Rekonstruktion von 3D Objekten aus RGBD-Daten
Beschreibungstext anzeigen

Durch die gestiegene Verfügbarkeit erschwinglicher RGBD-Sensoren hat das Gebiet der Virtual Reality in den letzten Jahren einen großen Aufschwung erlebt, da diese es erlauben, auch ohne spezialisierter Messgeräte virtuelle 3D-Modelle realer Szenen und Objekte zu erzeugen.


Derartig erzeugte Modelle stellen meist jedoch keinerlei Informationen über die in der Szene enthaltenen Objekte zur Verfügung. Für VR-Anwendungen wären Einzelobjekte allerdings erstrebenswert, um beispielsweise interaktive Szenarien realisieren zu können. Eine solche Objekt-Segmentierung wird im Allgemeinen nachträglich berechnet und ist in vielen Fällen an die Schwächen der verwendeten Verfahren der Bildverarbeitung gebunden. Bekannte Probleme aus der Bildanalyse sind z.B. die Behandlung verdeckter Bereiche sowie der Umgang mit unvollständigen oder qualitativ unzureichenden Daten.


In dieser Arbeit soll ein Verfahren implementiert werden, welches eine Kombination aus verschiedenen Ansätzen der Bildverarbeitung auf RGBD-Daten anwendet, um zusätzliche Informationen über die 3D-Rekonstruktion zu erhalten. Durch die Auswertung dieser Zusatzinformationen soll der Prozess der Objekt-Segmentierung unterstützt werden. Eine weitere Anforderung ist die Schließung der geometrischen Schnitte zur Trennung von erkannten Objekten. Anschließend soll untersucht werden, inwiefern durch Kombination der verschiedenen Ansätze eine Verbesserung gegenüber den Segmentierungsergebnissen bestehender Verfahren erreicht werden kann.

Beschreibungstext verbergen
April 2016
Oktober 2016
Bachelorarbeit
Falk-David Deppe
Institut für Mensch-Maschine-Kommunikation
Zeitadaptive asynchrone Textilsimulation
Beschreibungstext anzeigen

In dieser Arbeit soll eine Textilsimulation mit einem einfachen Kontaktmodell implementiert werden, die sich an der haptischen Textilsimulation des HAPTEX Projektes orientiert. Einer der wesentlichen Anforderungen an die Simulation ist daher eine hohe Simulationsgeschwindigkeit, um die für haptisches Empfinden benötigten 1000Hz im Kontaktbereich erreichen zu können. Im Gegensatz zu dem vorangegangenem HAPTEX-Projekt soll ein FEM basierender Algorithmus implementiert werden, der sich auf die sog. Asynchrone Variationelle Integration (AVI) stützt. Dieser Ansatz hat den Vorteil, jedes Element mit einen individuellen Zeitschritt berechnen zu können. In dieser Arbeit soll nun untersucht werden, inwiefern es möglich ist, mit einem zeitadaptiven Ansatz die o.g. Anforderungen an die haptische Echtzeit zu erfüllen.

Beschreibungstext verbergen
Mai 2014
Oktober 2014
Bachelorarbeit
Sven Feldkord
Institut für Mensch-Maschine-Kommunikation
A scalable controller for operating multidirectional tactile arrays
Beschreibungstext anzeigen

In dem durch die DFG geförderten Projekt "Tactile Displays for Virtual-Reality-Applications" wird in Kooperation mit dem Institut für Dynamik und Schwingungen (IDS) und dem Institut für Mikroproduktionstechnik (IMPT) ein sog. taktiles Display entwickelt, welches in der Lage ist, den Wahrnehmungseindruck real existierender Oberflächen auf einem Array von beweglichen Stiften nachzubilden. Am Institut für Mensch-Maschine-Kommunikation wird zur Zeit ein Modell entwickelt, welches die für die Erzeugung dieses taktilen Eindrucks notwendigen Parameter in Form von zeitlich variablen diskreten Frequenzspektren auf Basis gegebener Oberflächenparameter bestimmt. Ziel dieser Arbeit ist es, eine Hardwareeinheit zu konzipieren und zu realisieren, welche die durch das Modell gegebenen diskreten Frequenzspektren in ein kontinuierliches Signal umsetzt, welches zur Ansteuerung des taktilen Displays verwendet werden kann. Wesentliche Anforderungen an dieser Hardwareeinheit sind neben einer hohe Qualität des Ausgangssignals auch eine einfache Möglichkeit der Skalierung auf größere Displays.

Beschreibungstext verbergen
Mai 2014
Oktober 2014
Bachelorarbeit
Adrian Hengelhaupt
Mensch-Maschine-Kommunikation
Adaptive 3D-Visualization of fractal Heightmaps using Tessellation Shaders
Beschreibungstext anzeigen
Das Institut für Mensch-Maschine-Kommunikation verfügt über vielfältige Visualisierungs- und Interaktionssysteme für Virtual-Reality Applikationen. Als Demonstrationsanwendung soll eine Interaktive 3D-Umgebung geschaffen werden, die fortgeschrittene 3D-Visualisierung, haptische Interaktion und physikalische Simulation beinhaltet.
Ziel dieser Arbeit ist es, existierende Algorithmen zur Generierung von fraktalen Höhenkarten einzusetzen, um virtuell erkundbare Landschaften in Echtzeit dreidimensional visualisieren zu können. Um eine jederzeit flüssige und zugleich qualitativ hochwertige Darstellung zu garantieren, soll eine adaptive Verfeinerung eines Basismeshes durch einen Tessellation-Shader realisiert werden. Als Kriterium für die Verfeinerung können beispielsweise Gradienteninformationen der Höhenkarte ausgewertet werden.
Die Programmierung erfolgt in C++ und OpenGL. Als Basis für die Implementierung dient das aus dem Labor "Grafikprogrammierung" bekannte auf Qt basierende GDV-Framework.
Beschreibungstext verbergen
November 2013
März 2014

Publikationen

2012
Felix Haase, Maximilian Klein, Andreas Tarnowsky, Franz-Erich Wolter
Interactive Fractal Compositions
2012
Beschreibungstext anzeigen
With the ever rising quality and complexity standards in computer graphics, the generation of detailed content has become a bottleneck. While high quality visualization can be achieved at comparatively low cost, content generation remains a labor intensive and expensive task. Procedural approaches can support this process by automating parts of it. One common problem of procedural methods is that the variables controlling the result are difficult to adjust. Especially fractals may have unintuitive parameters, which make them difficult to handle in praxis. In this paper we introduce the concept of a Region Tree to structure the workflow with these procedures and present a supporting framework. On top of this we show how we used GPU integration to make interactive editing possible. With this approach it is easy to construct any number of procedural models from a set of user defined characteristics. We illustrate our method by creating an earth-like complex planet completely procedurally.
Beschreibungstext verbergen

Extern

Holger Flatt, Andreas Tarnowsky, Holger Blume, Peter Pirsch
Hardware-Abbildung eines videobasierten Verfahrens zur echtzeitfähigen Auswertung von Winkelhistogrammen auf eine modulare Coprozessor-Architektur
Advances in Radio Science, 2010, 8, p. 135-142, DOI: 10.5194/ars-8-135-2010
Holger Flatt, Steffen Blume, Andreas Tarnowsky, Holger Blume, Peter Pirsch
Echtzeitfähige Abbildung eines videobasierten Objekterkennungsalgorithmus auf eine modulare Coprozessor-Architektur
ITG Fachtagung für Elektronische Medien "Systeme, Technologien, Anwendungen" 13. Dortmunder Fernsehseminar, VDE, 2009