Conference Agenda

Overview and details of the sessions of this conference. Please select a date or location to show only sessions at that day or location. Please select a single session for detailed view (with abstracts and downloads if available).

 
Session Overview
Session
MCI-WS05: 11. Workshop Be-greifbare Interaktion
Time:
Sunday, 02/Sep/2018:
9:00am - 4:30pm

Location: APB/1004
Andreas-Pfitzmann-Bau, 60 Persons

External Resource: http://www.be-greifbar.de/
Presentations

11. Workshop Be-greifbare Interaktion

Dietrich Kammer1, Mandy Keck1, Beat Rossmy2, Thomas Fröhlich3, Thomas Winkler4

1Technische Universität Dresden, Germany; 2Ludwig-Maximilians-Universität München; 3Universität Bremen; 4Universität zu Lübeck

Be-greifbare Benutzungsschnittstellen, die Interaktivität mittels physischer Objekte im Raum ermöglichen, bieten ein enormes Potential zur Steuerung immer komplexerer Mensch-Computer-Systeme jenseits rein grafischer oder sprachbasierter Schnittstellen, die unsere Lebenswelt im Sinne des Pervasive Computing weiter zunehmend durchdringen. Die beinah unendlichen Möglichkeiten kleinste Computersysteme in die Umwelt und ihre Gegenstände zu integrieren bietet einen großen Gestaltungsspielraum. Das Forschungsfeld der "Be-greifbaren Interaktion" (Tangible Interaction) untersucht diesen Spielraum wissenschaftlich und praktisch, um sinnvolle und menschengerechte Anwendungen zu ermöglichen. Die Fachgruppe "Be-greifbare Interaktion" des GI-Fachbereichs Mensch-Computer-Interaktion bietet in ihrem gleichnamigen Workshop ein Forum zur Präsentation des wissenschaftlichen Diskurses und der interdisziplinären Auseinandersetzung mit den neuesten Entwicklungen und Forschungsergebnissen in diesem Forschungsfeld. Die Beitragsformen reichen dabei über theoretische, kritische und zukunftsweisende Reflexionen, bis hin zu gestalterischen Arbeiten und Studien, Berichte praktischer Umsetzungen und Systemdemonstrationen. Der Workshop öffnet die Diskussion für ein breiteres Fachpublikum, wobei aktuelle Entwicklungen und Fragestellungen offengelegt und neue Impulse für das Forschungsgebiet geschaffen werden.


Volume: a forcing interface as art

Hannes Waldschütz

Bauhaus-Universität Weimar, Germany

Object/Performance

74 cm x 53 cm x 53 cm (Beginning with Volume Progress),

I describe the setup and motivation of an artwork about human-machine interaction as an artistic performance. «Volume» is an object about the hidden mechanics of power on which human-machine interaction is build upon. I present the documentation of this installation consisting of a machine, that emits some unspecified acoustic noise which becomes slowly louder and louder. With this artistic object I want to provoke a discussion about the concept of machines as a medium of power coercing their users to interact.


Multimodale Unterstützungssysteme für Leistungssport im Taktilen Internet

Esther Lapczyna, Lars Engeln, Jens Krzywinski, Rainer Groh

Technische Universität Dresden, Germany

5G verspricht eine energiesparende Kommunikation zwischen vielen Geräten mit hohem Datendurchsatz bei niedriger Latenz, sodass das Taktile Internet möglich wird. Die herkömmlichen Szenarien für 5G sind Telechirurgie und Car-to-Car Kommunikation. Insbesondere Car-to-Car Kommunikation ist ein zukunftsträchtiges Gebiet innerhalb des Internet of Things (IoT). In dieser Arbeit wird als weitere Anwendungsdomäne für 5G das zeitkritische Training beim Leistungssport innerhalb des IoT vorgestellt. Dafür werden Unterstützungssysteme für das Motorische Lernen zweier exemplarischer Sportarten beleuchtet, bei denen niedrige Latenzen multipler Datenströme nötig sind.


Kopf in den Daten, Daten in der Hand – Exploration räumlicher Glyphen- Visualisierungen mittels HMD und Manipulator

Rainer Groh

TU Dresden, Germany

HMDs setzen sich im Entertainmentbereich als preiswertes Mittel zur Visualisierung und Augmentierung virtueller Szenarien durch. Als besondere Qualitäten werden Immersion und Echtzeitverhalten hervorgehoben.

Wissenschaftliches Arbeiten beruht jedoch zumeist auf Emersion, d. h. auf einem kontemplativen Verhältnis des Nutzers zur Szene, das Vergleiche und Mustererkennung ermöglichen soll. Visuelles Data Mining in räumlich visualisierten Daten stellt einen typischen Anwendungsfall dar. Welche begreifbaren Schnittstellen und projektiven Voraussetzungen sind notwendig, um dem Nutzer ein »menschliches« Intertialsystem zu bieten. Der Beitrag diskutiert Konzepte der Fusion des immersionserzeugenden

Werkzeugs mit einem physisch konkreten Manipulator zum Zweck der Exploration in Glyphen-Visualisierungen.


The Expanded Body - Ergebnisse einer tänzerisch-künstlerischen Intervention

Jochen Feitsch, Christian Geiger

Hochschule Düsseldorf, Germany

In diesem Beitrag stellen wir die Ergebnisse eines einwöchigen Workshops mit dem Ziel der Überprüfung des Nutzens alternativer Arbeitsprozesse zur Erforschung künstlerisch-wissenschaftlicher Synergiepotentiale im tänzerischen Umfeld vor. Der Workshop fand zwischen Teilnehmern aus dem kreativ-tänzerischen Umfeld und Teilnehmern aus dem wissenschaftlich-technischen Umfeld statt. Während des Workshops kamen Technologien wie Motion-Capturing, Virtual Reality, Biosensorik und Muskelstimulation zum Einsatz, und es entstanden insgesamt sechs verschiedene Konzepte für und teilweise Umsetzungen von Installationen, Performances und Collagen. Die Arbeit in der hier beschriebenen Workshop-Form zeigt hohes Synergie-Potential insbesondere bei der Entwicklung neuartiger Ideen auf. Die entstandene Zusammenarbeit verlief auch über den Zeitraum der Unternehmung hinaus. Wir sehen die Auseinandersetzung mit der Verbindung von performativer Tanzkunst und moderner Technologie als äußerst bereichernd an, und planen die Wiederholung eines solchen Workshops.


DotTrack: absolute und relative Ortsbestimmung von Tangibles mittels eines Maussensors

Dennis Schüsselbauer, Andreas Schmid, Raphael Wimmer, Laurin Muth

Universität Regensburg

Tangible User Interfaces (TUIs) integrieren oft physische Objekte, deren Positionierung oder Positionsveränderung durch den Nutzer zur Interaktion verwendet wird.

DotTrack ist ein Tracking-Verfahren, das absolute Ortsbestimmung und Tracking der Position von Tangibles ohne externe Infrastruktur erlaubt.

Der Prototyp verwendet dazu einen kommerziellen Maussensor, der nicht nur die Translation misst, sondern auch ein Kamerabild des Untergrunds liefert.

Ein eindeutiges Punktmuster auf dem Untergrund erlaubt es, die absolute Position des Prototypen zu bestimmen.

Im momentanen Entwicklungsstand sind rudimentäre absolute Ortsbestimmung, Positionstracking und mehrere Anwendungsbeispiele für das System implementiert.


Zoomable User Interfaces für Elastic Displays

Mathias Müller1, Erik Lier1, Thomas Gründer2

1Technische Universität Dresden, Germany; 2Gesellschaft für Technische Visualistik mbH, Dresden

Im Rahmen des vorliegenden Papers soll ein kurzer Abriss über verschiedene Prototypen für Zoomable User Interfaces (ZUI) auf Elastic Displays erfolgen, welche in den letzten Jahren realisiert wurden. Auf Basis dieser verschiedenen Systeme soll der Versuch einer Kategorisierung erfolgen, um die Bandbreite der Möglichkeiten unter Berücksichtigung der Spezifika von Elastic Displays aufzuzeigen. Abschließend werden als Ausblick auf zukünftige Arbeiten die Chancen und Herausforderungen in der Umsetzung solcher Systeme dargelegt.


Professionelle Human Maschine Interfaces – vom Bedienkonzept zum interaktiven physisch-digitalen Prototyp

Sebastian Lorenz

TU Dresden, Germany

Dieser Workshopbeitrag soll anhand des Beispiels eines Interaktionsprototypen für eine Fernsteuerung für Bagger, eine Diskussion darüber eröffnen, wie die Interaktion mit Maschinen wieder physischer wer-den kann. Ferner sollen Ansätze vorgestellt werden, die die Möglichkeiten neue Formen haptischer In-teraktion im professionellen Arbeitskontext beschreiben.

Das ausgewählte Beispiel, das Bedienkonzept „Movable HMI“, entstand 2016 im Rahmen eines inter-disziplinären Studierendenprojektes. Der Ansatz einer gestenbasierten Maschinensteuerung wurde hin-sichtlich erforderlicher Funktionalitäten und Technologien durchdacht und mithilfe von Augmented-Re-ality- und Virtual-Reality-Technologien (AR, VR) in einen interaktiven Demonstrator umgesetzt. Dieser macht damit ein gänzlich unkonventionelles Bedienansatz begreifbar.


Kunstgefühl - Von der Grafik zum interaktiven Tastmodell

Evelyn Zinnatova, Claudia Bergmann, Markus Wacker

Hochschule für Technik und Wirtschaft Dresden, Germany

Blinde und sehbehinderte Menschen sind in Museen oft auf Hilfe angewiesen. In einigen Ausstellungen existieren bereits Tastmodelle von Exponaten, diese sind aber nicht selbsterklärend und müssen durch akustische Informationen wie Audioguides oder Begleitpersonen ergänzt werden. Aktuell scheitert der Wunsch vieler Besucher, die Tastmodelle möglichst selbstständig zu erkunden, an fehlender kostenintensiver Technik. Der hier vorgestellte Ansatz besteht aus zwei Schritten. Zuerst werden Grafiken in digitale räumliche Modelle überführt und als reale 3D-Tastmodelle produziert. Im zweiten Schritt wird das Modell um die notwendigen Zusatz- und Vertiefungsinformationen für die Verwendung mit einem Vorlesestift erweitert. Das Ergebnis ist ein räumliches Tastmodell einer Druckgrafik mit der Erweiterung für den Vorlesestift tiptoi®. In Nutzerbefragungen konnte nachgewiesen werden, dass diese Kombination ein interessantes und Freude bereitendes Erlebnis für alle Besucher schafft.


Modell für eine Lehrerevaluation zum Einsatz eines körper- und raum-bezogenen Miteinander-Lernspiels

Thomas Winkler, David Bouck-Standen, Michael Herczeg

Universität zu Lübeck, Germany

Dieser Beitrag widmet sich der Frage, wie eine Lehrerevaluation gestaltet sein sollte, die Aufschlüsse über Widersprüche gibt, die seitens der Lehrkräfte möglicherweise entstehen, wenn neuartige körper- und raumbezogene Miteinander-Lernspiele mit neuen didaktischen Konzepten für die Schule entwickelt und dort für den Regelunterricht mit seinen gelebten pädagogischen Ansätzen bereitgestellt werden. Auf Grundlage einer Vorstudie mit zwei Lehrkräften in einer Grundschule wird ein neuartiges Evaluationsdesign vorgestellt, dass auf einer halbstrukturierten Befragung auf Basis der kulturhistorischen Tätigkeitstheorie (CHAT) beruht und mittels des System Usability Scale (SUS) und des Affinity for Technology Scale (ATI-Scale) angereichert ist. Zwar können die ersten Ergebnisse noch keine signifikanten Ergebnisse liefern, jedoch helfen sie herauszufinden, ob das Evaluationsdesign grundsätzlich geeignet ist, die Hypothesen zu validieren. Die vorhandenen und im Beitrag dargestellten Ergebnisse dienen der Konzeption einer quantitativen Evaluation mit einer größeren Anzahl an Lehrkräften, der Erweiterung der Forschungsfrage sowie dem Optimieren der Befragungen.


COMB – Form als bedeutungsvolle Eingabemethode in der Gestaltung Be-greifbarer Schnittstellen für Kinder

Beat Rossmy, Alexander Wiethoff

LMU München, Germany

Eigenes Erzeugen elektronischer Musik ist heutzutage meist nicht zugänglich für Vorschüler oder jüngere Kinder. Gründe dafür sind unter anderem die Ausrichtung von Musik Software, Hardware und Applikationen auf erwachsene Nutzer. Daher stellen wir COMB vor: ein modularer Musikcontroller, dessen Funktionalität sich durch die konstruierte Form der Schnittstelle definiert. In der laufenden Forschung wollen wir zeigen, dass durch die Integration spielerischer Interaktion das Erlernen von Musik im Vorschulalter unterstützt werden kann und dass solche Konzepte ebenfalls als neue Eingabemethode im Kontext Be-greifbarer Schnittstellen dienen können.