Blinde Montagsmaler - Bilderraten auf einem taktilen Display
Jens Bornschein, Denise Bornschein, Gerhard Weber
Technische Universität Dresden, Germany
Mit dem spielerischen Aufbau "blinde Montagsmaler" wird eine kollaborative Zeichenanwendung zur Erstellung taktiler Grafiken präsentiert. Ein dynamisch taktiles Fächendisplay bietet dabei die Möglichkeit, in Echtzeit die Zeichenanwendung LibreOffice DRAW zu beobachten und einen taktilen Eindruck über die gerade entstehende Grafik zu erlangen. Darüber hinaus stehen für den Nutzer des taktilen Interfaces zahlreiche Möglichkeiten zum Erstellen und Bearbeiten von Grafikelementen zur Verfügung. Im Rahmen der Demonstration können sich ein GUI Nutzer und ein Spieler mit verbundenen Augen gegenseitig Bilderrätsel oder Formen zuspielen und dabei ihr taktiles Können unter Beweis stellen sowie ein besseres Verständnis für die Herausforderungen sehbehinderter Nutzer im Umgang mit grafischen Inhalten erlangen.
Brelomate: Eine digitale Plattform zur Förderung sozialer Teilhabe
Gernot Rottermanner, Peter Judmaier, Shadja El Aeraky, Christian Gradl, Sabine Sommer
FH St. Pölten, Austria
Brelomate ist eine Kommunikations- und Spieleplattform mit dem Ziel, die soziale Teilhabe älterer Menschen zu fördern. Für die Nutzung von Brelomate ist lediglich ein Fernseher zur Darstellung, ein Tablet zur Steuerung, sowie eine Webcam und eine Internetanbindung notwendig. Es ist möglich, mit anderen Brelomate-NutzerInnen das Kartenspiel „Schnapsen“ (oder „Sechsundsechzig“) zu spielen und miteinander per Videotelefonie zu plaudern. Dieser Beitrag beschreibt die entwickelte Lösung näher. Die Ergebnisse der durchgeführten Feldstudie mit 30 TeilnehmerInnen zeigen, dass Brelomate eine hohe Akzeptanz in einer Zielgruppe erreicht, die oft Angst vor dem Einsatz unbekannter digitaler Technologien hat. Darüber hinaus hat das System eine hohe Nutzungszufriedenheit und alle Teilneh-merInnen gaben an, dass Brelomate eine wichtige Ergänzung ihres täglichen Lebens sein kann.
DotTrack: absolute und relative Ortsbestimmung von Tangibles mittels eines Maussensors'
Dennis Schüsselbauer, Andreas Schmid, Raphael Wimmer, Laurin Muth
Universität Regensburg
Tangible User Interfaces (TUIs) integrieren oft physische Objekte, deren Positionierung oder Positionsveränderung durch den Nutzer zur Interaktion verwendet wird.
DotTrack ist ein Tracking-Verfahren, das absolute Ortsbestimmung und Tracking der Position von Tangibles ohne externe Infrastruktur erlaubt.
Der Prototyp verwendet dazu einen kommerziellen Maussensor, der nicht nur die Translation misst, sondern auch ein Kamerabild des Untergrunds liefert.
Ein eindeutiges Punktmuster auf dem Untergrund erlaubt es, die absolute Position des Prototypen zu bestimmen.
Im momentanen Entwicklungsstand sind rudimentäre absolute Ortsbestimmung, Positionstracking und mehrere Anwendungsbeispiele für das System implementiert.
Escape Room – Mitarbeitende für digitales Lernen begeistern
Denise Gramß, Patricia Pillath, Corinna Schwozer
Hochschule für angewandtes Management, Germany
Zunehmende Digitalisierung der Arbeitswelt verändert auch die Art des Lernens. E-Learning und andere digitale Lernformate werden immer beliebter. Doch setzt die effektive Nutzung digitalen Lernens ausreichende digitale Kompetenzen bzw. Medienkompetenz voraus. Gerade Mitarbeitende mit wenig oder gar keinen Erfahrungen im Umgang mit digitalen Medien müssen zunächst für diese befähigt werden. Der Beitrag stellt den mitarbeiterzentrierten Ansatz des Forschungsprojekts MeQ:ino (Medienqualifizierung: individuell und organisational) vor. Ausgehend von einem Dreiklang aus Be-geistern, Befähigen und Beteiligen, wird im ersten Schritt ein Escape Room genutzt, um Mitarbeitende an digitales Lernen heranzuführen. Mit Hilfe des Gamification-Ansatzes sollen Vorbehalte und Ängste abgebaut und die Neugier am digitalen Lernen geweckt werden.
Exploring Big Data Landscapes with a Glyph-based Zoomable User Interface
Dietrich Kammer, Mandy Keck, Thomas Gründer
Technische Universität Dresden, Germany
High-dimensional data sets are hard to explore using common spreadsheet environments. However, data scientists need to develop appropriate clustering and classification algorithms to make sense of big data repositories. Even sophisticated analysis tools often focus on mathematical tasks and offer only basic data visualization with few interactive features. In order to gain more sophisticated insights and test hypotheses with regards to high-dimensional data sets, we developed an interactive zoomable user interface using glyph-based visualizations. The visualization is based on a two-dimensional plot of the data space using multi-dimensional reduction. The resulting Big Data Landscapes are then explored with various controls, filters, and details on demand.
Fluid Sketching: Bringing Ebru Art into VR
Sevinc Eroglu, Benjamin Weyers, Torsten Kuhlen
RWTH Aachen University, Germany
In this interactive demo, we present Fluid Sketching as an innovative virtual reality application, which is highly inspired by traditional marbling art. By using a particle-based simulation combined with natural, spatial, and multi-modal interaction techniques, we create and extend the original artwork to build a comprehensive interactive experience. With the interactive demo of Fluid Sketching during Mensch und Computer 2018, we aim at increasing the awareness of paper marbling as a traditional type of art and demonstrating the potential of virtual reality as an innovative digital and artistic medium.
Haptic Human-Robot Interfaces on Guide Robots for Visually Impaired People
Limin Zeng, Alexander Pitkin, Björn Einert
TU Dresden, Germany
In this paper, we presents two different haptic and intelligent guide robots for people with visual impairments. One guide robot has a haptic rein which would sense and interactive with users’ grasp force, while the other one does not have a haptic rein, but equipped with a wireless tactile belt to receive navigation instructions.
inSIDE Fair Dialogues: Assessing and Maintaining Fairness in Human-Computer-Interaction
Sabine Janzen1, Ralf Bleymehl2, Aftab Alam1, Sascha Xu1, Hannah Stein2
1Deutsches Forschungszentrum für Künstliche Intelligenz, Germany; 2Information and Service Systems, Saarland University, Germany
For simulating human-like intelligence in dialogue systems, individual and partially conflicting motives of interlocutors have to be processed in dialogue planning. Little attention has been given to this topic in dialogue planning in contrast to dialogues that are fully aligned with anticipated user motives. When considering dialogues with congruent and incongruent interlocutor motives like sales dialogues, dialogue systems need to find a balance between competition and cooperation. As a means for balancing such mixed motives in dialogues, we introduce the concept of fairness defined as combination of fair-ness state and fairness maintenance process. Focusing on a dialogue between human and robot in a retailing scenario, we show the application of the SatIsficing Dialogue Engine (inSIDE) - a platform for assessing and maintaining fairness in dialogues with mixed motives.
Interaktive Visualisierung multipler Handlungsstränge für Virtuelle Ausstellungen durch Onthologien
Lars Engeln, Rainer Groh
Technische Universität Dresden, Germany
Universitäten besitzen in ihren Technischen Sammlungen Objekte, die nicht nur aus historischer Sicht,sondern zu Teilen immer noch für Lehre und Forschung relevant sind. Häufig sind seltene, Domänen-spezifische Objekte nur in einer oder wenigen Sammlungen weltweit vorhanden. In der Regel besitzen Technische Sammlungen keine Dauerausstellungen oder geregelte Öffnungszeiten. Der Zugang zu den Objekten ist demnach lokal und zeitlich beschränkt. Durch Virtuelle Ausstellungen wird die Erreichbarkeit erhöht. Zugleich sollen Ontologien die Vernetzung und wissenschaftliche Auswertbarkeit steigern. Daher wird in dieser Arbeit direkt aus einer Ontologie, welche einen Sammlungsbestand beschreibt, eine Virtuelle Ausstellung erzeugt, welche den multiplen Kontext (Handlungsstränge) darstellt.
Interaktiver mechanischer Logik-Baustein
Eberhard Engelhardt
BA Sachsen - Staatliche Studienakademie Dresden, Germany
Die vorliegende technische Lösung realisiert mechanische Logik-Gatter mit zwei Eingängen und einem Ausgang, womit sich 16 verschiedene Logik-Gatter realisieren lassen.
Die Anordnung der Eingänge und des Ausgangs des mechanischen Logik-Gatters entsprechen der Lage bei dem entsprechenden DIN-Symbol. Das erleichtert die Umsetzung von Schaltplänen mittels der vorliegenden technischen Lösung.
Die Logik-Bausteine können beliebig gekoppelt werden um komplexere Schaltungen zu realisieren.
Interaktives Erleben und Erlernen von Ergonomie mit ErgoCAM
Laura Johnen1, Oliver Brunner1, Tobias Hellig1, Verena Nitsch1, Alexander Mertens1,2, Christopher Brandl1,2
1Lehrstuhl und Institut für Arbeitswissenschaft der RWTH Aachen, Germany; 2Aachen Consulting for Applied Industrial Engineering and Ergonomics UG
Zur Prävention von Muskel-Skelett-Erkrankungen kommt der ergonomiegerechten Gestaltung menschlicher Tätigkeiten und Bewegungen eine wichtige Bedeutung zu. Am Institut für Arbeitswissenschaft der RWTH Aachen wurde zur Analyse von Tätigkeiten als Grundlage der Verbesserung der Ergonomie ein Messsystem entwickelt, das die Stärken von menschlichem Fachpersonal und Technik kombiniert. Solche Analysemethoden können dabei meist nur von Experten angewendet und nutzbar gemacht werden. Zur nachhaltigen Verbesserung der Ergonomie in allen Lebensbereichen sollten jedoch auch Personen ohne Fachkenntnisse in der Lage sein, beispielsweise Ergebnisse von Belastungsbewertungen zu verstehen und damit ein Bewusstsein für die ergonomiegerechte Gestaltung auch alltäglicher Bewegungen und Tätigkeiten zu erhalten. Daher wurde das entwickelte Messsystem um ein didaktisch-methodisches Kommunikationskonzept zur Wissensvermittlung erweitert. Interessierte, nicht fachlich vorgebildete Personen können mit dem Demonstrator ErgoCAM interaktiv die ergonomiegerechte Gestaltung von Tätigkeiten und Bewegungen erleben, erlernen und diskutieren. Ein selbstständiger Transfer in den eigenen beruflichen und privaten Alltag wird gefördert. Zusätzlich werden die Teilnehmer für die zukünftige ergonomiegerechte Gestaltung von Bewegungen und Tätigkeiten befähigt.
Kriegskinder: Einsatz von Augmented Reality für dokumentarische Inhalte
Christian Zimmer, Nanette Ratz, Michael Bertram, Christian Geiger
Hochschule Düsseldorf, Germany
Bei dem Projekt "Kriegskinder" war die Intention, Erlebnisse von Kriegsüberlebenden mittels Augmented Reality erlebbar und für den Nutzer nachvollziehbar zu machen. Um diesem einen immersiven Bezug zu den Geschichten zu ermöglichen, kann dieser eine Zeitzeugin mithilfe der Tablet-/Smartphone-Anwendung visuell in seiner eigenen Umgebung platzieren. Daraufhin sieht der Nutzer die jeweilige Zeitzeugin sich gegenübersitzen und diese beginnt, ihre Kriegserlebnisse im Kindesalter zu schildern. Während der Erzählung wird die reale Umgebung des Nutzers durch AR Inhalte erweitert, welche ihre Erzählung visuell untermalen. Das Projekt wurde im Rahmen eines iterativen Prototypingprozesses in enger Kooperation mit einer Filmproduktionsfirma für den WDR durchgeführt und auf der re:publica 2018 erstmal als Prototyp der Öffentlichkeit präsentiert.
Räumliches Durchsuchen von Repositorien historischer Fotografien
Jonas Bruschke, Florian Niebling
Universität Würzburg, Germany
Historische Bilddokumente bilden eine wichtige Datenbasis für Forscher in den Digital Humanities (DH). Speziell Kunst- und Architekturhistoriker sind auf historische Fotografien angewiesen, die in Online-Medienrepositorien zur Verfügung gestellt werden. Die Suche nach diesen Bildern basiert im Allgemeinen auf Metadaten. Diese sind häufig unvollständig, ungenau oder falsch, wodurch sich eine Suche er-schwert. In diesem Demonstrator präsentieren wir die Möglichkeiten einer ortsbasierten Durchsuchung historischer Abbildungen von Stadtarchitektur basierend auf der räumlichen Verortung von Bilddokumenten mittels photogrammetrischer Algorithmen. Durch die vorgestellten Methoden einer interaktiven räumlichen Darstellung und Exploration historischer Bildbestände bieten sich neue Möglichkeiten geschichtswissenschaftliche Fragestellungen zu beantworten.
Real Walking in Virtual Spaces: Visiting the Aachen Cathedral
Patric Schmitz, Leif Kobbelt
RWTH Aachen University, Germany
Real walking is the most natural and intuitive way to navigate the world around us. In Virtual Reality, the limited tracking area of commercially available systems typically does not match the size of the virtual environment we wish to explore. Spatial compression methods enable the user to walk further in the virtual environment than the real tracking bounds permit. This demo gives a glimpse into our ongoing research on spatial compression in VR. Visitors can walk through a realistic model of the Aachen Cathedral within a room-sized tracking area.
Real World VR Proxies to Support Blind People in Mobility Training
Julian Kreimeier1,2, Timo Götzelmann1
1Technische Hochschule Nürnberg, Germany; 2Technische Universität Dresden, Professur Mensch-Computer Interaktion
Mobility training is an essential part of blind people’s education in order to move in public spaces. In order to safely learn new routes in public space, however, a seeing trainer must assist the blind person. With the increasing availability of VR hardware, it is possible to transfer real spatial environments to virtual representations. The digitized environments can be used as a basis for this training without safety problems by real world hazards. This allows to cope with the limited resources of sighted assistants and enables blind people to become more independent. We propose to capture real public spaces (such as sidewalks, train stations etc.) and make them in this way ascertainable. Orientation and mobility can be trained in this digital model via multimodal sensory feedback while involving intuitive locomotion and white cane exploration. This paper sketches the related work and proposes our novel approach. Furthermore, we suggest additional improvements on our ongoing research.
Test-Setup zur Beobachtung und Aufzeichnung von VR-Usability-Tests
Marianne Andres, Kay-Uwe Zimmermann, Holger Ziekow
Hochschule Furtwangen, Germany
Ein grundlegendes Element von Usability-Tests ist die richtige Deutung von Nutzerverhalten. Hierfür wird in der Praxis auf eine möglichst gute Beobachtung Wert gelegt. Für VR-Anwendungen entstehen dabei Anforderungen, bei denen klassische Testaufbauten an Grenzen stoßen. Testpersonen sind bei VR-Anwendungen in die virtuelle Umgebung integriert und müssen auch dort beobachtet werden. Klassische Testaufbauten mit Kameras ermöglichen jedoch nur die Beobachtung von Testpersonen in der realen Welt.
Unser Test-Setup macht das Nutzerverhalten in der Virtuellen Realität (VR) für Moderator und Beobachter sichtbar. Hierfür werden 3 Ansichten aus der VR und einer aus der realen Umgebung auf einem Screen übertragen. Die 4 Ansichten können individuell angepasst und aufgezeichnet werden.
Walking on Sunshine – Dynamische Wetterparameter in Outdoor VR
Laurin Gerhardt, Marcel Tiator, Mitja Säger, Christian Geiger
Hochschule Düsseldorf, Germany
Die Nutzererfahrung einer VR-Applikation, die eine Outdoor Virtual Environment (OVE) enthält, hängt von Kriterien wie der Präsenz während der Interaktion ab. Interagiert man mit einer OVE in einem geschlossenen Raum, können Wetterparameter nur simuliert werden. Die Immersion des Systems wird jedoch erhöht, wenn der Nutzer die Anwendung im Freien erlebt, und die natürlichen Gegebenheiten der realen Umgebung in die virtuelle Nutzererfahrung übertragen werden. In diesem Beitrag soll ein Demonstrator entwickelt werden, um die Auswirkungen realer Wetterparameter auf die Präsenz einer OVE-Anwendung im Freien im Vergleich zur Erfahrung im geschlossenen Raum untersuchen zu können. Aus diesem Grund kombinieren wir ein HMD mit Inside-out-Tracking und einem mobilen PC für größere Bewegungsfreiheit. So kann der Nutzer die OVE im Freien wahrnehmen und große Areale zu Fuß erforschen.
Glass Panel Displays with Addressable LEDs
Alexander Carôt1, Stephan Ebeling1, Christian Hoene2, Peter Patz3, Herve Loridan3
1Hochschule Anhalt, Germany; 2Symonics GmbH; 3Peter Patz Spezialglas
Driven by the vision of creating a low-latency display for remote orchestra conductors we developed and manufactured a transparent glass panel, which contains individually controllable LEDs. The glass panels are covered with thin film of indium tin oxide (ITO), which makes the glass conductible. A laser mills conductive paths. Finally, addressable LEDs are mounted on the glass. The main problem we addressed is the sheet resistance of ITO, which is at least 5 Ω / square (PGO, 2018). A typical PCB has a resistance 10,000 times lower. We have overcome this hurdle by optimizing layout, selecting appropriated LEDs, and including control logic. Our glass panels are controllable via WLAN, need only a DC power supply. In our demo one glass panel will be connected to the output of an Optitrack S250e IR-tracking camera. This setup allows people to use a baton in front of our camera, while their movements are displayed on the LED matrix with a perceivably minimal amount of latency.
AR-Port AR im Alltag am Beispiel Flugreise
Yijian Lan, Alexander Kübler
HfG Schwäbisch Gmünd, Germany
Im Mittelpunkt unserer Arbeit steht das Thema „Augmented Reality“ und dessen Designprozesse. Während unseres Projektes werden wir uns vier Monate lang mit der Technik, sowohl praktisch, als auch theoretisch auseinandersetzten. Dabei beschäftigen wir uns mit der Frage: „Was ist AR und welche neuen Möglichkeiten bringt diese Technik für zukünftige Designer mit sich?“Ziel unseres Projektes ist es, AR-Richtlinien zu gestalten, welche wir explorativ und auf einer nutzer- und kontextbasierten Grundlage erarbeiten möchten. Die erarbeiteten Insights und Erfahrungen sollen in Form von Designprinzipien, welche sich auf das Gestalten von AR-Anwendungen fokussieren dokumentiert werden.Mit den Designprinzipien haben wir eine Augmented Reality-Inhouse Navigation APP gestaltet und ein Prototyps exemplarisch für die Hololens erfahrbar umgesetzt.
Geoinformationssysteme mit Sprache steuern – eine erste Evaluation
Matthias Stein1, Morin Ostkamp1, Andreas Wytzisk2
1con terra GmbH, Germany; 2Hochschule Bochum, Germany
Durch die Verbreitung von Smartphones werden Informationen bzw. Dienste mit Raumbezug in web-basierten Geographischen Informationssystemen (Web-GIS) zunehmend auch mobil genutzt. Eine zentrale Komponente vieler Web-GIS ist die Steuerung der dargestellten Karteninhalte. Für diese Steuerung stellen sowohl die kleinen Bildschirme als auch die unterschiedlichen Erfahrungen und Anforderungen der meist heterogenen Benutzergruppen eine Herausforderung dar. Viele existierende Ansätze übernehmen die Prinzipien von Desktop-Anwendungen und erschweren dadurch oft eine effektive, effiziente und zufriedenstellende Arbeit auf mobilen Geräten.
Dieser Artikel stellt einen neuartigen Ansatz zur Steuerung von Karteninhalten für mobile Web-GIS durch ein Voice User Interface (VUI) vor. Die Ergebnisse der Evaluation anhand einer Benutzerstudie zeigen, dass dieser Ansatz die hedonische Qualität des mobilen Web-GIS steigert, während die pragmatische Qualität nahezu unverändert bleibt.
|