Demos

Im Rahmen der Mensch und Computer 2018 findet am Montagabend (3. Septepmber) eine große Demo-Session statt. Hierbei präsentieren sich interessante Projekte, Produkte oder Ideen. Spielerisch und praktisch können Besucher Hand anlegen.

Wir wünschen viel Spaß!

Man in Grey Dress Shirt Using Brown Cardboard Vr Glasses - Photo by mentatdgt from Pexels

Demos im Detail

  • DEMO-01: Interaktiver mechanischer Logik-Baustein
    Aussteller: Eberhard Engelhardt Sachsen–Staatliche Studienakademie Dresden Der vorliegende mechanische „Logik-Baustein“ ermöglicht eine anschauliche Erläuterung der 16 zweiwertigen logischen Grundfunktionen mit zwei Eingängen und einem Ausgang. Der Zusammenhang zwischen den Eingängen und dem Ausgang ist intuitiv ersichtlich. Der „Logik-Baustein“ lässt sich mit wenigen Handgriffen auf jede beliebige der 16 zweistelligen Junktoren der zweiwertigen Logik einstellen ohne die Lage der Eingänge und des Ausgangs zu verändern. Dazu werden die Aufschriften-Ringe der Eingänge und des Ausgangs in die gewünschte Lage gesteckt und die drei Zahnräder entsprechend der gewünschten Schaltung mit je einem Stift auf einer Position festgehalten oder freigegeben, so dass sie auf der Achse beweglich sind. Danach können die Eingänge nacheinander und einzeln in beliebiger Drehrichtung gedreht werden, bis der gewünschte Wert 0 oder 1 zu sehen ist. Dadurch wird der Ausgang durch die Mechanik entweder im Uhrzeigersinn oder entgegen des Uhrzeigersinns bewegt und der entsprechende Ausgangswert 0 oder 1 ist zu sehen. Die Anordnung der Eingänge und des Ausgangs des mechanischen Logik-Gatters entsprechen der Lage bei dem entsprechenden DIN-Symbol (DIN 40700, Juli 1976). Das erleichtert die Umsetzung von Schaltplänen mittels der vorliegenden technischen Lösung. Der universelle mechanische Logik-Baustein lässt sich sehr gut als Lern- und Lehrmittel für Informatik-Unterricht in Schulen einsetzen.
  • DEMO-02: VirtEx: Eine Ontologie-basierte Virtuelle Ausstellungen
    Interaktive Visualisierung multipler Handlungsstränge für Virtuelle Ausstellungen durch Ontologien Aussteller: Lars Engeln, Rainer Groh Professur für Mediengestaltung, Technische Universität Dresden Universitäten besitzen in ihren Technischen Sammlungen Objekte, die nicht nur aus historischer Sicht, sondern zu Teilen immer noch für Lehre und Forschung relevant sind. Häufig sind seltene, Domänen-spezifische Objekte nur in einer oder wenigen Sammlungen weltweit vorhanden. In der Regel besitzen Technische Sammlungen keine Dauerausstellungen oder geregelte Öffnungszeiten. Der Zugang zu den Objekten ist demnach lokal und zeitlich beschränkt. Durch Virtuelle Ausstellungen wird die Erreichbarkeit erhöht. Zugleich sollen Ontologien die Vernetzung und wissenschaftliche Auswertbarkeit steigern. Die Demo zeigt, wie direkt aus einer Ontologie, welche einen Sammlungsbestand beschreibt, eine Virtuelle Ausstellung erzeugt werden kann, welche den multiplen Kontext (Handlungsstränge) darstellt. Die diachronen Kontextsichten werden in einem Zooming User Interface durch einen dreidimensionalen Zeitstrahl visualisiert.
  • DEMO-03: Escape Room – Mitarbeitende für digitales Lernen begeistern
    Aussteller: Denise Gramß, Patricia Pillath, Corinna Schwozer Hochschule für angewandtes Management Hintergrund: Digitalisierung der Arbeitswelt verändert auch die Art des Lernens. E-Learning und andere digitale Lernformate werden immer beliebter. Dies bietet auch eine Chance für Mitarbeitende, die z.B. aus organisationalen Gegebenheiten nicht an traditionellen Weiterbildungen teilnehmen können. Allerdings sind für das digitale Lernen grundlegende digitale Kompetenzen bzw. Medienkompetenz unerlässlich. Gerade Mitarbeitende mit wenig oder gar keinen Erfahrungen im Umgang mit digitalen Medien müssen zunächst für diese befähigt werden. Dazu wurde im Projekt MeQ:ino – Medienqualifizierung: individuell und organisational ein Dreiklang aus Begeistern, Befähigen und Beteiligen entwickelt. Um Mitarbeitende im ersten Schritt für das digitale Lernen zu begeistern und Vorbehalte oder Ängste abzubauen, nutzen wir im Projekt einen Escape Room. Escape Room: Der Escape Room ist ein real-life Szenario mit 5 bis 7 Teilnehmer, die in 45 Minuten vier Aufgaben lösen müssen. Im Spiel befinden sich die Teilnehmer in der Zukunft in Quarantäne und müssen ihre digitalen Fähigkeiten unter Beweis stellen. Alle Aufgaben können nur mit Hilfe dieser verschiedenen technischen Geräte und den darauf verfügbaren digitalen Anwendungen bzw. Apps gelöst werden. Dabei sind die Aufgaben vielfältig gestaltet, um möglichst verschiedene Anwendungsmöglichkeiten aufzuzeigen. Probieren Sie aus! Im Rahmen der Mensch und Computer 2018 können Sie nun selbst eine Kurzform des Escape Rooms erleben. Probieren Sie in der interaktiven Demo den Escape Room aus. Begeben Sie sich auf eine Reise in die Zukunft und lösen Sie ausgewählte Rätsel. Stellen Sie Ihre eigenen digitalen Kompetenzen unter Beweis! YouTube Video: https://youtu.be/4S4nRnDEjHo
  • DEMO-04: Test-Setup zur Beobachtung und Aufzeichnung von VR-Usability-Tests
    Aussteller: Marianne Andres, Holger Ziekow, Kay-Uwe Zimmermann Fakultät Wirtschaftsinformatik, Hochschule Furtwangen Beim klassischen Usability-Testing wird viel Wert auf die Beobachtung von Nutzerverhalten gelegt. Bei der Verwendung von VR-Technik ist der Nutzer jedoch abgeschottet und für die Beobachtung steht standardmäßig nur eine Ansicht aus der VR zur Verfügung. In Unserem Test-Setup kann zwischen vier Ansichten gewählt werden. Einer effektiven Nutzersicht (VR), einer Beobachteransicht die dem Nutzer in der VR in festgelegtem Abstand folgt, einer Drohnenansicht bei der eine Kamera in der VR über den Beobachtungsraum gesteuert werden kann und einer Ansicht der realen Umgebung. Alle Ansichten können über einen Split-Screen aus 4 Monitoren aufgezeichnet werden. Im Beobachtungsraum können über Tastendruck alle Ansichten dargestellt werden. Eine Darstellung von Log-Daten wie z. B. der Head-Mounted-Display Bewegungen ist ebenfalls möglich. Bei der Demo vor Ort werden wir einen kleinen VR-Usability-Test simulieren. Besucher können die VR-Brille als Proband testen und/oder das Test-Setup in Aktion erleben und nutzen. Wir würden die einzelnen Features erklären und erhoffen uns eine lebhafte Diskussion über Anwendungsmöglichkeiten und potentielle Verbesserungen. YouTube Video: https://youtu.be/revQ7Yz_Gfc
  • DEMO-05: Exploring Big Data Landscapes with a Glyph-based Zoomable User Interface
    Aussteller: Dietrich Kammer, Mandy Keck, Thomas Gründer Technische Universität Dresden Wie können hochdimensionale Datensätze bei der Erstellung von Clustern und Klassifikationen effektiv durchsucht werden? Wie können Datenanalysten ihre Hypothesen überprüfen und verschiedene Parameter ihrer Algorithmen untersuchen und vergleichen? Diesen Fragestellungen widmet sich die gezeigte zoombare Benutzungsschnittstelle, wobei Glyphen zur Visualisierung der Dateneigenschaften verwendet werden. Der Ansatz wird erläutert und anhand verschiedener Datensätze aus den Bereichen E-Commerce, Content Observation und Medizin vorgeführt. Besucher können dann selbst mit dem System interagieren. Obwohl es sich um ein Expertensystem handelt, ist diese Anwendung auch durch IT-Laien besonders leicht nachvollziehbar und bedienbar. Das System basiert auf einer Landschaftsmetapher (Big Data Landscape), wobei die Daten zunächst durch Punkte in zwei Dimensionen dargestellt werden. Zu diesem Zweck werden verschiedene Verfahren der Dimensionsreduktion verwendet, die durch das Interface auch für einen Datensatz in einem Splitscreen verglichen werden können. Durch Zoomen in interessante Cluster verändert sich die Darstellung der Punkte hin zu Glyphen. Glyphen sind kleine, unabhängige visuelle Objekte, die Dateneigenschaften auf grafische Elemente abbilden. Dadurch entstehen beispielsweise Stern- oder Blumenglyphen, welche die menschlichen Fähigkeiten zur Mustererkennung ansprechen. Dadurch können Ähnlichkeiten oder Abweichungen zwischen Datenpunkten schnell erkannt werden. Durch verschiedene weitere Interaktionsmöglichkeiten, wie das Filtern nach bestimmten Eigenschaften, können die typischen Aufgaben eines Datenanalysten durch den Prototyp unterstützt werden. Dazu zählt die Untersuchung unterschiedlicher Dimensionsreduzierungsverfahren sowie von Clustern und Dateneigenschaften. Darüber hinaus dienen Tooltips für die detaillierte Analyse einzelner Datenpunkte in einem Cluster. Ein erweiterbares JSON-Austauschformat erlaubt darüber hinaus die Festlegung geeigneter Parameter für verschiedene Berechnungsvorschriften. Darüber ist auch ein Vergleich unterschiedlicher Verarbeitungsprozesse der Daten möglich. YouTube Video: https://youtu.be/_i09AIlncKQ
  • DEMO-06: Kriegskinder: Einsatz von Augmented Reality für dokumentarische Inhalte
    Aussteller: Christian Zimmer, Nanette Ratz, Michael Bertram, Christian Geiger Mixed Reality und Visualisierung, Hochschule Düsseldorf Das Augmented Reality Projekt „Kriegskinder“ ermöglicht es Kriegsüberlebenden aus drei Ländern, ihre persönliche Geschichte weiterzugeben. Durch ein Tablett betrachtet sitzen drei Zeitzeuginnen im realen Raum des Nutzers, und schildern ihre Eindrücke als Kind während des zweiten Weltkriegs. Zusätzlich illustrieren digitale Inhalte die einzelnen Geschichten. Erzählung und augmentierte Zusatzelemente verschmelzen dabei und bilden eine bleibende Erinnerung des Erzählten. So kann der Nutzer beispielsweise miterleben, wie Funken durch sein eigenes Wohnzimmer fliegen und sich dieses mit dichtem Rauch füllt. Bomber aus der jeweiligen Zeit fliegen durch die Umgebung des Nutzers und er findet sich zusammen mit der Zeitzeugin in einer Winterlandschaft innerhalb Russlands wieder. Jeder augmentierte Inhalt ist dabei auf die Erzählung angepasst. Es wurde jeweils eine Zeitzeugin aus Russland, Deutschland und England interviewt und besonders eindrucksvolle Erinnerungen für die Augmented Reality Dokumentation ausgewählt. Die Anwendung ist in den drei Landessprachen deutsch, englisch und russisch verfügbar. Zielgruppe sind Personen, die sich grundsätzlich für die Thematik Kinder im zweiten Weltkrieg oder Kriegsschicksale im Allgemeinen interessieren. Auch Personen, die sich für die Aufbereitung dokumentarischer Inhalte mit neuen Technologien interessieren, sollen neugierig gemacht werden. Video: https://bit.ly/2Im23wB
  • DEMO-07: Real Walking in Virtual Spaces: Visiting the Aachen Cathedral
    Aussteller: Patric Schmitz, Leif Kobbelt Visual Computing Institute, RWTH Aachen University Real walking is the most natural and intuitive way to navigate the world around us. In Virtual Reality, the limited tracking area of commercially available systems typically does not match the size of the virtual environment we wish to explore. Spatial compression methods enable the user to walk further in the virtual environment than the real tracking bounds permit. This demo gives a glimpse into our ongoing research on spatial compression in VR. Visitors can walk through a realistic model of the Aachen Cathedral within a room-sized tracking area.
  • DEMO-08: Fluid Sketching: Bringing Ebru Art into VR
    Aussteller: Sevinc Eroglu, Benjamin Weyers, Torsten W. Kuhlen Visual Computing Institute, RWTH Aachen University In this interactive demo, we present Fluid Sketching as an innovative virtual reality application, which is highly inspired by traditional marbling art. By using a particle-based simulation combined with natural, spatial, and multi-modal interaction techniques, we create and extend the original artwork to build a comprehensive interactive experience. With the interactive demo of Fluid Sketching during Mensch und Computer 2018, we aim at increasing the awareness of paper marbling as a traditional type of art and demonstrating the potential of virtual reality as an innovative digital and artistic medium. Video: https://drive.google.com/file/d/15_XTw7t2fDLGudWHTDj1UEK3n_Jh9Arg/view
  • DEMO-09: Glass Panel Displays with Addressable LEDs
    Aussteller: Alexander Carôt¹, Stephan Ebeling1, Christian Hoene², Peter Platz³, Herve Loridan³ ¹ Fachbereich Informatik und Sprachen, Hochschule Anhalt ² Symonics GmbH ³ Peter Platz Spezialglas GmbH Driven by the vision of creating a low-latency display for remote orchestra conductors we developed and manufactured a transparent glass panel, which contains individually controllable LEDs. The glass panels are covered with thin film of indium tin oxide (ITO), which makes the glass conductible. A laser mills conductive paths. Finally, addressable LEDs are mounted on the glass. The main problem we addressed is the sheet resistance of ITO, which is at least 5 Ω / square (PGO, 2018). A typical PCB has a resistance 10,000 times lower. We have overcome this hurdle by optimizing layout, selecting appropriated LEDs, and including control logic. Our glass panels are controllable via WLAN, need only a DC power supply. In our demo one glass panel will be connected to the output of an Optitrack S250e IR-tracking camera. This setup allows people to use a baton in front of our camera, while their movements are displayed on the LED matrix with a perceivably minimal amount of latency.
  • DEMO-10: Brelomate: Eine digitale Plattform zur Förderung sozialer Teilhabe
    Aussteller: Gernot Rottermanner, Peter Judmaier, Shadja El Aeraky, Christian Gradl, Sabine Sommer Institut für Creative\Media/Technologies, Fachhochschule St. Pölten Brelomate ist eine Kommunikations- und Spieleplattform mit dem Ziel, die soziale Teilhabe älterer Menschen zu fördern. Für die Nutzung von Brelomate ist lediglich ein Fernseher zur Darstellung, ein Tablet zur Steuerung, sowie eine Webcam und eine Internetanbindung notwendig. Es ist möglich, mit anderen Brelomate-NutzerInnen das Kartenspiel „Schnapsen“ (oder „Sechsundsechzig“) zu spielen und miteinander per Videotelefonie zu plaudern. Auf der Konferenz wird das System als Demo in einem wohnzimmer-ähnlichen Setting aufgebaut. Sitzmöglichkeiten laden BesucherInnen ein, die Brelomate-Anwendung mit den Applikationen Plaudern und Schnapsen interaktiv auszuprobieren, da eine Person während der Demo als Gesprächs- und Spielpartnerin zur Verfügung steht. Außerdem können die ForscherInnen Einblicke in die Forschungsaktivitäten im Bereich Ambient Assisted Living an der Fachhochschule St. Pölten geben und Erfahrungen im Bereich des Participatory Designs mit SeniorInnen austauschen. YouTube Video: https://youtu.be/iv1gdoPlcEg
  • DEMO-11: DotTrack: absolute und relative Ortsbestimmung von Tangibles mittels eines Maussensors
    Aussteller: Dennis Schüsselbauer, Andreas Schmid, Raphael Wimmer, Laurin Muth Universität Regensburg Tangible User Interfaces (TUIs) integrieren oft physische Objekte, deren Positionierung oder Positionsveränderung durch den Nutzer zur Interaktion verwendet wird. DotTrack ist ein Tracking-Verfahren, das absolute Ortsbestimmung und Tracking der Position von Tangibles ohne externe Infrastruktur erlaubt. Der Prototyp verwendet dazu einen kommerziellen Maussensor, der nicht nur die Translation misst, sondern auch ein Kamerabild des Untergrunds liefert. Ein eindeutiges Punktmuster auf dem Untergrund erlaubt es, die absolute Position des Prototypen zu bestimmen. Im momentanen Entwicklungsstand sind rudimentäre absolute Ortsbestimmung, Positionstracking und mehrere Anwendungsbeispiele für das System implementiert. YouTube Video: https://youtu.be/I58VlBc06nA
  • DEMO-12: Blinde Montagsmaler – Bilderraten auf einem taktilen Display
    Aussteller: Jens Bornschein, Denise Bornschein, Gerhard Weber Technische Universität Dresden Mit dem spielerischen Aufbau “blinde Montagsmaler” wird eine kollaborative Zeichenanwendung zur Erstellung taktiler Grafiken präsentiert. Ein dynamisch taktiles Flächendisplay bietet dabei die Möglichkeit, in Echtzeit die Zeichenanwendung LibreOffice DRAW zu beobachten und einen taktilen Eindruck über die gerade entstehende Grafik zu erlangen. Darüber hinaus stehen für den Nutzer des taktilen Interfaces zahlreiche Möglichkeiten zum Erstellen und Bearbeiten von Grafikelementen zur Verfügung. Im Rahmen der Demonstration können sich ein GUI Nutzer und ein Spieler mit verbundenen Augen gegenseitig Bilderrätsel oder Formen zuspielen und dabei ihr taktiles Können unter Beweis stellen sowie ein besseres Verständnis für die Herausforderungen sehbehinderter Nutzer im Umgang mit grafischen Inhalten erlangen. YouTube Video: https://youtu.be/jMx2VKPuAAY
  • DEMO-13: inSIDE Fair Dialogues: Assessing and Maintaining Fairness in Human-Computer-Interaction
    Aussteller: Sabine Janzen¹, Ralf Bleymehl², Aftab Alam², Sascha Xu¹, Hannah Stein² ¹ Deutsches Forschungszentrum für Künstliche Intelligenz ² Information and Service Systems, Saarland University For simulating human-like intelligence in dialogue systems, individual and partially conflicting motives of participants have to be processed in dialogue planning. Little attention has been given to this topic in dialogue planning in contrast to dialogues that are fully aligned with anticipated user motives. When considering dialogues with congruent and incongruent participant motives like sales dialogues, dialogue systems need to find a balance between competition and cooperation. As a means for balancing such mixed motives in dialogues, we adopt the concept of fairness defined as combination of fairness state and fairness maintenance process. Focusing on dialogues between human and robot, we show the application of the SatIsficing Dialogue Engine (inSIDE) – a platform for assessing and maintaining fairness in dialogues that combines a mixed motive model with a game-theoretical equilibrium approach. Our demo shows the application of inSIDE platform for realizing sales dialogues between customers and a service robot in a retail store. Both, customer and robot, have different motives for participating in the sales dialogue, e.g., searching for the best price or increasing revenue. Nonetheless, empowered by inSIDE the robot has the ability to find a balance between selfishness, i.e. pursuing individual motives, and fair play, i.e. responding to anticipated motives of the customer for creating a dialogue perceived as fair. Main issues of the demo are: (1) assessing and maintaining fairness in dialogues with mixed motives in human-robot-interaction by means of inSIDE; (2) proactive behavior by robot as well as spatial guiding of customer when required in interaction. YouTube Video: https://youtu.be/rSXv3OjxMtA
  • DEMO-14: Haptic Human-Robot Interfaces on Guide Robots for Visually Impaired People
    Aussteller: Limin Zeng, Alexander Pitkin, Björn Einert Human-Computer Interaction Chair, Technische Universität Dresden We present two different haptic and intelligent guide robots for people with visual impairments. One guide robot has a haptic rein which would sense and interactive with users’ grasp force, while the other one does not have a haptic rein, but equipped with a wireless tactile belt to receive navigation instructions. YouTube Video: https://youtu.be/ban8oUrfOF8
  • DEMO-15: AR-PORT – Augmented Reality im Alltag am Beispiel Flugreise
    Aussteller: Yijian Lan, Alexander Kübler HfG Schwäbisch Gmünd Wir stellen uns vor, dass wir zukünftig die Welt um uns herum auf eine andere Art und Weise steuern und wahrnehmen werden. Mixed Reality Brillen werden die neuen Smartphones und unsere heutige Handynutzung wird uns alt und unpraktisch vorkommen. Smartphones sind für viele Szenarien einfach nicht praktisch genug und schränken uns oftmals ein. Genau hier bietet AR-Port vielversprechende Einblicke und Erwartungen. Im Mittelpunkt von AR-Port steht die Technik „Augmented Reality“ und dessen zukünftige Integration in unseren Alltag. Unter Augmented Reality, auch „AR“ genannt, versteht man die erweiterte Wirklichkeit/Realität. Hierbei werden zwei- oder auch dreidimensionale Informationen und Elemente über ein Display in die reale Umgebung eingebunden. Die auf der Microsoft Hololens erfahrbare Augmented Reality-Demo bezieht sich auf die Navigation und Orientierung innerhalb von Flughäfen. In der Applikation befindet sich der Benutzer innerhalb eines internationalen Flughafenszenarios, welches sich nach den Sicherheitskontrollen abspielt. Über vordefinierte Handgesten lassen sich verschiedene Menüpunkte der AR-Anwendung öffnen und schließen. Wichtige digitale Informationen richten sich in Echtzeit an die Position und die Blickrichtung des Benutzers aus. Weiterhin kann der Nutzer mit einer dreidimensionalen Flughafenkarte interagieren und diese beispielsweise drehen, skalieren und bewegen. Bei der Bedienung der Karte lassen sich zudem Gebäude anwählen, über welche Informationen abgerufen werden können. Das Anlegen von Navigationsrouten gehört ebenfalls zur Karteninteraktion. Zusätzlich bietet die Demo einen eingebauten Sprachassistenten, über welchen sich schneller und gezielter Informationen abrufen und aktivieren lassen
  • DEMO-16: Real World VR Proxies to Support Blind People in Mobility Training
    Aussteller: Kreimeier, Julian1,2, Götzelmann, Timo¹ ¹ Nuremberg Institute of Technology ² Technische Universität Dresden, Institute of Applied Computer Science Mobility training is an essential part of blind people’s education in order to move in public spaces. In order to safely learn new routes in public space, however, a seeing trainer must assist the blind person. With the increasing availability of VR hardware, it is possible to transfer real spatial environments to virtual representations. The digitized environments can be used as a basis for this training without safety problems by real world hazards. This allows to cope with the limited resources of sighted assistants and enables blind people to become more independent. We propose to capture real public spaces (such as sidewalks, train stations etc.) and make them in this way ascertainable. Orientation and mobility can be trained in this digital model via multimodal sensory feedback while involving intuitive locomotion and white cane exploration. In our demo, you can have a walk in such a virtual environment and explore it both visually and non-visually. You can experience firsthand how difficult it can be for blind people to explore unknown rooms and what benefits VR technology can offer to learn these in advance. Take 5-10 minutes of time, drop by, and give it a try. YouTube Video: https://youtu.be/IPF9UI4PQc8
  • DEMO-17: „Hallo, map.apps!“ – Geoinformationssysteme mit Sprache steuern
    Aussteller: Matthias Stein¹, Morin Ostkamp¹, Andreas Wytzisk² ¹ con terra GmbH ² Hochschule Bochum Durch die Verbreitung von Smartphones werden Informationen bzw. Dienste mit Raumbezug in webbasierten Geoinformationssystemen (Web-GIS) zunehmend auch mobil genutzt. Eine zentrale Komponente vieler Web-GIS ist die Steuerung der dargestellten Karteninhalte. Für diese Steuerung stellen sowohl die kleinen Bildschirme als auch die unterschiedlichen Erfahrungen und Anforderungen der meist heterogenen Benutzergruppen eine Herausforderung dar. Viele existierende Ansätze übernehmen die Prinzipien von Desktop-Anwendungen und erschweren dadurch oft eine effektive, effiziente und zufriedenstellende Arbeit auf mobilen Geräten. Diese Demo zeigt einen neuartigen Ansatz zur Steuerung von Karteninhalten für mobile Web-GIS durch ein Voice User Interface (VUI). Durch den Einsatz einer Künstlichen Intelligenz (KI) können Sie mit dem Web-GIS in Kontakt treten und in einem nahezu natürlichen Gespräch typische Aufgaben erledigen – ebenso beantwortet die KI Fragen zu ihrer Softwarearchitektur und Umsetzung. Die Demo zeigt exemplarisch einen touristischen Anwendungsfall: Sie nehmen an der Mensch-und-Computer-Konferenz teil und sind deshalb zum ersten Mal in Dresden. Im Vorfeld Ihrer Reise können Sie nun per Sprache Informationen über die Stadt und das Wetter, aber auch über Unterkünfte, Restaurants und Sehenswürdigkeiten erhalten. Mit Hilfe üblicher GIS-Funktionen, wie bspw. das Ein- und Ausschalten von Karteninhalten oder Zoomen, können Sie so die Stadt erkunden. Dabei werden einige Vorteile der Interaktion mit räumlichen Daten per Sprache deutlich, z.B. hinsichtlich der Barrierearmut oder der Zugänglichkeit für GIS-Einsteiger. YouTube Video: https://youtu.be/okUzHlup10o
  • DEMO-18: Räumliches Durchsuchen von Repositorien historischer Fotografien
    Aussteller: Jonas Bruschke, Florian Niebling Lehrstuhl für Mensch-Computer-Interaktion, Universität Würzburg Historische Bilddokumente bilden eine wichtige Datenbasis für Forscher in den Digital Humanities (DH). Speziell Kunst- und Architekturhistoriker sind auf historische Fotografien angewiesen, die in Online-Medienrepositorien zur Verfügung gestellt werden. Die Suche nach diesen Bildern basiert im Allgemeinen auf Metadaten. Diese sind häufig unvollständig, ungenau oder falsch, wodurch sich eine Suche erschwert. In diesem Demonstrator präsentieren wir die Möglichkeiten einer ortsbasierten Durchsuchung historischer Abbildungen von Stadtarchitektur, basierend auf der räumlichen Verortung von Bilddokumenten mittels photogrammetrischer Algorithmen. Durch die vorgestellten Methoden einer interaktiven räumlichen Darstellung und Exploration historischer Bildbestände bieten sich neue Möglichkeiten geschichtswissenschaftliche Fragestellungen zu beantworten. Besucher des Demonstrators können orts- oder gebäudebezogen anhand eines 3D Modells Teile der Dresdner Altstadt frei erkunden. Um einen Einblick in die Nutzungsszenarien der Zielgruppe zu bekommen, werden den Besuchern drei Aufgaben gestellt. Diese beinhalten das Finden einer Gebäudeperspektive anhand einer vorgegebenen historischen Fotografie, den Vergleich von Abbildungshäufigkeiten verschiedener Gebäudeteile, sowie den Vergleich historischer Fotografien zur Identifikation städtebaulicher Veränderungen. Die Besucher sind angehalten, Feedback zu geben und ihr Vorgehen zu kommentieren. YouTube Video: https://youtu.be/8ZdHvNvpF1Y
  • DEMO-19: Interaktives Erleben und Erlernen von Ergonomie mit ErgoCAM
    Aussteller: Laura Johnen1, Oliver Brunner1, Tobias Hellig1, Verena Nitsch1, Alexander Mertens1,2, Christopher Brandl1,2 ¹ Lehrstuhl und Institut für Arbeitswissenschaft, RWTH Aachen ² Aachen Consulting for Applied Industrial Engineering and Ergonomics UG Zur Prävention von Muskel-Skelett-Erkrankungen kommt der ergonomiegerechten Gestaltung menschlicher Tätigkeiten und Bewegungen eine wichtige Bedeutung zu. Häufig können wissenschaftliche Analysemethoden aber nur von Experten angewendet und nutzbar gemacht werden. Zur nachhaltigen Verbesserung der Ergonomie in allen Lebensbereichen sollten jedoch auch Personen ohne Fachkenntnisse in der Lage sein, beispielsweise Ergebnisse von Belastungsbewertungen zu verstehen und damit ein Bewusstsein für die ergonomiegerechte Gestaltung auch alltäglicher Bewegungen und Tätigkeiten zu erhalten. Der im Rahmen des Wissenschaftsjahres 2018 „Arbeitswelten der Zukunft“ ausgezeichnete Demonstrator ErgoCAM ermöglicht insbesondere nicht fachlich vorgebildeten Personen das interaktive Erlernen und Umsetzen wissenschaftlicher Methoden zur ergonomischen Verbesserung alltäglicher Bewegungen und Tätigkeiten. Hierzu agieren die Teilnehmenden mit ErgoCAM und führen eigenständig die Aufgabe der ergonomiegerechten Arbeitsgestaltung aus: Zunächst werden die Auswirkungen von Arbeitsbedingungen durch ErgoCAM analysiert und visualisiert. Bei der Entwicklung von Verbesserungsmaßnahmen werden die Teilnehmer von ErgoCAM unterstützt ehe die Wirksamkeit der Verbesserung schließlich von den Teilnehmern selbst erlebt und durch ErgoCAM bestätigt wird. Durch die direkte Rückmeldung von ErgoCAM erlernen die Teilnehmer ergonomisch verbesserte Bewegungsausführungen und Möglichkeiten zur ergonomischen Verbesserung von Arbeitsbedingungen. Um sicherzustellen, dass das zu erwerbende Wissen eine möglichst große Relevanz hat, werden die Teilaufgaben der Analyse am Beispiel allgemein bekannter Alltagstätigkeiten durchgeführt. Durch die Auswahl von konkreten und häufig ausgeführten Tätigkeiten wird die praktische Anwendbarkeit des Erlernten gewährleistet. Zusätzlich werden die Teilnehmer für die zukünftige ergonomiegerechte Gestaltung von Bewegungen und Tätigkeiten in allen Lebensbereichen befähigt.
  • DEMO-20: Walking on Sunshine – Dynamische Wetterparameter in Outdoor VR
    Aussteller: Laurin Gerhardt, Marcel Tiator, Mitja Säger, Christian Geiger Hochschule Düsseldorf The user experience in a vr application that takes place in an outdoor virtual environment (OVE) depends on the level of presence during the interaction with the system. If an OVE is experienced indoors, the weather parameter can only be simulated. In contrast to that, the immersion of a system increases if an application is experienced outdoors, i. e. circumstances of the real environment are mapped in the virtual world. This paper describes the implementation of a demonstrator in order to investigate the influence of real weather on the perceived presence in an outdoor scenario against its influence on an indoor scenario with simulated weather. In order to achive greater mobility, an hmd with inside-out tracking is combined with a backpack pc. Thus, the user can experience a large OVE outdoors on foot. Video: https://vimeo.com/279417314 WalkingOnSunshine from Christian Geiger, XP Lab on Vimeo. Outside Virtual Reality Music by Jahzzar – Siesta, http://freemusicarchive.org/music/Jahzzar/Travellers_Guide/Siesta