Gesture Based Computing
Im Online-Event mit Ulrike Lucke (Universität Potsdam) im Rahmen des OPCO12 ging es um das Potenzial von gestenbasieren Anwendungen für die Lehre. Welche unterschiedlichen Szenarien sind in verschiedenen Bildungsbereichen denkbar? Worin bestehen die Chancen und auch die Grenzen?
21.06.2012, 17:00 Uhr
Wisch- und andere Finger-, Arm- und Körperbewegungen zur Steuerung von Anwendungen ist für viele Smartphone und Tabletnutzer schon zum Alltag geworden. Ziel von gestenbasierten Anwendungen ist, "eine Minimalschnittstelle und ein Erlebnis der direkten Interaktion zu erzeugen, so dass in der Wahrnehmung Hand und Körper selbst zu Eingabegeräten werden" (Horizon Report, Dt. Ausgabe, S. 31). Neben der Eingabe durch Bewegungen hebt der Horizon Report die Konvergenz "von gestensensibler Technologie mit Stimmerkennung" hervor, "die es möglich macht, dass, wie bei der menschlichen Kommunikation, sowohl Geste als auch Stimme die Intentionen des Nutzers an das Gerät kommunizieren."
Zu Gast am Online-Event ist Prof. Ulrike Lucke, Informatik-Professorin und Inhaberin des Lehrstuhls für Komplexe Multimediale Anwendungsarchitekturen an der Universität Potsdam. Ihre Forschungsinteressen liegen in der Heterogenität und Interoperabilität netzbasierter Architekturen, einschließlich Mobile und Pervasive Computing, insbesondere im Anwendungsgebiet E-Learning. Zudem ist sie als Chief Information Officer (CIO) der Universität Potsdam für deren strategische IT-Ausrichtung verantwortlich. Zur Zeit leitet sie u.a. eine zentrale E-Learning-Initiative, um die Nutzung digitaler Medien durch technische, Organisations- und Materialentwicklung nachhaltig in der Breite der Hochschule zu verankern. Neben anderen Positionen in Fachgremien ist sie u.a. Sprecherin der Fachgruppe E-Learning in der Gesellschaft für Informatik (GI).
Die Folien von Prof. Ulrike Lucke zum Online-Event finden Sie hier zum Download (PDF).