CeBit: Informatikvideoproduktion mit ZML-Team

  • Datum: 20.06.2017
  •  Das zentrale Thema am KIT-CeBit-Stand war in diesem Jahr die Digitalisierung in Gesellschaft und Wirtschaft. Das ZML-Filmteam aus Axel Fischer und Hiwis produzierte gemeinsam mit der Fakultät für Informatik Videos zu verschiedenen, am Stand präsentierten Informatik-Projekten bzw. – Ausgründungen. Die Videos zu den Projekten, die sich um ein besseres Textverständnis für Computer, Roboter unterstützende Sensoren, einen Höhenmesser für Gleitschirmflieger und um ein Eyetracking-Labor für Zuhause drehen, sind nun online. 

ThinksThinking – Computer lernen, Sprache besser zu verstehen

Die Ausgründung des KITs hat es sich zur Aufgabe gemacht, künstliche Intelligenz so zu verbessern, dass diese dem Computer sozusagen „common sense“ beibringen kann. Sprachkonzepte werden dadurch besser verstanden, verarbeitet und verwendet, Anforderungen (requirements) können stark optimiert werden. Somit sind zum Beispiel Mängel in technischen Dokumenten und mehrdeutige Formulierungen in Verträgen aufzuspüren. Eingesetzt werden kann diese Technologie im Industrie-4.0-Umfeld, bei Software-Herstellern und auch bei Beratungsunternehmen, in der Kundenpflege und dem Beschwerdemanagement.

>> Video

 

RüttelFlug – der ultimative Zusatz für Gleitflieger

Der Höhenmesser RüttelFlug informiert Gleitschirmflieger durch Vibrationsmuster über die Vertikalgeschwindigkeit: aktuelle Sink- und Steigraten werden während des Fluges per Armband an den Piloten weitergegeben. Das Flugerlebnis wird durch diesen smarten Variometer nicht gestört - aufdringliche Displays und Tonzeichen entfallen.

>> Video

 

Geschickte Maschinen – Bi-modaler Sensor für Industrieroboter

Die am KIT entwickelten Sensoren ergänzen etablierte Kamerasysteme, die bei der Robotersteuerung im Einsatz sind. Damit eröffnen sich ganz neue Möglichkeiten der Mensch-Maschine-Interaktion. Einer der vorgestellten Sensoren ist der TNS, ein kapazitiver taktiler Näherungssensor. Er macht sich die elektrische kapazitive Kopplung zunutze, um Objekte berührungslos zu erkennen und beim Zugreifen die Druckkraft des Griffes sensibel zu steuern. Am Stand konnten sich die Besucher die Funktionsweise dieser Sensoren am Beispiel einer Tele-Operation zeigen lassen.

>> Video

 

Eyezag – Eye-Tracking-Labor für zu Hause

Die Ausgründung des KITs entwickelt eine Technologie, mit der durch die Aufnahmen jeder handelsüblichen Webcam die genaue Blickposition auf dem Bildschirm berechnet werden kann. Das Nutzerverhalten lässt sich also direkt zu Hause mit dem Einverständnis des Nutzers authentisch aufzeichnen. Die Benutzeroberfläche ist so eingerichtet, dass weder Probanden noch Analysten spezielle Software oder Plugins installieren müssen – ein normaler Webbrowser öffnet den Weg ins virtuelle Eye-Tracking-Labor. Ein erstes Anwendungsfeld hat die Technologie in der Marktforschung gefunden.

>> Video

Das Filmteam bei der Arbeit