Navigation und Service

Computer Vision

Ansprechpartner: Hanno Scharr

Scene flow from dynamic Light Fields

Die Arbeitsgruppe Computer Vision forscht an Theorie und Algorithmen für die Analyse bildhafter Daten. Dies umfasst Imaging, Computer Vision, Visual-Data Analytics und Bildverarbeitung, mit einem Schwerpunkt auf diskreten Daten auf mehrdimensionalen Rastern. Dies können übliche 2d-Bilder von Standardkameras, volumetrische Daten (3d), Video (2d+t), hyper-spektrale Bilder (2d+s) sein, aber auch Oberflächen in 3d (2,5d) oder Punktwolken umfassen. Computer Vision und Bildverarbeitung umfassen Methoden vom pixelbasierten "Low-Level-Vision", über objektbasiertes "Mid-Level-Vision" bis hin zum szenenbasierten "High-Level-Vision".

Deep Learning (DL) ist eine der prominentesten Facetten des Maschinellen Lernens (ML), das sich wiederum auf datengetriebene, statistische Methoden der Künstlichen Intelligenz (KI) bezieht. DL bezieht sich auf Lernmethoden, die mit sogenannten tiefen neuronalen Netzen (DNN) umgesetzt werden. Datengetriebene Methoden funktionieren besonders gut, wenn sehr große Datenmengen (Big Data) zur Beschreibung des zu lösenden Problems zur Verfügung stehen. Sehr große Datensätze erfordern wiederum große Rechenressourcen (High Performance Computing, HPC).

Die Arbeitsgruppe Computer Vision macht sich Methoden des maschinellen Lernens zunutze, entwickelt sie weiter und bringt sie in die Anwendung. Sie addressiert methodisch jedoch mehr als ML für gerasterte Daten. Computer Vision, Visual-Data Analytics und Bildverarbeitung umfassen auch die Datenmodellierung und die damit verbundene Inferenz von Modellparametern, nutzen Simulationsmethoden zur Datengenerierung und können auch auf kleinste Datensätze angewendet werden, wenn Domänenwissen zur Datenmodellierung vorhanden ist. Sie sind also nicht nur "Big Data", sondern "All Data", nicht nur "Learning", sondern auch "Inference", nicht nur "HPC", sondern können auch auf kleinste Rechnerressourcen abzielen, derzeit oft Smartphones, meist aber Desktop-PCs oder Workstations. Doch selbst wenn Lösungen für die kleinsten Rechner gefunden werden sollen, sind für deren Entwicklung meist skalierbare Lern- und Simulationsmethoden auf Supercomputern unerlässlich.