Springe zum Hauptinhalt
Universitätsbibliothek
Universitätsbibliographie

Eintrag in der Universitätsbibliographie der TU Chemnitz


Roschke, Christian
Eibl, Maximilian (Prof.Dr.) ; Ritter, Marc (Prof.Dr.)

Generische Verkettung maschineller Ansätze der Bilderkennung durch Wissenstransfer in verteilten Systemen : Am Beispiel der Aufgabengebiete INS und ACTEv der Evaluationskampagne TRECVid

Generic composition of machine learning approaches in the image recognition domain by knowledge transfer in distributed systems : Using the example of the INS and ACTEv tasks at the TRECVid evaluation campaign


Kurzfassung in deutsch

Der technologische Fortschritt im Bereich multimedialer Sensorik und zugehörigen Methoden zur Datenaufzeichnung, Datenhaltung und -verarbeitung führt im Big Data-Umfeld zu immensen Datenbeständen in Mediatheken und Wissensmanagementsystemen. Zugrundliegende State of the Art-Verarbeitungsalgorithmen werden oftmals problemorientiert entwickelt. Aufgrund der enormen Datenmengen lassen sich nur bedingt zuverlässig Rückschlüsse auf Güte und Anwendbarkeit ziehen. So gestaltet sich auch die intellektuelle Erschließung von großen Korpora schwierig, da die Datenmenge für valide Aussagen nahezu vollumfänglich semi-intellektuell zu prüfen wäre, was spezifisches Fachwissen aus der zugrundeliegenden Datendomäne ebenso voraussetzt wie zugehöriges Verständnis für Datenhandling und Klassifikationsprozesse. Ferner gehen damit gesonderte Anforderungen an Hard- und Software einher, welche in der Regel suboptimal skalieren, da diese zumeist auf Multi-Kern-Rechnern entwickelt und ausgeführt werden, ohne dabei eine notwendige Verteilung vorzusehen. Folglich fehlen Mechanismen, um die Übertragbarkeit der Verfahren auf andere Anwendungsdomänen zu gewährleisten. Die vorliegende Arbeit nimmt sich diesen Herausforderungen an und fokussiert auf die Konzeptionierung und Entwicklung einer verteilten holistischen Infrastruktur, die die automatisierte Verarbeitung multimedialer Daten im Sinne der Merkmalsextraktion, Datenfusion und Metadatensuche innerhalb eines homogenen Systems ermöglicht.
Der Fokus der vorliegenden Arbeit liegt in der Konzeptionierung und Entwicklung einer verteilten holistischen Infrastruktur, die die automatisierte Verarbeitung multimedialer Daten im Sinne der Merkmalsextraktion, Datenfusion und Metadatensuche innerhalb eines homogenen aber zugleich verteilten Systems ermöglicht. Dabei sind Ansätze aus den Domänen des Maschinellen Lernens, der Verteilten Systeme, des Datenmanagements und der Virtualisierung zielführend miteinander zu verknüpfen, um auf große Datenmengen angewendet, evaluiert und optimiert werden zu können. Diesbezüglich sind insbesondere aktuelle Technologien und Frameworks zur Detektion von Mustern zu analysieren und einer Leistungsbewertung zu unterziehen, so dass ein Kriterienkatalog ableitbar ist. Die so ermittelten Kriterien bilden die Grundlage für eine Anforderungsanalyse und die Konzeptionierung der notwendigen Infrastruktur. Diese Architektur bildet die Grundlage für Experimente im Big Data-Umfeld in kontextspezifischen Anwendungsfällen aus wissenschaftlichen Evaluationskampagnen, wie beispielsweise TRECVid. Hierzu wird die generische Applizierbarkeit in den beiden Aufgabenfeldern Instance Search und Activity in Extended Videos eruiert.

Kurzfassung in englisch

Technological advances in the field of multimedia sensing and related methods for data acquisition, storage, and processing are leading to immense amounts of data in media libraries and knowledge management systems in the Big Data environment. The underlying modern processing algorithms are often developed in a problem-oriented manner. Due to the enormous amounts of data, reliable statements about quality and applicability can only be made to a limited extent. Thus, the intellectual exploitation of large corpora is also difficult, as the data volume would have to be analyzed for valid statements, which requires specific expertise from the underlying data domain as well as a corresponding understanding of data handling and classification processes. In addition, there are separate requirements for hardware and software, which usually scale in a suboptimal manner while being developed and executed on multicore computers without provision for the required distribution. Consequently, there is a lack of mechanisms to ensure the transferability of the methods to other application domains.
The focus of this work is the design and development of a distributed holistic infrastructure that enables the automated processing of multimedia data in terms of feature extraction, data fusion, and metadata search within a homogeneous and simultaneously distributed system. In this context, approaches from the areas of machine learning, distributed systems, data management, and virtualization are combined in order to be applicable on to large data sets followed by evaluation and optimization procedures. In particular, current technologies and frameworks for pattern recognition are to be analyzed and subjected to a performance evaluation so that a catalog of criteria can be derived. The criteria identified in this way form the basis for a requirements analysis and the conceptual design of the infrastructure required. This architecture builds the base for experiments in the Big Data environment in context-specific use cases from scientific evaluation campaigns, such as TRECVid. For this purpose, the generic applicability in the two task areas Instance Search and Activity in Extended Videos is elicited.

Universität: Technische Universität Chemnitz
Institut: Professur Medieninformatik
Fakultät: Fakultät für Informatik
Dokumentart: Dissertation
Betreuer: Eibl, Maximilian (Prof. Dr.) ; Ritter, Marc (Prof. Dr.)
ISBN/ISSN: 978-3-96100-142-2
URL/URN: https://nbn-resolving.org/urn:nbn:de:bsz:ch1-qucosa2-760783
Quelle: Chemnitz : Universitätsverlag der Technischen Universität Chemnitz, 2021. - 406 S. - Wissenschaftliche Schriftenreihe Dissertationen der Medieninformatik ; Band 11
SWD-Schlagwörter: Maschinelles Lernen , Verteiltes System , Bilderkennung , Datenfusion , Optimierung
Freie Schlagwörter (Deutsch): Verteilte Systeme , Multimedia Information Retrieval , Maschinelle Lernverfahren , Fusionsmethoden , Verteilte Infrastruktur , Trackingverfahren , Multiple Frameworks mit heterogenen Anforderungen , Workflow
Freie Schlagwörter (Englisch): optimization , workflow , multiple frameworks with heterogeneous requirements , image recognition , tracking methods , machine learning methods , fusion methods , distributed infrastructure
DDC-Sachgruppe: Informatik, Informationswissenschaft, allgemeine Werke, Datenverarbeitung; Informatik, Computerprogrammierung, Programme, Daten, Spezielle Computerverfahren
Sprache: deutsch
Tag der mündlichen Prüfung 23.09.2021
OA-Lizenz CC BY-SA 4.0

 

Soziale Medien

Verbinde dich mit uns: