Generische Verkettung maschineller Ansätze der Bilderkennung durch Wissenstransfer in verteilten Sys
Am Beispiel der Aufgabengebiete INS und ACTEv der Evaluationskampagne TRECVid
- 406 stránek
- 15 hodin čtení
Der technologische Fortschritt in der multimedialen Sensorik und den dazugehörigen Methoden zur Datenaufzeichnung und -verarbeitung führt im Big Data-Umfeld zu enormen Datenbeständen in Mediatheken und Wissensmanagementsystemen. Die State of the Art-Verarbeitungsalgorithmen werden oft problemorientiert entwickelt, was bei den riesigen Datenmengen die zuverlässige Bewertung der Güte und Anwendbarkeit erschwert. Die intellektuelle Erschließung großer Korpora gestaltet sich schwierig, da die Datenmenge eine umfassende semi-intellektuelle Prüfung erfordert, die spezifisches Fachwissen und Verständnis für Datenhandling sowie Klassifikationsprozesse voraussetzt. Zudem entstehen besondere Anforderungen an Hard- und Software, die in der Regel suboptimal skalieren, da sie meist auf Multi-Kern-Rechnern entwickelt werden, ohne eine notwendige Verteilung zu berücksichtigen. Dadurch fehlen Mechanismen zur Gewährleistung der Übertragbarkeit der Verfahren auf andere Anwendungsdomänen. Die Arbeit widmet sich diesen Herausforderungen und konzentriert sich auf die Konzeption und Entwicklung einer verteilten holistischen Infrastruktur, die die automatisierte Verarbeitung multimedialer Daten hinsichtlich Merkmalsextraktion, Datenfusion und Metadatensuche innerhalb eines homogenen Systems ermöglicht.
