KIRAS Sicherheitsforschung

2006

iObserve

Intelligente Videoüberwachung der nächsten Generation mit Semantischen Templates.

Videobasierte Überwachungssysteme sind in der Regel nicht in der Lage das subjektive Sicherheitsempfinden der Bevölkerung zu steigern. Eine der Hauptursachen ist darin zu suchen, dass gegenwärtige Anlagen noch nicht intelligent genug sind, um als Supportsysteme für Behörden und Sicherheitspersonal in Echtzeit auf sicherheitsrelevante Ereignisse reagieren zu können. Vielmehr wird die immer vorhandene Aufzeichnungsfunktion verwendet, um nach einem Ereignis mögliche Auslöser, Sachverhalte etc. zu recherchieren.

Das Projekt iObserve hat sich zum Ziel gesetzt, die Basis für videobasierte Überwachungssysteme der nächsten Generation zu schaffen. Solche Systeme sollen in der Lage sein, detektierte Einzelereignisse auf einer semantischen Ebene zu Sachverhalten komplexerer Bedeutung zusammen zu setzen um so eine höhere Ebene des Verständnisses einer potentiellen sicherheitsrelevanten Situation zu erhalten. Einen wichtigen Aspekt in solch einem System stellt dessen Bedienbarkeit und Konfigurierbarkeit dar. Die rapide steigende Systemkomplexität muss für den Benutzer in verständliche "Aktionen" übersetzt werden. Es ist die Frage zu klären bzw. zu erforschen, wie semantische Inhalte in Videos ("eine Person legt einen großen Gegenstand in einen Papierkorb") mittels Benutzeroberflächen, auch für Laien verständlich, konfiguriert werden können. Der Benutzer muss für die Systemkonfiguration in die Lage versetzt werden,  mit "Inhalten" effizient umzugehen.

Detektionsalgorithmen für Objekte, insbesondere Personen, Fahrzeuge und kofferähnliche Objekte, bilden die "Low-Level"-Ebene des Systems. Die bei den Projektpartnern dafür bereits vorhandenen Detektionsalgorithmen werden einer gründlichen Bewertung unterzogen und auf ihre Tauglichkeit in Hinblick auf einen Einsatz im geplanten System getestet. Gegebenenfalls werden geeignete Module verbessert und angepasst.

Die "High-Level"-Ebene des Systems hat die Aufgabe, alle Informationen aus der  Detektionsebene zu filtern, Statistiken zu berechnen und schlussendlich zu interpretieren. Als Schnittstelle zwischen beiden Ebenen dient ein Interpretationsmodul, welches die Low-Level-Information in semantische Informationen übersetzt. Dies geschieht durch Mustererkennung in einer Menge von (benutzer-)definierten Ereigniskriterien (beispielsweise Bewegungsmuster) und durch laufende statistische Analyse.

Die semantische Ebene ist damit in der Lage, Detektionen zu kombinieren und als Ereignisse mit neuem bzw. erweitertem Inhalt zu interpretieren. Aus dieser Interpretation kann im übertragenen Sinn eine primitive Sprache abgeleitet werden, die als interne Repräsentation von Ereignissen spezifiziert wird. Die Elemente dieser Sprache - so genannte Semantische Templates - entsprechen Worten beziehungsweise Phrasen in einer klassischen Sprache. Sie dient als Vermittler zwischen den Aktionen auf der Benutzeroberfläche und den Ereignisdetektionen aus der Bildverarbeitung.

Die prinzipielle Funktion des Gesamtsystems wird im Rahmen der Installation eines Evaluierungsprototypen erprobt. Von Anfang an wird hoher Wert auf die Praktikabilität und Nützlichkeit für den Endbenutzer gelegt. Durch die enge Zusammenarbeit mit dem Bedarfsträger ist gewährleistet, dass die Entwicklung des Systems aktuellsten Sicherheitsanforderungen entspricht und mittelfristig in ein Industriesystem umgesetzt werden kann.

Projektleitung:
DI Martin Forster, Center Communication Systems GmbH, Abteilung Development Image Processing

Projektpartner:
JOANNEUM RESEARCH Forschungsgesellschaft mbH, Institut für Informationssysteme & Informationsmanagement
Web: http://www.joanneum.at/iis

Kontakt:
Center Communication Systems GmbH
Abteilung Development Image Processing
DI Martin Forster
Ignaz-Köck-Strasse 19
1210 Wien
Tel: +43 (0)1 90 199 - 1304
Email: m.forster@centersystems.com
Web: www.centersystems.com

drucken