Videoüberwachung an einem Gebäude in Frankfurt

Die Wirksamkeit von Videoüberwachung ist unter Experten umstritten. Was aber, wenn das Videoüberwachunssystem intelligent ist, lernt und bei Übergriffen und Gewalttaten automatisch die Polizei alamiert?

Berlin, Oktober 2016. In einer U-Bahn-Station wird eine Frau brutal auf einer Treppe getreten und verletzt. Eine Überwachungskamera der Berliner Verkehrsgesellschaft zeichnet die Tat auf. Der Täter flüchtet per U-Bahn. Er kann aber dank der Aufnahmen nachträglich ermittelt und verurteilt werden.

Hätten das Sicherheitspersonal nicht schneller eingreifen müssen?

Im Lagezentrum der Polizei in Mannheim beschäftigt man sich genau mit diesem Problem. Tag und Nacht laufen hier ununterbrochen Echtzeitbilder von öffentlichen Brennpunkten auf. Da dürfte den Beamten ja eigentlich nichts entgehen, oder? "Ja, das könnte man meinen", sagt Klaus Pietsch Polizeidirektor des Polizeipräsidiums Mannheim. "Tatsächlich ist es aber so, dass wir 68 Kamerabilder parallel hier einspielen ins Führungs- und Lagezentrum. Und es liegt in der Natur der Sache, dass da die Aufmerksamkeit des Videobeobachters nicht vollumfänglich ausreicht,  um alle relevanten Situationen in Echtzeit wahrzunehmen."

Software soll Verbrechen sofort erkennen

In Mannheim wird  deshalb eine neue, intelligente Beobachtungstechnik getestet. Anhand des Kamerabilds soll sie automatisch erkennen, wo es zu körperlicher Gewalt kommt. Und diese sofort an die Einsatzzentrale melden. Die Beamten könnten innerhalb weniger Minuten vor Ort sein und schnell eingreifen. "Aus diesem Grund", sagt Klaus Pietsch, "haben wir Überlegungen angestellt, eine entsprechende Software zum Einsatz zu bringen, die unterstützend die Videobeobachtung übernimmt und entsprechende Warnhinweise an den Videobeobachter übermittelt."

Lernende Künstliche Intelligenz

Noch läuft die Software im Testmodus, aber ihr Einsatz könnte in Mannheim schon sehr bald Realität werden. Verhaltensbasierte Videoüberwachung heißt das Projekt, an dem die Mannheimer Polizei zusammen mit dem Fraunhofer Institut für Optronik, Systemtechnik und Bildauswertung in Karlsruhe arbeitet.

Die Forscher haben das Programm entwickelt. Es lernt anhand echter Gewaltszenen, körperliche Gewalt auf Videobildern zu erkennen, erläutert Projektleiter Dr. Markus Müller: "Diese realistischen Szenen werden vom Polizeipräsidium Mannheim direkt als solche gekennzeichnet und in das lernende Verfahren eingespeist. Das heißt: Das lernende Verfahren lernt an realistischen, realweltlichen Straftatbeständen, also an Szenen, die als solche von Menschen erkannt wurden."

Test: Kann ein Programm Gewalt wirklich erkennen?

Aber wie kann eine Software Gewalt erkennen? Das wollen wir mit einer Schauspielerin in einer gespielten Szene herausfinden. Eine Situation, die so oder ähnlich jederzeit passieren könnte: Einer tätlichen Attacke eines Mannes auf eine wehrlose Frau.

Zusätzlich drehen wir aber noch eine weitere Aufnahme, die nur auf den ersten Blick nach einer Gewalttat aussieht, in Wahrheit aber nur eine stürmisch-wilde Umarmung darstellt. Wird das Programm den Unterschied zwischen der echten und der vermeintlichen Gewalttat erkennen?

System ist auf realen "Lernstoff" angewiesen

Und woher weiß das Programm überhaupt, was körperliche Gewalt ist? Dr. Markus Müller erklärt es so: "Es ist der Mensch, der diesem System mitteilt: Jetzt bekommst du eine Szene, in der ein tätlicher Übergriff durch einen Tritt realisiert wird. Oder es ist eine Szene, das ist jetzt ein Schlag. Und damit wird das Netz trainiert. Und natürlich hat das Netz dann im Endeffekt eine gewisse Abstraktionsfähigkeit."

Um die Abstraktionsfähigkeit zu verbessern, wird das Programm laufend mit weiteren Realaufnahmen gefüttert. Ob Armhaltung des Täters, Schlaggeschwindigkeit oder Verteidigungshaltung des Opfers – Schritt für Schritt übersetzt die künstliche Intelligenz die komplexen Abläufe einer realen Gewalttat in digitale Muster. 

Nur: Kann es auch schon unsere beiden Szenen auseinanderhalten? Und wann würde es eine Gewalttat melden? Dr. Markus Müller: "Stand heute: in beiden Fällen. Ab dem ersten Schlag. Sowohl bei dem simulierten tätlichen Übergriff als auch bei der temperamentvollen Begrüßung. Es ist aber eines unserer Entwicklungsziele, dass der zweite Fall heraus sortiert wird und keinen Hinweis generiert."

Gesichtserkennung soll keine Rolle spielen

Das Programm muss also noch weiter lernen. Regelmäßig schicken die Forscher Updates an die Mannheimer Polizei. Dadurch können Falschmeldungen immer weiter reduziert werden.

Wichtig ist allerdings, dass es nicht darum geht, Gesichter zu erkennen, betont Polizeidirektor Klaus Pietsch: "Es ist gar nicht unser Ziel, Menschen zu erkennen. Unser Ziel ist es, relevante Bewegungsabläufe zu sehen, die auf die Begehung einer Straftat hindeuten. Und zwar zu einem sehr frühen Zeitpunkt, je früher desto besser, um möglichst schnell polizeilich Hilfe leisten zu können."

Sinnvoll auch bei der raschen Erkennung von terroristischen Attentaten?

Denn wird die Straftat vom Programm gemeldet, kann schon ein paar Sekunden später eine Streife losgeschickt  werden. Und womöglich Schlimmeres verhindern. Erinnern wir uns an den Attentäter in Halle im Oktober dieses Jahres: Hätte der Attentäter viel früher gestellt werden können, wenn er mit seiner Waffe von einer intelligenten Kamera als Attentäter erkannt worden wäre?

Klaus Pietsch: "Das Erkennen von Waffen ist in aller Regel posenbasiert. Das heiß, er nimmt eine dezidierte Schusshaltung ein, die definiert ist. Aus dieser Haltung heraus erkennt ein Algorithmus dann entsprechende Situationen. Einen solchen Algorithmus haben wir hier nicht im Einsatz."

Allerdings arbeiten die Karlsruher Forscher genau an einem solchen Verfahren, und das hätte den Attentäter wohl sehr früh als solchen erkennen können. Dr. Markus Müller: "Das heißt: Sekunden nach dem Aussteigen hätte dann ein Entscheidungsträger schon einen Hinweis auf seinem Smartphone gehabt oder in einem Lagezentrum, wie auch immer. Weil er kurz, nachdem er ausstieg, ja mit der Waffe hantierte und dann mit einer Art Bereitschaftshaltung ging, um sich mit dieser Waffe auf den Weg zu machen. Das heißt: Möglicherweise hätte solch ein System – intelligente Videoüberwachung, posenbasierte Waffendetektion – die zwei Toten verhindert."

Ende 2019 soll es losgehen

In Mannheim geht es erst einmal um alltägliche Gewaltkriminalität. An zwei Arbeitsplätzen läuft das Programm im Hintergrund bereits mit – man beobachtet nun genau, wie gut es funktioniert. Klaus Pietsch: "Im Moment sind wir da noch weit vom finalen Zustand entfernt, aber wir haben gute Fortschritte gemacht. Wir gehen davon aus, dass bei weiterem Fortschritt wie bisher wir noch in diesem Jahr auf jeden Fall den ersten echten Alarm und eine daraus resultierende Intervention durch die Polizei darstellen können. Davon sind wir überzeugt."

Dann könnte die Software bei Gewaltdelikten wie in der Berliner U-Bahn direkt Alarm schlagen. Und Täter womöglich noch vor Ort gestellt werden.


Autor: Stefan Venator
Sendung: hr-fernsehen, "alles wissen", 14.11.2019, 20:15 Uhr