Logo polizeireport.ch

Wirtschaft

Algorithmen sollen unterstützen, aber nicht entscheiden

  • Algorithmen sollen unterstützen, aber nicht entscheiden
    Algorithmen sollen unterstützen, aber nicht entscheiden (Bild: Avenir Suisse)
  • Algorithmen sollen unterstützen, aber nicht entscheiden
    Algorithmen sollen unterstützen, aber nicht entscheiden (Bild: Avenir Suisse)
2021-02-10 17:20:12
newsbot by content-proivder.ch GmbH
Quelle:

Datengestützte Analyseverfahren helfen auch in der Schweiz den Polizeibehörden, Straftaten vorauszuahnen, wie Avenir Suisse mitteilt.

«Predictive Policing» könne Beamte entlasten, birgt jedoch auch Risiken. Künstliche Intelligenz (KI) und ihre möglichen Anwendungsbereiche seien bei Forscherinnen und Ökonomen gleichermassen in aller Munde.

Sie könnte den Arbeitsmarkt umkrempeln, die Gesundheitsbranche revolutionieren oder unsere Sicherheit erhöhen. Gleichzeitig braucht es für den Nutzen von KI auch jede Menge Daten.

Und können Maschinen Menschen überhaupt ersetzen?Im Rahmen eines Webinars sprach Avenir Jeunesse deshalb mit Dominik Balogh, Chef Analyse und Entwicklung bei der Stadtpolizei Zürich, und Pascal Lago, Verantwortlicher Sicherheitspolitik bei Avenir Suisse, über Predictive-Policing. Das zentrale Thema: Führt die Verwendung von Algorithmen bei der Polizei zu mehr Sicherheit? Was seien die Risiken?Straftaten verhindern, bevor sie verübt werden.

Das sei das Best-Case-Szenario jeder Polizeibehörde. Daten zu verarbeiten und die richtigen Schlüsse daraus zu ziehen, sei jedoch mit grossem Aufwand verbunden.

Hier kommen datengestützte Analyseverfahren ins Spiel. Dank Algorithmen, die Daten zu vergangenen Straftaten um einiges effizienter (höhere Datenmenge in kürzerer Zeit) auswerten, scheint das beste Szenario möglich.

Predictive-Policing nennt sich die Methode, mit der Polizeibehörden auf der ganzen Welt versuchen, die Zahl der Straftaten zu senken. Dank technologischer Hilfe sollen Gefährder erkannt werden, ehe sie straffällig werden, oder auf Orte fokussiert werden, bevor dort Straftaten begangen werden.Polizeibehörden in den Kantonen verwenden derzeit im Wesentlichen zwei Arten von Systemen: Die einen analysieren personenbezogene Daten und erstellen sogenannte Gefährderlisten, also Listen mit Personen mit Potential für gewisse Straftaten.

Die Software wertet dabei von der Polizei ausgefüllte Fragebögen aus und weist der Person einen Gefährlichkeitswert zu. Bei den meistgenutzten Programmen der Schweiz handelt es sich um Octagon und Dyrias.

Für beide spricht insbesondere, dass sie «objektiver» urteilen können als Menschen, heisst es aus Expertenkreisen. Algorithmen seien ausserdem weniger anfällig auf Fehler als Gutachten von Psychologinnen und Psychiatern.Auf einem anderen Ansatz basieren Systeme wie Precops, das von nur drei Behörden – Aargau, Basel-Land und der Stadt Zürich – verwendet wird.

Dank raumzeitbezogenen Daten sieht Precops ausschliesslich serielle Delikte wie Einbrüche voraus. Basierend auf Daten früherer Einbrüche erstellt Precops eine Karte, wo und mit welcher Wahrscheinlichkeit die Polizei in naher Zukunft mit weiteren Einbrüchen rechnen muss.

Die Polizei könne so rechtzeitig Patrouillen in diese Regionen entsenden. Dominik Balogh sei bei der Stadtpolizei Zürich für dessen Umsetzung zuständig.

Die Behörde greift seit 2015 auf die Unterstützung von Precops zurück.Aufgrund der grossen Datendichte verwendet die Polizei Precops vor allem in urbanen Zentren. (Bild: Jannes Glas/Unsplash)Wirklich «smart» seien die Tools bis anhin nicht, sei Pascal Lago überzeugt: «Personenbezogene Tools seien Fragebögen, und auch Precops basiert auf Parametern.

Es sei eine systematische Weiterentwicklung von Prozessen, welche auch analog erledigt werden könnten. Neu sei jedoch die Skalierung, dass immer mehr und schneller Daten verarbeitet werden.»Bei beiden Systemen erhoffen sich Polizeistationen also eine effiziente Unterstützung in der Verbrechensbekämpfung.

Die Erwartung an Algorithmen, für mehr Sicherheit zu sorgen, birgt aber auch ernstzunehmende Risiken.Welche Schlüsse Algorithmen aus den Daten ziehen, hängt auch davon ab, wie sie die einzelnen Merkmale der Taten und Täter bewerten. Das Beispiel eines Precops-ähnlichen Systems in den USA zeigte auf, wie Algorithmen den Status quo zementieren können: Menschen mit schwarzer Hautfarbe begehen in den USA vor allem aufgrund ihrer oft schlechteren sozioökonomischen Stellung in der Gesellschaft prozentual mehr Straftaten.

Der Algorithmus errechnet aufgrund der ihm zugetragenen Daten, dass die Chance zur Straffälligkeit bei einem/r Afroamerikanerin überdurchschnittlich hoch sei und teilt der Polizei mit, Streifenwagen vor allem in Regionen zu positionieren, in denen prozentual mehr Farbige leben.Bei einem System mit personenbezogenen Daten könne dies dazu führen, dass ein Afroamerikaner allein wegen der Hautfarbe als gefährlicher eingestuft würde als ein Weisser. Im Sinne von «self-fulfulling prophecies» werden dadurch auch mehr Straftaten in diesen Gegenden festgestellt.

Je mehr Ressourcen die Polizei zur Überwachung eines bestimmten Ortes zur Verfügung stellt, desto grösser sei die Wahrscheinlichkeit, überproportional viele Delikte aufzudecken. Mehrere amerikanische Polizeibehörden haben aus diesem Grund entschieden, in Zukunft auf dieses System zu verzichten.

Die Gefahr sei laut Balogh auch bei der Stadtpolizei Zürich bekannt, weshalb man gezielt immer wieder Streifenwagen in Gebiete entsende, die vom System nicht angezeigt werden.Die Daten liefern Informationen – den Kontext die Beamten. (Bild: Markus Spieske/Unsplash)Im Unterschied zu personenbezogenen Datentools wie Octagon und Dyrias funktioniert ein System wie Precops nur in Ballungszentren.

In der Schweiz gibt es im Vergleich zu den USA weniger Segregation und weniger Quartiere, die mehrheitlich von einer gewissen Bevölkerungsgruppe bewohnt werden. Trotzdem müssen die Beamten verstehen, wie der Algorithmus die Parameter (Geschlecht, Tatwaffe, Vorgehen, Hautfarbe, etc.) priorisiert und entsprechende Anpassungen vornehmen, falls das Programm aus den Daten Schlüsse zieht, die sich diskriminierend auswirken.Sowohl bei personen- als auch ortsbezogenen Daten manifestiert sich das Problem, dass Algorithmen im Vergleich zu Menschen eher Schwierigkeiten haben, Kontexte zu erkennen und in Entscheide miteinzubeziehen.

Dominik Balogh nennt dazu folgendes Beispiel: «Precops erkennt hauptsächlich Serientaten wie zum Beispiel Einbrüche, die nach einem gewissen Schema ablaufen. Stellen wir uns ein Szenario vor, in dem ein Paar sich trennt.

Das Paar streitet sich und der Freund droht, den Fernseher mitzunehmen, falls sie ihn rauswirft. Tage später, die Freundin habe den Freund tatsächlich rausgeworfen, werde bei der jungen Frau eingebrochen und einzig der Fernseher werde entwendet.

Den entscheidenden Kontext dieses Ereignisses könne das System nicht einordnen.»Eine Kriminalistin besitzt dafür ein Gespür, sowohl für eine Situation als auch für andere Menschen. «Bei solchen Feinheiten von Kontexten werde der Mensch noch lange die entscheidende Rolle spielen», zeigt sich Balogh überzeugt.

Bis anhin liefert Precops der Stadtpolizei also nur die gefährdeten Gebiete. Ob die Angaben präzis seien und die Lage richtig einordnen, hängt nebst dem Algorithmus (und damit der Priorisierung der einzelnen Daten) davon ab, wie präzis der jeweilige Beamte die Daten im System eingegeben hat.Wie erfolgreich die Unterstützung durch Algorithmen ist, lasse sich bisher nur schwer messen.

Laut dem Bundesamt für Statistik seien die Einbrüche schweizweit seit 2012 um die Hälfte zurückgegangen (BFS 2020). Betrachtet man zum Beispiel den Kanton Zürich, waren die Zahlen jedoch bereits rückläufig, bevor die Stadtpolizei Zürich Precops einführte.

Anhand der Zahlen könne also bisher kein Rückschluss auf einen direkten Erfolg von Precops gemacht werden. Dasselbe gilt für Predictive-Policing im Allgemeinen.

Nebst einer erhöhten Effizienz dank schneller Datenauswertung spricht noch ein weiterer Punkt für einen positiven Nutzen von Predictive-Policing: Wenn Maschinen Beamte unterstützen, können Beamte mehr Zeit anderen Aufgaben widmen und die Polizeiarbeit so erfolgreicher erledigen.Ein Hemmnis für den Erfolg von Predictive-Policing sei die föderale Struktur der Schweiz. Kantone organisieren ihre Polizeibehörden selbst.

Auch in Bezug auf die Beschaffung wie zum Beispiel jene von Präventionstools seien 26 unterschiedliche Vorgehensweisen ersichtlich. In gewissen Gebieten könne es jedoch von grosser Bedeutung sein, auch die Daten von angrenzenden Kantonen zu haben, um die Gefahrenlage besser einschätzen zu können.

Eine stärkere Kooperation der Kantone könnte die Effizienz und Wirksamkeit von Predictive-Policing erheblich steigern. Ein Hindernis stellt hier das derzeitige Datenschutzgesetz der Schweiz dar, das Datenaustausch zwischen den Kantonen verbietet.

In einem gleichen Schritt gilt es für die Behörden auch, die IT-Infrastruktur auszubauen, um so die Kommunikation zwischen den kantonalen Behörden effizienter zu gestalten (Leese 2018). Nur so lasse sich die Informationsverarbeitung beschleunigen, um die technischen Hilfsmittel auch effektiv nutzen zu können.Das Ziel der Verwendung von Daten und Algorithmen in der Verbrechensbekämpfung sei eine erhöhte Sicherheit.

Dieser Ansatz sei jedoch nur dann verhältnismässig, wenn gleichzeitig die Privatsphäre und der Datenschutz der Bevölkerung gewährleistet bleiben. Gesetze zum Datenschutz, die in der Schweiz gelten, verhindern derzeit einen übermässigen Eingriff seitens der Behörden.

Damit dies so bleibt, müssen Gesetze und Schutz der Privatsphäre kontinuierlich an neue technische Möglichkeiten angepasst werden, ohne dass dabei Innovationen zurückgebunden werden.Eine hohe Qualität und Quantität an Daten ermöglicht am Ende eine erfolgreiche Anwendung des Systems und trägt dazu bei, dass falsche Verdächtigungen und Ineffizienz bei der Patrouille vermieden werden können. Geschehen dennoch Fehler, liegt die Verantwortung derzeit bei der Polizei.

«Wir können und müssen als Menschen beurteilen, wie wir handeln», betont Balogh. Dies mag auf den ersten Blick logisch erscheinen.

Wenn jedoch der Einfluss von Maschinen auf Entscheide bei der täglichen Arbeit wächst, stellt sich die Frage, wie viel Entscheidungsmacht der Mensch noch haben soll, um seiner Verantwortung weiterhin nachzukommen.Auch Pascal Lago sei der Meinung, dass Maschinen vor allem im zwischenmenschlichen Bereich, der bei der Polizei eine wichtige Rolle einnimmt, keine Menschen ersetzen können. «Wir seien von einem Szenario, wie es der Film ‹Minority Report› beschreibt noch weit entfernt.

Diese Tools ergänzen Menschen und optimieren Ressourcen. Damit sie richtig funktionieren, werde es wohl immer den Menschen brauchen.»Predictive-Policing steckt technologisch noch in den Anfängen.

Innovationen wie die Entwicklung von Künstlicher Intelligenz spielen derzeit im Alltag der Polizei noch eine untergeordnete Rolle. Bei den verwendeten Tools wie Precops könne nur beschränkt von Künstlicher Intelligenz die Rede sein, da das Programm nicht von selber lernt.Dies könnte sich in Zukunft ändern.

Um dafür gerüstet zu sein, braucht es eine öffentliche Debatte. Nicht nur zum Datenschutz, sondern auch zur direkten Anwendung des Programms.

Die Aufklärung über diese Technologien und die Möglichkeiten, die sie bieten, dürfen ihrer Verwendung nicht hinterherhinken. Teil dieser Debatte muss zum Beispiel sein, welche Implikationen es hat, wenn Maschinen und nicht Menschen entscheiden, ob eine Person verhaftet werde oder nicht.

Ausserdem braucht es in der Bevölkerung Klarheit darüber, wie diese Algorithmen entscheiden. Algorithmen können die Polizeiarbeit effizienter gestalten und wichtige menschliche Ressourcen freischalten, die anderorts gebraucht werden.

Die endgültige Entscheidung und die Einschätzung der Lage sollten jedoch in der Macht der Beamten bleiben.Corina Gall arbeitet seit Mai 2019 bei Avenir Jeunesse. Zuvor absolvierte sie ein Praktikum bei der Aargauer Zeitung und ein Volontariat im Auslandressort der NZZ.

Nach dem Bachelorstudium in Internationalen Beziehungen an der Universität Genf absolviert sie derzeit ihr Masterstudium in Politik-, Rechts- und Wirtschaftsphilosophie an der Universität Bern. Avenir Jeunesse Avenir Jeunesse Event Wie werden wir in Zukunft arbeiten? Zusammen mit Doktor Frank Heckner, Head EMEA Health Practice bei Egon Zehnder, Gerhard Andrey, Nationalrat Grüne und Co-Founder Liip AG und Valérie Müller, Senior Researcher bei der Avenir Suisse diskutieren, wir über die Zukunft der Arbeit Avenir Jeunesse Avenir Jeunesse Event Zusammen mit Professor Doktor Francis Cheneval, Professor für politische Philosophie UZH, Doktor Stefan Schlegel, Oberassistent für öffentliches Recht UniBe und Céline Neuenschwander, Researcher bei der Avenir Suisse, diskutieren wir über den atypischen Ideenansatz «Open Borders».

.

Suche nach Stichworten:

Rolle Algorithmen unterstützen,



Top News


» Brandfall erfordert Feuerwehreinsatz


» 25-Jährigen in polizeilichen Gewahrsam genommen


» Affeltrangen: Alkoholisiert verunfallt und weitergefahren


» Mörschwil: Nach Selbstunfall nach Hause gegangen


» Schaffhausen: Geringe Beteiligung an Anti-Corona Demo

Newsletter anmelden

Jeden Tag um 17 Uhr die neusten Meldungen in Ihrer Inbox.