Methoden wie im Sci-Fi-Thriller «Minority Report» kommen
Wo setzen die Luzerner und Zuger Behörden automatische Systeme und Algorithmen ein? (Bild: Symbolbild: Adobe Stock)
Die Kantone Luzern und Zug setzen auf KI und Algorithmen. Unsere Recherche zeigt: Die Technik soll oft Gefahren vorhersagen, auch bei Straftätern und möglichen Terroristen.
Fast 90 KI-Pilotprojekte laufen derzeit in der Bundesverwaltung. Vom Chatbot für Bürgerfragen zum Überwachungstool für Medikamente in Onlineshops bis zu einem System, das anhand von Luftbildern Bäume erkennt.
Am Freitag hat der Bundesrat Grundsätze für die Verwendung von künstlicher Intelligenz in der Verwaltung festgelegt. Er will seine Mitarbeiter in KI schulen und so Prozesse optimieren.
Doch: Neu sind automatische Systeme in der Verwaltung nicht. Bereits heute setzen Bund und Kantone diverse Algorithmen ein. Hier ein Überblick für die Kantone Zug und Luzern.
Weiterlesen, sonst verpasst du:
welche automatischen Systeme die Polizeibehörden einsetzen
wie Algorithmen Gefährder und Terroristen finden sollen
welchen geplanten Einsatz das Bundesgericht verboten hat
Achtung: KI, automatisierte Systeme und Algorithmen sind nicht das Gleiche. Brauchst du eine kurze Auffrischung? Dann erfährst du in der Box die Unterschiede. Falls nicht, geht es unter der Box mit dem Text weiter.
zentralplus hat basierend auf den Daten von «AlgorithmWatch CH» und weiteren Plattformen die Einsatzgebiete von KI und Algorithmen erhoben. Dabei wurde klar, dass einige Anwendungen an den Sci-Fi-Thriller «Minority Report» erinnern. Darin werden Straftäter basierend auf Berechnungen festgenommen, bevor sie Verbrechen verüben. So weit sind wir selbstverständlich noch nicht.
1. Einschätzen, ob Angestellte oder Schüler gewalttätig werden
Dennoch: Die Polizeibehörden nutzen zum Beispiel Systeme, die einschätzen, wie gefährlich eine Person ist und welche Massnahmen angezeigt wären. Beim System Octagon, das in Zug und Luzern im Einsatz ist, beantworten Polizistinnen dafür einen standardisierten Fragebogen. Basierend darauf werden Massnahmen vorgeschlagen.
Die Luzerner Polizei nutzt nebst dem System Octagon auch «DyRiAS»-Systeme zur Analyse von Schülern, Angestellten und Intimpartnerinnen. «DyRiAS» steht für «Dynamischen Risiko Analyse Systeme». Polizisten beantworten eine Reihe von «Ja–Nein»-Fragen. Anschliessend nennt das Tool eine Wertung von «gering» bis «hoch», die aussagt, wie hoch das Risiko für eine schwere Gewalttat ist.
2. Beurteilen, ob eine Radikalisierung droht
In eine ähnliche Richtung geht das Tool «Ra-Prof». Dieses Werkzeug soll Personen helfen, zu erkennen, ob beispielsweise eine Arbeitskollegin oder ein Schüler sich dschihadistisch radikalisiert. Die besorgte Person füllt einen Fragebogen mit Fragen wie «Sieht die Person die westliche Welt als Urheber aller Probleme?» aus. Das System sagt, ob Handlungsbedarf besteht. Gemäss dem «Bund» ist das System in Zug im Einsatz.
3. Einschätzen, ob ein Straftäter rückfällig wird
Luzerner wie Zuger Behörden nutzen zudem «Fast». Dieses Analysetool entscheidet anhand von Fallakten, wie hoch das Risiko eines Rückfalls für Straftäter ist. Mithilfe des Algorithmus werden die Straftäterinnen in eine von drei Kategorien eingeteilt: A für unbedenklich, B für Personen, die wieder mit kleineren Delikten rückfällig werden könnten, C für Personen, die wieder gewalttätig werden könnten. Die «gefährlicheren Fälle» werden weiter untersucht und basierend darauf der Gefängnisaufenthalt beispielsweise angepasst.
Das System ist nicht unumstritten: Gemäss einer «SRF»-Recherche von 2018 hatte nur ein Viertel der als C-Fälle eingeteilten Straftäter auch tatsächlich wieder ein Gewalt- oder Sexualdelikt begangen. Sprich: Das System teilte 75 Prozent falsch ein. Und: Nur einer von fünf Straftäterinnen, die später erneut gewalttätig geworden sind, wurden tatsächlich als C-Fälle entdeckt. Seither ist jedoch eine neue Version des Systems erschienen.
4. Hilfe bei Ermittlungen zu Wirtschaftskriminellen
Gerade im Bereich der Wirtschafts- und Cyberkriminalität müssen sich Ermittler durch Datenfluten kämpfen. Die Luzerner Ermittlerinnen nutzen hierfür «Watson» von IBM. Dieses Werkzeug soll gemäss «AlgorithmWatch CH» etwa Kostennummern, Namen oder Domiziladressen identifizieren können und Korrelationen zwischen diesen darstellen.
5. Fragen der Bevölkerung beantworten
Weniger Sci-Fi, dafür mehr Bürgernähe gibt es mit den Chatbots. Sie werden von Ämtern verwendet, um Fragen der Bevölkerung zu beantworten. So beantwortet «Wasi» Fragen von Luzernerinnen zur Prämienverbilligung, ein namenloser Chatbot der Stadt Luzern Fragen zur Stadt, beim Zuger Handelsregister- und Konkursamt hilft ein Bot beim Bestellen von Belegen und Ausfüllen von Formularen (zentalplus berichtete).
Die Behörden versprechen sich so vor allem, Ressourcen für ihr Personal zu schaffen. Noch weiter will das Zuger Strassenverkehrsamt gehen: Dort soll künftig eine KI auch telefonisch antworten (zentralplus berichtete).
6. Recherche-Tool in der Schule
An den Stadtzuger Schulen nutzen Schüler «Classbot». Die Plattform funktioniert ähnlich wie ChatGPT und hilft den Schülern etwa beim Recherchieren oder Schreiben von Präsentationen. Auch nutzen Schülerinnen den Bot, um sich etwa Matheaufgaben Schritt für Schritt erklären zu lassen (zentralplus berichtete).
7. Dienstpläne für Pflegerinnen schreiben
Beim Luzerner Kantonsspital (Luks) schreibt ein KI-System Vorlagen für Dienstpläne. Das dazugehörige System hat das Luks zusammen mit Microsoft und Polypoint entwickelt, wie «Inside IT» schreibt. Die KI-Lösung berücksichtige angegebene Präferenzen der Mitarbeiterinnen und die gesetzlichen Anforderungen und schreibe basierend darauf mögliche Einsatzpläne.
Potenziell weitere Systeme
Nebst diesen Systemen könnten potenziell noch weitere im Einsatz sein. Der Kanton Zug gab jüngst gegenüber zentralplus zu, dass er keine Übersicht habe, welche und wie viele KI-Tools in der Verwaltung im Einsatz seien. Kantonsräte fordern bereits einen weiteren Ausbau von künstlicher Intelligenz.
Andere Anwendungen wurden wiederum gerichtlich verboten. So pfiff das Bundesgericht jüngst die Luzerner Polizei zurück. Sie wollte «automatische Fahrzeugfahndung» einsetzen. Sprich: mit intelligenten Kameras die Kennzeichen und Insassen von Autos auf Luzerner Strassen filmen und diese automatisch mit einer Datenbank abgleichen.
Das Gericht beurteilte dies als «wenig eingegrenzte Massenüberwachung», was einen «unverhältnismässigen Grundrechtseingriff» darstelle. Die SVP setzte sich dafür ein, dass die gesetzlichen Grundlagen für diese Verkehrsüberwachung geschaffen werden (zentralplus berichtete).
Schreibt über alles, was Luzern und Zug aktuell beschäftigt. Im ländlichen Luzern aufgewachsen, hat sie beim «Entlebucher Anzeiger» ihre Begeisterung für Lokaljournalismus entdeckt. Nach einem Studium in Medienwissenschaften und Englisch ist sie seit September 2021 bei zentralplus. Nebenbei absolviert sie derzeit die Diplomausbildung Journalismus am MAZ.