Entscheidet KI künftig über deine Steuern? Expertin warnt
:focal(1033x665:1034x666)/www.zentralplus.ch/wp-content/uploads/2025/02/roboter_kuenstliche_intelligenz_buero-scaled-e1740063732709.jpeg)
Zuger SVP-Kantonsräte wollen den Gebrauch von künstlicher Intelligenz in der Verwaltung, der Justiz und bei der Polizei fördern. Eine Expertin mahnt derweil zur Vorsicht.
Künstliche Intelligenz (KI) schreibt Aufsätze, gibt Menüvorschläge für die Woche oder rechnet den schnellsten Weg nach Hause vor – vorbei an Staus und Baustellen. Damit vereinfachen Algorithmen vielen Personen den Alltag. Geht es nach zwei Zuger SVP-Kantonsräten, soll KI künftig auch den Büroalltag von Zuger Behörden, Staatsanwälten und Polizistinnen verbessern.
Mit einer Motion fordern Thomas Werner und Esther Monney, dass die Zuger Regierung die rechtlichen Grundlagen zur Nutzung von KI in der Zuger Verwaltung prüft. Wo diese nicht gegeben sind, soll der Regierungsrat die notwendigen Gesetzesänderungen vorschlagen. Der Kanton Zug solle Schritte einleiten, «um den Kanton Zug für das Zeitalter der Künstlichen Intelligenz zu rüsten».
Automatische Protokolle oder Finden von illegalen Inhalten
Der Zuger SVP-Präsident sei selbst schon mit Projekten mit KI-Lösungen in Berührung gekommen. Oft sei es dabei aber zu Diskussionen wegen fehlenden gesetzlichen Grundlagen gekommen, wie Thomas Werner auf Anfrage schreibt. Das habe ihn zu dem Vorstoss motiviert. Mit KI könnten «viele Arbeitsschritte vereinfacht oder gar automatisiert werden, was zu einer Vereinfachung, Entlastung und Effizienzsteigerung führt», verspricht sich Werner.
Spezifische Systeme hatte er bei der Motion nicht im Blick. «Wegen der schnellen Entwicklung masse ich mir noch gar nicht an, bestimmte Systeme zu nennen, sondern es soll die Grundvoraussetzung für den Einsatz von KI geschaffen werden.» Ihm schweben etwa Instrumente zur automatischen Protokollierung von Sitzungen vor oder zur Erkennung und Aussortierung von illegaler Pornographie.
Expertin rät von KI-Blankocheck ab
Etwas vorsichtiger wäre hingegen Estelle Pannatier. Sie ist Policy Managerin bei «AlgorithmWatch CH», einer Organisation, die sich für Transparenz und sicheren Einsatz von Algorithmen einsetzt. Der KI-Vorstoss sei sehr breit gefasst, wie sie am Telefon sagt. «Man kann der Verwaltung keinen Blankocheck geben, damit sie einsetzen kann, was sie will.» Bei sensiblen Bereichen sollten Kantone keine generellen Gesetze beschliessen, sondern pro Anwendung eine Gesetzesgrundlage schaffen. Bereits der Begriff KI sei diffus: «Heute steckt alles und nichts dahinter.» Gemeint seien damit meist Systeme und Programme, die auf KI oder Algorithmen basieren, Empfehlungen machen und Prognosen oder Entscheide treffen.
:focal(50x50:51x51)/www.zentralplus.ch/wp-content/uploads/2025/02/Estelle_Pannatier_AlgorithmWatch-scaled-e1740062810721.jpg)
Einsatzmöglichkeiten bestünden viele. Beispielsweise werden KI-Systeme in der Schweizer Justiz eingesetzt, um Gerichtsentscheide zu anonymisieren. Oder um Steuerprozesse zu beschleunigen, etwa, indem ein Instrument die Eingaben analysiert und aufdeckt, wo Angaben fehlen oder falsch eingetragen sind. Immer verbreiteter seien Chatbots, um Anfragen der Bevölkerung zu beantworten (zentralplus berichtete).
Auf Bundesebene werden Algorithmen genutzt, um die Arbeitsmarktchancen von Asylsuchenden zu analysieren und sie darauf basierend den Kantonen zuzuweisen. Heikel seien solche Systeme vor allem dann, wenn die Entscheide konkrete Auswirkungen auf Menschen hätten, so Pannatier.
System lehnt Sozialhilfegesuch ab – was dann?
«AlgorithmWatch CH» sei nicht per se gegen den Einsatz von KI-Systemen oder Algorithmen in der öffentlichen Verwaltung, betont die Expertin. Solange die gesetzlichen Rahmenbedingungen dafür stimmen. Denn deren Einsatz könne Auswirkungen auf Menschen und ihre Grundrechte haben. Beispielsweise können Personen dadurch in ihrer gesellschaftlichen Teilhabe beeinträchtigt werden, gibt Pannatier zu bedenken. Je nach Datenbasis könnten Systeme auch diskriminieren oder Bürgern den Zugang zu öffentlichen Gütern und Dienstleistungen verwehren.
Etwa, wenn Systeme dafür verwendet werden, Sozialhilfegesuche automatisch zu bearbeiten oder Sozialhilfemissbrauch zu erkennen, wie das in anderen Ländern bereits der Fall ist. Daher sei es umso wichtiger, dass Transparenz darüber herrsche, welche Systeme in welchem Fall genutzt werden. «Transparenz ist eine Bedingung dafür, dass betroffene Personen sich wehren können und dass für die Öffentlichkeit die Möglichkeit besteht, den Einsatz von algorithmischen Systemen zu debattieren und zu überwachen.»
Möglich werde dies beispielsweise durch öffentliche Verzeichnisse, in denen die Verwaltung die eingesetzten Systeme auflistet. Die Risiken für die Grundrechte müssten aber im Einzelfall überprüft werden, so Pannatier. Und: «Die Entscheide der Verwaltung müssen immer nachvollziehbar sein.» Bei Algorithmen bestehe die Gefahr, dass Verantwortung für Entscheide auf Systeme abgeschoben würden, deren Funktionsweise unklar sei.
Wenn etwa ein Programm einer Gesuchstellerin die Sozialhilfe verwehre, es aber nicht klar sei, wieso, werde es für sie schwer, diesen Entscheid anzufechten. «Gerade bei einer Verwaltung ist es wichtig, dass am Schluss ein Mensch die Verantwortung trägt und nicht das System.»
Algorithmen zum Teil kaum überprüft
Auch in der Polizeiarbeit sei die Verwendung von automatischen Systemen mit Risiken verbunden. Gerade in der vorausschauenden Polizeiarbeit, welche auch die Motion erwähnt. «Dabei versucht man, mit Daten aus der Vergangenheit die Zukunft zu deuten.» Etwa würden Systeme verwendet, um Quartiere zu bestimmen, die besonders gefährlich seien, wonach die Polizei mehr Patrouillen hinschicke.
Das könne aber zu Rückkopplungsschleifen führen: Schicke die Polizei mehr Patrouillen in ein «gefährliches Viertel», decke diese mehr Fälle vor Ort auf. Das Quartier werde als noch gefährlicher wahrgenommen, während Verbrechen in anderen Quartieren untergehen könnten.
Erst kürzlich hat das Bundesgericht mehr Automatisierung bei der Luzerner Polizei den Riegel vorgeschoben. Die Luzerner Polizisten wollten mithilfe von Kameras in die Autos filmen und die Aufnahmen automatisch mit Datenbanken abgleichen. Das gleiche jedoch einer Massenüberwachung und sei nicht verhältnismässig, urteilte das Gericht (zentralplus berichtete).
Ein weiteres Problem: Auch Systeme, die wissenschaftlich kaum bis gar nicht geprüft worden seien, würden eingesetzt, sagt Pannatier. Deren Folgen oder mögliche Fehler seien dadurch kaum bekannt. Umso mehr brauche es deshalb Transparenzmechanismen, damit klar werde, welche Systeme für welchen Zweck eingesetzt würden.
Kanton Zug hat keinen Überblick
Dass bei der Verwendung von KI auch Risiken bestünden, räumt auch Motionär Thomas Werner ein. Auch er fordert deshalb Transparenz für die Algorithmen dahinter und die verwendeten Daten. Die Nutzung einzuschränken, halte er aber für den falschen Weg. Fügt aber an: «Egal, welches System eingesetzt wird, ob KI oder nicht, die gesetzlichen Grundlagen müssen selbstverständlich eingehalten werden.»
Wie viele KI-Systeme die Zuger Verwaltung bereits heute nutzt, ist indes unklar. Eine Liste über alle verwendeten Systeme – wie sie etwa Pannatier vorschlägt – führe Zug nicht, schreibt der Generalsekretär der Finanzdirektion auf Anfrage. «Wir betreiben den entsprechenden Aufwand nicht, weil ihm kein entsprechender Gegenwert gegenübersteht.»
- SVP-Berichtsmotion zum Einsatz von KI in Verwaltung, Justiz und Polizei
- Telefonat mit Estelle Pannatier von «AlgorithmWatch CH»
- Schriftlicher Austausch mit Thomas Werner, Zuger SVP-Präsident und Motionär
- Schriftlicher Austausch mit Thomas Lötscher, Generalsekretär der Zuger Finanzdirektion
- Atlas der Automatisierung von «AlgorithmWatch CH»
- Medienarchiv zentralplus