1

«Künstliche Intelligenz – ersetzt die Maschine bald den Staat?»

Nathalie Baumann
27th June 2019

An einer Podiumsdiskussion am Zentrum für Demokratie Aarau (ZDA) wurde erläutert, in welchen Bereichen die Behörden in der Schweiz bereits künstliche Intelligenz einsetzen. Debattiert wurde insbesondere die Frage nach der Funktionsweise entsprechender Technologien und den Bedingungen für ihre Anwendung beim Staat. Dabei wurde klar: Die Schweiz ist erst am Anfang.

Um die künstliche Intelligenz (KI) ranken sich viele Mythen. Wir alle kennen verschiedene (pop-)kulturelle Verarbeitungen des Themas – von Mary Shelleys «Frankenstein» (1816) über Fritz Langs «Metropolis» (1927) bis zu «Blade Runner» von Ridley Scott (1982, Sequel: 2017). Der Topos vom Menschen, der ein künstliches Wesen erschafft, das sich verselbständigt und sich seines Schöpfers bemächtigt, fasziniert seit jeher. Solche Bilder prägen unsere Vorstellungen und Ängste. Doch wie weit entwickelt ist KI im richtigen Leben und wo ist sie bereits im Einsatz? Soll der Staat sie einsetzen?

Über diese Fragen diskutierte ein prominent besetztes Podium am Zentrum für Demokratie Aarau (ZDA). Moderiert wurde es von Co-Gastgeberin Nadja Braun Binder, Assistenzprofessorin am ZDA und Expertin für Staats- und Verwaltungsrecht sowie E-Government. Um die Mythenbildung gleich in ihre Schranken zu verweisen, sei vorweggenommen, dass die Debatte auf die so genannte «schwache KI» fokussierte, auf Anwendungen also, die den Menschen beim Erreichen seiner Ziele auf intelligente Art und Weise unterstützen (und nicht ersetzen) sollen.

Sinnvolle Recherche mit Analysetools in einer Datenmasse ist von begleitenden Ermittlungen abhängig

Podiumsgast Andrea Jug-Höhener ist Leiterin der Ermittlungsabteilung Wirtschaftskriminalität bei der Kantonspolizei (KaPo) Zürich und holt uns gleich von Beginn weg auf den Boden der Realität zurück: Den Alltag der Zürcher Polizisten müsse man sich nicht wie im Fernsehen vorstellen, wo viel Ermittlungsarbeit von intelligenten Maschinen vollzogen würde. Ermittlungen seien vielmehr schwere Denk- und Handarbeit, die der Mensch leiste. Bei der KaPo im Einsatz seien hingegen intelligente Textanalyse-Tools, die etwa das Zurechtfinden in grossen Datenmengen beschleunigen und den Fokus auf mögliches beweisrelevantes Material lenken würden. Jug-Höhener betont, dass die besten Beweismittel ohnehin durch das Gespräch gefunden würden. Zudem sei eine Recherche in einer unstrukturierten Datenmasse nur dann zielführend, wenn aufgrund von begleitenden Ermittlungen entsprechende Suchkriterien definiert werden könnten.

Auch Guido Marbet, Oberrichter des Kantons Aargau, sieht die Vorteile moderner Technologien vor allem in der Beschleunigung von Rechercheprozessen und der generellen Unterstützung des Rechtsfindungsprozesses. Wäre grundsätzlich auch ein Einsatz von intelligenten Tools beim Rechtsprechungsprozess möglich? Marbet verneint: «Um Transparenz gewährleisten zu können, müssten Algorithmen nachvollziehbar sein, sonst sind sie in der Rechtsprechung nicht zulässig.» Ausserdem gebe es als Ausfluss des Grundsatzes des rechtlichen Gehörs bei dieser Ermessensspielraum. Deshalb: «Die Urteilsbildung setzt menschliche Entscheidungsfähigkeit voraus.»

KI – keine Chancen ohne Risiken

«Wir stehen erst am Anfang», antwortet Arié Malz, Referent für IKT und digitale Transformation im EFD, auf die Frage, in welchen Bereichen beim Bund KI angewendet werde. Malz weist darauf hin, dass die Verwaltung auf den Einsatz von KI nicht werde verzichten können. Es entspreche einem modernen «Kunden»-Bedürfnis, staatliche Dienstleistungen einfach und rund um die Uhr beziehen zu können. Der Einsatz von KI sei auch wichtig, um Effektivität und Wirtschaftlichkeit zu fördern. Die Aufarbeitung der heutigen Datenmengen sei ohne entsprechende Systeme wie Deep Learning oder Machine Learning nicht mehr zu bewältigen. Neben den Chancen führt Malz aber auch die Risiken intelligenter Anwendungen vor Augen: «Transparenz und Nachvollziehbarkeit der Resultate von KI-Systemen sind oft nicht gegeben – umso weniger, je autonomer und ‹intelligenter› sie agieren.» Die rasant sich entwickelnde Technologie stelle KI-Anwender*innen vor Herausforderungen, die sie mit heutiger Technologie noch nicht bewältigen könnten. Ideen und Prototypen für die Überwachung von Algorithmen durch Algorithmen seien vorhanden, aber längst noch nicht einsatzbereit.

Algorithmen sollten offengelegt werden

Die Intransparenz entsprechender Technologien ist auch für Hanspeter Thür Stein des Anstosses. Der grüne Stadtrat von Aarau betont, dass er als eidgenössischer Datenschutz- und Öffentlichkeitsbeauftragter immer gefordert habe, dass Algorithmen offengelegt werden. Damit sei er allerdings auf taube Ohren gestossen. Die Gegenseite habe als Argument immer das Geschäftsgeheimnis ins Feld geführt. Aber ist dieses Argument stichhaltig? Thür wirft ein, dass Firmen ihrer Kontrollstelle beispielsweise auch sämtliche Buchhaltungszahlen offenlegen müssen und sich nicht auf das Geschäftsgeheimnis berufen können. Ein ähnliches Konzept wäre auch für die Offenlegung der Algorithmen denkbar, indem etwa eine unabhängige Prüfinstanz eingesetzt würde, die ihrerseits dem Amtsgeheimnis unterstellt wäre. 

Thür warnt auch vor KI-Anwendungen, bei denen künstliche Intelligenz aufs Individuum heruntergebrochene Entscheide oder Verdachte zu Tage fördert: «Ins Visier von KI dürfen keine einzelnen Menschen geraten.» Als besonders problematisch erachtet er die Praxis des KI-basierten «Predictive Policing». Dabei wird KI zur Vorhersage von Straftaten und Auslösung entsprechender Polizeieinsätze genutzt. Das sei dann problematisch, wenn der Einsatz dieser Technologie dazu verwendet werde, gegen einzelne Personen vorzugehen.

Es ist Aufgabe des Staates, seine Bürgerinnen und Bürger vor Privaten zu schützen

Die entscheidende Frage stellt Corina Gredig, Kantonsrätin der GLP Zürich und Leiterin des GLP Lab: «Sind wir bereit, einer Maschine zu vertrauen, bei der wir gar nicht verstehen, was sie genau macht?». Die Algorithmen seien immer häufiger «Black Boxes»: Die Ergebnisse aus deren Prozessen könnten Menschen nicht mehr nachvollziehen, weil sie zu komplex seien. Darüber hinaus werde oft vergessen, dass eine intelligente Maschine ja Informationen aus der Gesamtgesellschaft verinnerliche. «Demgemäss übernimmt sie auch verbreitete Neigungen und Vorurteile.»

Beim Fazit der Diskussion war man sich weitgehend einig. Erstens: Künstliche Intelligenz soll Menschen bei ihrer Arbeit unterstützen. Ihr Einsatz ist sinnvoll bei Tätigkeiten wie Recherche, Übersetzung und teilweise bei der Analyse. Synthese, Schlussfolgerungen und Entscheide gehören hingegen ins Kompetenzgebiet des Menschen. Zweitens: Die mit der KI verbundenen Prozesse müssen transparent und nachvollziehbar sein. Drittens: Staatliche KI-Einsätze sind von einem dafür qualifizierten Organ zu kontrollieren. Guido Marbet setzt den Schlusspunkt: «Die Schaffung einer entsprechenden Kompetenzstelle ist eine staatliche Aufgabe. Der Staat muss die Demokratie, muss seine Bürgerinnen und Bürger vor Privaten schützen.» Dies könne allerdings nicht im Alleingang bewältigt werden, es sei eine internationale Herausforderung. Es bleibt viel zu tun. Insbesondere im Hinblick auf das Tempo, mit dem KI weiterentwickelt wird.


Bild: Flickr