«Künstliche Intelligenz – ersetzt die Maschine bald den Staat?»

An einer Podi­ums­dis­kus­si­on am Zen­trum für Demo­kra­tie Aar­au (ZDA) wur­de erläu­tert, in wel­chen Berei­chen die Behör­den in der Schweiz bereits künst­li­che Intel­li­genz ein­set­zen. Debat­tiert wur­de ins­be­son­de­re die Fra­ge nach der Funk­ti­ons­wei­se ent­spre­chen­der Tech­no­lo­gien und den Bedin­gun­gen für ihre Anwen­dung beim Staat. Dabei wur­de klar: Die Schweiz ist erst am Anfang.

Um die künst­li­che Intel­li­genz (KI) ran­ken sich vie­le Mythen. Wir alle ken­nen ver­schie­de­ne (pop-)kulturelle Ver­ar­bei­tun­gen des The­mas – von Mary Shel­leys «Fran­ken­stein» (1816) über Fritz Langs «Metro­po­lis» (1927) bis zu «Bla­de Run­ner» von Rid­ley Scott (1982, Sequel: 2017). Der Topos vom Men­schen, der ein künst­li­ches Wesen erschafft, das sich ver­selb­stän­digt und sich sei­nes Schöp­fers bemäch­tigt, fas­zi­niert seit jeher. Sol­che Bil­der prä­gen unse­re Vor­stel­lun­gen und Ängs­te. Doch wie weit ent­wi­ckelt ist KI im rich­ti­gen Leben und wo ist sie bereits im Ein­satz? Soll der Staat sie einsetzen?

Über die­se Fra­gen dis­ku­tier­te ein pro­mi­nent besetz­tes Podi­um am Zen­trum für Demo­kra­tie Aar­au (ZDA). Mode­riert wur­de es von Co-Gast­ge­be­rin Nad­ja Braun Bin­der, Assis­tenz­pro­fes­so­rin am ZDA und Exper­tin für Staats- und Ver­wal­tungs­recht sowie E‑Government. Um die Mythen­bil­dung gleich in ihre Schran­ken zu ver­wei­sen, sei vor­weg­ge­nom­men, dass die Debat­te auf die so genann­te «schwa­che KI» fokus­sier­te, auf Anwen­dun­gen also, die den Men­schen beim Errei­chen sei­ner Zie­le auf intel­li­gen­te Art und Wei­se unter­stüt­zen (und nicht erset­zen) sollen.

Sinnvolle Recherche mit Analysetools in einer Datenmasse ist von begleitenden Ermittlungen abhängig

Podi­ums­gast Andrea Jug-Höhener ist Lei­te­rin der Ermitt­lungs­ab­tei­lung Wirt­schafts­kri­mi­na­li­tät bei der Kan­tons­po­li­zei (KaPo) Zürich und holt uns gleich von Beginn weg auf den Boden der Rea­li­tät zurück: Den All­tag der Zür­cher Poli­zis­ten müs­se man sich nicht wie im Fern­se­hen vor­stel­len, wo viel Ermitt­lungs­ar­beit von intel­li­gen­ten Maschi­nen voll­zo­gen wür­de. Ermitt­lun­gen sei­en viel­mehr schwe­re Denk- und Hand­ar­beit, die der Mensch leis­te. Bei der KaPo im Ein­satz sei­en hin­ge­gen intel­li­gen­te Text­ana­ly­se-Tools, die etwa das Zurecht­fin­den in gros­sen Daten­men­gen beschleu­ni­gen und den Fokus auf mög­li­ches beweis­re­le­van­tes Mate­ri­al len­ken wür­den. Jug-Höhener betont, dass die bes­ten Beweis­mit­tel ohne­hin durch das Gespräch gefun­den wür­den. Zudem sei eine Recher­che in einer unstruk­tu­rier­ten Daten­mas­se nur dann ziel­füh­rend, wenn auf­grund von beglei­ten­den Ermitt­lun­gen ent­spre­chen­de Such­kri­te­ri­en defi­niert wer­den könnten.

Auch Gui­do Mar­bet, Ober­rich­ter des Kan­tons Aar­gau, sieht die Vor­tei­le moder­ner Tech­no­lo­gien vor allem in der Beschleu­ni­gung von Recher­che­pro­zes­sen und der gene­rel­len Unter­stüt­zung des Rechts­fin­dungs­pro­zes­ses. Wäre grund­sätz­lich auch ein Ein­satz von intel­li­gen­ten Tools beim Recht­spre­chungs­pro­zess mög­lich? Mar­bet ver­neint: «Um Trans­pa­renz gewähr­leis­ten zu kön­nen, müss­ten Algo­rith­men nach­voll­zieh­bar sein, sonst sind sie in der Recht­spre­chung nicht zuläs­sig.» Aus­ser­dem gebe es als Aus­fluss des Grund­sat­zes des recht­li­chen Gehörs bei die­ser Ermes­sens­spiel­raum. Des­halb: «Die Urteils­bil­dung setzt mensch­li­che Ent­schei­dungs­fä­hig­keit voraus.»

KI – keine Chancen ohne Risiken

«Wir ste­hen erst am Anfang», ant­wor­tet Arié Malz, Refe­rent für IKT und digi­ta­le Trans­for­ma­ti­on im EFD, auf die Fra­ge, in wel­chen Berei­chen beim Bund KI ange­wen­det wer­de. Malz weist dar­auf hin, dass die Ver­wal­tung auf den Ein­satz von KI nicht wer­de ver­zich­ten kön­nen. Es ent­spre­che einem moder­nen «Kunden»-Bedürfnis, staat­li­che Dienst­leis­tun­gen ein­fach und rund um die Uhr bezie­hen zu kön­nen. Der Ein­satz von KI sei auch wich­tig, um Effek­ti­vi­tät und Wirt­schaft­lich­keit zu för­dern. Die Auf­ar­bei­tung der heu­ti­gen Daten­men­gen sei ohne ent­spre­chen­de Sys­te­me wie Deep Lear­ning oder Machi­ne Lear­ning nicht mehr zu bewäl­ti­gen. Neben den Chan­cen führt Malz aber auch die Risi­ken intel­li­gen­ter Anwen­dun­gen vor Augen: «Trans­pa­renz und Nach­voll­zieh­bar­keit der Resul­ta­te von KI-Sys­te­men sind oft nicht gege­ben – umso weni­ger, je auto­no­mer und ‹intel­li­gen­ter› sie agie­ren.» Die rasant sich ent­wi­ckeln­de Tech­no­lo­gie stel­le KI-Anwender*innen vor Her­aus­for­de­run­gen, die sie mit heu­ti­ger Tech­no­lo­gie noch nicht bewäl­ti­gen könn­ten. Ideen und Pro­to­ty­pen für die Über­wa­chung von Algo­rith­men durch Algo­rith­men sei­en vor­han­den, aber längst noch nicht einsatzbereit.

Algorithmen sollten offengelegt werden

Die Intrans­pa­renz ent­spre­chen­der Tech­no­lo­gien ist auch für Hans­pe­ter Thür Stein des Anstos­ses. Der grü­ne Stadt­rat von Aar­au betont, dass er als eid­ge­nös­si­scher Daten­schutz- und Öffent­lich­keits­be­auf­trag­ter immer gefor­dert habe, dass Algo­rith­men offen­ge­legt wer­den. Damit sei er aller­dings auf tau­be Ohren gestos­sen. Die Gegen­sei­te habe als Argu­ment immer das Geschäfts­ge­heim­nis ins Feld geführt. Aber ist die­ses Argu­ment stich­hal­tig? Thür wirft ein, dass Fir­men ihrer Kon­troll­stel­le bei­spiels­wei­se auch sämt­li­che Buch­hal­tungs­zah­len offen­le­gen müs­sen und sich nicht auf das Geschäfts­ge­heim­nis beru­fen kön­nen. Ein ähn­li­ches Kon­zept wäre auch für die Offen­le­gung der Algo­rith­men denk­bar, indem etwa eine unab­hän­gi­ge Prüf­instanz ein­ge­setzt wür­de, die ihrer­seits dem Amts­ge­heim­nis unter­stellt wäre. 

Thür warnt auch vor KI-Anwen­dun­gen, bei denen künst­li­che Intel­li­genz aufs Indi­vi­du­um her­un­ter­ge­bro­che­ne Ent­schei­de oder Ver­dach­te zu Tage för­dert: «Ins Visier von KI dür­fen kei­ne ein­zel­nen Men­schen gera­ten.» Als beson­ders pro­ble­ma­tisch erach­tet er die Pra­xis des KI-basier­ten «Pre­dic­ti­ve Poli­cing». Dabei wird KI zur Vor­her­sa­ge von Straf­ta­ten und Aus­lö­sung ent­spre­chen­der Poli­zei­ein­sät­ze genutzt. Das sei dann pro­ble­ma­tisch, wenn der Ein­satz die­ser Tech­no­lo­gie dazu ver­wen­det wer­de, gegen ein­zel­ne Per­so­nen vorzugehen.

Es ist Aufgabe des Staates, seine Bürgerinnen und Bürger vor Privaten zu schützen

Die ent­schei­den­de Fra­ge stellt Cori­na Gre­dig, Kan­tons­rä­tin der GLP Zürich und Lei­te­rin des GLP Lab: «Sind wir bereit, einer Maschi­ne zu ver­trau­en, bei der wir gar nicht ver­ste­hen, was sie genau macht?». Die Algo­rith­men sei­en immer häu­fi­ger «Black Boxes»: Die Ergeb­nis­se aus deren Pro­zes­sen könn­ten Men­schen nicht mehr nach­voll­zie­hen, weil sie zu kom­plex sei­en. Dar­über hin­aus wer­de oft ver­ges­sen, dass eine intel­li­gen­te Maschi­ne ja Infor­ma­tio­nen aus der Gesamt­ge­sell­schaft ver­in­ner­li­che. «Dem­ge­mäss über­nimmt sie auch ver­brei­te­te Nei­gun­gen und Vorurteile.»

Beim Fazit der Dis­kus­si­on war man sich weit­ge­hend einig. Ers­tens: Künst­li­che Intel­li­genz soll Men­schen bei ihrer Arbeit unter­stüt­zen. Ihr Ein­satz ist sinn­voll bei Tätig­kei­ten wie Recher­che, Über­set­zung und teil­wei­se bei der Ana­ly­se. Syn­the­se, Schluss­fol­ge­run­gen und Ent­schei­de gehö­ren hin­ge­gen ins Kom­pe­tenz­ge­biet des Men­schen. Zwei­tens: Die mit der KI ver­bun­de­nen Pro­zes­se müs­sen trans­pa­rent und nach­voll­zieh­bar sein. Drit­tens: Staat­li­che KI-Ein­sät­ze sind von einem dafür qua­li­fi­zier­ten Organ zu kon­trol­lie­ren. Gui­do Mar­bet setzt den Schluss­punkt: «Die Schaf­fung einer ent­spre­chen­den Kom­pe­tenz­stel­le ist eine staat­li­che Auf­ga­be. Der Staat muss die Demo­kra­tie, muss sei­ne Bür­ge­rin­nen und Bür­ger vor Pri­va­ten schüt­zen.» Dies kön­ne aller­dings nicht im Allein­gang bewäl­tigt wer­den, es sei eine inter­na­tio­na­le Her­aus­for­de­rung. Es bleibt viel zu tun. Ins­be­son­de­re im Hin­blick auf das Tem­po, mit dem KI wei­ter­ent­wi­ckelt wird.


Bild: Flickr

Print Friendly, PDF & Email