Uni­ver­si­tät Bam­berg: Hör­spiel über Poli­zei­ar­beit der Zukunft

Wis­sen­schafts­kom­mu­ni­ka­ti­on mal anders: „Cas­san­dra Rising“ greift Ergeb­nis­se eines Bam­ber­ger For­schungs­pro­jek­tes auf

Künst­li­che Intel­li­genz (KI) kommt in der deut­schen Poli­zei­ar­beit bereits zum Ein­satz. Beim soge­nann­ten „Pre­dic­ti­ve Poli­cing“ wer­den poli­zei­li­che Daten durch Algo­rith­men aus­ge­wer­tet. Ziel ist es, kri­mi­nel­le Brenn­punk­te früh­zei­tig zu iden­ti­fi­zie­ren, Ord­nungs­kräf­te effi­zi­ent ein­zu­set­zen und poten­ti­el­le Täter abzu­schrecken. Aller­dings gibt es in der Wis­sen­schaft schwe­re Beden­ken gegen die­se Art von Kri­mi­na­li­täts­pro­gno­sen: „Das Ver­fah­ren fußt auf nicht reprä­sen­ta­tiv erho­be­nen Poli­zei­da­ten und birgt ein hohes Dis­kri­mi­nie­rungs­ri­si­ko“, sagt Dr. Geor­gia­na Bani­ta. Die Ame­ri­ka­ni­stin lei­tet das durch die Volks­wa­gen-Stif­tung mit 80.000 Euro geför­der­te For­schungs­pro­jekt “Sicher­heit für alle: Poli­zei­kul­tur in einer Ein­wan­de­rungs­ge­sell­schaft” der Trim­berg Rese­arch Aca­de­my (TRAc) der Otto-Fried­rich-Uni­ver­si­tät Bam­berg.

Zu wel­chen Sze­na­ri­en „Pre­dic­ti­ve Poli­cing“ füh­ren könn­te, steht im Zen­trum des Sci­ence-Fic­tion-Hör­spiels „Cas­san­dra Rising“ von Mar­tin Hein­del, das von Bani­ta kon­zi­piert und wis­sen­schaft­lich beglei­tet wur­de: Prot­ago­nist ist der Poli­zist Cyrill Kuchin­sky, der im Jahr 2060 Straf­ta­ten ver­hin­dern muss und sich dabei auf die Pro­gno­sen der Soft­ware „Cas­san­dra“ ver­lässt. Die Zusam­men­hän­ge durch­blickt er dabei nicht. Noch weni­ger ver­steht er die ihm erteil­ten Anwei­sun­gen, bei denen er unwis­sent­lich Min­der­hei­ten dis­kri­mi­niert. Doch das schein­bar all­wis­sen­de Pro­gno­se­pro­gramm ist nur ein Instru­ment. Wer oder was hält in die­ser nicht all­zu fer­nen Zukunft die Fäden in der Hand?

Auto­ma­ti­sier­te Poli­zei­ar­beit kann Unge­rech­tig­kei­ten erzeu­gen

Das Hör­spiel zeigt, dass auto­ma­ti­sier­te Poli­zei­ar­beit genau die­je­ni­gen Ver­zer­run­gen und Unge­rech­tig­kei­ten auf­recht­erhal­ten könn­te, die drin­gend abge­baut wer­den müs­sen. “Es kann des­halb gefähr­lich sein, einem Algo­rith­mus sozia­le Nor­men und ethi­sche Wer­te bei­zu­brin­gen. Denn die­se sind gesell­schaft­lich kon­stru­iert, oft auf Kosten von sozia­len Rand­grup­pen“, sagt Bani­ta. „Das soll­ten wir beden­ken, bevor wir einem Algo­rith­mus unse­re Sicher­heit anver­trau­en.“

Geor­gia­na Bani­ta hat in das eben­falls von der Volks­wa­gen-Stif­tung mit knapp 50.000 Euro geför­der­te Hör­spiel Fra­ge­stel­lun­gen und Ergeb­nis­se ihrer For­schung ein­ge­bracht: Der Algo­rith­mus für Pro­gno­se­instru­men­te wie „Cas­san­dra“ müs­se von einem mög­lichst umfang­rei­chen und exak­ten Wis­sen aus­ge­hen. So kön­ne man ver­hin­dern, dass das Pro­blem der Dis­kri­mi­nie­rung von Migran­tin­nen und Migran­ten durch die Poli­zei bestehen blei­be. „Psy­cho­lo­gi­sche, kul­tu­rel­le und gesell­schaft­li­che Zusam­men­hän­ge dür­fen nicht ver­schlei­ert wer­den. Eine Lösung kann hier die Ver­wen­dung von KI als inter­ak­ti­ves System sein. KI wäre dann kein eigen­stän­di­ges Ent­schei­dungs­in­stru­ment – die Nut­ze­rin­nen und Nut­zer könn­ten selbst bestim­men, wie sie auf Grund­la­ge der Infor­ma­tio­nen han­deln möch­ten“, erklärt Bani­ta.

Das Hör­spiel wur­de erst­mals als WDR 1LIVE Kri­mi am 2. Juli 2020 gesen­det und steht ein Jahr kosten­los zum Down­load zu Ver­fü­gung unter:
https://​www1​.wdr​.de/​r​a​d​i​o​/​1​l​i​v​e​/​o​n​-​a​i​r​/​s​e​n​d​u​n​g​e​n​/​1​l​i​v​e​-​k​r​i​m​i​/​k​r​i​m​i​n​a​l​i​t​a​e​t​-​v​o​r​h​e​r​s​a​g​e​n​-​h​o​e​r​s​p​i​e​l​-​1​0​0​.​h​tml