Es ist ein zusätzliches, unabhängiges Verfahren. Das ist immer gut: Wenn eins der anderen Verfahren nicht so aussagekräftig ist, dann habe ich eine weitere, sachliche, nicht von Gefühlen oder Missverständnissen oder der Erinnerung abhängige Informationsquelle.
Was sind die Nachteile?
Nachteil würde ich es nicht nennen, aber die Genauigkeit ist nicht hundertprozentig. Aus welcher Stadt eine Probe stammte, konnte in der Studie mit immerhin 92-prozentiger Genauigkeit erkannt werden. Das ist schon sehr gut. Woher innerhalb einer Stadt die Probe stammte, konnte in mehr als vier Fünftel der untersuchten Fälle festgelegt werden. Das ist wirklich eindrucksvoll. Teils lagen die Probe-Orte weniger als einen Kilometer auseinander.
Wann könnte die Technik zum Einsatz kommen?
Jederzeit. Ich wende mit meinem Team manche Verfahren nur einmal an, andere dauernd. Das ist ganz fließend: Wenn sich eine Technik polizeilich bewährt, dann wird sie öfter eingesetzt. Wenn nicht, dann seltener oder nur in sehr schwierigen oder von irgendjemandem als wichtig wahrgenommenen Fällen.
Wieso sprechen die Entwickler aber davon, dass es noch einige Jahre dauern könnte?
Weil es für gerichtliche Fälle oft wichtig ist, dass die Spuren aus sich heraus beweiskräftig sind. Dazu müssen sie getestet werden. Außerdem sind für die Bakterienabgleiche auch viele Proben, also Datenbankeinträge nötig. Und die Umwelt und damit die Bakterien ändert sich. Das Gericht muss aber sicher sagen können: Die Bakterien unter ihren Schuhen stammen sicher vom Ort, an dem die Leiche gefunden wurde.
Anders sieht es aber mit ersten Untersuchungen bei der Polizei aus, da können schon Hinweise statt Beweise die Ermittlungen in eine vernünftige Richtung oder weg von einer weniger vernünftigen lenken. Daher sickern neue Verfahren immer langsam ein: Erst in der Wissenschaft und im Labor, dann bei der Polizei in der Ermittlungsarbeit und schließlich vor Gericht als harte Spurenbeweise.
Welches Potenzial bietet KI generell für Ermittlungsbehörden und wo wird sie bereits eingesetzt?
K.I.-Anwendungen schleichen sich überall in die Arbeit, sei es bei der Bearbeitung und Verbesserung von Fotos bis hin zur Untersuchung von Texten. Beispiele sind klassisches Zusammentragen von Informationen, wie es jetzt schon viele Schülerinnen und Schüler mit Chat-GPT machen — das geht natürlich auch bei der Polizei und Geheimdiensten. Es können aber auch persönliche Eigenarten bei Schreiben erkannt werden, etwa von Erpressernachrichten.
Die beiden ersten großen KI-Anwendungen in der Kriminalistik waren Handydaten und die Verbrechensvorhersage. Aus den Hunderttausenden von Handyverbindungen und „Gesprächsknoten“ wird sichtbar, wer mit wem wann, wo und wie lange in Kontakt stand. Diese selbst mir anfangs wie Science-Fiction erscheinende Technik wurde allerdings schon im Comic vorhergesagt: Batman, der ja auch Verbrechensjäger ist, führte solche Massendatenauswertungen von Handys als erster durch.
Die zweite Anwendung, also die Vorhersage von möglichen Verbrechen, stammt aus der klassischen Science-Fiction-Literatur, der Geschichte ‚Minority Report‘ von Philip K. Dick aus den 1950er Jahren. Mittlerweile versuchen einige Kolleginnen und Kollegen, die Häufigkeit und Wahrscheinlichkeit vorwiegend von Einbrüchen in gewissen Gegenden oder zu bestimmten Zeiten zu berechnen. Beides — Handy-Massendaten und „Pre Crime“ — klappt allerdings auch ohne echte Künstliche Intelligenz, dafür reichen Gehirn- und Muskelschmalz und viel Rechnerleistung. Ob diese Verfahren eingesetzt werden oder nicht, ist eine soziale und kulturelle Frage.
Was sind die Gefahren von Künstlicher Intelligenz?
Wie bei jeder Datensammlung und -auswertung: Die Gefahren liegen darin, dass die Informationen ungefragt zusammengeführt werden und so ein allzu genaues Bild über persönliche Gewohnheiten geben. Das hat das Bundesverfassungsgericht schon 1983 im Volkszählungsurteil gut dargelegt: Menschen sollen im Kern selbst entscheiden, was über sie bekannt wird und was nicht.