Der Angeklagte wird wegen schwerer Körperverletzung zu zwei Jahren Fahrverbot mit einhergehender Sicherungsverwahrung verurteilt. Vor Erteilung der Fahrerlaubnis müssen eine dreimonatige Simultanschulung und ein digitaler Idiotentest absolviert werden. Trotz des klaren Urteils sind sich Richter und Staatsanwalt nicht völlig sicher, ob nicht doch ein schwerwiegendes Fehlurteil gefällt worden ist. Auf der Anklagebank saß: ein selbstfahrendes Auto, das bei einem Ausweichmanöver einen Passanten schwer verletzt hat. Dem Besitzer des Autos, der nicht eingreifen konnte, war kein Vorwurf zu machen, dem Hersteller ebenso wenig und der Lieferant der lizensierten und zertifizierten Software konnte sich wie der Besitzer darauf berufen, am Unfallgeschehen überhaupt nicht direkt beteiligt gewesen zu sein.
Klingt kafkaesk, könnte aber in naher Zukunft Realität werden. Gibt es bis dahin so etwas wie eine Maschinenethik? Kann künstliche Intelligenz auch lernen, zwischen Gut und Böse, Falsch und Richtig zu entscheiden? Kann eine intelligente Maschine Empfindungen haben, emotional werden, moralisch handeln? Ein computergestützter Roboter kann schneller arbeiten als jeder Mensch, kann den Weltmeister im Schach schlagen und sich schneller selbst programmieren als der beste IT-Spezialist es je könnte. Und dennoch bleibt er eine Maschine, ohne Gefühl, ohne Emotionen oder gar Moral. Doch zurück zu unserem Angeklagten. Für Wissenschaft und Forschung, Politik und Wirtschaft und nicht zuletzt für die Justiz sind es drängende Fragen, die einer baldigen Antwort bedürfen.