KI-Strafrecht - die Zukunft beginnt jetzt

„Unter künstlicher Intelligenz (KI) verstehen wir Technologien, die menschliche Fähigkeiten im Sehen, Hören, Analysieren, Entscheiden und Handeln ergänzen und stärken.“

Definition Microsoft

Strafrecht dient der Sanktionierung erheblich sozialschädlichen Verhaltens.

Von Menschen.

Noch.

Willkommen in der Zukunft

Obwohl künstliche Intelligenz in immer mehr Bereichen des Lebens angewendet wird, scheint das Thema im Strafrecht noch nicht angekommen zu sein. Das wird sich in den kommenden Jahren gravierend ändern. Ich wage zu behaupten, dass KI das Strafrecht nicht nur oberflächlich prägen wird, weil bei immer mehr Straftaten KI durch menschliche Täter eingesetzt werden wird – sondern dass wir mit der Zunahme von Entscheidungen durch autonome KI unser Strafrecht von Grund auf neu denken müssen.

Unser Strafrecht soll menschliches Verhalten, das wichtige Rechtsgüter wie Leben, Freiheit oder Eigentum verletzt, bestrafen und dadurch bewirken, dass solches Verhalten in Zukunft nicht mehr auftritt. Im Mittelpunkt steht dabei die Schuld, also die strafrechtliche Verantwortlichkeit eines einzigen Menschen. Getreu dem Grundsatz nulla poena sine culpa (lateinisch für Keine Strafe ohne Schuld) kann nur derjenige bestraft werden, der Schuld trägt: der Mensch, der den Abzug drückt oder sich dazu entscheidet zu stehlen. Macht sich ein Mensch Künstliche Intelligenz als Werkzeug für Straftaten zunutze, indem er diese zur Unterstützung seiner Handlungen nutzt oder sie gezielt so manipuliert, dass sie die Tat scheinbar selbständig für ihn begeht, ist der Mensch nach unserer herkömmlichen Strafrechtsdogmatik ohne Zweifel strafrechtlich voll verantwortlich.

Wie sieht die KI-Zukunft aus? Umfrage Statistik 2021 - Liebscher Strafrecht
KI - AI - Artefakt - künstliche Intelligenz - Liebscher Strafrecht

Werkzeuge zu nutzen ist für Menschen charakteristisch und KI ist grundsätzlich nichts anderes als das. Allerdings ist KI mehr als ein unbelebter Gegenstand. Entsprechend der oben genannten Definition erweitert KI nicht nur menschliche Sinne wie Sehen und Hören, sondern soll auch urteilen, entscheiden und handeln. Dies sind bis jetzt rein menschliche Funktionen, die nicht zufällig ein Teilgebiet der Allgemeinen Psychologie darstellen – und die Grundpfeiler strafrechtlicher Verantwortlichkeit. Schuldfähigkeit ist nicht anderes als die Fähigkeit eigenverantwortlich zu handeln. Sobald KI anfangen wird, eigene Entscheidungen zu treffen und selbst zu handeln, werden sich die Grenzen strafrechtlicher Verantwortlichkeit also erweitern müssen.

KI als Tatmittel

Vorsatzdelikte - KI als Waffe

Wie immer, wenn es eine neue Technologie gibt, machen sich Menschen diese für Straftaten zu nutze. Bereits der Faustkeil diente nicht nur als Werkzeug, sondern auch als Waffe. Und auch das Verkehrsstrafrecht wäre nicht das was es ist, wenn nicht irgendwann jemand das Rad erfunden hätte… Wie zu erwarten war, gibt es auch im Bereich der KI einige Tools, die sich bei Kriminellen großer Beliebtheit erfreuen.

Chatbots kommen häufig als virtueller Kundenservice zum Einsatz, indem sie z.B. Webseiten-Besucher in Empfang nehmen und häufig gestellte Fragen beantworten. Sie sind aber auch schon zum Betrug genutzt worden, so zum Beispiel auf Flirt- oder Dating-Plattformen, wo es gelegentlich vorkommen soll, dass Menschen mit Nicht-Menschen chatten, ohne es zu merken. Werden die Chatbots von den Plattform-Betreibern eingesetzt, um Kunden echte Flirt-Partner vorzugaukeln und sie dadurch zum Geldausgeben zu verleiten, handelt es sich klassischen Betrug (§ 263 StGB): durch den Einsatz des menschlich erscheinenden Chatbots (Vorspiegelung einer falschen Tatsache) wird der Eindruck eines tatsächlichen menschlichen Chatpartners erzeugt (Erregung eines Irrtums), der kausal für den Abschluss bzw. die Verlängerung eines Abos (Vermögensverfügung) ist, der zu Kosten für das Opfer (Vermögensschaden) und Gewinn für den Plattform-Betreiber (rechtswidriger Vermögensvorteil) führt. Die Künstliche Intelligenz macht die Tat erst möglich – die Strafbarkeit lässt sich aber interessanterweise ohne irgendwelche Probleme mit den Begriffen des 1871 verabschiedeten Strafgesetzbuchs erfassen.

Auch bei Waffen im wortwörtlichen Sinne spielt KI eine immer größere Rolle. Man denke nur an Zielerfassungssysteme von Panzern oder Drohnen. Diese Systeme sind insofern „intelligent“, als dass sie Ziele viel zuverlässiger erkennen und ansteuern können, als das mit menschlichen Sinnen möglich wäre. Die Entscheidung, welches Ziel unter welchen Bedingungen anvisiert werden soll und ob das System überhaupt eingesetzt werden soll, liegt aber nach wie vor bei Menschen, sodass diese weiterhin die uneingeschränkte strafrechtliche Verantwortung für den Einsatz solcher Waffen tragen.

AI singularity in space KI - Liebscher Strafrecht
Wo OpenAI-Software bereits im Einsatz ist - Statistik 2023 - Liebscher Strafrecht

Bei den Vorsatzdelikten, bei denen sich Menschen bewusst KI zur Erweiterung oder Verstärkung ihrer Fähigkeiten bedienen, um Straftaten zu begehen, wird man den Boden des althergebrachten Strafrechts nicht verlassen müssen. Allerdings können viele KI-Technologien, die heute schon in Alltagstechnik stecken, wie Satellitennavigation, Telekommunikation oder Gesichtserkennung, in bestimmten Kombinationen und in den falschen Händen zu tödlichen Waffen werden. Solche Technologien, die man sowohl für friedliche Zwecke als auch für militärische oder kriminelle Ziele einsetzen kann, nennt man Dual-Use-Güter, also Güter mit doppeltem Verwendungszweck. Bereits heute gibt es zahlreiche Gesetze und Verordnungen, die sich mit der Kontrolle solcher Waren und Technologien befassen. Da Künstliche Intelligenz ein unfassbares Potential sowohl für Fortschritt als auch Gefahren besitzt, gehe ich davon aus, dass sich Gesetzgeber und Behörden in Zukunft immer mehr mit der Regulierung von Dual-Use-KI befassen müssen und sich auch ein entsprechender Zweig des Strafrechts herausbilden wird, der den unerlaubten Umgang mit gewissen Technologien sanktionieren wird.

Fahrlässigkeitsdelikte - wenn die KI versagt

Ein Bereich des Strafrechts, der vielleicht nicht so im Fokus der Aufmerksamkeit steht wie Mord und Totschlag, der aber mit zunehmender Verbreitung künstlicher Intelligenz an Bedeutung gewinnen wird, sind die Fahrlässigkeitsdelikte. Der Begriff der Fahrlässigkeit, den das Strafgesetzbuch übrigens nirgendwo erläutert, wird üblicherweise als außer Acht lassen der im Verkehr erforderlichen Sorgfalt definiert. Das heißt, dass derjenige, der in einer Situation nicht so gut aufpasst, wie es der Durchschnittsmensch getan hätte, strafrechtlich zur Verantwortung gezogen werden kann, wenn etwas passiert. Das klassische Beispiel sind Verkehrsunfälle, bei denen Menschen verletzt (§ 229 StGB Fahrlässige Körperverletzung) oder getötet (§ 222 StGB Fahrlässige Tötung) werden, weil jemand unachtsam oder unvorsichtig war. Die strafrechtliche Schuld gründet sich also darauf, dass ein Mensch nicht aufgepasst oder nicht pflichtgemäß gehandelt hat.

Datenstrom - künstliche Intelligenz - KI Strafrecht - Liebscher Strafrecht
Fahrzeuge und KI - KI Strafrecht - Strafverteidigerin Andrea Liebscher

Selbstfahrende Autos werden in wenigen Jahren Realität auf unseren Straßen sein. Bereits jetzt sind im allgemeinen Straßenverkehr Fahrerassistenzsysteme wie Bremsassistenten oder Spurwechsel-Hilfen gang und gäbe. Am Steuer – und bei einem Unfall in der Pflicht – ist aber bislang immer noch ein menschlicher Fahrer. Bei Verkehrsunfällen, die durch selbstfahrende Fahrzeuge verursacht werden, wird sich in Zukunft die Frage nach der rechtlichen Verantwortung stellen – und zwar nicht nur in Bezug auf die zivilrechtliche Haftung (Stichworte Schadenersatz und Schmerzensgeld), sondern auch im Hinblick auf die strafrechtliche Schuld.

Selbstfahrende Auto werden keine Systeme sein, die völlig frei entscheiden, was sie tun oder lassen. Stattdessen sollen sie entsprechend bestehender Maßstäbe vernünftige Entscheidungen treffen, indem sie etwa spritsparend fahren, den kürzesten Weg zum Ziel nehmen oder gewisse Abstände zu anderen Verkehrsteilnehmern einhalten. Das intelligente Auto soll gerade nicht entscheidenob es an einer roten Ampel hält oder nicht – es soll die rote Ampel zuverlässig erkennen und in jedem Fall an ihr halten. Es geht beim selbstfahrenden Auto also grundsätzlich um Entscheidungen ohne nennenswerten Spielraum zwischen „richtig“ und „falsch“. Wenn das System korrekte Umwelt-Daten erhält und entsprechende Algorithmen die Einhaltung aller Verkehrsregeln überwachen, sollte die KI kein unerwünschtes Verhalten zeigen.

Wenn selbstfahrende Autos „versagen“, weil sie auf bestimmte Gefahrensituationen nicht ausreichend vorbereitet sind und es doch zum Unfall kommt, wird man sich daher die Frage stellen, welcher Mensch die im Verkehr erforderliche Sorgfalt außer Acht gelassen hat – der Hersteller eines defekten Sensors, die Software-Entwickler, oder der menschliche Fahrer, der sein Auto trotz schwieriger Verkehrsbedingungen per Autopilot fahren ließ?

Das alles verlässt zwar noch nicht den Boden unseres gegenwärtigen Strafrechts. Ich gehe aber davon aus, dass rund um KI-Technologien wie selbstfahrende Autos eine erhebliche Weiterentwicklung des bestehenden Produktstrafrechts stattfinden wird. Die Rechtsprechung wird immer konkretere Maßstäbe für die Beurteilung von Fahrlässigkeit auf Seiten der Hersteller, Händler und Nutzer solcher KI-Systeme aufstellen müssen. Als Folge dessen erwarte ich auch, dass immer mehr Rechtsanwälte sich auf den Bereich der strafrechtlichen Produkthaftung spezialisieren werden, wobei dieser neben strafrechtlichen auch immer spezifischere technische und branchenwirtschaftliche Kenntnisse erfordern wird.

KI Datenstrom - Hochhäuser - skyscraper - data stream - AI - Liebscher Strafrecht

KI als Täter

Aus strafrechtlicher Sicht wird es dann richtig spannend, wenn KI beginnt, eigene Entscheidungen zu treffen, also in zuvor nicht trainierten Situationen autonom zwischen verschiedenen Zielen und Rechtsgütern abzuwägen und sich für eine von verschiedenen Verhaltensalternativen zu entscheiden. Natürlich müssen auch jetzt schon bestehende komplexe KI-Systeme wie selbstfahrende Fahrzeuge unzählige Daten auswerten. Aber die Prämissen, nach denen das System abwägen muss, sind letztlich von Menschen fest vorgegeben: Sicherheit von Insassen und anderen Verkehrsteilnehmern steht an erster Stelle, danach kommen Ziele wie Schnelligkeit oder Treibstoffsparen. Die menschlichen Entwickler geben also vor, wie sich das Fahrzeug grundsätzlich verhalten soll, und die KI folgt im Einzelfall den Vorgaben.

KI, eine Gefahr für die öffentliche Ordnung? Umfrage Statistik 2022 - Liebscher Strafrecht

Die Freiheit, das Falsche zu tun

In der weiteren Entwicklung zur selbst denkenden KI wird der Übergang sicherlich fließend sein. Der Trend ist aber klar: KI-Systeme sollen immer komplexere Aufgaben erfüllen und werden dabei zunehmend Probleme lösen, für die sie nicht explizit trainiert wurden. Mit der Komplexität von Aufgabenstellungen wächst aber auch das Konfliktpotential bei der Abwägung von Handlungsalternativen. Letztlich wird KI irgendwann dieselbe Macht haben wie der Mensch: sich dazu entscheiden zu können, eigene Ziele auf Kosten fremder Rechtsgüter zu verfolgen.

Das Abwägen- und Entscheiden-Können zwischen verschiedenen Handlungsmöglichkeiten ist das, was den freien Willen des Menschen ausmacht und die Grundvoraussetzung für strafrechtliche Verantwortlichkeit. Ich will an dieser Stelle gar nicht erst in den philosophischen Kaninchenbau rund um den freien Willen hinabsteigen. Das Strafrecht geht nämlich einfach davon aus, dass der erwachsene Mensch grundsätzlich einen freien Willen und damit Schuldfähigkeit besitzt, also bestraft werden kann, wenn er einen Straftatbestand verwirklicht.

Nach dem Schuldprinzip können nur einzelne, erwachsene und schuldfähige Menschen – nicht Kinder, Unternehmen oder andere Personengruppen oder Menschen-ähnliche Roboter – strafbar sein, denn nur bei diesen kann man den individuellen Fehlgebrauch den freien Willens feststellen und sanktionieren. Verminderte oder aufgehobene Schuldfähigkeit sind Ausnahmefälle, die strengen Voraussetzungen unterliegen. Vollständige Schuldunfähigkeit (§ 20 StGB) liegt vor, wenn der Mensch „unfähig ist, das Unrecht der Tat einzusehen oder nach dieser Einsicht zu handeln“ – wer keine Einsichtsfähigkeit oder keine Steuerungsfähigkeit hat, kann also nicht bestraft werden.

Autonome Waffensysteme

Sobald KI tatsächlich (einigermaßen) frei urteilen, entscheiden und handeln kann, also über Einsichts- und Steuerungsfähigkeit verfügt, könnten grundsätzlich strafrechtliche Maßstäbe an ihr Handeln angelegt werden. Im Einzelfall wird es dabei darauf ankommen, ob und wie autonom die KI tatsächlich ist. Der Begriff der Autonomie wird im Zusammenhang mit KI immer häufiger genutzt und beschreibt Systeme, die, einmal in Gang gesetzt, ohne menschliche Benutzereingriffe agieren können. So sind autonome Waffensysteme und ihr Einsatz in aktuellen militärischen Konflikten zur Zeit ein brandaktuelles Thema im Völkerrecht. Wie autonom, also selbst-entscheidend, solche Waffen tatsächlich sind, ist von Fall zu Fall verschieden und im Zweifel ein gutgehütetes Geheimnis. Fakt ist jedoch, dass immer noch Menschen diejenigen sind, die solche Waffensysteme aktivieren, überwachen und die Macht haben, sie abzustellen – Menschen tragen also ohne Zweifel die volle rechtliche Verantwortung für den Einsatz solcher Waffen. Einen Anknüpfungspunkt für strafrechtliche Schuld der KI sehe ich bei solchen Systemen daher noch nicht. Noch nicht.

KI technische Zeichnung - Karte - KI Strafrecht - Strafverteidigerin Andrea Liebscher

Der Täter hinter dem Täter

futuristisches Büro - KI - AI - Liebscher Strafrecht

Selbst wenn wir in Zukunft über die strafrechtliche Verantwortlichkeit von einzelnen KI-Systemen diskutieren werden, wird das die menschliche Strafbarkeit übrigens nicht ausschließen. Ich gehe davon aus, dass der Rechtsfigur der mittelbaren Täterschaft in diesen Zusammenhang eine erhebliche Bedeutung zukommen wird. Gemäß § 25 StGB macht sich derjenige als Täter (im Gegensatz zum Gehilfen oder zum Anstifter) strafbar, der eine Tat „selbst oder durch einen anderen“ begeht. Mit dem Konzept der Tatbegehung „durch einen anderen“ wollte der historische Gesetzgeber des 1871 in Kraft getretenen Strafgesetzbuchs solche Fälle erfassen, in denen eine unmittelbar handelnde Person die Tatumstände nicht überblickt oder nicht schuldfähig ist und von einem Hintermann quasi als Werkzeug zur Umsetzung eines Tatplans ausgenutzt wird. Klassisches Beispiel ist das (per se schuldunfähige) Kind, dass der Erbtante den von seiner Mutter vergifteten Tee serviert. Die Mutter reicht dem Opfer zwar nicht selbst den tödlichen Tee, steuert aber das Kind und beherrscht die Situation, sodass sie selbst voll strafbar ist.

Im Laufe des 20. Jahrhunderts ist die mittelbare Täterschaft auch auf solche Konstellationen ausgeweitet worden, in denen der Vordermann zwar selbst vorsätzlich handelt und schuldfähig ist, aber dennoch der Hintermann einen so erheblichen Einfluss auf die Tat ausübt, dass sie ohne ihn nicht möglich wäre – ein Täter hinter dem Täter. Typische Fallgruppen sind etwa „von oben“ befohlene Morde in der Organisierten Kriminalität oder in totalitären politischen Systemen. Wenn eine KI also tatsächlich irgendwann strafbar sein sollte, wären die Menschen, die sie in vollem Bewusstsein um ihr Zerstörungspotential entwickelt und auf die Welt losgelassen haben, für ihr Tun strafrechtlich verantwortlich. Auch tatsächlich autonome Waffensysteme werden also die Menschen, die sie hervorgebracht haben, nicht aus der Verantwortung entlassen.

KI als Ermittler

Legen Sie Ihr Strafverfahren in die richtigen Hände