Artikel erschienen am 07.02.2023
E-Paper

KI fordert: „Alle Feministinnen sollen in der Hölle schmoren“

Wie weit darf eine KI gehen und wie sehen die rechtlichen Rahmenbedingungen aus

Von Prof. Andreas Göbel, Braunschweig

Brauchen wir KI für mehr Fortschritt und Sicherheit?

Ja, es wäre sogar fahrlässig und unverantwortlich, sie nicht mit einzubeziehen. Eine KI verspricht eine enorme Verbesserung, da ihre Geschwindigkeit in Bezug auf die Datenverarbeitung, -analyse und daraus resultierende Ergebnisse, diejenige eines Menschen übersteigt. Diese Vorteile nutzen wir bereits, bewusst oder unbewusst, in vielen Anwendungsbereichen wie Kommunikation, Navigation, Marketing und täglich in unseren Smartphones.

Ist Sicherheit ohne KI in Zukunft noch möglich?

Jein. Ohne KI in unseren Sicherheitsprozessen können wir die Attacken in der Anzahl nicht mehr zeitnah abwehren. Vor allem, da sich die Taktik und die Vorgehensweisen der Angriffe individuell und mit unmenschlicher Geschwindigkeit auf die Unternehmen und Anwender anpasst. Hierin liegt jedoch eine große Gefahr, denn eine KI ist nur so gut wie die Daten, mit denen sie trainiert wird oder aus denen sie schöpft.

Müssen wir uns vor der KI fürchten?

Ein Praxisbeispiel: Microsoft entwickelte 2016 einen Chatbot (Tay). Die KI sollte selbstlernend auf Twitter, Groupme und Kik mit realen Personen kommunizieren. Was am Anfang noch freundlich, obercool und naiv klang, entwickelte sich innerhalb von Stunden zu einem Hassbot. Der Chatbot wurde nach 16 Stunden vom Netz getrennt, da er Inhalte wie „Alle Feministinnen sollen in der Hölle schmoren“ verbreitete. Der Grund dafür lag am BIAS-Problem. Tay wurde durch Trolle im Netz mit einer großen Menge falschen Aussagen gefüttert und hat dadurch deren Vorurteile und Vorlieben in seinen KI-Algorithmus eingebettet.

Was passiert, wenn die KI versagt und falsche Entscheidungen trifft? Wer haftet für die Entscheidung und trägt die Verantwortung?

Aktuell gibt es keine direkte Haftung der KI. Die Europäische Union hat das Problem erkannt und im Dezember 2022 die Verordnung zur künstlichen Intelligenz erlassen. Diese unterscheidet zwischen unterschiedlichen Systemen: den nicht riskanten, den hochriskanten und den verbotenen Systemen. Für die nicht riskanten und die verbotenen Systeme muss nichts geregelt werden. Der Fokus der Verordnung liegt hier auf den hochriskanten Systemen, zum Beispiel der Steuerung von kritischer Infrastruktur oder Gesichtserkennung. Sie beschreibt die umfangreichen Pflichten der Hersteller, der Importeure, der Händler und der Anwender, die die KI einsetzten.

Pflichten der Anwender sind:
- Nutzung nur entsprechend der Gebrauchsanweisung
- Erfüllung der Anforderungen an die menschliche Aufsicht
- Eingabedaten müssen der Zweckbestimmung des KI-Systems entsprechen
- laufende Überwachung des Betriebes anhand der Gebrauchsanweisung
- Aufbewahrung der erzeugten Protokolle.

Verletzt man eine dieser Pflichten, könnte dies geschädigte Personen zum Schadensersatz berechtigen. Die Unternehmensleitung muss dafür sorgen, dass beim Einsatz von KI diese Anforderungen eingehalten werden. Dazu müssen Prozesse innerhalb des Unternehmens eingerichtet und von der Geschäftsleitung regelmäßig kontrolliert werden.