Wie gefährlich ist der Einsatz von Künstlicher Intelligenz für die Geschäftsleitung?

Von LL.M. Hans Olof Wölber, Braunschweig

Wir begegnen ihr beim Online-Shopping, Chat-GPT, in der Tumorerkennung oder im Smartphone – sie ist überall zu finden. Laut dem KI-Monitor setzten 2022 knapp 19 % der Unternehmen in Deutschland KI ein (Engels, Wirtschaftsdienst 2023, 525 – 529). Die Einsatzbereiche von künstlicher Intelligenz werden immer größer und damit auch die Chancen und Risiken für jedes Unternehmen, das sich dieser Technologie bedient. Dies erfordert eine erhöhte Sensibilität der Unternehmensleiter. So hat die rasante Verbreitung des Chat-Bots Chat-GPT gezeigt, dass eine solche KI theoretisch für alle Kontexte in denen natürliche Sprache eine Rolle spielt, benutzt werden kann.

Foto: Adobe Stock / stokkete

Der Einsatz von KI ist zweifellos ein Wettbewerbsvorteil und wird immer mehr zum Standard. Gegenwärtig sind die wichtigsten Einsatzgebiete die robotergestützte Prozessautomatisierung, Computervision, Natural-language-Textinterpretation und virtuelle Agenten.

Je größer das Einsatzgebiet ist und in der Folge die für das Unternehmen damit verbundenen Risiken, desto höher sind die Anforderungen an die Geschäftsleitung beim Umgang mit dieser Technologie.

I. Problemlage

Im Ausgangspunkt ist die Geschäftsführung weitgehend frei in der Organisation des eigenen Unternehmens. § 43 Abs. 1 GmbH sieht lediglich vor:

„Die Geschäftsführer haben in den Angelegenheiten der Gesellschaft die Sorgfalt eines ordentlichen Geschäftsmannes anzuwenden.“

Detaillierter verwendet § 93 Abs. 1. S. 2 Aktiengesetz (AktG) die sogenannte „Business Judgement Rule“:

„Die Vorstandsmitglieder haben bei der Geschäftsführung durch Sorgfalt eines ordentlichen und gewissenhaften Geschäftsleiters anzuwenden. Eine Pflichtverletzung liegt nicht vor, wenn das Vorstandsmitglied bei einer unternehmerischen Entscheidung vernünftigerweise annehmen durfte, auf Grundlage angemessener Informationen zum Wohl der Gesellschaft zu handeln.“

Hält sich die Geschäftsleitung nicht an diesen Maßstab, haften ihre Mitglieder nach § 43 Abs. 2 GmbHG – und zwar mit ihrem gesamten privaten Vermögen. Daher müssen sie darauf achten, dass ihren Entscheidungen ordentlich aufbereitete tatsächliche Grundlagen und gut verarbeitete Informationen zugrunde liegen. In Bezug auf den Einsatz von KI haben sich die folgenden Problemfelder inzwischen herauskristallisiert:

1. Keine Nachvollziehbarkeit der Prozesse

Die von den Unternehmen verwendete KI wird in der Regel nicht von diesen selbst programmiert, sondern stammt von Drittanbietern. Diese legen ihre Algorithmen nicht offen, sodass dem Anwender verborgen bleibt, auf welchem Wege das Programm zu seinem Ergebnis kommt. Die absolute Mehrheit der aktuell genutzten KI ist stochastisch basiert, d.h. auf Grundlage einer möglichst großen Datenmenge wird das wahrscheinblich beste oder richtige Ergebnis ermittelt. Sie beruht überwiegend auf Fremddaten, die nur dem Entwickler, nicht aber dem Anwender zugänglich sind. Die Qualität dieser Ausgangsdaten kann der Anwander nicht beurteilen.

Dass dies zu fatalen Fehlern führen kann, zeigt das sogenannte Panzer-Identifikations-Beispiel nach Whitby (Artificial intelligence: Beginners-Guide 2008, S. 53): Hier sollte ein neuronales Netz (stochastische KI) für die US-Army Panzer erkennen, auch wenn diese durch Gegenstände in der Umgebung ganz oder teilweise verdeckt waren. Mit den Trainingsbildern wurde eine Trefferquote von nahezu 100% erreicht. Im späteren Einsatz war die Erkennungssoftware aber kaum brauchbar. Wie kam es dazu? Die Trainingsbilder, auf denen es Panzer gab, waren morgens während einer Übung aufgenommen worden. Die Trainingsbilder ohne Panzer hatte man nach Ende der Übung am Nachmittag aufgenommen. Die Software hatte die morgendlichen Lichtverhältnisse erkannt und daraus geschlossen, dass bei diesen Lichtverhältnissen Panzer anwesend sind, während es bei nachmittäglichem Licht keine gibt. So konnte sie auch vollständig verdecke Panzer entdecken – einfach weil es Aufnahmen vom Vormittag waren, was für die KI die Anwesenheit von Panzern belegte. Dieses Beispiel belegt eindrucksvoll die „Kreativität“ der künstlichen Intelligenz aber auch die Tücken, die damit verbunden sind.

2. Gesetzeskonforme Datenverarbeitung

Die Business Judgement Rule lässt dem Geschäftsleiter große Spielräume hinsichtlich der Unternehmenslenkung, wenn er eine ausreichende Tatsachengrundlage für seine Entscheidung ermittelt hat. Sofern die durch ihn verwendeten Methoden oder erzielten Ergebnisse aber rechtswidrig sind, hat er keinen Spielraum mehr. Er darf diese schlichtweg nicht verwenden. So entschied das LG Köln (GRUR-RR 2022, 478), dass ein Händler, der bei Amazon Produkte vertreibt, dafür haftet, wenn Amazon – vom Händler unbeeinflussbar – seiner Annonce ein Artikelbild zuordnet, an dem weder Amazon noch der Händler Urheberrechte besitzen. Ebenso haftet der Händler dafür, wenn seine Annonce um eine falsche unverbindliche Preisempfehlung ergänzt wird, die von Amazon eigenmächtig eingefügt wird. (BGH, BB 2016, 1857). Solange der Händler bei Amazon Regress nehmen kann, mag dies noch erträglich sein. Es zeigt aber die Risiken auf, die mit der Verwendung derartiger Plattformen (die ihrerseits KI verwenden) verbunden sind.

Darüber hinaus bedeutet der Einsatz von KI im Unternehmen eine erhebliche Herausforderung für den Geheimnis- und Datenschutz im Unternehmen. Damit KI funktioniert, braucht sie umfangreiches Datenmaterial. Die Verarbeitung erfolgt regelmäßig nicht im Unternehmen, sondern auf externen Servern der Anbieter der KI. Ob Betriebsgeheimnisse und sensible Daten dort den Anforderungen des hiesigen Datenschutzrechtes und Geheimnisschutzes entsprechen, darf bezweifelt werden. Das Verbot von Chat-GPT wegen datenschutzrechtlicher Bedenken in Italien dürfte nur eines der prominentesten Beispiele für diese Problematik sein.

Für den Unternehmensleiter kann dies nur bedeuten, dass hochsensible Daten nicht der Verarbeitung durch künstliche Intelligenz zugeführt werden dürfen.

3. Falls die KI ausfällt…

Der Siegeszug der KI dürfte kaum aufzuhalten sein. Unternehmen, die einzelne Bereiche auf KI umstellen, strukturieren die Arbeitsabläufe im Unternehmen naturgemäß um und setzen die menschlichen Arbeitskräfte anderweitig ein bzw. reduzieren ihr Personal.

Kommt es nun zu einer Störung der KI, führt dies zu einem Totalausfall des von ihr bespielten Sektors im Unternehmen. Schon heute sind uns die weitreichenden Folgen von Serverausfällen, unausgereiften Updates oder gar Hackerangriffen gut bekannt. Beim Einsatz von KI und konsequenter Umstrukturierung des Unternehmens sind die Konsequenzen um ein Vielfaches gravierender. Dies wird den Unternehmensleiter dazu zwingen, das Risikomanagement anzupassen, gewisse Kernkompetenzen in der Mitarbeiterschaft zu bewahren oder schlicht das Volumen der Betriebsausfallversicherung anzupassen. Alles andere wäre grob fahrlässig.

II. Ergebnis

An dem Einsatz von KI führt kein Weg vorbei. Sie ist bereits allgegenwärtig. Sie wird sich auch neue Bereiche erschließen. Für Geschäftsführer und Vorstände gilt es aber, Folgendes zu beachten:

Generell sind Unternehmensleiter verpflichtet, die im Unternehmen angewandten Prozesse zu überwachen und einer Qualitätssicherung zu unterwerfen. Beim Einsatz von künstlicher Intelligenz ist dies nicht möglich. Die verarbeitete Datenmenge ist zu groß und die Softwarehersteller offenbaren nicht die Algorithmen, nach denen die Programme arbeiten. Dies kann dazu führen, dass fehlerhafte Ergebnisse geliefert werden. Das Qualitätsmanagement wird (zumindest) dahingehend umgestellt werden müssen, dass die Ergebnisse der KI einer Plausibilitätskontrolle unterworfen werden. Über dies werden die Ergebnisse auch auf ihre Rechtsmäßigkeit hin überprüft werden müssen, weil die KI zwar objektiv, aber nicht diskriminierungsfrei arbeitet.

Unternehmen, die künstliche Intelligenz nutzen, verlieren die Kontrolle über die Daten, die der Verarbeitung durch künstliche Intelligenz unterworfen werden. Nur in Ausnahmefällen ist die Software individuell für den Anwender hergestellt worden. Bei Produkten, die sich an einen großen Markt richten, muss man davon ausgehen, dass die Daten in vielfältiger Weise (insbesondere außerhalb der EU) verarbeitet und von Dritten genutzt werden. Vor der Einspeisung von Betriebsgeheimnissen und sensiblen persönlichen Daten muss daher gewarnt werden.

Mit erhöhtem Einsatz von künstlicher Intelligenz steigt auch die Abhängigkeit von der Einsatzfähigkeit der EDV einschließlich der verwendeten Software. Unternehmen werden auf diese Weise auch verwundbarer und anfälliger für Probleme in der Infrastruktur, der Software und für Hackerangriffe. Das Risikomanagement ist entsprechend anzupassen.

 

Ähnliche Artikel

Finanzen Steuern Recht

Fairer Personalabbau – geht das?

Die deutliche Steigerung der Energiekosten, der Ukraine-Konflikt, die Corona-Pandemie – zahlreiche Einflüsse wirken sich auf die Verbraucher und auf den Arbeitsmarkt aus. In dieser Situation kommen viele Unternehmen nicht um einen betriebsbedingten Stellenabbau herum.

Hannover 2022 | Hartmut Eßmann, Braunschweig

Finanzen Steuern Recht

Insolvenzgründe erkennen und einordnen

Ein einfacher Leitfaden, um schwerwiegende Fehler zu vermeiden

Insolvenzen treten selten aus heiterem Himmel auf, sondern Unternehmenskrisen entwickeln sich auf der Zeitachse – so weit, so gut, so bekannt.

Stuttgart 2023 | Dr. iur. LL.M. Julius Beck, Stuttgart | Dr. iur. LL.M. (Corp. Restruc.) Nicolas Kreuzmann, Stuttgart