KI rechtskonform einsetzen und Kundenvertrauen gewinnen | NTT DATA

Di, 04 Oktober 2022

Künstliche Intelligenz: Achtung neue Gesetze!

Die EU-Kommission bringt die Produkthaftung ins 21. Jahrhundert und ergänzt die Haftungsregeln umfassend im Bereich der Künstlichen Intelligenz (KI). Was bedeutet das für Unternehmen, die bereits mit KI arbeiten oder den Einsatz von KI planen? Lesen Sie dazu die Empfehlungen unseres KI-Experten Christoph Schrills.

Vertrauen und Rechtssicherheit spielen im Kontext von KI eine enorme Rolle – sowohl hinsichtlich der gesellschaftlichen Akzeptanz und Verbreitung als auch bei der Förderung von Innovationen. Mit der Modernisierung des bestehenden Rechts verfolgt die EU-Kommission genau dieses Ziel: Vertrauen und Rechtssicherheit für Endverbraucher und Unternehmen in digitale Innovationen wie KI zu stärken. Erstmals soll es ein einheitliches Schutzniveau geben. Dabei spielt es dann keine Rolle mehr, ob die Schäden durch ein klassisches Produkt oder durch eine KI verursacht wurden.

Neue AI Liability Directive und neuer EU AI Act – zwei neue Gesetze für mehr Kundenvertrauen

Die neuen Haftungsregeln für KI (AI Liability Directive) stehen im Einklang mit dem 2021 vorgestellten EU AI Act („Trustworthy AI“) und ergänzen die im EU AI Act beschriebenen Maßnahmen zum Risikomanagement und zur Risikoprävention im Bereich KI. Ziel sind klare, sichere und rechtsverbindliche Vorgehensweisen für den Fall, dass eine Künstliche Intelligenz einen Schaden verursacht.

Das Tandem aus EU AI Act und AI Liability Directive soll das Vertrauen in KI stärken und wird den Einsatz von KI in den kommenden Jahren prägen. Auch wenn der EU AI Act noch nicht final verabschiedet worden ist (vielleicht dauert es ja doch noch bis 2024), sollten Unternehmen, die bereits KI einsetzen oder den Einsatz von KI planen, die Zeit bis zum Inkrafttreten nutzen, um sich entsprechend vorzubereiten.

3 konkrete Empfehlungen

Zur Vorbereitung auf die geplanten neuen Gesetze können Sie konkret Folgendes tun:

  1. Überblick verschaffen über alle KI-Anwendungen innerhalb einer Organisation inklusive der verwendeten Daten
  2. Kontrollmaßnahmen etablieren, um die menschliche Aufsicht und die Robustheit von KI-Systemen zu gewährleisten
  3. Neue Rollen (BISO, TISO) organisatorisch verankern ebenso wie Verantwortlichkeiten und Prozesse

Überblick verschaffen

Grundlage für die Identifizierung und Einschätzung der Risiken von KI-Systemen ist die Erfassung aller KI-Anwendungen in einem KI-Asset-Register. Neben den KI-Anwendungen sollten auch die in den Anwendungen genutzten Daten erfasst und dokumentiert werden. Denn die AI Liability Directive sieht einen erleichterten Zugang zu Daten und Informationen vor, die als Beweismittel bei einem von KI verursachten Schaden dienen.

Kontrollmaßnahmen etablieren

Gemäß EU AI Act müssen Unternehmen KI-Anwendungen und ihre Ergebnisse unter eine menschliche Aufsicht stellen. Zudem sind Unternehmen verpflichtet, den Fokus auf die Robustheit und insbesondere den Schutz der KI-Anwendungen vor Cyber-Angriffen bzw. Cyber-Manipulationen zu legen. Der Grund: Um Haftungsansprüchen zu entgehen, ist es für Unternehmen erforderlich, mit entsprechenden Cyber-Security-Maßnahmen Schwachstellen ihrer Produkte und Services zu beheben, die sich beispielsweise durch ein Software-Update ergeben.

Neue Rollen (BISO, TISO) organisatorisch verankern

Eine aktive Etablierung und Verankerung eines vertrauensvollen und risikobewussten Umgangs mit KI-Anwendungen innerhalb der eigenen Organisation in Form von Rollen und Prozessen bleibt im Zeitalter von KI und der entsprechenden Regulierung unerlässlich. Neue Rollen wie der Business Information Security Officer (BISO) oder sein technologisch orientiertes Pendant, der TISO, können Potenziale heben und Visibilität schaffen.

Whitepaper Trustworthy AI

Whitepaper

Trustworthy Artificial Intelligence

Erfahren Sie mehr zum Thema "vertrauenswürdige KI" im aktuellen Whitepaper

Whitepaper anfordern

Weitere Insights

Interesse?

Kontaktieren Sie uns.

Kontakt aufnehmen