Sie sind hier: Home » Markt » Hinweise & Tipps

Rechenschaftspflicht: Risikoreduzierung & Stärkung


Wie die Maschinenidentität eine kritische KI-Rechenschaftslücke im EU-KI-Gesetz schließen kann
Der Ansatz der Gesetzgeber besteht darin, einen risikobasierten Rahmen für KI-Systeme zu schaffen



Kevin Bocek, VP Ecosystem und Community bei Venafi

Europäische Gesetzgeber setzen mit dem, was eines der bedeutendsten Gesetzgebungen in einer Generation sein könnte, fort. Die EU KI-Verordnung wird einen wesentlich proaktiveren Ansatz zur Regulierung verfolgen als die derzeitigen Vorschläge in den USA und in Großbritannien. Experten haben jedoch eine kritische Schlupflücke in Änderungen an der Gesetzgebung identifiziert, die Bürger und Gesellschaften vor KI-Risiken nicht schützen, sondern stattdessen gefährden könnten.

Kurz gesagt, diese Lücke könnte den gesamten Zweck des vorgeschlagenen Gesetzes untergraben und muss geschlossen werden. Dafür müssen die Gesetzgeber Schritte einleiten, um Maschinenidentitäten als Mittel zur Verbesserung der KI-Regulierung, der Rechenschaftspflicht, der Sicherheit und des Vertrauens zu priorisieren, denn die Zeit läuft ab.

Der Ansatz der Gesetzgeber besteht darin, einen risikobasierten Rahmen für KI-Systeme zu schaffen. So sollen solche, die als inakzeptables Risiko gelten, vollständig verboten werden, während solche, die als hohes Risiko eingestuft sind, mehrere Stufen der Bewertung und Registrierung durchlaufen müssen, bevor sie genehmigt werden. Ursprünglich enthielt das Gesetz klare Schutzmaßnahmen. Jedes KI-System wäre als Hochrisiko eingestuft worden, wenn es für einen der in Anhang III des Gesetzentwurfs aufgeführten Hochrisiko-Zwecke verwendet werden sollte. Entwickler und Anwender dieser Systeme wären verpflichtet gewesen, sicherzustellen, dass die Technologie sicher ist, frei von diskriminierenden Vorurteilen und öffentlich zugängliche Informationen darüber enthält, wie sie funktioniert.

Dies hat sich in der jüngsten Fassung der Gesetzgebung geändert. Dank einer neuen Schlupflücke können Entwickler nun selbst entscheiden, ob ihre Systeme als Hochrisiko eingestuft werden oder nicht. Über 100 zivilgesellschaftliche Organisationen fordern, dass diese Schlupflücke beseitigt und das ursprüngliche System wiederhergestellt wird. Sie argumentieren, dass die Schlupflücke unredliche oder unwissende Entwickler ermöglichen würde, die grundlegenden Anforderungen des Gesetzes zu umgehen, indem sie sich selbst als begrenztes oder minimales Risiko zertifizieren. Dies würde auch zu rechtlicher Unsicherheit darüber führen, was als Hochrisiko angesehen wird und zu Marktaufspaltung in der Region, da verschiedene Mitgliedstaaten unterschiedliche Definitionen von Hochrisiko verwenden könnten. Lokale Behörden könnten auch Schwierigkeiten haben, die Selbstbewertung der Entwickler effektiv zu überwachen.

Einfach ausgedrückt, die neueste Version der EU KI-Verordnung schwächt die Regulierungsaufsicht und die Rechenschaftspflicht der Entwickler untergräbt das Vertrauen und die Sicherheit und kann Benutzer gefährden. Abgesehen von der Schließung der Schlupflücke in kürzester Zeit müssen die Gesetzgeber weiter gehen, um das Risiko zu reduzieren und die Rechenschaftspflicht in der rasant wachsenden KI-Branche zu stärken.

Ein Beispiel für eine wichtige Kontrolle ist ein Kill Switch. Dieser ist in der Fertigung, in chemischen Prozessen und sogar an Tankstellen üblich und bietet eine sichere Möglichkeit, eine gefährliche Situation unter Kontrolle zu bringen. Bei KI handelt es sich nicht um einen physischen Schalter, sondern um eine Möglichkeit, die Nutzung der Maschinenidentität zur Authentifizierung des Modells zu stoppen.

Um es klarzustellen, es geht nicht um einen einzigen "Notausschalter" pro KI-Modell. Tatsächlich können Tausende von Maschinenidentitäten mit einem einzigen Modell verknüpft sein, die mit den Eingaben, die das Modell trainieren, dem Modell selbst und seinen Ausgaben in Verbindung stehen. Diese Modelle müssen in jeder Phase geschützt werden, sowohl während des Trainings als auch während ihres Einsatzes. Das bedeutet, dass jede Maschine während jedes Prozesses eine Identität benötigt, um Vergiftung, Manipulation und unbefugten Zugriff zu verhindern. Dies wird natürlich die Anzahl der Maschinenidentitäten in Netzwerken erhöhen, und hier kann KI ebenfalls helfen. Viele dieser Prinzipien können auch angewendet werden, um zu verhindern, dass KIs ebenso wie heute bei Smartphones und Laptops für Apps modifiziert oder manipuliert werden.

Fazit: Die Mitglieder des Europäischen Parlaments werden eine schwere Bürde tragen, wenn sie es versäumen, die Schlupflücke in der EU KI-Verordnung zu schließen. Aber dies sollte erst der Anfang sein. Eine engere Zusammenarbeit mit der Industrie ist erforderlich, um das potenzielle Wert von vorhandenen und robusten Technologien wie der Maschinenidentität in der Stärkung der KI-Regulierung und Rechenschaftspflicht aufzuzeigen. Die Förderung von Forschung und Entwicklung in den Bereichen Sicherheit und Schutz - wie bei KI-Notausschaltern - wird allen außer unseren Gegnern zugute kommen. (Venafi: ra)

eingetragen: 28.11.23
Newsletterlauf: 09.02.24

Venafi: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.


Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>


Meldungen: Markt / Hinweise & Tipps

  • Ethik für KI-Technologien ein Muss

    Das Europäische Parlament hat kürzlich mit dem "AI-Act" die weltweit erste staatliche Regulierung von KI verabschiedet. Die Verordnung soll die Entwicklung und den Einsatz von KI-Technologien maßgeblich regeln, indem sie Transparenz, Rechenschaftspflichten und Sicherheitsstandards vorschreibt.

  • Prüfungsangst kommt nicht von ungefähr

    Stehen die Prüfer des Fiskus vor der Tür, steigt in fast jedem Unternehmen das Nervositätslevel. Die Besucher kündigen sich zwar rechtzeitig an, stellen ihren Gastgebern aber ausführliche Detailfragen und schauen sich interne Unterlagen genau an, was nicht nur Zeit und Nerven kostet, sondern manchmal auch sehr viel Geld. "Mit einer gründlichen Vorbereitung können Firmen, Freiberufler und Selbstständige der Kontrolle ihrer Buchführung durch das Finanzamt aber in aller Regel gelassen entgegenblicken", betont Prof. Dr. Christoph Juhn, Professor für Steuerrecht an der FOM Hochschule und geschäftsführender Partner der Kanzlei Juhn Partner.

  • Bausteine für ein erfolgreiches ESG-Reporting

    Das Europäische Parlament hat bereits zum Jahresende 2022 die EU-Richtlinie zur Nachhaltigkeitsberichterstattung (Corporate Sustainability Reporting Directive, kurz CSRD) angenommen. Zahlreiche Unternehmen - kapitalmarktorientierte, aber auch viele aus dem Mittelstand - sind spätestens Anfang 2025 rechtlich dazu verpflichtet, Informationen über die gesellschaftlichen und ökologischen Auswirkungen ihres Handelns zu veröffentlichen und nach einem klar vorgegebenen Kriterienkatalog Rechenschaft abzulegen.

  • Chaos bei der Umsetzung von NIS-2 droht

    Ein Blick zurück kann manchmal sehr lehrreich sein: Am 26. Mai 2018 trat die Datenschutz-Grundverordnung, kurz DSGVO, in Kraft - genauer gesagt endete die 24-monatige Übergangsfrist. Zwei Jahre hatten deutsche Unternehmen also Zeit, ihre Prozesse an die neue Richtlinie anzupassen.

  • Die Uhr für DORA-Compliance tickt

    Ab dem 17. Januar 2025, gilt der Digital Operational Resilience Act (DORA) EU-weit für Finanzunternehmen und ihre IT-Partner. Da es sich um eine Verordnung der europäischen Union handelt, findet die Umsetzung in nationales Recht nicht statt.

Wir verwenden Cookies um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf "Alle akzeptieren" erklären Sie sich damit einverstanden. Erweiterte Einstellungen