- Anzeigen -
Besuchen Sie auch unser Zeitschriftenportfolio im Bereich Governance, Risk, Compliance & Interne Revision

Transparenz-Anforderungen an KI-Systeme


Künstliche Intelligenz - Gesellschaftliche Verantwortung und wirtschaftliche Potenziale/Ausschuss
Carla Hustedt: "Wir brauchen ein Vermummungsverbot für algorithmische Systeme"

- Anzeigen -





Anforderungen an die Transparenz sowie rechtliche Fragen rund um haftungs-, patent- und datenschutzrechtliche Aspekte KI-basierter Systeme haben die Mitglieder der Enquete-Kommission "Künstliche Intelligenz - Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale" in zwei Fachgesprächen diskutiert. Die Impulsvorträge der insgesamt fünf Sachverständigen fanden in öffentlicher Sitzung statt, Fragerunde und Diskussion unter Ausschluss der Öffentlichkeit.

Carla Hustedt (Bertelsmann Stiftung) warb in ihrem Vortrag unter dem Titel "KI-Transparenz aus Verantwortung" für "mehr Genauigkeit" in der Debatte um KI-Transparenz. Die Vieldeutigkeit sei ein Problem, sagte die Leiterin des Projekts "Ethik der Algorithmen".

So müsse geklärt werden, was mit Transparenz erreicht, welche Systeme transparent gemacht und wie diese Transparenz geschaffen werden soll. Hustedt betonte, dass Transparenz kein Selbstzweck, sondern ein "wirkungsvoller Hebel" sei, um verschiedene Ziele zu erreichen, etwa um "individuelles Vertrauen und gesellschaftliche Akzeptanz für algorithmische Entscheidungsprozesse" zu schaffen. Die Sachverständige sprach sich in diesem Zusammenhang für einen Teilhabe-Fokus aus: Demnach ist das entscheidende Kriterium für Transparenz-Anforderungen an ein algorithmisches System, inwiefern es Einfluss auf die "Teilhabe von Menschen an gesellschaftlich relevanten Gütern" habe. Fragen nach der Teilhaberelevanz stellen sich daher auch für im Vergleich zu komplexen lernenden Systemen bei einfachen Softwaresystemen.

Diese hätten oft mehr Einfluss auf das Leben von Menschen als ein Großteil der aktuell im Einsatz befindlichen KI-Systeme. "Nicht jede Black Box muss geöffnet werden", sagte Hustedt mit Verweis auf das in Zusammenhang mit komplexen KI-Systemen diskutierte Problem der mangelnden Nachvollziehbarkeit der Entscheidungen dieser Systeme. Hustedt unterstrich zudem, dass mit Kennzeichnung, Nachvollziehbarkeit sowie Überprüfbarkeit unterschiedliche Arten von Transparenz nötig seien. In teilhaberelevanten Bereichen müssten die Nutzer beispielsweise wissen, womit sie es zu tun haben: "Wir brauchen ein Vermummungsverbot für algorithmische Systeme."

Als Handlungsempfehlungen schlug Hustedt der Enquete-Kommission vor, die interdisziplinäre Forschung zu KI-Transparenz zu fördern. Sie forderte zudem, erweiterte Transparenz-Anforderungen in staatliche Vergabestandards aufzunehmen, etwa indem Auftragnehmer verpflichtet werden, die Überprüfung durch Dritte sowie Schaffung von Nachvollziehbarkeit aktiv zu unterstützen. Auch sprach sich die Sachverständige für die Stärkung von Aufsichtsbehörden und zivilgesellschaftlicher Watchdog-Organisationen aus.

Im zweiten Fachgespräch stellten die Sachverständigen rechtliche Fragen sowie die Bedeutung der Normung und Standardisierung im KI-Bereich in den Vordergrund.

Jan Kuhlen, sachverständiges Mitglieder Kommission, sowie der Rechtswissenschaftler Axel Metzger (Humboldt-Universität Berlin) sprachen sich jeweils dafür aus, für Hersteller von KI-Systemen ein Gefährdungshaftung einzuführen. Kuhlen warb dabei für eine sektorale Betrachtung. KI sei nicht per se als gefährlich einzustufen. In einzelnen Sektoren, etwa bei Kraftfahrzeugen oder Medizinrobotern, könne Autonomie aber besonders gefährlich sein, sagte Kuhlen.

Aktuell keinen rechtlichen Handlungsbedarf sah Metzger im Patent- und Urheberrecht. Mit Blick auf das Datenschutzrecht sagte der Rechtswissenschaftler, dass die EU-Datenschutzgrundverordnung keine "unüberwindbare Hürde" darstelle. Der Datenschutz sei schwierig, aber nicht unmöglich. Metzger warb dafür, die Kooperation von Industrie und Datenschutzbeauftragten zu fördern.

Michael Teigeler (DKE Deutsche Kommission Elektrotechnik, Elektronik, Informationstechnik) und Sebastian Hallensleben (VDE Verband der Elektrotechnik, Elektronik, Informationstechnik) hoben die Bedeutung und Vorteile der Normung und Standardsetzung im KI-Bereich hervor. Teigeler verwies darauf, dass das Normungs-System ein Erfolgsmodell sei, das es fortzusetzen gelte. Deutschland habe aktuell großen Einfluss in diesem Bereich, auch wenn dieser künftig abnehmen werde. Es sei aber eine gute Ausgangslage für den KI-Bereich und könne auch ein Standort-Faktor sein.

Hallensleben berichtete über aktuelle Vorhaben im Bereich der KI-Normung. So seien die Bereiche "Methoden und Fachsprache" sowie Ethik international bereits in Arbeit. In anderen Bereichen, etwa der Normung im Bereich "Interoperabilität selbstlernender Systeme", stünde die Arbeit noch am Anfang. (Deutscher Bundestag: ra)

eingetragen: 12.05.19
Newsletterlauf: 14.06.19

- Anzeigen -




Kostenloser Compliance-Newsletter
Ihr Compliance-Magazin.de-Newsletter hier >>>>>>



Meldungen: Bundestag, Bundesregierung, Bundesrat

  • Erleichterungen bei Steuererklärung

    Wer für seine Steuererklärung nicht das Online-Portal "mein ELSTER" nutzen kann oder will, soll in der Steuererklärung 2019 die bereits der Steuerverwaltung elektronisch vorliegenden Daten nicht mehr in die Formulare eintragen müssen. Die entsprechenden Felder, in denen grundsätzlich Daten elektronisch vorliegen, werden in den Papiervordrucken für die Abgabe der Steuererklärung 2019 entsprechend gekennzeichnet sein, heißt es in der Antwort der Bundesregierung auf eine Kleine Anfrage der FDP-Fraktion (19/11496), die sich nach aktuellen Maßnahmen der Bundesregierung zur Vereinfachung der Steuererklärung erkundigt hatte.

  • Datenübermittlung fast vollständig

    Die über internationale Steuerdatenabkommen für das Jahr 2014 erhaltenen Daten sind nach der Aufarbeitung zu Kontrollmitteilungen vom Bundeszentralamt für Steuern im Fall des FATCA-Abkommens fast vollständig und im Rahmen des Steuerdatenaustausches mit anderen EU-Mitgliedsländern auf Grundlage der EU-Amtshilferichtlinie zu 93,85 Prozent an die Landesfinanzbehörden übermittelt worden. Dies teilt die Bundesregierung in ihrer Antwort (19/11989) auf eine Kleine Anfrage der FDP-Fraktion (19/11511) mit, die sich nach Missständen bei internationalen Steuerdatenabkommen erkundigt hatte.

  • Verantwortungsvoller Umgang mit KI

    Die Deutsche Bundesregierung hat im Herbst 2018 eine Datenethikkommission (DEK) eingesetzt, die binnen eines Jahres ethische Maßstäbe entwickeln sowie konkrete Regulierungsoptionen in den Bereichen Umgang mit Daten, Algorithmen-basierte Entscheidungen und Künstlicher Intelligenz (KI) vorschlagen soll. Das schreibt die Bundesregierung in ihrer Antwort (19/12059) auf die Kleine Anfrage der AfD (19/11406). Die Leitfragen der Bundesregierung an die Datenethikkommission können auf der Homepage des Bundesministeriums für Justiz und Verbraucherschutz (BMJV) abgerufen werden. Die Datenethikkommission wird ihre Ergebnisse voraussichtlich am 23. Oktober 2019 der Bundesregierung vorstellen und in die Gesetzgebung miteinbezogen werden. In der KI-Strategie betont die Bundesregierung die Notwendigkeit eines verantwortungsvollen und gemeinwohlorientierten Einsatzes von KI. Die Strategie sieht vor, relevante Akteure - vom Entwickler bis zum Nutzer von KI-Technologie - für die ethischen und rechtlichen Grenzen der Nutzung Künstlicher Intelligenz im Rahmen eines breiten gesellschaftlichen Dialogs zu sensibilisieren.

  • Mobbing in Wissenschaftseinrichtungen

    Die außeruniversitären Forschungseinrichtungen sind an Recht und Gesetz der Bundesrepublik Deutschland gebunden. Dies gilt auch im Hinblick auf arbeitsrechtliche Vorschriften, die die Grundlage für interne Untersuchungen zu arbeitsrechtlich relevantem Fehlverhalten bilden. Zudem gibt es im Hinblick auf wissenschaftliches Fehlverhalten bereits seit dem Jahr 1998 die "Empfehlungen der Deutschen Forschungsgemeinschaft zur Sicherung guter wissenschaftlicher Praxis". Das schreibt die Deutsche Bundesregierung in ihrer Antwort (19/12165) auf die Kleine Anfrage der FDP (19/11732).

  • Sicherheit des Video-Ident-Verfahrens

    Der Deutschen Bundesregierung sind bislang keine Betrugsfälle beim sogenannten Video-Ident-Verfahren bekannt, bei denen der Video-Stream mittels eines Hackerangriffs manipuliert worden ist. Weder die Verpflichteten im Finanzdienstleistungssektor noch Strafverfolgungsbehörden oder die Zentralstelle für Finanztransaktionsmeldungen hätten der Bundesregierung entsprechende Sicherheitsvorfälle zur Kenntnis gebracht, schreibt sie in ihrer Antwort (19/11443) auf eine Kleine Anfrage der FDP-Fraktion (19/10946). Das von der Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) zugelassene Verfahren wird beispielsweise bei Kontoeröffnungen zur Identifizierung der Kunden verwendet.