KI-Verordnung der EU Gesetz über künstliche Intelligenz

Künstliche Intelligenz im Gesundheitswesen - Wie kann das funktioniert? Mit der KI-Verordnung der EU gibt es nun eine erste wegweisende rechtliche Linie. (Foto: Onchira)
Künstliche Intelligenz im Gesundheitswesen - Wie kann das funktioniert? Mit der KI-Verordnung der EU gibt es nun eine erste wegweisende rechtliche Linie. (Foto: Onchira)

Künstliche Intelligenz, kurz KI, gilt als sogenannte disruptive Technologie. Eine, die die Welt, wie wir sie kennen, maßgeblich verändern wird. Wer in den letzten Jahren mitverfolgt hat, was KI-Modelle bereits können, wo sie schon überall eingesetzt werden und wie schnell sie in kürzester Zeit dazugelernt haben, wird dieser Einschätzung kaum widersprechen. Gerade im medizinischen Bereich lassen sich schon jetzt durch KI – beispielsweise in der Diagnostik – erstaunliche Ergebnisse erzielen, die in Zukunft Hoffnung auf eine bessere medizinische Versorgung machen. Neben Chancen bergen KI-Systeme jedoch auch erhebliche Risiken. Beides wird nun durch die KI-Verordnung der EU in eine wegweisende rechtliche Form gebracht.

Das Wichtigste auf einen Blick

  • Die KI-Verordnung setzt KI-Anwendungen klare Grenzen und sorgt somit für eindeutige Bestimmungen, an denen sich Entwicklerinnen und Entwickler orientieren können.
  • KI-Systeme mit unannehmbarem Risiko werden verboten.
  • Zugleich fördert das Gesetz wichtige Innovationen durch KI.
  • Das Gesundheitswesen ist einer der größten Profiteure der Technologie.

Die „Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz) und zur Änderung bestimmter Rechtsakte der Union“ (kurz KI-Verordnung bzw. AI Act) wurde im März durch das EU-Parlament verabschiedet. Damit schafft die EU den Rechtsrahmen für vier Ziele:

  • Gewährleistung, dass die in Verkehr gebrachten und verwendeten KI-Systeme sicher sind und die bestehenden Grundrechte und die Werte der Union wahren;
  • Gewährleistung der Rechtssicherheit zur Förderung von Investitionen in KI und innovativer KI;
  • Stärkung der Governance und der wirksamen Durchsetzung des geltenden Rechts zur Wahrung der Grundrechte sowie der Sicherheitsanforderungen an KI-Systeme;
  • Erleichterte Entwicklung eines Binnenmarkts für rechtskonforme, sichere und vertrauenswürdige KI-Anwendungen sowie Verhinderung einer Marktfragmentierung.

Unterm Strich geht es um eine Balance zwischen Innovation und Risikoschutz. Die KI-Verordnung ist in diesem Sinne auch als reine Produktregulierung zu verstehen. Forschungs- und Entwicklungsaktivitäten bleiben dementsprechend von den Bestimmungen unberührt. Durch die Verordnung gelten für Anbieter und

Nutzende klare Vorschriften, die risikobasiert regeln, was KI darf und was nicht. Das bedeutet, dass jedes KI-System einer Risikobewertung unterzogen werden muss. Das Gesetz unterscheidet hier zunächst zwischen unannehmbarem Risiko und Hochrisiko. Unterhalb dieser höchsten Risikostufen werden gewisse Transparenzanforderungen an nicht risikoreiche KI-Modelle gestellt.

KI-Systeme mit unannehmbarem Risiko

KI-Systeme, die eine Bedrohung für Menschen darstellen, werden als unannehmbares Risiko per Verbot vom Markt ausgeschlossen. Als Bedrohungen gelten:

  • Kognitive Verhaltensmanipulation durch unterschwellige Beeinflussung (z. B. über sprachgesteuertes Spielzeug)
  • Social Scoring (Klassifizierung von Personen nach Verhalten, sozioökonomischem Status und Persönlichkeitsmerkmalen)
  • Biometrische Klassifizierung (z. B. für vorausschauende Polizeiarbeit)
  • Biometrische Fernidentifizierung natürlicher Personen

In bestimmten Situationen gibt es zu Zwecken der Strafverfolgung Ausnahmeregelungen, die einige Verbote aussetzen. So sind etwa die Echtzeit-Fernidentifizierung oder eine nachträgliche biometrische Fernidentifizierung zur Verfolgung schwerer Straftaten nach richterlichem Beschluss möglich.

Hochrisiko-KI-Systeme

Als hochriskant gelten laut KI-Verordnung KI-Systeme, die in besonders kritischen Bereichen verwendet werden und somit eine hohe Gefahr für die Gesundheit, Sicherheit oder Grundrechte natürlicher Personen darstellen. Ein solcher kritischer Bereich sind zum einen Produkte, für die die Produktsicherheitsvorschriften der EU gelten, wie medizinische Geräte, Fahrzeuge, Spielzeug, Aufzüge oder Luftfahrtanwendungen. Zum anderen betrifft dies:

  • Verwaltung und Betrieb kritischer Infrastrukturen;
  • Allgemeine und berufliche Bildung;
  • Beschäftigung, Verwaltung der Arbeitnehmer und Zugang zur Selbstständigkeit;
  • Zugang zu und Inanspruchnahme von wesentlichen privaten und öffentlichen Diensten und Leistungen;
  • Strafverfolgung;
  • Verwaltung von Migration, Asyl und Grenzkontrollen;
  • Unterstützung bei der Auslegung und Anwendung von Gesetzen.

KI-Systeme, die in den genannten Bereichen eingesetzt werden, sind „in einer von der Kommission einzurichtenden und zu verwaltenden EU-Datenbank zu registrieren“. Ansonsten unterliegen alle hochriskanten KI-Anwendungen einer kontinuierlichen Bewertung. Bürgerinnen und Bürger haben zudem das Recht, Beschwerden über die betroffenen KI-Systeme bei den zuständigen nationalen Behörden einzureichen.

Transparenzanforderungen an nicht risikoreiche KI-Systeme

Für als nicht risikoreich eingestufte KI-Systeme (bspw. ChatGPT) gelten besondere Transparenzanforderungen. Diese beinhalten unter anderem die Einhaltung des EU-Urheberrechts sowie eine Offenlegung der Inhalte, die für das Training der KI verwendet wurden. KI-generierte Inhalte wie Bilder, Audio- und Videoinhalte sind eindeutig als solche zu kennzeichnen. Zusätzliche Anforderungen gelten für leistungsfähigere KI-Modelle, die systemische Risiken in sich bergen können. Dies umfasst u. a. Modellbewertungen, die Bewertung und Minderung systemischer Risiken sowie die Meldung von Vorfällen.

Förderung von KI-Innovationen

Für die Förderung von Innovationen sieht die KI-Verordnung u. a. vor, dass die nationalen Behörden der Mitgliedsstaaten eine Testumgebung für Unternehmen schaffen, um realitätsnahe Bedingungen abbilden zu können. Dies soll Start-ups bei Entwicklung und Training von KI-Modellen unterstützen, bevor diese als Produkte für den Markt freigegeben werden.

Inkrafttreten der Bestimmungen

Aktuell steht noch die finale Annahme des Gesetzes im Berechtigungsverfahren sowie durch den Europäischen Rat aus. Beides ist jedoch noch vor Ende der Legislaturperiode zu erwarten. Die rechtlichen Vorgaben kommen 24 Monate nach Inkrafttreten uneingeschränkt zur Geltung. Ein Teil der Bestimmungen greift jedoch schon früher. So wird etwa das Verbot von Anwendungen mit unannehmbarem Risiko schon nach sechs Monaten Geltung erlangen. Transparenzanforderungen für KI-Modelle mit allgemeiner Anwendung gelten wiederum nach zwölf Monaten.

Potentiell positive Auswirkungen auf Abfallaufkommen

Die KI-Verordnung der EU ist weltweit das erste Gesetz seiner Art und könnte nun als eine Art Blaupause für andere Regionen und Länder dienen. Der risikobasierte Ansatz der Verordnung ist generell zu begrüßen, da somit klar die Grenzen des legal Möglichen in der Entwicklung wichtiger KI-Anwendungen abgesteckt werden. So lassen sich die enormen Potenziale dieser Technologie nutzbar machen, während ihre Gefahren weitestgehend eingedämmt werden. Gerade im Gesundheitswesen ergeben sich durch KI zahlreiche Möglichkeiten für eine bessere Versorgung, etwa in Form dateneffizienter medizinischer Bildverarbeitung, KI-gestützter Entscheidungsunterstützung oder generell optimierter Gesundheitsprozesse. Letztere dürften sich auf der Ressourcenebene (effizientere Nutzung) am Ende auch positiv auf das Abfallaufkommen in Krankenhäusern auswirken.

Quellen

Künstliche Intelligenz im Gesundheitswesen - Wie kann das funktioniert? Mit der KI-Verordnung der EU gibt es nun eine erste wegweisende rechtliche Linie. (Foto: Onchira)
Künstliche Intelligenz im Gesundheitswesen - Wie kann das funktioniert? Mit der KI-Verordnung der EU gibt es nun eine erste wegweisende rechtliche Linie. (Foto: Onchira)