Definition: KI-Risikogruppen

Die EU definiert vier Risikogruppen für KI-Anwendungen:

  • Unacceptable Risk
    • KI-Systeme, die angesehen werden als eindeutige Bedrohung für die Sicherheit, den Lebensunterhalt oder die Rechte von Menschen.
    • Beispielsweise:
      • unterschwellige Manipulation,
      • Social Scoring,
      • Predictive Policing
  • High Risk
    • KI-Systeme, die in folgenden Bereichen verwendet werden:
      • Biometrische Identifikationssysteme,
      • kritische Infrastruktur (bspw. Verkehr),
      • Zugangsbeschränkung bei Bildungs-/Berufsausbildung (bspw. Bewertung von Prüfungen),
      • Scoring von Bewerbern bei Einstellungsverfahren,
      • Emotionserkennung,
      • Wesentliche Dienstleistungen (bspw. automatische Bewertung der Kreditwürdigkeit),
      • Strafverfolgung (bspw. Bewertung der Zuverlässigkeit von Beweismitteln),
      • Migrations-, Asyl- und Grenzkontrollmanagement (bspw. Überprüfung der Echtheit von Reisedokumenten),
      • Rechtspflege und demokratische Prozesse (bspw. KI-Suche nach vorigen Gerichtsentscheidungen).
  • Limited Risk
    • KI-Systeme, die den Anschein erwecken menschlich zu sein, insbesondere generative KI.
  • Minimal Risk
    • KI-Systeme, die nicht zu einer der anderen Kategorien gehören, bspw. Spam-Filter