Generalisierungen
:Involvierte Definitionen
:Veranstaltung
: EDSReferenz
: @beecks2024 (LE6, Ethische Prinzipien im Datenrecht)
⠀
Definition: KI-Risikogruppen
Die EU definiert vier Risikogruppen für KI-Anwendungen:
- Unacceptable Risk
- KI-Systeme, die angesehen werden als eindeutige Bedrohung für die Sicherheit, den Lebensunterhalt oder die Rechte von Menschen.
- Beispielsweise:
- unterschwellige Manipulation,
- Social Scoring,
- Predictive Policing
- High Risk
- KI-Systeme, die in folgenden Bereichen verwendet werden:
- Biometrische Identifikationssysteme,
- kritische Infrastruktur (bspw. Verkehr),
- Zugangsbeschränkung bei Bildungs-/Berufsausbildung (bspw. Bewertung von Prüfungen),
- Scoring von Bewerbern bei Einstellungsverfahren,
- Emotionserkennung,
- Wesentliche Dienstleistungen (bspw. automatische Bewertung der Kreditwürdigkeit),
- Strafverfolgung (bspw. Bewertung der Zuverlässigkeit von Beweismitteln),
- Migrations-, Asyl- und Grenzkontrollmanagement (bspw. Überprüfung der Echtheit von Reisedokumenten),
- Rechtspflege und demokratische Prozesse (bspw. KI-Suche nach vorigen Gerichtsentscheidungen).
- Limited Risk
- KI-Systeme, die den Anschein erwecken menschlich zu sein, insbesondere generative KI.
- Minimal Risk
- KI-Systeme, die nicht zu einer der anderen Kategorien gehören, bspw. Spam-Filter