EU AI Act: Das bedeutet die Verordnung für Deine NGO
In vielen Hilfswerken und Vereinen wird KI bereits häufig verwendet, zum Beispiel zum Erstellen von Texten und Bildern oder zur Segmentierung von Spender*innen-Daten. Mit dem EU AI Act sind nun klare Regeln für den Einsatz von KI geschaffen worden, an die sich auch Vereine halten müssen. Lies hier, worauf Du zukünftig achten musst, um den neuen Anforderungen gerecht zu werden.
Was ist der EU AI Act?
Der EU AI Act ist am 1. August 2024 in Kraft getreten und stellt einen wichtigen Meilenstein in der Regulierung von Künstlicher Intelligenz dar. Er legt fest, wie KI in der EU verwendet werden darf und welche Regeln dabei zu beachten sind.
Der AI Act basiert auf einem „risikobasierten Ansatz“. Das bedeutet, dass KI-Systeme in Kategorien eingeteilt werden, je nachdem, welches Risiko sie für die Menschen und die Gesellschaft darstellen.
Folgende Kategorien gibt es:
- Unvertretbares Risiko: KI-Anwendungen, die extrem risikoreich sind, werden ganz verboten.
- Hohes Risiko: Hier gelten strenge Anforderungen und Kontrollen, zum Beispiel für KI-Anwendungen im Gesundheits- oder Bildungsbereich.
- Geringes oder minimales Risiko: Diese Anwendungen müssen nur wenige Anforderungen erfüllen.
Für NGOs sind besonders die Kategorien „geringes Risiko“ und „hohes Risiko“ relevant, da die meisten KI-Systeme, die sie verwenden, in diese Kategorien fallen.
Generative KI (z.B. ChatGPT)
Generative KI-Systeme, die Inhalte erstellen, können je nach Anwendung in unterschiedliche Risikokategorien fallen. Wenn ein NGO beispielsweise ChatGPT zur Erstellung von Inhalten nutzt, muss geprüft werden, ob die Anwendung potenziell hohe Risiken birgt, etwa durch die Verbreitung von Fehlinformationen. In solchen Fällen sind Transparenzpflichten und Massnahmen zur Risikominderung erforderlich.
Prädiktive KI
Prädiktive KI-Systeme, die Vorhersagen treffen, können ebenfalls als hochriskant eingestuft werden, insbesondere wenn sie Entscheidungen beeinflussen, die Auswirkungen auf Individuen haben, wie etwa in der Gesundheitsversorgung oder im Finanzwesen. NGOs, die solche Systeme einsetzen, müssen sicherstellen, dass diese den Anforderungen des AI Acts entsprechen, einschliesslich Transparenz, Nachvollziehbarkeit und regelmässiger Überprüfung.
Transparenzpflicht – Was bedeutet das?
Eine der wichtigsten Neuerungen für NGOs ist die Transparenzpflicht. Der AI Act verlangt, dass Organisationen offenlegen, wenn sie KI-generierte Inhalte nutzen. Dadurch soll klar gemacht werden, wenn ein Bild, ein Text oder eine Vorhersage nicht direkt von Menschen, sondern von einer Maschine generiert wurde.
Als NGO möchte ich vielleicht ein KI-generiertes Bild für eine Spendenkampagne nutzen. Das muss zukünftig kenntlich gemacht werden, entweder mit einem Wasserzeichen, einer Bildunterschrift oder einem Hinweis im Text. Ein Satz wie “Dieses Bild wurde mithilfe von KI erstellt” reicht aus, um dem AI Act zu entsprechen.
Zusätzlich ist es sinnvoll, den Kontext des KI-Einsatzes zu erklären, zum Beispiel so: “Dieses Bild wurde mithilfe von KI generiert, um unsere Botschaft visuell zu unterstützen.” Ausserdem sollten mögliche Einschränkungen und Missverständnisse offen kommuniziert werden. Bei fotorealistischen Bildern ist es empfehlenswert darzulegen, dass das Bild keine tatsächliche Aufnahme ist und rein illustrativen Charakter hat.
Risikobewertung und Dokumentation – Was gehört dazu?
Jede NGO, die KI nutzt, sollte regelmässig prüfen, welche Risiken damit verbunden sind. Das bedeutet:
- Risikobewertung
Vor dem Einsatz eines KI-Systems sollte sich die NGO überlegen, ob dieses System Menschen in irgendeiner Form benachteiligen oder zu Missverständnissen führen könnte. Wie hoch ist z. B. das Risiko, durch veraltete Daten Falschinformation zu erhalten?
- Dokumentation
Es ist wichtig, alle Details zur Nutzung des KI-Systems festzuhalten – zum Beispiel wie und warum ein bestimmtes KI-System verwendet wird und welche Schritte zur Risikominimierung unternommen wurden. So lässt sich im Bedarfsfall nachvollziehen, wie das System arbeitet bzw. eingesetzt wurde.
Mögliche Strafen – Was passiert bei Verstössen?
Ein Verstoss gegen die Transparenzpflichten oder andere Regeln des AI Act kann für NGOs teuer werden. Es drohen Geldbussen von bis zu 15 Millionen Euro oder bis zu 3 % des weltweiten Jahresumsatzes – je nachdem, welcher Betrag höher ist.
Was sollten NGOs jetzt tun?
Für NGOs, die KI bereits nutzen oder dies in Zukunft planen, empfiehlt es sich, jetzt einige Grundsätze umzusetzen:
- Hinweis auf KI-Erzeugung: Einfache Kennzeichnung von KI-Inhalten – z.B. durch eine Bildunterschrift oder einen Hinweis im Text.
- Risikobewertung und Dokumentation: Regelmässige Überprüfung der eingesetzten KI-Systeme und detaillierte Dokumentation über ihren Einsatz.
- Kommunikation mit den Zielgruppen: Offen kommunizieren, warum KI eingesetzt wird und welche Vorteile dies für die Zielgruppen oder die Organisation haben kann.
Mit diesen Schritten bleiben NGOs auf der sicheren Seite und vermeiden potenzielle Strafen. Der AI Act mag komplex erscheinen, aber mit einem offenen Umgang und einer klaren Kommunikation können NGOs die Anforderungen erfüllen und gleichzeitig die Vorteile der KI für ihre Arbeit nutzen.
Lies hier mehr zum Thema KI für NGOs: Künstliche Intelligenz für NGOs