Sicherheit von Künstlicher Intelligenz

Künstliche Intelligenz spielt eine immer größere Rolle in der Cyber-Security. Sie erkennt Angriffe schneller, analysiert große Datenmengen effizient und unterstützt Sicherheitsverantwortliche bei komplexen Entscheidungen. Gleichzeitig rückt jedoch eine neue Erkenntnis in den Fokus: KI-Systeme sind nicht nur Werkzeuge zur Verteidigung, sondern selbst ein attraktives Angriffsziel. Moderne Angriffe zielen zunehmend direkt auf die Schwachstellen von KI-Modellen und deren Einsatzumgebungen ab.

Besonders Sprachmodelle zeigen, wie angreifbar selbst hochentwickelte Systeme sein können. Durch sogenannte Prompt-Injection- oder Jailbreak-Angriffe lassen sich Sicherheitsmechanismen umgehen, sodass Modelle Inhalte preisgeben, die eigentlich geschützt sein sollten. In manchen Fällen können sogar Rückschlüsse auf Trainingsdaten gezogen oder vertrauliche Informationen extrahiert werden. Solche Angriffe stellen nicht nur ein technisches Risiko dar, sondern auch eine ernsthafte Herausforderung für Datenschutz und Compliance.

Auch klassische Machine-Learning-Systeme sind betroffen. Adversarial Samples zeigen, dass minimale, für Menschen kaum wahrnehmbare Veränderungen ausreichen, um Bilderkennungsmodelle vollständig zu täuschen. Ähnliche Angriffe existieren im Bereich der Spracherkennung, bei denen versteckte oder für Menschen nicht hörbare Befehle eingebettet werden, um Sprachassistenten oder Steuerungssysteme zu manipulieren. In sicherheitskritischen Anwendungen – etwa in der Industrie, im Verkehr oder in der Überwachung – kann dies schwerwiegende Folgen haben.

Hinzu kommen Angriffe auf den Trainingsprozess selbst. Durch gezielte Manipulation von Trainingsdaten (Poisoning) oder das Einbauen versteckter Backdoors können Modelle langfristig kompromittiert werden, ohne dass dies im Normalbetrieb auffällt. Weitere Risiken entstehen durch Model-Stealing-Angriffe, bei denen KI-Modelle über Schnittstellen systematisch nachgebaut werden, oder durch Supply-Chain-Angriffe auf vortrainierte Modelle und KI-Bibliotheken.

Diese Beispiele zeigen deutlich: KI-Sicherheit ist kein Randthema, sondern ein zentraler Bestandteil moderner Cyber-Security. Der Schutz von KI-Systemen erfordert neue Denkweisen, die über klassische IT-Sicherheitskonzepte hinausgehen und sowohl technische, organisatorische als auch ethische Aspekte berücksichtigen.

Wir am TTZ-WUE beschäftigen uns intensiv mit Angriffen auf KI-Systeme und der Entwicklung geeigneter Gegenmaßnahmen. Unser Fokus liegt darauf, Schwachstellen systematisch zu analysieren, Angriffe realitätsnah zu erforschen und Sicherheitskonzepte zu entwickeln, die KI-Systeme vertrauenswürdig und robust machen. Damit leisten wir einen Beitrag zur sicheren Nutzung von Künstlicher Intelligenz – heute und in Zukunft.

Kontakt: ttz-wue@thws.de

Testen von KI-Modellen zur Objekterkennung am TTZ-WUE.