Home » News » KI sicher nutzen – was der EU-Verhaltenskodex auslässt

Kommentar:: KI sicher nutzen – was der EU-Verhaltenskodex auslässt

Der neue freiwillige Verhaltenskodex der Europäischen Union für künstliche Intelligenz setzt ein wichtiges Zeichen: Verantwortungsbewusste KI-Entwicklung rückt ins Zentrum. Doch während sich die Diskussion verständlicherweise auf Trainingsdaten, Modelltransparenz und ethische Grundsätze konzentriert, bleibt ein anderer zentraler Aspekt fast unerwähnt – die sichere Nutzung von KI im operativen Alltag.

2 Min. Lesezeit
Richterhammer vor EU-Flagge, EU-Verhaltenscodex
Foto: ©AdobeStock/Ravi

In Unternehmen ist KI längst mehr als ein Forschungsobjekt. Sie automatisiert Arbeitsabläufe, generiert Inhalte, analysiert Daten und greift über agentengesteuerte Systeme auf interne Infrastrukturen zu. Mit dieser Operationalisierung verlagert sich das Risiko: Nicht nur, wie ein Modell trainiert wurde ist entscheidend – sondern auch, wie, wo und wofür es eingesetzt wird.

Besonders Agentic AI, also KI-Systeme, die eigenständig Aktionen ausführen können, stellt Unternehmen vor neue Herausforderungen. Denn was, wenn diese Systeme über Schnittstellen mit privilegierten Benutzerkonten interagieren? Was, wenn KI-Tools eigenständig auf kritische Systeme zugreifen oder Passwörter verwalten? Genau hier entstehen potenziell gravierende Sicherheitslücken.

Secure by Design muss auch „Secure in Use“ bedeuten

Die Diskussion über Sicherheit endet nicht mit der Modellarchitektur. Vielmehr muss sie sich konsequent durch den gesamten Lebenszyklus von KI ziehen: von der Entwicklung über die Integration bis zur Laufzeitüberwachung. Prinzipien wie „Least Privilege“, Auditierbarkeit, menschliche Kontrollinstanzen und eine differenzierte Zugriffskontrolle gelten nicht nur für Menschen, sondern auch für KI-Agenten.

Ein praktikabler Ansatz ist das sogenannte Model Context Protocol (MCP). Dieses Protokoll ermöglicht es, KI-Systeme in bestehende Zero-Trust- oder Zero-Knowledge-Architekturen einzubetten, ohne deren Grundprinzipien zu kompromittieren. KI-Tools erhalten damit nicht automatisch umfassende Zugriffsrechte, sondern nur kontextabhängige, eng definierte Berechtigungen – kontrolliert, dokumentiert und jederzeit widerrufbar.

Governance braucht Technik – nicht nur Ethik

So begrüßenswert die EU-Initiative auch ist: Sie bleibt einseitig, solange sie sich auf ethische Leitlinien und freiwillige Selbstverpflichtungen konzentriert. Technische und betriebliche Kontrollmechanismen müssen mitgedacht und mitreguliert werden. Ohne sie bleibt jede Governance-Lösung ein Torso.

Der Begriff der souveränen KI gewinnt in diesem Zusammenhang an Bedeutung. Souveränität heißt: Unternehmen behalten die Hoheit über ihre KI-Nutzung, definieren eigene Governance-Standards und setzen diese durch. Dazu gehört, dass KI-Agenten wie privilegierte Benutzer behandelt werden – mit klaren Rollen, Einschränkungen und Audits.

Fazit: Verantwortung endet nicht beim Modelltraining

Die Einführung von KI ist kein rein technisches Projekt. Sie ist auch kein reiner Compliance-Prozess. Es geht um operative Verantwortung. Um die Frage, wie Unternehmen sicherstellen, dass KI nicht zu einem Einfallstor für Datenmissbrauch oder Systemkompromittierung wird.

Der EU-Verhaltenskodex markiert einen wichtigen Schritt. Doch er sollte um Richtlinien ergänzt werden, die den Einsatz von KI sicher, nachvollziehbar und kontrollierbar gestalten. Denn echte KI-Sicherheit beginnt dort, wo Ethik in technische Realität übersetzt wird – im täglichen Betrieb.

Jeremy London, Director Engineering, AI & Threat Analytics bei Keeper Security
Foto: Keeper Security

Jeremy London, Director Engineering, AI & Threat Analytics bei Keeper Security

Andere interessante News

Goldene Vorhängeschlösser sind auf einer dunklen Oberfläche angebracht, auf der ein Binärcode leuchtet.

Physische Sicherheit wird strategischer Treiber

Unternehmen werten physische Sicherheit neu: Sie wird strategisch, vernetzt und datengetrieben. Eine weltweite Umfrage zeigt, wohin sich der Markt 2026 bewegt – im Mittelpunkt steh...

Euro-Flagge und Euro-Scheine

Bezahlen 2035: Vier Zukunftsbilder zeigen, wie Europa morgen zahlt

Wie wird Europa im Jahr 2035 bezahlen – und welche Rolle spielen Banken, künstliche Intelligenz, Tokenisierung und der digitale Euro? Die neue Studie „Bezahlen 2035“ der SRC Securi...

Datenschutzbeauftragter

Warum die Abschaffung des betrieblichen DSB ein Fehler ist

Die geplante Streichung der nationalen Pflicht zur Benennung betrieblicher Datenschutzbeauftragter im nicht öffentlichen Bereich sorgt für erhebliche Kritik. Der Berufsverband der ...