Key Takeaways – Das lernst du in diesem Artikel

  • Rechtlicher Rahmen: Wie die KI-Verordnung (EU AI Act) und die DSGVO den Einsatz von KI im Unternehmen regulieren – und welche Handlungsspielräume du hast.
  • Pseudonymisierung als Enabler: Warum "Zero Trust for AI" mit MATVIS personenbezogene Daten schützt, ohne den Geschäftswert deiner Informationen zu zerstören.
  • Lokale KI im Realitätscheck: Ehrliche Praxiserfahrungen mit NVIDIA DGX Spark, Inference Servern und der Frage: Wann lohnt sich lokale KI, wann ist Cloud-KI die bessere Wahl?
  • Hybridansatz als Strategie: Wie du hochsensible Daten lokal verarbeitest und komplexe Aufgaben über Cloud-KI mit Pseudonymisierung löst.
  • Handlungsempfehlungen: Konkrete Checklisten für den rechtssicheren und wirtschaftlich sinnvollen KI-Einsatz in deinem Unternehmen.

KI ist der größte Hebel für Effizienz in diesem Jahrzehnt. Doch zwischen Möglichkeiten und Regulierung navigieren Entscheider oft im Nebel. Am 10. Februar 2026 haben wir in unserem Experten-Webinar genau dieses Spannungsfeld aufgelöst – mit juristischer Klarheit, technologischer Ehrlichkeit und einem ungeschönten Praxisbericht.

In diesem Artikel fassen wir die zentralen Erkenntnisse zusammen: Von den roten Linien der KI-Verordnung über intelligente Pseudonymisierung bis hin zur Frage, was lokale KI heute wirklich kann. Keine Marketing-Versprechen, sondern eine fundierte Entscheidungsgrundlage für deine KI-Strategie.

Rechtliche Rahmenbedingungen für KI-Einsatz: DSGVO und EU AI Act

1. Rechtliche Rahmen­bedingungen: Klartext statt juristisches Vielleicht

Rechtsanwalt Thomas Steinle, Fachanwalt für Informationstechnologierecht und Datenschutzbeauftragter, machte in seinem Vortrag unmissverständlich klar: KI-Einsatz ohne rechtliches Fundament ist ein Risiko, das kein Entscheider eingehen sollte. Aber er zeigte auch, dass der Handlungsspielraum größer ist, als viele denken.

Vor dem KI-Einsatz: Die richtigen Fragen stellen

Bevor du überhaupt über Tools und Modelle nachdenkst, solltest du drei grundlegende Aspekte klären:

  • Sensibilität der Daten: Welche Geschäfts- und Betriebsgeheimnisse sind betroffen? Branchenspezifische Anforderungen wie KRITIS oder DORA (für Banken und Versicherungen) erfordern besondere Sorgfalt.
  • Lokale KI vs. Cloud-Dienst: Die Entscheidung hängt direkt von der Vertraulichkeit deiner Daten ab. Je sensibler, desto stärker spricht alles für eine lokale Lösung.
  • Technische Absicherung: Verschlüsselung, Vertrauenswürdigkeit des Dienstleisters und vertragliche Vereinbarungen sind kein "Nice-to-have", sondern Pflicht.

Die KI-Verordnung (EU AI Act): Was gilt wann?

Die KI-Verordnung führt ein Klassifizierungssystem ein, das jedes Unternehmen kennen muss:

  1. Verbotene KI-Praktiken (bereits in Kraft): Social Scoring, Manipulation von Personen und Emotionserkennung am Arbeitsplatz sind absolut untersagt.
  2. Hochrisiko-KI-Systeme (ab August 2026): Betrifft u.a. kritische Infrastruktur, Personalauswahl, Bonitätsbewertungen. Hier greifen strenge Pflichten zur Beaufsichtigung, Risikominimierung und Dokumentation.
  3. Standard-KI-Systeme: Ab August 2025 gelten Transparenzpflichten – etwa die Kennzeichnungspflicht bei Mensch-KI-Interaktion und Deepfakes.

DSGVO: Die zentrale Frage lautet – Personenbezug?

Die entscheidende Frage bei jedem KI-Einsatz: Werden personenbezogene Daten verarbeitet? Wenn ja, brauchst du eine Rechtsgrundlage. In der Praxis ist das berechtigte Interesse (Art. 6 Abs. 1 lit. f DSGVO) oft der gangbare Weg – allerdings mit einer sauberen Interessenabwägung und konkreten Maßnahmen zur Eingriffsminimierung:

  • Entfernung von Identifikatoren (Name, Telefonnummer, E-Mail)
  • Pseudonymisierung der Daten
  • Einsatz von Prompt- und Output-Filtern

Wichtig: Das OLG Köln bestätigte 2024, dass die Entfernung von Identifikatoren die Eingriffsintensität reduziert. Und der EuGH stellt klar: Die Informationspflicht gegenüber Betroffenen bleibt immer zwingend.

Besondere Vorsicht ist bei automatisierten Einzelentscheidungen (Art. 22 DSGVO) geboten – automatische Bewerbungsabsagen oder Bonitätsprüfungen ohne menschlichen Entscheider sind unzulässig.

Pseudonymisierung personenbezogener Daten mit Matvis als Firewall zwischen Nutzer und KI

2. Pseudonymisierung mit MATVIS: Zero Trust for AI in der Praxis

Wolfgang Glatz, Gründer und CEO der MATVIS GmbH, präsentierte einen Ansatz, der Datenschutz nicht als Bremse, sondern als Enabler versteht: "Zero Trust for AI". Das Prinzip ist radikal einfach – betrachte das KI-System grundsätzlich als nicht vertrauenswürdig und schütze deine Daten proaktiv.

Die Architektur: MATVIS als Firewall

MATVIS positioniert sich als intelligente Firewall zwischen deinen Nutzern und dem KI-System. Bevor personenbezogene Daten das Large Language Model erreichen, werden sie automatisch gefiltert und pseudonymisiert. Das Besondere: MATVIS setzt auf traditionelle KI (Machine Learning) statt auf LLMs für die Erkennung – das garantiert deterministische, reproduzierbare Ergebnisse.

Erkannte und gefilterte Daten umfassen:

  • Namen, Adressen und Ortsangaben
  • E-Mail-Adressen und Telefonnummern
  • IBAN und Kreditkartennummern
  • Weitere personenbezogene Identifikatoren

Durch die Anreicherung mit eigenen Unternehmensdaten (z.B. Mandantendatenbanken) steigt die Trefferquote auf über 99,9 % – besonders relevant für Berufsträger mit Schweigepflicht wie Anwälte oder Steuerberater.

Pseudonymisierung vs. Anonymisierung: Der entscheidende Unterschied

Thomas Steinle und Wolfgang Glatz machten gemeinsam deutlich, warum Pseudonymisierung in der Praxis oft die bessere Wahl ist:

  • Pseudonymisierung: Personenbezogene Daten werden durch Identifier ersetzt (z.B. PERSON_001). Die Rükübersetzung ist möglich, sodass du verständliche Antworten erhältst. Die DSGVO bleibt anwendbar, aber die Eingriffsintensität sinkt erheblich.
  • Anonymisierung: Der Personenbezug wird vollständig entfernt – keine Rükübersetzung möglich. Die DSGVO greift nicht mehr, aber die Nutzbarkeit der Ergebnisse sinkt deutlich.

Compliance und Nachweisbarkeit: Die Kombination macht den Unterschied

MATVIS selbst bietet eine grundlegende Protokollierung der Pseudonymisierungsvorgänge. Die wirkliche Stärke entfaltet sich jedoch in der Kombination mit ALBERT | AI: Denn ALBERT | AI verfügt über einen dedizierten Protokoll-Handler, der sämtliche KI-Interaktionen lückenlos und revisionssicher dokumentiert – unabhängig davon, ob der Nutzer seinen Chatverlauf bereinigt.

Was ALBERT | AI konkret protokolliert:

  • Jede Anfrage: Was wurde an die KI gesendet – inklusive der Information, welche Daten zuvor durch MATVIS pseudonymisiert wurden.
  • Jede Antwort: Was hat die KI zurückgeliefert und wie wurde es rücktransformiert.
  • Der vollständige Kontext: Welche Dokumente, Akten oder Suchergebnisse waren Bestandteil der Interaktion.
  • Auch Hintergrundprozesse: Der Protokoll-Handler überwacht nicht nur Chat-Interaktionen, sondern auch autonome KI-Agenten, die in Workflows oder Skripten Aufgaben erledigen (sogenannte "Headless"-Interaktionen).

Diese Protokolle sind durch das Berechtigungssystem von agorum core geschützt – nur autorisierte Personen (z.B. Datenschutzbeauftragte, Revision) erhalten Zugriff. Zusätzlich können die Protokolle nach einer definierten Aufbewahrungsfrist automatisch gelöscht werden, um den Grundsätzen der Datensparsamkeit zu entsprechen.

Die MATVIS-Lösung selbst ist ISO 27001-zertifiziert (TÜV Nord), wird von einem europäischen Anbieter aus Tübingen betrieben und kann on-premises installiert werden. Das bedeutet: Volle Datensouveränität ohne Abhängigkeit von Drittländern.

3. Lokale KI im Realitätscheck: Ehrliche Praxis­erfah­rungen

Oliver Schulze, CEO/CTO der agorum® Software GmbH, lieferte den Teil, auf den viele gewartet haben: einen ungeschönten Erfahrungsbericht zu lokaler KI im Unternehmenseinsatz. Keine Marketing-Versprechen, sondern harte Fakten.

Integration in agorum core

MATVIS ist als KI-Handler direkt in agorum core integrierbar. Für den Endanwender bleibt die Pseudonymisierung vollkommen transparent – bei jedem Aufruf von ALBERT | AI werden personenbezogene Daten automatisch pseudonymisiert, an das KI-Modell gesendet und die Antwort rückübersetzt. Sämtliche Vorgänge werden für die Nachweispflicht protokolliert.

Hardware-Test: NVIDIA DGX Spark

Oliver Schulze testete die NVIDIA DGX Spark – ein kompaktes System mit 128 GB VRAM, erweiterbar auf 256 GB durch Kopplung. Sein ehrliches Fazit:

  • Performance: 30–32 Tokens pro Sekunde Output – ausreichend für Testbetrieb, aber für Produktivumgebungen limitiert.
  • Herausforderungen: Bleeding-Edge-Technologie mit hohem Forschungsaufwand, veralteter Dokumentation und experimentellem Charakter.
  • Enterprise-Alternative: Systeme auf Basis der RTX 6000 liefern deutlich höhere Performance und sind für den Produktiveinsatz empfohlen.

Inference Server: Ollama vs. vLLM

Bei der Wahl des Inference Servers fiel das Urteil eindeutig aus:

  • Ollama: Einfach zu installieren, aber begrenztes Kontextfenster und Antwortzeiten von bis zu 5 Minuten – für den Produktiveinsatz ungeeignet.
  • vLLM (Empfehlung): Stabilerer Betrieb, bessere Performance, größeres Kontextfenster – praxistauglich nach Optimierung.

Modellempfehlung

Für agentische KI empfiehlt Oliver Schulze das Modell GPT OSS 120B mit 120 Milliarden Parametern. Es bietet stabile Tool-Nutzung und ist optimal für die Automatisierung von Prozessen. Einschränkung: Keine native Bildverarbeitung – was in der Praxis allerdings weniger ins Gewicht fällt, als man zunächst annimmt. Denn agorum core pro verfügt bereits über eine integrierte OCR-Engine, die Dokumente automatisch in durchsuchbaren Text umwandelt, bevor sie überhaupt an die KI übergeben werden. Damit steht der Textinhalt auch ohne Bildverarbeitungsfähigkeit des KI-Modells vollständig zur Verfügung. Für spezielle Anwendungsfälle, die tatsächlich eine visuelle Bildanalyse erfordern, eignet sich Qwen-VL als Ergänzung.

Hybridansatz: Lokale KI und Cloud-KI kombiniert für optimale Datensicherheit und Performance

4. Lokale KI vs. Cloud-KI: Wann eignet sich was?

Eine der wertvollsten Erkenntnisse aus dem Webinar: Es gibt keine Entweder-oder-Entscheidung. Der Hybridansatz ist die strategisch klügste Lösung – und genau das macht agorum core mit ALBERT | AI möglich.

Stärken lokaler KI

  • Textextraktion und Zusammenfassung mittlerer Dokumente
  • Datenextraktion (z.B. Rechnungsdaten zu JSON)
  • Dokumentenklassifizierung und -vergleich
  • Einfache Tool-Aufrufe mit klarem Prozess
  • Maximaler Datenschutz: Daten verlassen nie dein Unternehmen

Stärken Cloud-KI (mit MATVIS-Filter)

  • Große Kontextmengen (bis 1 Million Tokens)
  • Komplexe strategische Entscheidungen und Planungen
  • Agentische KI mit hoher Autonomie
  • Coding-Aufgaben und eigenständige Prozessplanung
  • Exzellente Performance ohne eigene Hardware-Investition

Der strategische Hybridansatz

Die Empfehlung aus dem Webinar ist klar: Kombiniere beide Welten.

  • Hochsensible Daten (Personalakten, Gesundheitsdaten, Geschäftsgeheimnisse) verarbeitest du ausschließlich mit lokaler KI.
  • Komplexe Aufgaben mit großen Kontextfenstern oder agentischer Autonomie löst du über Cloud-KI – geschützt durch die MATVIS-Pseudonymisierung.

agorum core mit ALBERT | AI unterstützt beide Szenarien nahtlos. Du konfigurierst pro Anwendungsfall, welche KI (oder welcher KI-Anbieter) zum Einsatz kommt – lokal, Cloud oder hybrid. Das gibt dir maximale Flexibilität bei voller Kontrolle über deine Datensouveränität.

Webinar-Aufzeichnung

5. Wirtschaftlichkeit und Lizenzierung

Investitionssicherheit war ein zentrales Thema im Webinar. Hier die wichtigsten Informationen zur Wirtschaftlichkeit:

MATVIS

  • Fixe Jahreslizenz – kein nutzungsbasiertes Modell, das bei steigendem Volumen die Kosten explodieren lässt.
  • Organisationsweite Nutzung inklusive.
  • Detaillierte Konditionen auf Anfrage.

agorum core mit ALBERT | AI

  • ALBERT | AI-Lizenz als Erweiterung von agorum core.
  • MATVIS-Anbindung ist in der ALBERT | AI-Integration enthalten.
  • Hardwarepartner bieten vorkonfigurierte Komplettlösungen für lokale KI – Plug-and-Play statt monatelanger Eigenentwicklung.

Aus ROI-Perspektive brachte es Oliver Schulze auf den Punkt: Die Kosten für Untätigkeit (Cost of Inaction) übersteigen die Investition in eine durchdachte KI-Strategie bei Weitem. Wer heute aus Vorsicht wartet, verliert morgen den Anschluss an Wettbewerber, die ihre Dokumentenprozesse bereits automatisieren und ihre Fachkräfte von repetitiven Aufgaben befreien.

FAQ Häufig gestellte Fragen zu KI und Datenschutz

Zwei Geschäftsleute sitzen auf Sitzwürfeln in einem modernen Büro und besprechen sich, während eine dritte Person im Vordergrund zuhört.

Fazit: Dein nächster Schritt: Rechtssichere KI-Strategie umsetzen

Das Webinar hat gezeigt: Rechtssicherer KI-Einsatz ist kein Widerspruch zu Innovation – im Gegenteil. Wer Datenschutz als Qualitätsmerkmal begreift, verschafft sich einen echten Wettbewerbsvorteil.

Die Kombination aus agorum core als sicherem Fundament, ALBERT | AI als intelligenter KI-Schicht und Matvis als Datenschutz-Firewall gibt dir alle Werkzeuge an die Hand, um KI strategisch und compliant einzusetzen. Ob lokal, in der Cloud oder hybrid – du behältst die volle Kontrolle über deine Daten und deine Prozesse.

Drei Handlungsempfehlungen für Entscheider

  1. Datensensibilität bewerten: Klassifiziere deine Daten nach Sensibilität und leite daraus ab, welche KI-Strategie (lokal, Cloud, hybrid) zu deinem Risikoprofil passt.
  2. Technische Schutzmaßnahmen implementieren: Pseudonymisierung, Protokollierung und Zugriffskontrollen sind keine optionalen Extras, sondern die Basis für jeden DSGVO-konformen KI-Einsatz.
  3. Jetzt starten statt warten: Die Cost of Inaction steigt mit jedem Monat. Beginne mit strukturierten Anwendungsfällen und erweitere schrittweise.

Schau dir die vollständige Webinar-Aufzeichnung an oder vereinbare ein individuelles Gespräch mit unseren Experten. Lass uns nicht über Features sprechen, sondern über deinen Business-Case.

Bitmi