Key Takeaways – Das lernst du in diesem Artikel
- Rechtlicher Rahmen: Wie die KI-Verordnung (EU AI Act) und die DSGVO den Einsatz von KI im Unternehmen regulieren – und welche Handlungsspielräume du hast.
- Pseudonymisierung als Enabler: Warum "Zero Trust for AI" mit MATVIS personenbezogene Daten schützt, ohne den Geschäftswert deiner Informationen zu zerstören.
- Lokale KI im Realitätscheck: Ehrliche Praxiserfahrungen mit NVIDIA DGX Spark, Inference Servern und der Frage: Wann lohnt sich lokale KI, wann ist Cloud-KI die bessere Wahl?
- Hybridansatz als Strategie: Wie du hochsensible Daten lokal verarbeitest und komplexe Aufgaben über Cloud-KI mit Pseudonymisierung löst.
- Handlungsempfehlungen: Konkrete Checklisten für den rechtssicheren und wirtschaftlich sinnvollen KI-Einsatz in deinem Unternehmen.
KI ist der größte Hebel für Effizienz in diesem Jahrzehnt. Doch zwischen Möglichkeiten und Regulierung navigieren Entscheider oft im Nebel. Am 10. Februar 2026 haben wir in unserem Experten-Webinar genau dieses Spannungsfeld aufgelöst – mit juristischer Klarheit, technologischer Ehrlichkeit und einem ungeschönten Praxisbericht.
In diesem Artikel fassen wir die zentralen Erkenntnisse zusammen: Von den roten Linien der KI-Verordnung über intelligente Pseudonymisierung bis hin zur Frage, was lokale KI heute wirklich kann. Keine Marketing-Versprechen, sondern eine fundierte Entscheidungsgrundlage für deine KI-Strategie.
1. Rechtliche Rahmenbedingungen: Klartext statt juristisches Vielleicht
Rechtsanwalt Thomas Steinle, Fachanwalt für Informationstechnologierecht und Datenschutzbeauftragter, machte in seinem Vortrag unmissverständlich klar: KI-Einsatz ohne rechtliches Fundament ist ein Risiko, das kein Entscheider eingehen sollte. Aber er zeigte auch, dass der Handlungsspielraum größer ist, als viele denken.
Vor dem KI-Einsatz: Die richtigen Fragen stellen
Bevor du überhaupt über Tools und Modelle nachdenkst, solltest du drei grundlegende Aspekte klären:
- Sensibilität der Daten: Welche Geschäfts- und Betriebsgeheimnisse sind betroffen? Branchenspezifische Anforderungen wie KRITIS oder DORA (für Banken und Versicherungen) erfordern besondere Sorgfalt.
- Lokale KI vs. Cloud-Dienst: Die Entscheidung hängt direkt von der Vertraulichkeit deiner Daten ab. Je sensibler, desto stärker spricht alles für eine lokale Lösung.
- Technische Absicherung: Verschlüsselung, Vertrauenswürdigkeit des Dienstleisters und vertragliche Vereinbarungen sind kein "Nice-to-have", sondern Pflicht.
Die KI-Verordnung (EU AI Act): Was gilt wann?
Die KI-Verordnung führt ein Klassifizierungssystem ein, das jedes Unternehmen kennen muss:
- Verbotene KI-Praktiken (bereits in Kraft): Social Scoring, Manipulation von Personen und Emotionserkennung am Arbeitsplatz sind absolut untersagt.
- Hochrisiko-KI-Systeme (ab August 2026): Betrifft u.a. kritische Infrastruktur, Personalauswahl, Bonitätsbewertungen. Hier greifen strenge Pflichten zur Beaufsichtigung, Risikominimierung und Dokumentation.
- Standard-KI-Systeme: Ab August 2025 gelten Transparenzpflichten – etwa die Kennzeichnungspflicht bei Mensch-KI-Interaktion und Deepfakes.
DSGVO: Die zentrale Frage lautet – Personenbezug?
Die entscheidende Frage bei jedem KI-Einsatz: Werden personenbezogene Daten verarbeitet? Wenn ja, brauchst du eine Rechtsgrundlage. In der Praxis ist das berechtigte Interesse (Art. 6 Abs. 1 lit. f DSGVO) oft der gangbare Weg – allerdings mit einer sauberen Interessenabwägung und konkreten Maßnahmen zur Eingriffsminimierung:
- Entfernung von Identifikatoren (Name, Telefonnummer, E-Mail)
- Pseudonymisierung der Daten
- Einsatz von Prompt- und Output-Filtern
Wichtig: Das OLG Köln bestätigte 2024, dass die Entfernung von Identifikatoren die Eingriffsintensität reduziert. Und der EuGH stellt klar: Die Informationspflicht gegenüber Betroffenen bleibt immer zwingend.
Besondere Vorsicht ist bei automatisierten Einzelentscheidungen (Art. 22 DSGVO) geboten – automatische Bewerbungsabsagen oder Bonitätsprüfungen ohne menschlichen Entscheider sind unzulässig.
2. Pseudonymisierung mit MATVIS: Zero Trust for AI in der Praxis
Wolfgang Glatz, Gründer und CEO der MATVIS GmbH, präsentierte einen Ansatz, der Datenschutz nicht als Bremse, sondern als Enabler versteht: "Zero Trust for AI". Das Prinzip ist radikal einfach – betrachte das KI-System grundsätzlich als nicht vertrauenswürdig und schütze deine Daten proaktiv.
Die Architektur: MATVIS als Firewall
MATVIS positioniert sich als intelligente Firewall zwischen deinen Nutzern und dem KI-System. Bevor personenbezogene Daten das Large Language Model erreichen, werden sie automatisch gefiltert und pseudonymisiert. Das Besondere: MATVIS setzt auf traditionelle KI (Machine Learning) statt auf LLMs für die Erkennung – das garantiert deterministische, reproduzierbare Ergebnisse.
Erkannte und gefilterte Daten umfassen:
- Namen, Adressen und Ortsangaben
- E-Mail-Adressen und Telefonnummern
- IBAN und Kreditkartennummern
- Weitere personenbezogene Identifikatoren
Durch die Anreicherung mit eigenen Unternehmensdaten (z.B. Mandantendatenbanken) steigt die Trefferquote auf über 99,9 % – besonders relevant für Berufsträger mit Schweigepflicht wie Anwälte oder Steuerberater.
Pseudonymisierung vs. Anonymisierung: Der entscheidende Unterschied
Thomas Steinle und Wolfgang Glatz machten gemeinsam deutlich, warum Pseudonymisierung in der Praxis oft die bessere Wahl ist:
- Pseudonymisierung: Personenbezogene Daten werden durch Identifier ersetzt (z.B. PERSON_001). Die Rükübersetzung ist möglich, sodass du verständliche Antworten erhältst. Die DSGVO bleibt anwendbar, aber die Eingriffsintensität sinkt erheblich.
- Anonymisierung: Der Personenbezug wird vollständig entfernt – keine Rükübersetzung möglich. Die DSGVO greift nicht mehr, aber die Nutzbarkeit der Ergebnisse sinkt deutlich.
Compliance und Nachweisbarkeit: Die Kombination macht den Unterschied
MATVIS selbst bietet eine grundlegende Protokollierung der Pseudonymisierungsvorgänge. Die wirkliche Stärke entfaltet sich jedoch in der Kombination mit ALBERT | AI: Denn ALBERT | AI verfügt über einen dedizierten Protokoll-Handler, der sämtliche KI-Interaktionen lückenlos und revisionssicher dokumentiert – unabhängig davon, ob der Nutzer seinen Chatverlauf bereinigt.
Was ALBERT | AI konkret protokolliert:
- Jede Anfrage: Was wurde an die KI gesendet – inklusive der Information, welche Daten zuvor durch MATVIS pseudonymisiert wurden.
- Jede Antwort: Was hat die KI zurückgeliefert und wie wurde es rücktransformiert.
- Der vollständige Kontext: Welche Dokumente, Akten oder Suchergebnisse waren Bestandteil der Interaktion.
- Auch Hintergrundprozesse: Der Protokoll-Handler überwacht nicht nur Chat-Interaktionen, sondern auch autonome KI-Agenten, die in Workflows oder Skripten Aufgaben erledigen (sogenannte "Headless"-Interaktionen).
Diese Protokolle sind durch das Berechtigungssystem von agorum core geschützt – nur autorisierte Personen (z.B. Datenschutzbeauftragte, Revision) erhalten Zugriff. Zusätzlich können die Protokolle nach einer definierten Aufbewahrungsfrist automatisch gelöscht werden, um den Grundsätzen der Datensparsamkeit zu entsprechen.
Die MATVIS-Lösung selbst ist ISO 27001-zertifiziert (TÜV Nord), wird von einem europäischen Anbieter aus Tübingen betrieben und kann on-premises installiert werden. Das bedeutet: Volle Datensouveränität ohne Abhängigkeit von Drittländern.
3. Lokale KI im Realitätscheck: Ehrliche Praxiserfahrungen
Oliver Schulze, CEO/CTO der agorum® Software GmbH, lieferte den Teil, auf den viele gewartet haben: einen ungeschönten Erfahrungsbericht zu lokaler KI im Unternehmenseinsatz. Keine Marketing-Versprechen, sondern harte Fakten.
Integration in agorum core
MATVIS ist als KI-Handler direkt in agorum core integrierbar. Für den Endanwender bleibt die Pseudonymisierung vollkommen transparent – bei jedem Aufruf von ALBERT | AI werden personenbezogene Daten automatisch pseudonymisiert, an das KI-Modell gesendet und die Antwort rückübersetzt. Sämtliche Vorgänge werden für die Nachweispflicht protokolliert.
Hardware-Test: NVIDIA DGX Spark
Oliver Schulze testete die NVIDIA DGX Spark – ein kompaktes System mit 128 GB VRAM, erweiterbar auf 256 GB durch Kopplung. Sein ehrliches Fazit:
- Performance: 30–32 Tokens pro Sekunde Output – ausreichend für Testbetrieb, aber für Produktivumgebungen limitiert.
- Herausforderungen: Bleeding-Edge-Technologie mit hohem Forschungsaufwand, veralteter Dokumentation und experimentellem Charakter.
- Enterprise-Alternative: Systeme auf Basis der RTX 6000 liefern deutlich höhere Performance und sind für den Produktiveinsatz empfohlen.
Inference Server: Ollama vs. vLLM
Bei der Wahl des Inference Servers fiel das Urteil eindeutig aus:
- Ollama: Einfach zu installieren, aber begrenztes Kontextfenster und Antwortzeiten von bis zu 5 Minuten – für den Produktiveinsatz ungeeignet.
- vLLM (Empfehlung): Stabilerer Betrieb, bessere Performance, größeres Kontextfenster – praxistauglich nach Optimierung.
Modellempfehlung
Für agentische KI empfiehlt Oliver Schulze das Modell GPT OSS 120B mit 120 Milliarden Parametern. Es bietet stabile Tool-Nutzung und ist optimal für die Automatisierung von Prozessen. Einschränkung: Keine native Bildverarbeitung – was in der Praxis allerdings weniger ins Gewicht fällt, als man zunächst annimmt. Denn agorum core pro verfügt bereits über eine integrierte OCR-Engine, die Dokumente automatisch in durchsuchbaren Text umwandelt, bevor sie überhaupt an die KI übergeben werden. Damit steht der Textinhalt auch ohne Bildverarbeitungsfähigkeit des KI-Modells vollständig zur Verfügung. Für spezielle Anwendungsfälle, die tatsächlich eine visuelle Bildanalyse erfordern, eignet sich Qwen-VL als Ergänzung.
4. Lokale KI vs. Cloud-KI: Wann eignet sich was?
Eine der wertvollsten Erkenntnisse aus dem Webinar: Es gibt keine Entweder-oder-Entscheidung. Der Hybridansatz ist die strategisch klügste Lösung – und genau das macht agorum core mit ALBERT | AI möglich.
Stärken lokaler KI
- Textextraktion und Zusammenfassung mittlerer Dokumente
- Datenextraktion (z.B. Rechnungsdaten zu JSON)
- Dokumentenklassifizierung und -vergleich
- Einfache Tool-Aufrufe mit klarem Prozess
- Maximaler Datenschutz: Daten verlassen nie dein Unternehmen
Stärken Cloud-KI (mit MATVIS-Filter)
- Große Kontextmengen (bis 1 Million Tokens)
- Komplexe strategische Entscheidungen und Planungen
- Agentische KI mit hoher Autonomie
- Coding-Aufgaben und eigenständige Prozessplanung
- Exzellente Performance ohne eigene Hardware-Investition
Der strategische Hybridansatz
Die Empfehlung aus dem Webinar ist klar: Kombiniere beide Welten.
- Hochsensible Daten (Personalakten, Gesundheitsdaten, Geschäftsgeheimnisse) verarbeitest du ausschließlich mit lokaler KI.
- Komplexe Aufgaben mit großen Kontextfenstern oder agentischer Autonomie löst du über Cloud-KI – geschützt durch die MATVIS-Pseudonymisierung.
agorum core mit ALBERT | AI unterstützt beide Szenarien nahtlos. Du konfigurierst pro Anwendungsfall, welche KI (oder welcher KI-Anbieter) zum Einsatz kommt – lokal, Cloud oder hybrid. Das gibt dir maximale Flexibilität bei voller Kontrolle über deine Datensouveränität.
Webinar-Aufzeichnung
5. Wirtschaftlichkeit und Lizenzierung
Investitionssicherheit war ein zentrales Thema im Webinar. Hier die wichtigsten Informationen zur Wirtschaftlichkeit:
MATVIS
- Fixe Jahreslizenz – kein nutzungsbasiertes Modell, das bei steigendem Volumen die Kosten explodieren lässt.
- Organisationsweite Nutzung inklusive.
- Detaillierte Konditionen auf Anfrage.
agorum core mit ALBERT | AI
- ALBERT | AI-Lizenz als Erweiterung von agorum core.
- MATVIS-Anbindung ist in der ALBERT | AI-Integration enthalten.
- Hardwarepartner bieten vorkonfigurierte Komplettlösungen für lokale KI – Plug-and-Play statt monatelanger Eigenentwicklung.
Aus ROI-Perspektive brachte es Oliver Schulze auf den Punkt: Die Kosten für Untätigkeit (Cost of Inaction) übersteigen die Investition in eine durchdachte KI-Strategie bei Weitem. Wer heute aus Vorsicht wartet, verliert morgen den Anschluss an Wettbewerber, die ihre Dokumentenprozesse bereits automatisieren und ihre Fachkräfte von repetitiven Aufgaben befreien.
FAQ Häufig gestellte Fragen zu KI und Datenschutz
-
Brauche ich zwingend eine lokale KI, um DSGVO-konform zu arbeiten?
Nein. Lokale KI bietet den maximalen Datenschutz, ist aber nicht die einzige Option. Mit einer Pseudonymisierungslösung wie MATVIS kannst du auch Cloud-KI DSGVO-konform einsetzen. Entscheidend ist die Sensibilität deiner Daten und die Qualität der technischen Schutzmaßnahmen. Für hochsensible Daten (z.B. Gesundheitsdaten, besondere Kategorien nach Art. 9 DSGVO) empfiehlt sich jedoch die lokale Verarbeitung.
-
Was bedeutet die KI-Verordnung konkret für mein Unternehmen?
Das hängt davon ab, wie du KI einsetzt. Für die meisten Unternehmen, die KI zur Dokumentenverarbeitung oder als Assistenzsystem nutzen, fallen Standard-Transparenzpflichten an (ab August 2025 wirksam). Setzt du KI für Personalauswahl, Bonitätsbewertungen oder in kritischer Infrastruktur ein, gelten ab August 2026 verschärfte Hochrisiko-Anforderungen mit Dokumentations- und Beaufsichtigungspflichten.
-
Wie funktioniert die Integration von MATVIS in agorum core?
MATVIS wird als KI-Handler in ALBERT | AI konfiguriert. Für den Endanwender ist die Pseudonymisierung vollständig transparent – er arbeitet wie gewohnt mit ALBERT, während im Hintergrund personenbezogene Daten automatisch gefiltert, pseudonymisiert und nach der KI-Verarbeitung rückübersetzt werden. Alle Vorgänge werden für die Compliance-Dokumentation protokolliert.
-
Welche Hardware benötige ich für lokale KI?
Für den Testbetrieb eignet sich ein System wie die NVIDIA DGX Spark (128 GB VRAM). Für den Produktiveinsatz empfiehlt Oliver Schulze leistungsfähigere Systeme auf Basis der RTX 6000. agorum® arbeitet mit Hardwarepartnern zusammen, die vorkonfigurierte Komplettlösungen anbieten – das spart dir den aufwendigen Aufbau eigener Expertise.
-
Darf ich KI-gestützte Entscheidungen vollautomatisch treffen?
Grundsätzlich nein, wenn die Entscheidung Rechtswirkung für die betroffene Person hat (Art. 22 DSGVO). Automatische Bewerbungsabsagen, Kündigungen oder Bonitätsprüfungen erfordern immer einen menschlichen Entscheider mit eigenem Ermessensspielraum. Die KI darf zuarbeiten und Empfehlungen aussprechen, die finale Entscheidung muss aber ein Mensch treffen.
-
Ist der Hybridansatz wirklich wirtschaftlich sinnvoll?
Ja, denn du investierst gezielt statt pauschal. Hochsensible Routineprozesse (z.B. Rechnungsextraktion, Dokumentenklassifizierung) laufen kostengünstig auf lokaler KI. Für komplexe Aufgaben, die große Kontextfenster oder agentische Autonomie erfordern, nutzt du Cloud-KI mit MATVIS-Pseudonymisierung. So optimierst du sowohl Datenschutz als auch Performance, ohne in überdimensionierte Hardware investieren zu müssen.
Fazit: Dein nächster Schritt: Rechtssichere KI-Strategie umsetzen
Das Webinar hat gezeigt: Rechtssicherer KI-Einsatz ist kein Widerspruch zu Innovation – im Gegenteil. Wer Datenschutz als Qualitätsmerkmal begreift, verschafft sich einen echten Wettbewerbsvorteil.
Die Kombination aus agorum core als sicherem Fundament, ALBERT | AI als intelligenter KI-Schicht und Matvis als Datenschutz-Firewall gibt dir alle Werkzeuge an die Hand, um KI strategisch und compliant einzusetzen. Ob lokal, in der Cloud oder hybrid – du behältst die volle Kontrolle über deine Daten und deine Prozesse.
Drei Handlungsempfehlungen für Entscheider
- Datensensibilität bewerten: Klassifiziere deine Daten nach Sensibilität und leite daraus ab, welche KI-Strategie (lokal, Cloud, hybrid) zu deinem Risikoprofil passt.
- Technische Schutzmaßnahmen implementieren: Pseudonymisierung, Protokollierung und Zugriffskontrollen sind keine optionalen Extras, sondern die Basis für jeden DSGVO-konformen KI-Einsatz.
- Jetzt starten statt warten: Die Cost of Inaction steigt mit jedem Monat. Beginne mit strukturierten Anwendungsfällen und erweitere schrittweise.
Schau dir die vollständige Webinar-Aufzeichnung an oder vereinbare ein individuelles Gespräch mit unseren Experten. Lass uns nicht über Features sprechen, sondern über deinen Business-Case.