Local LLM & Secure Gateway
KI nutzen, ohne Daten preiszugeben
Nutzen Sie die volle Leistung großer Sprachmodelle — auf Ihrer eigenen Infrastruktur. Kein Token an OpenAI, kein Prompt an die Cloud. Ihr Secure Gateway routet Anfragen intelligent zwischen lokalen und externen Modellen — mit voller Datenkontrolle.
Das Problem mit Cloud-KI
Jeder Prompt an ChatGPT, Claude oder Gemini verlässt Ihr Unternehmen. Jede Kundenanfrage, jedes interne Dokument, jede Geschäftszahl — alles auf US-Servern.
Datenschutz-Risiko
Prompts werden auf US-Servern verarbeitet. DSGVO-Konformität ist bei den meisten Cloud-KI-Diensten nicht gewährleistet.
Kontrollverlust
Keine Kontrolle darüber, ob Ihre Daten zum Training verwendet werden. Kein Audit-Trail, keine Nachvollziehbarkeit.
Unplanbare Kosten
Token-basierte Abrechnung macht Budgetierung unmöglich. Ein Power-User kann schnell vierstellige Monatskosten verursachen.
Unsere Lösung: Local LLM + Secure Gateway
Ein intelligenter Proxy zwischen Ihren Mitarbeitern und KI-Modellen — mit voller Kontrolle über den Datenfluss.
Local LLM Hosting
Open-Source-Modelle wie Llama 3, Mistral oder Gemma laufen direkt auf Ihrem dedizierten GPU-Server. Keine Daten verlassen Ihre Infrastruktur — ideal für sensible Anfragen.
Secure Gateway
Der Gateway sitzt zwischen Ihren Nutzern und den KI-Modellen. Er anonymisiert sensible Daten, loggt alle Anfragen und routet intelligent: unkritische Anfragen an Cloud-Modelle, sensible an das lokale LLM.
DLP & Compliance
Data Loss Prevention erkennt und maskiert personenbezogene Daten, Geschäftsgeheimnisse und sensible Begriffe — bevor sie das lokale Netzwerk verlassen. Vollständiger Audit-Trail inklusive.
Was Sie bekommen
Enterprise-KI mit den Sicherheitsstandards, die Ihr Unternehmen erfordert.
PII-Erkennung
Automatische Erkennung und Maskierung personenbezogener Daten in Prompts.
Audit-Trail
Vollständige Protokollierung aller KI-Interaktionen. Wer hat was wann gefragt?
Hybrid-Routing
Intelligentes Routing: sensible Anfragen lokal, unkritische optional an Cloud-Modelle.
Multi-User
Nutzerverwaltung mit Rollen und Rechten. Abteilungsspezifische Zugänge und Limits.
Web-Interface
ChatGPT-ähnliche Oberfläche für Ihre Mitarbeiter. Kein technisches Wissen nötig.
Flatrate-Pricing
Festpreis pro Monat. Unbegrenzte Anfragen an lokale Modelle — kein Token-Zählen.
Unterstützte Modelle
Llama 3.3
Meta · bis 70B Parameter
Mistral Large
Mistral AI · EU-Modell
Gemma 2
Google · kompakt & schnell
Qwen 2.5
Alibaba · multilingual
Wir beraten Sie bei der Modellwahl — abhängig von Use Case, Sprache und Performance-Anforderungen. Alle Modelle sind Open Source und frei von Lizenzkosten.
Pakete
Local LLM und Secure Gateway — als Managed Service mit Festpreisen.
Gateway Only
490 €
pro Monat, netto
✓ Secure Gateway Proxy
✓ PII-Erkennung & Maskierung
✓ Audit-Trail
✓ 50 Nutzer
✓ Cloud-LLM Routing
✗ Lokales LLM
Setup: 1.490 € einmaligAnfragen
LLM + Gateway
1.290 €
pro Monat, netto
✓ Secure Gateway Proxy
✓ PII-Erkennung & Maskierung
✓ Audit-Trail
✓ 100 Nutzer
✓ Hybrid-Routing
✓ Dedizierter GPU-Server
✓ Web-Interface
Setup: 3.990 € einmaligAnfragen
Enterprise
Individuell
nach Anforderung
✓ Alles aus LLM + Gateway
✓ Multi-Modell-Setup
✓ SSO / LDAP Integration
✓ Unbegrenzte Nutzer
✓ Fine-Tuning Support
✓ SLA 99,9%
✓ Dedizierter Account Manager
Setup: nach AufwandAnfragen
Alle Preise netto zzgl. 19% MwSt. Vertragslaufzeit: 12 Monate.
Häufig gestellte Fragen
Sind lokale Modelle so gut wie ChatGPT?
Für die meisten Unternehmens-Anwendungen: ja. Modelle wie Llama 3.3 70B oder Mistral Large erreichen bei Textgenerierung, Zusammenfassung und Analyse vergleichbare Qualität. Für spezielle Aufgaben (z.B. Code oder kreatives Schreiben) kann das Hybrid-Routing an stärkere Cloud-Modelle delegieren — mit PII-Maskierung.
Was ist der Unterschied zum RAG-System?
Ein RAG-System durchsucht Ihre Dokumente und gibt Antworten mit Quellenangabe. Das Local LLM mit Secure Gateway ist breiter: Es gibt Ihren Mitarbeitern einen sicheren, ChatGPT-ähnlichen Assistenten für alle Aufgaben — Texte schreiben, analysieren, übersetzen, zusammenfassen. Beide Systeme lassen sich kombinieren.
Wie viele Nutzer können gleichzeitig arbeiten?
Das hängt von der GPU-Konfiguration ab. Ein Inference-Server mit RTX 4000 SFF bedient typischerweise 10-20 gleichzeitige Nutzer flüssig. Für mehr Parallelität empfehlen wir den Training-Server oder ein Multi-GPU-Setup.
Kann ich Cloud-Modelle komplett ausschließen?
Ja. Der Gateway kann so konfiguriert werden, dass ausschließlich lokale Modelle verwendet werden. Kein einziger Token verlässt dann Ihr Netzwerk. Das Hybrid-Routing ist optional.
Welche Compliance-Anforderungen werden erfüllt?
DSGVO, ISO 27001, SOC 2 — die Infrastruktur läuft auf zertifizierten Servern in deutschen Rechenzentren. Der Audit-Trail und die PII-Maskierung helfen bei der Nachweisführung gegenüber Datenschutzbeauftragten und Auditoren.
KI nutzen. Daten behalten.
Lassen Sie uns gemeinsam prüfen, welche KI-Strategie zu Ihrem Unternehmen passt — lokal, hybrid oder beides. Kostenlose Erstberatung.
Über 25 Jahre Erfahrung: Verdacloud und VerdaGen.ai sind Schwestermarken der Gnann Gruppe. Seit über 25 Jahren begleiten wir Unternehmen bei der Digitalisierung — von den ersten Cloud-Lösungen bis hin zur modernen KI-Infrastruktur.
LLM-Beratung anfragen
Erfahren Sie, wie Sie KI datenschutzkonform in Ihrem Unternehmen einsetzen können.
