Local LLM & Secure Gateway

Local LLM & Secure Gateway

KI nutzen, ohne Daten preiszugeben

Nutzen Sie die volle Leistung großer Sprachmodelle — auf Ihrer eigenen Infrastruktur. Kein Token an OpenAI, kein Prompt an die Cloud. Ihr Secure Gateway routet Anfragen intelligent zwischen lokalen und externen Modellen — mit voller Datenkontrolle.

Beratungstermin vereinbaren Mehr erfahren →

DSGVO · KEIN US-CLOUD · VOLLE KONTROLLE

Das Problem mit Cloud-KI

Jeder Prompt an ChatGPT, Claude oder Gemini verlässt Ihr Unternehmen. Jede Kundenanfrage, jedes interne Dokument, jede Geschäftszahl — alles auf US-Servern.

Datenschutz-Risiko

Prompts werden auf US-Servern verarbeitet. DSGVO-Konformität ist bei den meisten Cloud-KI-Diensten nicht gewährleistet.

Kontrollverlust

Keine Kontrolle darüber, ob Ihre Daten zum Training verwendet werden. Kein Audit-Trail, keine Nachvollziehbarkeit.

Unplanbare Kosten

Token-basierte Abrechnung macht Budgetierung unmöglich. Ein Power-User kann schnell vierstellige Monatskosten verursachen.

Unsere Lösung: Local LLM + Secure Gateway

Ein intelligenter Proxy zwischen Ihren Mitarbeitern und KI-Modellen — mit voller Kontrolle über den Datenfluss.

1

Local LLM Hosting

Open-Source-Modelle wie Llama 3, Mistral oder Gemma laufen direkt auf Ihrem dedizierten GPU-Server. Keine Daten verlassen Ihre Infrastruktur — ideal für sensible Anfragen.

2

Secure Gateway

Der Gateway sitzt zwischen Ihren Nutzern und den KI-Modellen. Er anonymisiert sensible Daten, loggt alle Anfragen und routet intelligent: unkritische Anfragen an Cloud-Modelle, sensible an das lokale LLM.

3

DLP & Compliance

Data Loss Prevention erkennt und maskiert personenbezogene Daten, Geschäftsgeheimnisse und sensible Begriffe — bevor sie das lokale Netzwerk verlassen. Vollständiger Audit-Trail inklusive.

Was Sie bekommen

Enterprise-KI mit den Sicherheitsstandards, die Ihr Unternehmen erfordert.

PII-Erkennung

Automatische Erkennung und Maskierung personenbezogener Daten in Prompts.

Audit-Trail

Vollständige Protokollierung aller KI-Interaktionen. Wer hat was wann gefragt?

Hybrid-Routing

Intelligentes Routing: sensible Anfragen lokal, unkritische optional an Cloud-Modelle.

Multi-User

Nutzerverwaltung mit Rollen und Rechten. Abteilungsspezifische Zugänge und Limits.

Web-Interface

ChatGPT-ähnliche Oberfläche für Ihre Mitarbeiter. Kein technisches Wissen nötig.

Flatrate-Pricing

Festpreis pro Monat. Unbegrenzte Anfragen an lokale Modelle — kein Token-Zählen.

Unterstützte Modelle

Llama 3.3

Meta · bis 70B Parameter

Mistral Large

Mistral AI · EU-Modell

Gemma 2

Google · kompakt & schnell

Qwen 2.5

Alibaba · multilingual

Wir beraten Sie bei der Modellwahl — abhängig von Use Case, Sprache und Performance-Anforderungen. Alle Modelle sind Open Source und frei von Lizenzkosten.

Pakete

Local LLM und Secure Gateway — als Managed Service mit Festpreisen.

Gateway Only

490 €

pro Monat, netto

✓ Secure Gateway Proxy

✓ PII-Erkennung & Maskierung

✓ Audit-Trail

✓ 50 Nutzer

✓ Cloud-LLM Routing

✗ Lokales LLM

Setup: 1.490 € einmaligAnfragen

Empfohlen

LLM + Gateway

1.290 €

pro Monat, netto

✓ Secure Gateway Proxy

✓ PII-Erkennung & Maskierung

✓ Audit-Trail

✓ 100 Nutzer

✓ Hybrid-Routing

✓ Dedizierter GPU-Server

✓ Web-Interface

Setup: 3.990 € einmaligAnfragen

Enterprise

Individuell

nach Anforderung

✓ Alles aus LLM + Gateway

✓ Multi-Modell-Setup

✓ SSO / LDAP Integration

✓ Unbegrenzte Nutzer

✓ Fine-Tuning Support

✓ SLA 99,9%

✓ Dedizierter Account Manager

Setup: nach AufwandAnfragen

Alle Preise netto zzgl. 19% MwSt. Vertragslaufzeit: 12 Monate.

Häufig gestellte Fragen

Sind lokale Modelle so gut wie ChatGPT?

Für die meisten Unternehmens-Anwendungen: ja. Modelle wie Llama 3.3 70B oder Mistral Large erreichen bei Textgenerierung, Zusammenfassung und Analyse vergleichbare Qualität. Für spezielle Aufgaben (z.B. Code oder kreatives Schreiben) kann das Hybrid-Routing an stärkere Cloud-Modelle delegieren — mit PII-Maskierung.

Was ist der Unterschied zum RAG-System?

Ein RAG-System durchsucht Ihre Dokumente und gibt Antworten mit Quellenangabe. Das Local LLM mit Secure Gateway ist breiter: Es gibt Ihren Mitarbeitern einen sicheren, ChatGPT-ähnlichen Assistenten für alle Aufgaben — Texte schreiben, analysieren, übersetzen, zusammenfassen. Beide Systeme lassen sich kombinieren.

Wie viele Nutzer können gleichzeitig arbeiten?

Das hängt von der GPU-Konfiguration ab. Ein Inference-Server mit RTX 4000 SFF bedient typischerweise 10-20 gleichzeitige Nutzer flüssig. Für mehr Parallelität empfehlen wir den Training-Server oder ein Multi-GPU-Setup.

Kann ich Cloud-Modelle komplett ausschließen?

Ja. Der Gateway kann so konfiguriert werden, dass ausschließlich lokale Modelle verwendet werden. Kein einziger Token verlässt dann Ihr Netzwerk. Das Hybrid-Routing ist optional.

Welche Compliance-Anforderungen werden erfüllt?

DSGVO, ISO 27001, SOC 2 — die Infrastruktur läuft auf zertifizierten Servern in deutschen Rechenzentren. Der Audit-Trail und die PII-Maskierung helfen bei der Nachweisführung gegenüber Datenschutzbeauftragten und Auditoren.

KI nutzen. Daten behalten.

Lassen Sie uns gemeinsam prüfen, welche KI-Strategie zu Ihrem Unternehmen passt — lokal, hybrid oder beides. Kostenlose Erstberatung.

Beratungstermin vereinbaren

Über 25 Jahre Erfahrung: Verdacloud und VerdaGen.ai sind Schwestermarken der Gnann Gruppe. Seit über 25 Jahren begleiten wir Unternehmen bei der Digitalisierung — von den ersten Cloud-Lösungen bis hin zur modernen KI-Infrastruktur.

LLM-Beratung anfragen

Erfahren Sie, wie Sie KI datenschutzkonform in Ihrem Unternehmen einsetzen können.