Modellkatalog

KI Modelle einbinden

Open Source oder eigene Modelle werden zentral registriert, versioniert und auf der GPU-Infrastruktur im Rechenzentrum betrieben.

  • 100 % Betrieb im eigenen Rechenzentrum
  • Modelle für Text, Code und Vision
  • Kompatibel mit gängigen Frameworks (Transformers, vLLM, TensorRT-LLM)
Modellverwaltung

Verfügbare KI Modelle

Diese Modelle stehen auf der DVVKI-Plattform zur Verfügung oder können kurzfristig integriert werden.

DeepSeek Modell

DeepSeek

bereit

State-of-the-Art LLM mit exzellenter Kontextverarbeitung und starken Deutsch-Fähigkeiten. Ideal für Chat- und Wissensmodelle.

Text · Größe: 67 B

Llama 3.3

Llama 3.3

bereit

Aktuelle Meta-Generation mit hoher Effizienz, ideal für produktive Chat-Anwendungen und interne Assistenten.

Text · Größe: 70 B / 405 B Varianten

Qwen 2.5

Qwen 2.5

bereit

Open-Source LLM von Alibaba mit herausragendem Sprachverständnis für europäische Sprachen. Sehr performantes Allround-Modell.

Text · 32 B / 72 B

QwQ 32B

QwQ 32B

bereit

Extrem leistungsfähiges reasoning-Modell, besonders stark in Analyse- und Planungsaufgaben.

Text · 32 B

GLM 4.5 Air

GLM 4.5 Air

bereit

Leichtes, multimodales Modell mit Fokus auf Geschwindigkeit und niedrigem GPU-Verbrauch. Für Edge-Deployment optimiert.

Text / Vision

Qwen3 Coder 30B

Qwen3 Coder 30B

bereit

Spezialisiertes Modell für Python, PowerShell und Infrastrukturcode. Unterstützt Autovervollständigung und Fehlersuche.

Code · 30 B

Mistral 7B

Mistral 7B

bereit

Effizient und schnell. Perfekt für kompakte Assistenten und On-Prem Chatbots.

Text · 7 B

LLaVA

LLaVA 1.6

bereit

Multimodales Modell für Bildinterpretation. Erkennt Objekte und kann Szenen beschreiben.

Vision + Text

Stable Diffusion

Stable Diffusion XL

bereit

Bildgenerierung aus Text-Prompts. Alle Berechnungen laufen auf der eigenen GPU.

Vision