Plattform · Modelle
Open-Source-Modelle, hybrid einsetzbar.
Drei Default-Modelle, vier proprietäre via BYOK, ein Routing-Layer dazwischen. Sie zahlen nur für die Modelle, die Sie nutzen.
Open-Source · eingebaut
Qwen3-8B
Default · läuft auf Nuc und Workstation
~50 Tokens/Sekunde auf eigener GPU. Variable Kosten ~2,1 ct pro 1 Mio. Tokens. Genug für Triage, Klassifikation, RAG, Agenten-Orchestrierung.
Qwen3-30B
GPU-Server · komplexere Aufgaben
Für Reasoning, Code-Generierung, mehrstufige Agenten. Setup auf Workstation mit 96 GB+ Unified Memory (Custom-Build, Discovery-Call) oder dediziertem GPU-Server.
Apertus & Mistral
Europäische Modelle
Apertus aus der Schweiz, Mistral aus Frankreich. Optional als zweites Modell für deutsch-sprachige Use-Cases.
BYOK · Bring Your Own Key
Sie haben einen OpenAI-, Anthropic-, Google- oder Azure-Vertrag? Stecken Sie den Key in SIMOSphere AI ein. Der Routing-Layer schickt Anfragen direkt; wir sehen die Daten nicht. Geeignet für Use-Cases, in denen Spitzenmodelle nötig sind und die Daten nicht hochsensibel.
Unsicher, was passt?
30 Minuten, kostenlos, ein echter Berater. Wir klären, ob wir das passende Team sind, und nennen alternative Anlaufstellen, wenn nicht.
Discovery Call buchen →