AI Gateway
Eine API. Alle KI-Modelle.
Schluss mit fünf verschiedenen KI-Anbieter-APIs. Synaplan leitet Anfragen an OpenAI, Claude, Gemini, Groq und lokale Ollama-Modelle über einen einzigen Endpunkt weiter — mit Fallbacks, Kostenkontrolle und vollständiger Transparenz.
- Modellflexibilität
- Modelle je nach Anwendungsfall wechseln — schnelles Groq für Chat, leistungsstarkes GPT-4o für komplexe Analysen, lokales Ollama für DSGVO-kritische Umgebungen.
- Kostenkontrolle
- Einfache Anfragen an günstigere Modelle, komplexe an leistungsstärkere routen. Regeln nach Kosten, Latenz oder Kapazität definieren.
- Kein Vendor-Lock-in
- Open-Source und self-hosted. Anbieter wechseln, ohne Anwendungscode neu schreiben zu müssen.
- Vollständige Transparenz
- Jede Anfrage mit Modell, Tokens, Latenz und Kosten protokolliert. Prüfpfade für Compliance-Reviews.
- Lokale Modelle via Ollama
- Llama 3, Mistral, Qwen oder beliebige Ollama-kompatible Modelle auf eigener Hardware betreiben. Keine Daten verlassen den Server.
- OpenAI-kompatible API
- Synaplan spricht das OpenAI-API-Format. Als OpenAI-Proxy einsetzen — keine SDK-Änderungen in bestehenden Apps nötig.
Unterstützte Modelle
- OpenAI — GPT-4o, GPT-4.1, o3
- Anthropic — Claude 3.5 Sonnet, Haiku
- Google — Gemini 1.5 Pro & Flash
- Groq — ultraschnelle Inferenz
- Ollama — beliebige lokale Open-Source-Modelle
- Eigene Endpunkte via API