Plattform

Produkte

Private KI-Infrastruktur — von Compute bis Agenten.

Zielgruppen

Use Cases

Für Enterprise, KMU und private Entwickler.

Wissen & Support

Ressourcen

Alles, was du brauchst, um erfolgreich mit Mycelis zu arbeiten.

Entwickler & Privat

OpenAI-kompatibel.
Deine Modelle.

Tausche den OpenAI-Endpunkt in jeder bestehenden Anwendung gegen Mycelis aus. Ändere zwei Zeilen, behalte deine gesamte Codebasis — und gewinne die volle Kontrolle darüber, welches Modell läuft, zu welchen Kosten und auf deiner eigenen Infrastruktur.

Drop-in-Ersatz für OpenAI

Das Mycelis-Proxy-Gateway spricht die OpenAI Chat Completions API. Jedes SDK, Framework oder Tool, das mit OpenAI funktioniert, funktioniert auch mit Mycelis — ohne eine einzige Codezeile zu ändern, außer der Endpunkt-URL und dem API-Key. Leite Anfragen an eigene deployte Modelle, feinabgestimmte Checkpoints oder konfigurierte Agenten weiter.

Beispiel: Python SDK

Python
from openai import OpenAI

client = OpenAI(
    base_url="https://app.mycelis.ai/api/proxy/v1",
    api_key="pat_..."
)

# Keine weiteren Änderungen nötig
response = client.chat.completions.create(
    model="my-agent",
    messages=[{"role": "user", "content": "Hello!"}]
)

Was du bekommst

Volle SDK-Kompatibilität

Funktioniert mit den offiziellen OpenAI-SDKs für Python, Node und Go sowie mit LangChain, LlamaIndex und jedem Framework, das eine benutzerdefinierte Base-URL akzeptiert.

Multi-Modell-Routing

Leite verschiedene Anfragen über den Agentennamen an unterschiedliche Modelle weiter. Nutze Smart Routing, um automatisch das beste Modell für jede Anfrage auszuwählen.

Eigene Infrastruktur

Halte Daten innerhalb deines eigenen Deployments. Wähle zwischen dedizierten GPU-Instanzen oder kommerziellen Deployments mit Managed- oder BYOK-Keys.

Einfache Migration

Bestehende OpenAI-Anwendungen zu Mycelis migrieren — ohne Refactoring. Mit einem Agenten testen, dann auf den gesamten Stack ausweiten.

Häufige Fragen

Welche OpenAI-API-Features werden unterstützt?

Das Mycelis-Gateway unterstützt den Chat-Completions-Endpunkt, der die große Mehrheit der Anwendungsfälle abdeckt. Streaming, Function Calling und System-Prompts funktionieren wie erwartet.

Was setze ich als Modellnamen ein?

Verwende den Namen deines Mycelis-Agenten als Modellnamen. Jeder konfigurierte Agent erscheint als wählbares Modell über das Gateway.

Funktioniert das mit LangChain, LlamaIndex oder anderen Frameworks?

Ja. Jedes Framework, das eine benutzerdefinierte Base-URL für einen OpenAI-kompatiblen Anbieter akzeptiert, funktioniert mit Mycelis. Setze die Base-URL auf dein Mycelis-Gateway und gib deinen API-Key an.

Migration in wenigen Minuten.

Erstelle ein kostenloses Konto, deploye ein Modell und richte deinen bestehenden Code auf Mycelis aus.

Kostenlos starten