Plattform

Produkte

Private KI-Infrastruktur — von Compute bis Agenten.

Zielgruppen

Use Cases

Für Enterprise, KMU und private Entwickler.

Wissen & Support

Ressourcen

Alles, was du brauchst, um erfolgreich mit Mycelis zu arbeiten.

Quickstart · 5 Min Lesezeit

OpenAI API ersetzen in 5 Minuten

Warum wechseln?

Mit Mycelis kannst du die gewohnte OpenAI-API-Schnittstelle weiternutzen und gleichzeitig:

  • Eigene Modelle (fine-tuned oder open-source) verwenden
  • Datensouveränität durch On-Premise-Deployment sicherstellen
  • Kosten reduzieren durch eigene GPU-Instanzen oder günstigere Alternativ-Modelle
  • Smart Routing aktivieren — automatisch das beste Modell für jede Anfrage wählen

Schritt 1 — Deployment erstellen

Falls noch nicht vorhanden: erstelle ein Deployment oder einen Agent in Mycelis.

  1. Dashboard → Meine Modelle → Neues Deployment
  2. Wähle Deployment-Typ (GPU-Instanz, Managed Key oder BYOK)
  3. Notiere den Slug des erstellten Agents (z. B. mein-gpt)

Schritt 2 — API-Key erstellen

  1. Dashboard → API-Keys → Neuen Key erstellen
  2. Gib einen Namen ein (z. B. Produktionskey)
  3. Kopiere den generierten Key — er beginnt mit myk_...

Schritt 3 — Code anpassen

Ändere genau zwei Zeilen in deinem Code:

Python (openai SDK)

# Vorher
client = OpenAI(api_key="sk-...")

# Nachher
client = OpenAI(
    api_key="myk_...",                                    # Mycelis API-Key
    base_url="https://deine-domain.com/api/proxy/v1"     # Mycelis Base-URL
)

Das war es. Alle anderen API-Aufrufe bleiben unverändert.

# Dieser Code funktioniert ohne weitere Anpassungen
response = client.chat.completions.create(
    model="mein-gpt",    # ← Slug deines Mycelis-Agents
    messages=[{"role": "user", "content": "Hallo!"}]
)
print(response.choices[0].message.content)

Node.js / TypeScript

// Vorher
const client = new OpenAI({ apiKey: "sk-..." });

// Nachher
const client = new OpenAI({
    apiKey: "myk_...",
    baseURL: "https://deine-domain.com/api/proxy/v1"
});

LangChain (Python)

from langchain_openai import ChatOpenAI

# Vorher
llm = ChatOpenAI(model="gpt-4o")

# Nachher
llm = ChatOpenAI(
    model="mein-gpt",
    openai_api_key="myk_...",
    openai_api_base="https://deine-domain.com/api/proxy/v1"
)

OpenCode / Cursor / Continue.dev

In der Konfigurationsdatei des jeweiligen Tools:

{
  "models": [
    {
      "title": "Mein Mycelis-Agent",
      "provider": "openai",
      "model": "mein-gpt",
      "apiKey": "myk_...",
      "apiBase": "https://deine-domain.com/api/proxy/v1"
    }
  ]
}

Umgebungsvariablen

Viele Tools lesen OPENAI_API_KEY und OPENAI_BASE_URL automatisch:

export OPENAI_API_KEY="myk_..."
export OPENAI_BASE_URL="https://deine-domain.com/api/proxy/v1"

Danach musst du im Code gar nichts ändern — das SDK liest die Variablen automatisch.


Fertig

Nach diesen Änderungen läuft dein Code vollständig über Mycelis. Das zugrundeliegende Modell kann jederzeit im Dashboard gewechselt werden — ohne weitere Code-Änderungen.


Nächste Schritte