AI infrastructure.
That belongs to you —
and saves costs.

Deploye Open-Source-Modelle auf dedizierter GPU, verbinde Managed Keys für Zero-Upfront-Costs, und lass Smart Routing automatisch das günstigste Modell wählen. On-Prem oder Cloud — du entscheidest.

ModelSnippet
Smart Routing
Llama 3.1 8B GPT-4o
−68% Kosten

60s

Deployment-Zeit

100%

Datenschutzkonform

~80%

weniger Kosten vs. GPT-4o

Scroll

Für wen ist Mycelis?

One platform.
Three audiences.

Enterprise

  • DSGVO-konform, kein US-Cloud-Provider
  • Workspace-Management, Rollen & API-Gateway
  • Smart Routing: automatisch günstigstes Modell
  • Audit-Trails, PAT-basierte Authentifizierung
See cost savings

KMU

  • Managed Keys: sofort starten, kein Upfront
  • Eigene Assistenten mit RAG & System-Prompt
  • Fine-Tuning mit Branchendaten
  • Nur zahlen was genutzt wird, täglich kündbar
View pricing

Entwickler & Private

  • OpenClaw, OpenCode — privat & on-prem
  • MCP Tools: eigene APIs im Modell-Kontext
  • OpenAI-kompatibler Endpunkt — kein SDK-Wechsel
  • Eigene Modelle trainieren & deployen
Discover Agents & MCP

Intelligentes Routing

Smart Routing.
Lowest-cost answer. Automatically.

Ein virtuelles Modell (Slug) — mehrere reale Deployments dahinter. Mycelis analysiert die Anfrage und leitet sie an das günstigste Modell weiter, das die Aufgabe lösen kann.

Einfache Fragen gehen an ein kleines, schnelles Modell. Komplexe Aufgaben werden automatisch zum leistungsfähigeren Modell eskaliert — ohne Änderung am API-Call.

62%

Unternehmen die Smart Routing aktivieren zahlen im Schnitt 62 % weniger Token-Kosten bei gleicher Ausgabequalität.

Routing-Beispiel

Anfrage: Fasse diesen Text zusammen
Virtual Model: mein-assistent
↓ Regel-Check: kurze Anfrage?
✓ Llama 3.1 8B
0,002 € / 1k Token
GPT-4o
0,015 € / 1k Token
Komplexe Anfragen → automatisch GPT-4o

Agents & Integrationen

Your favorite agents.
Now private.

Agents

Jeder Agent ist ein VirtualModel mit System-Prompt, RAG-Anbindung, MCP Tools und eigener Routing-Strategie. Vollständig konfigurierbar — ein Slug, alle Features.

OpenClaw OpenCode + eigene Agents
agent-example.py
# Drop-in-Ersatz für OpenAI
from openai import OpenAI

client = OpenAI(
    base_url=https://api.mycelis.io/proxy/v1,
    api_key=mein-pat-key
)
response = client.chat.completions.create(
    model=openclaw,  # ← dein Agent-Slug
    messages=[{role: user, content: "..."}]
)

MCP Tools

Binde externe Tools, APIs und Datenquellen direkt in den Modell-Kontext ein. Die MCP Library enthält ready-to-use Tools — zentral konfiguriert, für alle Agents verfügbar.

Web & Browser
Suche, Scraping
Code Execution
Python, Shell
Datenbanken
SQL, Vektoren
Custom APIs
REST, Webhooks
Open MCP Library

Was wir bieten

Everything you need
for private AI.

01

Compute

GPU Instances

Dedizierte GPUs via RunPod — stündlich abgerechnet, täglich kündbar.

02

Zero Setup

Managed Keys

BYOK oder Pay-per-Token — OpenAI, Anthropic, Google, Custom. Keine eigene Infra nötig.

03

RAG Pipeline

Knowledge Bases

Dokumente hochladen, automatisches Chunking, semantische Vektorsuche.

04

Machine Learning

Fine-Tuning (LoRA)

Trainiere Modelle auf eigenen Daten — ohne ML-Expertise, mit Wizard-geführtem Workflow.

05

Agents & Integration

MCP Tools & Smart Routing

VirtualModels mit regelbasiertem Routing, MCP Tool-Anbindung und RAG — ein Slug für alle Features. Der günstigste Pfad wird automatisch gewählt.

So einfach geht's

From deployment
to agent in minutes.

Schritt 01

Choose deployment

GPU Instance (Llama, Mistral, Qwen), BYOK mit eigenem API-Key oder Managed Keys — in unter 60 Sekunden bereit.

Schritt 02

Configure agent

System-Prompt setzen, RAG-Knowledge-Base anbinden, MCP Tools auswählen und Routing-Strategie festlegen.

Schritt 03

Use API

OpenAI-kompatibler Endpunkt — ein Slug für deinen Agent, alle Modelle dahinter. Kein SDK-Wechsel nötig.

api-example.py
# OpenAI-kompatibel — kein SDK-Wechsel
from openai import OpenAI

client = OpenAI(
    base_url=https://api.mycelis.io/proxy/v1,
    api_key=mein-pat-key
)

response = client.chat.completions.create(
    model=mein-assistent,  # ← Agent-Slug
    messages=[{
        role: user,
        content: Erkläre Quantencomputing.
    }]
)
# Smart Routing wählt automatisch das günstigste Modell.

Transparente Preise

Only pay
for what you use.

Keine Grundgebühr. Keine Mindestlaufzeit. GPU-Instanzen werden stündlich abgerechnet — Managed Keys pro Token.

GPU Instances

ab 0.39 €/ Stunde

Dedicated GPU, vollständig isoliert. Nur laufende Instanzen kosten.

  • RTX 4090 · 0.39 € / h
  • RTX A6000 · 0.79 € / h
  • A100 80GB · 1.99 € / h
  • Täglich kündbar
Starten

Intelligence Services

Pay-as-you-go

Serverless

Sofort nutzbare KI-Dienste ohne eigene Infrastruktur. Transparente Abrechnung pro Nutzung.

  • Managed Keys
    z.B. GPT-4o 0.014 € / 1k Output
  • Knowledge Base
    0.05 € / h + 0.01 € / GB / h
  • Managed OpenWebUI
    0.05 € / Stunde
Jetzt starten

Enterprise

Individuell

Dedizierte Infrastruktur, SLA, SSO und monatliche Abrechnung.

  • Dedizierte GPU-Infrastruktur
  • SLA, SSO (geplant)
  • Monatliche Rechnung möglich
  • On-Prem oder EU-Cloud
Kontakt aufnehmen

Beispielrechnung — Mittelständisches Unternehmen

Modell Llama 3.1 70B (RTX A6000)
Laufzeit 8h/Tag · 22 Werktage/Monat
GPU-Kosten (0.79 € × 8h × 22) 139.13 €
Managed Keys (~50k Token/Tag) ~30.69 €
Gesamt / Monat ~169.82 €

Vergleich: gleiche Last mit GPT-4o API

~172 €

Mycelis / Monat

vs.

~890 €

GPT-4o API / Monat

Ersparnis: ~80 % bei gleicher Ausgabequalität
Start free now

Managed Keys: Mycelis hält den API-Key für dich — du zahlst nur für tatsächlich genutzte Token. Kein OpenAI-Konto nötig, keine Kreditkarte beim Anbieter hinterlegen. Ideal für Teams die schnell starten wollen, ohne eigene GPU-Infrastruktur.

Häufige Fragen

Everything you
need to know.

Your AI. Your data.
Your costs.

Starte kostenlos mit Managed Keys — oder deploye dein erstes Open-Source-Modell in unter 60 Sekunden. Keine Grundgebühr.

UnhandledError Reload 🗙