Plattform

Produkte

Private KI-Infrastruktur — von Compute bis Agenten.

Zielgruppen

Use Cases

Für Enterprise, KMU und private Entwickler.

Wissen & Support

Ressourcen

Alles, was du brauchst, um erfolgreich mit Mycelis zu arbeiten.

Changelog

Was ist neu
bei Mycelis.

Alle Releases, Features und Fixes — chronologisch, transparent, mit Kontext.

v0.3.0
18. März 2025
Neu

Smart Routing — regelbasiertes Routing auf Basis von Token-Budget, Latenz und Modell-Typ. Ein VirtualModel-Slug, mehrere Deployments dahinter.

Neu

MCP Library — Model Context Protocol Unterstützung. Externe APIs als Tools direkt im Modell-Kontext verfügbar machen.

Neu

Drei neue GPU-Typen: NVIDIA A40, L4 und H100 SXM — für Training, Inferenz und Batch-Workloads.

Neu

VirtualModel-System — ein Slug, mehrere Deployments. Automatisches Fallback bei Instanz-Ausfall.

Verbessert

Routing-Engine vollständig überarbeitet — 40% weniger Latenz im P99 bei Multi-Deployment-Setups.

Verbessert

API Gateway: Streaming-Responses jetzt vollständig SSE-kompatibel, auch für lange Antworten.

Behoben

Token-Zählung bei Anthropic-Modellen war um ~12% zu hoch — korrigiert auf offizielle cl100k-Tokenisierung.

v0.2.0
12. Februar 2025
Neu

Fine-Tuning Wizard — LoRA Training direkt im Dashboard. JSONL-Upload, Hyperparameter-Konfiguration, Trainings-Job starten.

Neu

Knowledge Base v2 — Multi-Dokument-RAG mit semantischer Suche. Unterstützt PDF, TXT, Markdown und DOCX.

Neu

BYOK für Google Gemini — eigene Gemini-API-Keys über Mycelis routen und protokollieren.

Neu

Workspace-Rollen — Admin und Mitglied mit granularen Zugriffsrechten. Team-Einladungen per E-Mail.

Verbessert

Dashboard-Ladezeit um ~60% reduziert durch Lazy Loading der Deployment-Liste.

Verbessert

Usage-Dashboard: Token-Verbrauch jetzt nach Modell, Deployment und Zeitraum filterbar.

Behoben

Selten auftretender Race Condition beim gleichzeitigen Start mehrerer Trainings-Jobs.

Behoben

BYOK OpenAI: Timeout bei sehr langen Completions (>30s) schlug fälschlicherweise fehl.

v0.1.0
7. Januar 2025
Neu

GPU Instance Deployment — Open-Source-Modelle auf dedizierter RunPod-Hardware deployen. Unterstützte Modelle: Llama 3.1, Mistral 7B, Mixtral 8x7B.

Neu

OpenAI-kompatibler Proxy-Endpunkt — drop-in Ersatz für die OpenAI API. Nur base_url und api_key tauschen.

Neu

Knowledge Bases v1 — Dokumente hochladen und als Kontext in Completions einbinden.

Neu

PAT-basierte Authentifizierung — Personal Access Tokens für sichere API-Kommunikation.

Neu

Managed Keys — OpenAI und Anthropic über Mycelis pay-per-token, ohne eigene API-Keys.

Neu

Usage & Billing Dashboard — Echtzeit-Verbrauchsübersicht mit täglicher Abrechnung.

Immer auf dem neuesten Stand

Neue Releases werden im Blog angekündigt. Folge uns für Updates.

Zum Blog