Plattform
Private KI-Infrastruktur — von Compute bis Agenten.
Zielgruppen
Für Enterprise, KMU und private Entwickler.
Wissen & Support
Alles, was du brauchst, um erfolgreich mit Mycelis zu arbeiten.
Compute
Deploye Open-Source-Modelle auf dedizierter GPU-Hardware. Stündlich abgerechnet, OpenAI-kompatibler Endpunkt, keine geteilten Ressourcen.
Verfügbare GPUs
| GPU | VRAM | Geeignet für | Preis / Stunde |
|---|---|---|---|
| NVIDIA RTX 4090 | 24 GB | Llama 3.1 8B, Mistral 7B, Qwen 7B | 0,39 € |
| NVIDIA RTX A6000 | 48 GB | Llama 3.1 70B (Q4), Mixtral 8x7B | 0,79 € |
| NVIDIA A100 80GB | 80 GB | Llama 3.1 70B (FP16), 405B (Q4) | 1,99 € |
| NVIDIA H100 SXM | 80 GB HBM3 | Llama 3.1 405B, Training | Auf Anfrage |
Alle Preise netto, zzgl. MwSt. Stündliche Abrechnung, jederzeit kündbar.
Unterstützte Open-Source-Modelle
Setup in 60 Sekunden
Wähle GPU-Typ und Modell im Dashboard. Mycelis startet die Instanz automatisch.
Erstelle einen Personal Access Token (PAT) — dauert unter 10 Sekunden.
Ändere base_url und api_key in deinem bestehenden Code. Fertig.
OpenAI-kompatibler Endpunkt
from openai import OpenAI
client = OpenAI(
base_url="https://api.mycelis.io/proxy/v1",
api_key="pat_..." # dein Personal Access Token
)
response = client.chat.completions.create(
model="llama-3.1-70b", # dein Deployment-Name
messages=[{"role": "user", "content": "Hallo!"}]
)
print(response.choices[0].message.content)Alle GPU-Instanzen laufen auf dedizierter Hardware — keine geteilten Ressourcen, keine Datenweiterleitung an Dritte. Prompts und Responses werden nicht dauerhaft gespeichert. Rechenzentren in der EU. Vollständige Datenhoheit liegt beim Nutzer.
Häufige Fragen
Keine Kreditkarte erforderlich. Startguthaben inklusive.
Kostenlos starten