Plattform
Private KI-Infrastruktur — von Compute bis Agenten.
Zielgruppen
Für Enterprise, KMU und private Entwickler.
Wissen & Support
Alles, was du brauchst, um erfolgreich mit Mycelis zu arbeiten.
Intelligence
Spezialisiere Open-Source-Modelle auf deine Domäne. Lade eigene Trainingsdaten hoch, konfiguriere Hyperparameter und deploye das fertige Modell — direkt im Mycelis-Ökosystem.
Was ist LoRA Fine-Tuning?
LoRA (Low-Rank Adaptation) ist eine effiziente Fine-Tuning-Methode, die nur einen kleinen Teil der Modellgewichte anpasst statt alle Parameter neu zu trainieren. Ergebnis: 90 % weniger GPU-Speicher als Full Fine-Tuning bei vergleichbarer Qualität.
Die LoRA-Adapter werden als kleine Zusatzgewichte gespeichert (~10–100 MB) und beim Deployment mit dem Basismodell kombiniert.
Wann lohnt sich Fine-Tuning?
Medizin, Recht, Ingenieurwesen — das Modell lernt domänenspezifische Begriffe und Zusammenhänge.
Firmen-CI im Output: formell, locker, technisch — das Modell schreibt wie dein Team.
Klassifizierung, Extraktion, Strukturierung — höhere Präzision bei spezifischen Aufgaben.
Optimierung für spezifische Sprachen, regionale Formulierungen oder interne Bezeichnungen.
Schritt-für-Schritt Prozess
JSONL-Format: {"prompt": "...", "completion": "..."}. Mindestens 50–200 Beispiele für gute Ergebnisse. Wir empfehlen 500–2000.
Upload in die Knowledge Base oder direkt als Trainingsdatei. Unterstützte Formate: JSONL, CSV.
Wähle Basismodell (z.B. Llama 3.1 8B), Learning Rate, Epochs und LoRA-Rank (r=8 ist ein guter Startpunkt).
Mycelis startet automatisch eine A100 80GB GPU-Instanz für das Training. Abrechnung nach GPU-Stunden.
Bewerte Beispiel-Outputs im Dashboard. Bei Zufriedenheit direkt als Deployment deployen — fertig.
Trainingskosten
| Modell | GPU | Trainingszeit (500 Beispiele) |
|---|---|---|
| Llama 3.1 8B | RTX 4090 (0,39€/h) | ~2–4 Std. → 0,78–1,56 € |
| Llama 3.1 70B | A100 80GB (1,99€/h) | ~6–12 Std. → 11,94–23,88 € |
| Mistral 7B | RTX 4090 (0,39€/h) | ~1,5–3 Std. → 0,59–1,17 € |
Schätzwerte für LoRA Fine-Tuning. Tatsächliche Zeit abhängig von Datenmenge und Hyperparametern.
Häufige Fragen
Training ab ~1 € für kleine Modelle. Kein Minimum, keine Grundgebühr.
Jetzt Fine-Tuning starten