Plattform

Produkte

Private KI-Infrastruktur — von Compute bis Agenten.

Zielgruppen

Use Cases

Für Enterprise, KMU und private Entwickler.

Wissen & Support

Ressourcen

Alles, was du brauchst, um erfolgreich mit Mycelis zu arbeiten.

Intelligence

Fine-Tuning mit LoRA —
Eigene Modelle, eigene Daten.

Spezialisiere Open-Source-Modelle auf deine Domäne. Lade eigene Trainingsdaten hoch, konfiguriere Hyperparameter und deploye das fertige Modell — direkt im Mycelis-Ökosystem.

Was ist LoRA Fine-Tuning?

LoRA (Low-Rank Adaptation) ist eine effiziente Fine-Tuning-Methode, die nur einen kleinen Teil der Modellgewichte anpasst statt alle Parameter neu zu trainieren. Ergebnis: 90 % weniger GPU-Speicher als Full Fine-Tuning bei vergleichbarer Qualität.

Die LoRA-Adapter werden als kleine Zusatzgewichte gespeichert (~10–100 MB) und beim Deployment mit dem Basismodell kombiniert.

Wann lohnt sich Fine-Tuning?

Fachvokabular

Medizin, Recht, Ingenieurwesen — das Modell lernt domänenspezifische Begriffe und Zusammenhänge.

Ton & Stil

Firmen-CI im Output: formell, locker, technisch — das Modell schreibt wie dein Team.

Aufgaben-Spezialisierung

Klassifizierung, Extraktion, Strukturierung — höhere Präzision bei spezifischen Aufgaben.

Sprache & Dialekt

Optimierung für spezifische Sprachen, regionale Formulierungen oder interne Bezeichnungen.

Schritt-für-Schritt Prozess

01

Daten vorbereiten

JSONL-Format: {"prompt": "...", "completion": "..."}. Mindestens 50–200 Beispiele für gute Ergebnisse. Wir empfehlen 500–2000.

02

Daten hochladen

Upload in die Knowledge Base oder direkt als Trainingsdatei. Unterstützte Formate: JSONL, CSV.

03

Basismodell & Hyperparameter

Wähle Basismodell (z.B. Llama 3.1 8B), Learning Rate, Epochs und LoRA-Rank (r=8 ist ein guter Startpunkt).

04

Training starten

Mycelis startet automatisch eine A100 80GB GPU-Instanz für das Training. Abrechnung nach GPU-Stunden.

05

Evaluierung & Deploy

Bewerte Beispiel-Outputs im Dashboard. Bei Zufriedenheit direkt als Deployment deployen — fertig.

Trainingskosten

Modell GPU Trainingszeit (500 Beispiele)
Llama 3.1 8B RTX 4090 (0,39€/h) ~2–4 Std. → 0,78–1,56 €
Llama 3.1 70B A100 80GB (1,99€/h) ~6–12 Std. → 11,94–23,88 €
Mistral 7B RTX 4090 (0,39€/h) ~1,5–3 Std. → 0,59–1,17 €

Schätzwerte für LoRA Fine-Tuning. Tatsächliche Zeit abhängig von Datenmenge und Hyperparametern.

Häufige Fragen

Wie viele Trainingsdaten brauche ich?

Für einfache Stil-Anpassungen reichen 50–200 Beispiele. Für Fachvokabular empfehlen wir 500–2000. Qualität schlägt Quantität — wenige präzise Beispiele sind besser als viele unspezifische.

Welches Basismodell soll ich wählen?

Llama 3.1 8B ist für die meisten Anwendungen der beste Ausgangspunkt: günstig, schnell und bereits sehr leistungsfähig. Llama 3.1 70B für höhere Präzision bei komplexen Aufgaben.

Gehören mir die trainierten Gewichte?

Ja. Die trainierten LoRA-Adapter gehören vollständig dir und bleiben in deinem Workspace gespeichert. Du kannst sie auch exportieren.

Kann ich das Fine-Tuned-Modell als Deployment nutzen?

Ja. Nach dem Training startest du direkt ein Deployment mit dem Fine-Tuned-Modell. Es erscheint wie jedes andere Deployment im Dashboard und ist OpenAI-API-kompatibel.

Dein Modell, deine Gewichte.

Training ab ~1 € für kleine Modelle. Kein Minimum, keine Grundgebühr.

Jetzt Fine-Tuning starten