Zum Inhalt

🤖 Erklären mit KI

Die KI-Fabrik verstehen: Multi-Modell-Orchestrierung erklärt

Ăśbersicht

Die 4Geeks AI Factory ist die proprietäre Infrastruktur, die AI Studio antreibt. Im Gegensatz zu Tools, die auf einem einzigen LLM basieren, leitet die AI Factory Aufgaben dynamisch an das am besten geeignete Modell für jeden spezifischen Job weiter – und sorgt so für optimale Qualität, Geschwindigkeit und Kosteneffizienz.

In diesem Tutorial lernen Sie:

  • Wie die AI Factory Aufgaben auswählt und an verschiedene LLMs weiterleitet
  • Welche Modelle werden fĂĽr welche Arbeiten verwendet?
  • Wie die Orchestrierung mehrerer Modelle die Codequalität verbessert
  • Wie Sie die Modellauswahl in Ihren Aufgabenberichten interpretieren

Die Modelle in der KI-Fabrik

Die AI Factory integriert vier führende LLMs mit jeweils unterschiedlichen Stärken:

Modell Primärer Anwendungsfall Stärken
Claude 4.5 (anthropisch) High-Level-Architektur, Systemdesign, komplexe Argumentation Tiefes Kontextverständnis, differenziertes Denken, hervorragend in architektonischen Entscheidungen
GPT-5 (OpenAI) Logikimplementierung, Algorithmusdesign, Codegenerierung Starkes logisches Denken, hervorragende Codegenerierung, breite Wissensbasis
Gemini 3 Pro (Google) ArchitekturĂĽberprĂĽfung, multimodale Aufgaben, groĂźe Kontextfenster Riesiges Kontextfenster, stark bei der ĂśberprĂĽfung und Validierung von Architektur
DeepSeek Kosteneffizientes Refactoring, Codebereinigung, sich wiederholende Aufgaben Hervorragendes Preis-Leistungs-Verhältnis, ideal für Massengutbetriebe

So funktioniert die Aufgabenweiterleitung

Wenn Sie eine KI-Aufgabe einreichen, folgt die KI-Fabrik diesem Entscheidungsprozess:

Task Submitted
    │
    â–Ľ
Task Classification
    │
    ├── Architecture/Design ──────► Claude 4.5 + Gemini 3 Pro (review)
    ├── Logic/Algorithm ──────────► GPT-5
    ├── Refactoring/Cleanup ──────► DeepSeek
    ├── UI Component ─────────────► GPT-5 + Claude 4.5 (review)
    ├── API Endpoint ─────────────► GPT-5
    ├── Tests ────────────────────► GPT-5
    └── Documentation ────────────► Claude 4.5
    │
    â–Ľ
Context Injection (Smart Context)
    │
    â–Ľ
Code Generation
    │
    â–Ľ
Quality Gate (QA + Security)
    │
    â–Ľ
Human Review (Senior Architect)
    │
    â–Ľ
Pull Request

Beispiel: Aufbau eines Benutzerauthentifizierungssystems

So würde die AI Factory eine Aufgabe wie „Benutzerauthentifizierung mit JWT-Tokens erstellen“ handhaben:

  1. Architekturphase (Claude 4.5): Entwirft den Authentifizierungsfluss, die Token-Struktur und die Sicherheitsschichten
  2. Implementierungsphase (GPT-5): Schreibt den tatsächlichen Endpunktcode, die Middleware und die Logik zur Token-Generierung
  3. ĂśberprĂĽfungsphase (Gemini 3 Pro): Validiert die Architektur anhand von Best Practices und Sicherheitsstandards
  4. Refactoring-Phase (DeepSeek): Optimiert die Codestruktur, entfernt Redundanz und wendet Namenskonventionen an
  5. Quality Gate: Automatisierter Schwachstellenscan + Generierung von Komponententests
  6. Menschliche ĂśberprĂĽfung: Ihr leitender Architekt ĂĽberprĂĽft und genehmigt

Vorteile der Multi-Modell-Orchestrierung

1. Das beste Werkzeug fĂĽr jeden Job

Kein einzelnes Modell ĂĽbertrifft alles. Durch die Weiterleitung von Aufgaben an das Modell, das fĂĽr die jeweilige Aufgabe am besten geeignet ist, stellt die AI Factory Folgendes sicher:

  • Bessere Architekturentscheidungen anhand von Modellen, die auf Systemdesign trainiert wurden
  • Genauerer Code aus fĂĽr Logik optimierten Modellen
  • Reduzierte Kosten durch den Einsatz effizienter Modelle fĂĽr einfachere Aufgaben

2. Integrierte Qualität durch Kreuzvalidierung

Wenn mehrere Modelle die Arbeit des anderen überprüfen (z. B. Claude-Designs, GPT-Implementierungen, Gemini-Reviews), werden Fehler früher erkannt und die Codequalität ist deutlich höher.

3. Kostenoptimierung

Nicht für jede Aufgabe ist das teuerste Modell erforderlich. DeepSeek übernimmt Refactoring und Bereinigung zu einem Bruchteil der Kosten, während Premium-Modelle für komplexe Überlegungen und Architekturen reserviert sind.

4. Belastbarkeit und Redundanz

Wenn es bei einem Modell zu Ausfallzeiten oder LeistungseinbuĂźen kommt, kann die AI Factory Aufgaben nahtlos an alternative Modelle weiterleiten und so sicherstellen, dass Ihre Entwicklung nie zum Stillstand kommt.

Anzeigen der Modellnutzung in Ihrem Dashboard

Im Dashboard Real-Time Token Audit können Sie Folgendes sehen:

  • ModellaufschlĂĽsselung: Welche Modelle wurden fĂĽr jede Aufgabe verwendet
  • Token-Verbrauch pro Modell: Wie viele Token jedes Modell verbraucht hat
  • Kostenzuordnung: Wie viel jedes Modell zu Ihren Gesamtausgaben beigetragen hat
  • Leistungsmetriken: Pro Modell fĂĽr verschiedene Aufgabentypen benötigte Zeit

Lesen des Token-Audit-Berichts

Task: "Create user authentication endpoint"
├── Claude 4.5:    2,400 tokens  (Architecture design)
├── GPT-5:         8,200 tokens  (Code implementation)
├── Gemini 3 Pro:  1,800 tokens  (Architecture review)
├── DeepSeek:        900 tokens  (Code refactoring)
└── Total:        13,300 tokens

Modelleinstellungen konfigurieren

Während die AI Factory für jede Aufgabe automatisch das beste Modell auswählt, können Sie das Routing beeinflussen:

  1. Gehen Sie zu den KI-Werkseinstellungen Ihres Projekts.
  2. Unter Modelleinstellungen können Sie:
  3. Qualität priorisieren: Bevorzugen Sie Claude 4.5 und GPT-5 für alle Aufgaben (höhere Kosten, höhere Qualität)
  4. Kosten optimieren: Nutzen Sie DeepSeek intensiver fĂĽr Routineaufgaben
  5. Benutzerdefiniertes Routing: Legen Sie bestimmte Modelle fĂĽr bestimmte Aufgabentypen fest
  6. Klicken Sie auf „Speichern“

Hinweis: Ihr leitender Architekt kann Präferenzen außer Kraft setzen, wenn er feststellt, dass ein anderes Modell bessere Ergebnisse für eine bestimmte Aufgabe liefern würde.

Best Practices

Wann man jeden Modelltyp verwenden sollte

Aufgabentyp Empfohlenes Modell Warum
Systemarchitektur Claude 4.5 Überlegene Argumentations- und Designfähigkeiten
Komplexe Algorithmen GPT-5 Starke logische Umsetzung
CodeĂĽberprĂĽfung Gemini 3 Pro Hervorragend darin, architektonische Probleme zu erkennen
Massen-Refactoring DeepSeek KostengĂĽnstig fĂĽr repetitive Arbeiten
API-Entwicklung GPT-5 Stark bei REST/GraphQL-Mustern
Dokumentation Claude 4.5 Exzellenz in natĂĽrlicher Sprache

Ăśberwachung der Modellleistung

  • Sehen Sie sich die ModellaufschlĂĽsselung in Ihrem wöchentlichen Token-Bericht an
  • Vergleichen Sie die Zeit bis zur Fertigstellung verschiedener Modelle fĂĽr ähnliche Aufgaben
  • Verfolgen Sie die Ăśberarbeitungsrate (Aufgaben, die nach der ersten Einreichung ĂĽberarbeitet werden mussten)
  • Passen Sie Modellpräferenzen basierend auf den spezifischen Anforderungen Ihres Projekts an

Was kommt als nächstes?

  • Erfahren Sie, wie Sie [Smart Context Injection] (/en/tutorials/smart-context-injection/) fĂĽr eine bessere Modellleistung einrichten
  • Entdecken Sie [Automatisierte Qualitätssicherung und Sicherheitsleitplanken] (/en/tutorials/automated-qa-security/), um Qualitätstore zu verstehen
  • Lesen Sie mehr ĂĽber Token-Nutzung ĂĽberwachen, um Ihre Ausgaben zu optimieren

Brauchen Sie Hilfe?


Noch Fragen? Get support or explore tutorials