Zum Hauptinhalt springen

Modellauswahl

Die Wahl des richtigen Modells kann erhebliche Auswirkungen auf Kosten und Qualität haben.

Aufgabenbasierte Empfehlungen

AufgabeEmpfohlene ModelleBegründung
Einfache Q&Agpt-4o-mini, gemini-2.5-flashSchnell, günstig, ausreichend
Komplexes logisches Denkeno3, claude-opus-4-5, deepseek-r1Bessere Logik und Planung
Programmierungclaude-sonnet-4-5, gpt-4o, deepseek-v3.2Optimiert für Code
Kreatives Schreibenclaude-sonnet-4-5, gpt-4oBessere Prosaqualität
Vision/Bildergpt-4o, claude-sonnet-4-5, gemini-2.5-flashNative Vision-Unterstützung
Langer Kontextgemini-2.5-pro, claude-sonnet-4-51M+ Token-Fenster
Kostenbewusstgpt-4o-mini, gemini-2.5-flash, deepseek-v3.2Bestes Preis-Leistungs-Verhältnis

Kostenstufen

$$$$ Premium: o3, claude-opus-4-5, gpt-4o
$$$  Standard: claude-sonnet-4-5, gpt-4o
$$   Budget:   gpt-4o-mini, gemini-2.5-flash
$    Economy:  deepseek-v3.2, deepseek-r1

Kostenoptimierung

1. Kleinere Modelle zuerst verwenden

def smart_query(question: str, complexity: str = "auto"):
    """Nutzen Sie günstigere Modelle für einfache Aufgaben."""

    if complexity == "simple":
        model = "gpt-4o-mini"
    elif complexity == "complex":
        model = "gpt-4o"
    else:
        # Günstig starten, bei Bedarf eskalieren
        model = "gpt-4o-mini"

    response = client.chat.completions.create(
        model=model,
        messages=[{"role": "user", "content": question}]
    )
    return response

2. max_tokens festlegen

Legen Sie immer ein angemessenes max_tokens-Limit fest:
# ❌ Schlecht