Deepseek V3.1: Mehr Leistung, weniger Kosten

Einklappen
X
 
  • Zeit
  • Anzeigen
Alles löschen
neue Beiträge
  • master
    Administrator
    • 02.09.2024
    • 4695

    #1

    Deepseek V3.1: Mehr Leistung, weniger Kosten


    Deepseek V3.1: Mehr Leistung, weniger Kosten Das Hybridmodell überzeugt mit 128k Kontext und günstigeren Preisen als GPT-5. Ist dies der neue Standard für KI-Projekte? Kurzfassung | Andreas Becker, 21.08.25
    gpt-image-1 | All-AI.de EINLEITUNG Mit dem neuen Modell V3.1 zieht DeepSeek nach: Zum ersten Mal lässt sich zwischen zwei Betriebsmodi umschalten – je nachdem, ob komplexes Denken oder schnelle Antworten gefragt sind. Die hybride Architektur passt zur wachsenden Bedeutung von KI-Agenten. Gleichzeitig bleibt Deepseek seiner Linie treu: viel Leistung, niedriger Preis. NEWS Zwei Modi, flexibel einsetzbar V3.1 arbeitet wahlweise im Think- oder im Non-Think-Modus. Der Think-Modus ist auf logisches Schlussfolgern und den Einsatz von Werkzeugen ausgelegt. Der Non-Think-Modus dagegen kümmert sich effizient um einfachere Aufgaben. Beide Modi teilen sich ein großes Kontextfenster von 128.000 Tokens. Die Auswahl erfolgt per Schalter im Deepseek-Chat oder über unterschiedliche API-Endpunkte. Aktiviert wird der Denkmodus über spezielle Prompt-Tokens. Diese Trennung macht das Modell flexibel: Wer schnelle Antworten braucht, spart Rechenleistung. Wer präzise Analysen will, bekommt Zugriff auf Agenten, Tool-Calls und mehrstufige Abläufe. Entwicklern gibt das mehr Kontrolle – sowohl technisch als auch finanziell.. + + Quelle: Deepseek Längere Kontexte, gezieltes Training Im Vergleich zum Vorgänger hat Deepseek V3.1 mit 840 Milliarden zusätzlichen Tokens deutlich aufgestockt. Das Training wurde in zwei Phasen unterteilt: eine breite 32k-Phase und eine verlängerte 128k-Phase. Dadurch kann das Modell längere Kontexte besser verstehen – zum Beispiel ganze Codebasen oder komplexe Suchanfragen. In Benchmarks wie SWE-Bench oder Terminal-Bench zeigt sich das deutlich. Besonders in Code- und Logikaufgaben schneidet V3.1 besser ab als das frühere Reasoning-Modell R1. Der Think-Modus liefert zudem schnellere und präzisere Antworten als die bisherige Version R1-0528. Das macht das Modell vor allem für Agenten-basierte Workflows attraktiv. + Quelle: DeepSeek Günstiger als die Konkurrenz Ab dem 5. September 2025 gelten neue Preise. Eingaben kosten bei Cache-Treffer 0,07 US-Dollar pro Million Tokens, bei Cache-Fehlschlag 0,56 US-Dollar. Für Ausgaben werden 1,68 US-Dollar fällig. Zum Vergleich: OpenAI verlangt für GPT-5 rund 10 Dollar pro Million Tokens – Deepseek bleibt also deutlich günstiger. Für Entwickler bedeutet das: Agenten-Logik kann kosteneffizient getestet und skaliert werden. Das große Kontextfenster sorgt dafür, dass auch aufwändige Aufgaben nicht unnötig teuer werden. Die Idee, Denkaufwand nur bei Bedarf zu aktivieren, trifft den Nerv aktueller Anwendungsfälle. + Quelle: DeepSeek Offen und anschlussfähig V3.1 ist unter MIT-Lizenz auf Hugging Face verfügbar. Das Modell kann direkt über zwei spezialisierte API-Endpunkte genutzt werden. Deepseek unterstützt außerdem das Format der Anthropic-API und testet „Strict Function Calling“ als neue Option. Ziel ist, die Integration in bestehende Systeme so einfach wie möglich zu machen – ob für Forschung oder Produkte. DEIN VORTEIL - DEINE HILFE Kostenlose News und Tutorials – mit minimaler Werbung und maximalem Mehrwert. Damit das so bleibt und wir uns stetig verbessern können, freuen wir uns über deine Unterstützung. Teile diesen Beitrag Folge uns auf Social Media Keine KI-News mehr verpassen und direkt kommentieren! Mastodon X Bluesky Facebook LinkedIn Youtube Unterstütze uns direkt Mit einer YouTube-Mitgliedschaft (ab 0,99 €) oder einmalig über PayPal. So helft ihr uns, unabhängig neue Tools zu testen und noch mehr Tutorials für euch zu erstellen. Vielen Dank für euren Support! Youtube - Kanal PayPal - Kaffee KURZFASSUNG
    Deepseek V3.1 bringt ein hybrides Konzept mit zwei Modi: schnelles Antworten oder tiefes logisches Denken.
    Das Modell bietet ein großes Kontextfenster von 128k Tokens und zeigt starke Benchmark-Ergebnisse.
    Mit deutlich niedrigeren Preisen als GPT-5 richtet es sich besonders an Entwickler und Agenten-Workflows.
    Über Hugging Face und offene APIs ist V3.1 leicht integrierbar und flexibel nutzbar.
    QUELLEN
    THE DECODER
    DeepSeek API Docs (Release)
    DeepSeek API Docs (Pricing)
    Hugging Face
    Reuters

    Weiterlesen...
Lädt...