Kimi K2.5 on VM0. Moonshot's previous generation
Moonshots vorheriges Flaggschiff. Immer noch solide mit Bildunterstützung und extrem niedrigen Kosten — ×0,2 Credits.
256K tokens · Text / Image / Code · Prompt cache
Kimi K2.5 ist Moonshots Modell der vorherigen Generation, immer noch verfügbar zu einem noch niedrigeren Multiplikator von ×0,2 Credits. Es bietet Bild-, Text- und Code-Eingabe mit derselben Preisstruktur wie K2.6 ($0,60/$3,00), aber zu einem niedrigeren VM0-Multiplikator.
Der niedrigere Multiplikator spiegelt die etwas schwächeren Benchmark-Ergebnisse im Vergleich zu K2.6 wider, aber für viele Bulk-Aufgaben ist die Qualität mehr als ausreichend.
Was ist Kimi K2.5?
Verfügbar seit VM0-Launch · Vorheriges Flaggschiff der Kimi K2-Familie. Abgelöst von K2.6.
Kimi K2.5 was Moonshot's flagship Kimi model before K2.6. It was the first widely-deployed Kimi to combine long-context reasoning with a Claude-compatible API surface, and it remains a capable model for long-context summarisation work.
On VM0 it sits at the same vendor list price as K2.6 but a lower credit multiplier (×0.2). The lower multiplier reflects positioning rather than raw token cost. K2.6 is the recommended default for new work; K2.5 is the legacy pin.
K2.5 has a vendor-reported SWE-bench Pro score of 50.7 and a hallucination rate of ~65%. Both meaningfully behind K2.6 (58.6 and 39%). Behaviourally it remains stable for pinned production agents.
Technische Daten auf einen Blick
Kimi K2.5 Benchmarks
K2.5's benchmarks are now most useful as the comparison baseline for K2.6. The newer model leads on every published metric at the same vendor cost.
Kimi K2.5 Preise
Listenpreis des Anbieters, pro 1 Mio. Tokens.
Wie sich Kimi K2.5 in der Praxis verhält
Beobachtetes Verhalten aus produktiven Agent-Durchläufen.
Long-context
Strong, similar shape to K2.6 but with K2.6 having the edge on harder recall benchmarks.
Tool use
Solid on common flows; K2.6 is meaningfully better on complex multi-tool agents.
Hallucinations
Vendor-reported hallucination rate of ~65%. Much higher than K2.6's 39%. Expect more confident-but-wrong outputs.
Beste Agent-Aufgaben für Kimi K2.5
The legacy agent that already works
Your team validated an agent against K2.5 a few months ago, the prompts are tuned, the eval suite passes, customers are happy. Pinning to K2.5 keeps that exact behaviour in place while you decide whether the K2.6 upgrade is worth re-running the validation. Same Moonshot endpoint, same Anthropic-compatible interface — only the model weights move when you switch.
The bulk-summarisation job where K2.6's edge doesn't show
Hundred-thousand-token transcripts going in, three-paragraph summaries coming out. Tool-routing accuracy isn't part of the workload, hallucination resistance matters less when a human is going to skim the output anyway, and at the same vendor price as K2.6 you can run K2.5 on these jobs without touching the existing pipeline.
Wann du Kimi K2.5 überspringen solltest
Don't start new agents on K2.5, since K2.6 is a free upgrade in every meaningful way except the multiplier. Skip it on multi-tool English routing where Sonnet 4.6 leads, and on tasks where hallucination is costly because K2.5's rate is materially worse than K2.6's.
Kimi K2.5 vs andere Modelle
Kimi K2.5 vs Kimi K2.6
K2.6 is the newer generation with stronger tool-use, lower hallucination rate (39% vs 65%), and better reasoning. K2.5 (×0.2) is slightly cheaper. Pick K2.5 only for pinned legacy agents.
Kimi K2.5 vs DeepSeek V4 Pro
DeepSeek V4 Pro (×0.3) has stronger reasoning. K2.5 (×0.2) wins on context size and stays within the Moonshot API surface.
Fazit: Solltest du Kimi K2.5 nutzen?
Kimi K2.5 ist eine gute Wahl, wenn du die niedrigstmöglichen Kosten bei gleichzeitiger Bildunterstützung benötigst. Für neue Projekte ist K2.6 die bessere Wahl, es sei denn, der ×0,2-Multiplikator ist entscheidend.
Häufig gestellte Fragen
Why does K2.5 have a lower multiplier than K2.6 at the same vendor price?
Multipliers reflect VM0's positioning of each model in the lineup, not just per-token cost. K2.6 is the recommended Kimi default at ×0.3; K2.5 is positioned as legacy at ×0.2.
Should I migrate from K2.5 to K2.6?
Yes for new work. Same vendor price, stronger tool-use and reasoning, much lower hallucination rate. Migrate pinned agents only after running them through your regression suite.
What's the hallucination rate?
Vendor-reported ~65%. Meaningfully higher than K2.6 (39%). If your agent reports facts to users, this matters; consider K2.6 instead.
What's K2.5's context window?
256K tokens. Same as K2.6.
Alternativen
Kimi K2.5 auf VM0 nutzen
Zwei Wege, um Kimi K2.5 auf VM0 zu nutzen
VM0 unterstützt Kimi K2.5 als Built-in-Modell, das in VM0-Credits abgerechnet wird, sowie über Bring-your-own mit einem Moonshot API key. Der Built-in-Weg nutzt VM0 Managed Routing und den unten erklärten Credit-Multiplikator; der Bring-your-own-Weg rechnet direkt mit dem Upstream-Anbieter ab und überspringt die VM0-Credit-Umrechnung.
VM0s Empfehlung
VM0 positioniert Kimi K2.5 als kostensparende Option statt als Core-Agent-Modell. Nutze es zur Optimierung der Stückkosten bei Nicht-Kernarbeit wie Massenklassifikation, Vorfiltern, latenzkritischen Kurzantworten oder fest zugewiesenen Legacy-Agents, während Claude Opus 4.7, Claude Opus 4.6 oder Claude Sonnet 4.6 die entscheidenden Schritte übernehmen.
Credits und der ×0.2-Multiplikator
Jedes Built-in-Modell auf VM0 wird als Vielfaches von Claude Sonnet 4.6 bepreist, das die ×1-Credit-Basislinie bildet. Kimi K2.5 wird mit ×0.2 Credits abgerechnet. Der Multiplikator erscheint auf deiner VM0-Rechnung; der Anbieter-Listenpreis in der obigen Preistabelle ist das, was der Upstream-Anbieter berechnet, bevor VM0 ihn in Credits umrechnet.
Kimi K2.5 wird mit ×0.2 abgerechnet, d.h. ein Schritt kostet hier nur das 0.2-fache der Credits eines äquivalenten Schritts mit Sonnet 4.6 (der ×1-Basislinie). Damit liegt es deutlich unter der Credit-Basislinie und ist die natürliche Wahl für volumenstarke Hintergrundarbeit, bei der Kosten pro Schritt wichtiger sind als höchste Reasoning-Qualität.
Verfügbar auf VM0 seit Available since launch.