Windows & Systeme Updates, Probleme, Linux
Office & Kommunikation E-Mail, Teams, Podcast
Sicherheit & Daten Viren, Passwörter, Backup
KI & Tools ChatGPT, Claude, Automatisierung
Alle Software-Leistungen →
Computer & Laptops PC, Mac, Kaufberatung
Mobilgeräte Smartphone, TV, Fotos
Peripherie & Netzwerk Drucker, WLAN, NAS
Smart Home & IoT Automation, PV, Homeoffice
Alle Hardware-Leistungen →
Sofort-Hilfe Selbsttest, Notfall, Checklisten
Schulungen KI, PC, Senioren
Schutz & Vorsorge Passwörter, Jugendschutz, Nachlass
Alle Privat-Leistungen →
IT-Infrastruktur VPN, Netzwerk, DSGVO
Business-Software Buchhaltung, Kasse, Zeiterfassung
Web & Marketing Webseite, SEO, WordPress
Alle Unternehmens-Leistungen →
Neu im Blog Die aktuellsten Artikel
Systeme & Netzwerk Windows, Linux, WLAN, Homeoffice
Software & Online KI, E-Mail, Web, Sicherheit
Geräte & Branchen Smartphone, Drucker, Agrar
Alle Artikel →
KI-Wissen16. April 2026 · 10 Min. Lesezeit

Claude Opus 4.7 ist da – was das neue KI-Modell in der Praxis ändert

Am 16. April 2026 hat Anthropic Claude Opus 4.7 veröffentlicht – zwei Monate nach Opus 4.6 und exakt im Rhythmus, den das Unternehmen seit dem Sommer 2025 eingehalten hat. Auf dem Papier klingt ein Minor-Version-Sprung harmlos. In der Praxis verschieben sich mit diesem Update aber zwei Dinge, die für alle wichtig sind, die KI im Alltag einsetzen: wie Claude Befehle interpretiert und wie viel eine Anfrage tatsächlich kostet.

Das Wichtigste in zwei Minuten

Opus 4.7 ist laut Anthropic das leistungsfähigste allgemein verfügbare KI-Modell des Unternehmens. Es schlägt seinen Vorgänger Opus 4.6 sowie OpenAIs GPT-5.4 und Googles Gemini 3.1 Pro in mehreren wichtigen Benchmarks. Gleichzeitig bleibt es hinter einem internen Modell namens Mythos Preview zurück – das Anthropic bewusst nicht breit veröffentlicht, weil dessen Cyber-Fähigkeiten zu riskant wären.

Die vier größten Änderungen:

  • Deutlich besseres Programmieren – besonders bei schwierigen, mehrstufigen Aufgaben.
  • Schärferes Sehen – Bilder werden mit der dreifachen Auflösung verarbeitet.
  • Literaler – das Modell nimmt Anweisungen wörtlicher, was Prompts verlangen kann, die bisher liefen.
  • Neuer Tokenizer – derselbe Text braucht jetzt bis zu 35 Prozent mehr Tokens.

Der Preis bleibt identisch: 5 US-Dollar pro Million Input-Tokens, 25 US-Dollar pro Million Output-Tokens. In der echten Welt können die Kosten pro Anfrage trotzdem steigen, weil zwei Effekte zusammenkommen, die gleich erklärt werden.

Warum dieses Update mehr ist als nur ein Punkt nach dem Komma

Versionsnummern bei KI-Modellen sind kein Software-Wechsel im klassischen Sinn. Ein Programm ändert sich bei einem Minor-Update meist wenig – ein Sprachmodell kann sich durch neues Training oder verändertes Verhalten deutlich anders anfühlen, auch wenn der Versionssprung klein aussieht.

Opus 4.7 trifft auf eine angespannte Stimmung in der Entwickler-Community. In den Wochen vor der Veröffentlichung hatten sich viele Nutzer beschwert, Opus 4.6 habe still und leise an Qualität verloren. Ein leitender Entwickler bei AMD schrieb in einem vielzitierten GitHub-Post, Claude sei so weit zurückgefallen, dass man ihm komplexe Engineering-Aufgaben nicht mehr zumuten könne. Anthropic hat bestritten, dass Rechenleistung zugunsten anderer Projekte umgeleitet wurde – aber der Druck, mit dem neuen Modell zu liefern, war entsprechend hoch.

Die Antwort ist ein Modell, das an vielen Stellen nachlegt, aber auch neue Fallstricke mitbringt.

Programmieren: der größte Sprung

Der deutlichste Fortschritt liegt beim Coding. Auf dem branchenüblichen Benchmark SWE-bench Pro erreicht Opus 4.7 64,3 Prozent gegenüber 53,4 Prozent bei Opus 4.6 und liegt damit vor OpenAIs GPT-5.4 mit 57,7 Prozent. Nur Anthropics nicht öffentlich verfügbares Spitzenmodell Mythos Preview liegt mit 77,8 Prozent deutlich davor.

SWE-bench Pro misst, wie gut ein Modell echte Programmierprobleme aus Open-Source-Projekten löst – also nicht einen künstlichen Testfall, sondern Dinge, die Entwickler wirklich reparieren müssen. Der Sprung von gut elf Prozentpunkten bedeutet in der Praxis: Aufgaben, bei denen Claude bisher auf halbem Weg stecken blieb oder falsche Lösungen lieferte, gehen jetzt häufiger durch.

Noch aussagekräftiger ist ein Punkt aus Anthropics eigenem Blog: Auf einem internen Benchmark mit 93 Coding-Aufgaben löste Opus 4.7 13 Prozent mehr Fälle als der Vorgänger – darunter vier Aufgaben, die weder Opus 4.6 noch Sonnet 4.6 bewältigen konnten. Für den Alltag heisst das: komplexe Refactorings, länger laufende Agenten-Workflows und Debugging-Sessions, bei denen bisher Aufsicht nötig war, lassen sich öfter einfach abgeben.

Anthropic selbst formuliert es so: Das Modell bearbeitet lang laufende Aufgaben mit Sorgfalt und Konsistenz, hält sich präzise an Anweisungen und entwickelt Methoden, seine eigenen Ergebnisse zu prüfen, bevor es zurückmeldet. Genau dieses Selbstprüfen ist das, was in der Praxis den Unterschied macht: Ein Modell, das merkt, wenn seine Lösung nicht passt, statt sie selbstbewusst zu präsentieren.

Sehen: dreifache Auflösung für Bilder und Screenshots

Bis Opus 4.6 hat Claude Bilder auf einer eher bescheidenen Auflösung verarbeitet. Ab jetzt verarbeitet das Modell Bilder mit bis zu 2.576 Pixel an der längeren Kante – umgerechnet etwa 3,75 Megapixel und damit mehr als dreimal so viel wie frühere Claude-Modelle.

Das klingt technisch, hat aber konkrete Folgen:

  • Verträge und Urkunden mit Kleingedrucktem werden korrekter gelesen. Wer eingescannte Seiten zur Analyse hochlädt, bekommt weniger Halluzinationen bei winzigem Text.
  • Screenshots von Fehlermeldungen, Konfigurationen oder Software-Oberflächen lassen sich bis in die Details erkennen – wichtig für Remote-Support und Fehlerdiagnose.
  • Technische Zeichnungen und Diagramme werden präziser interpretiert. Das betrifft alles von Bauzeichnungen über Netzwerk-Diagramme bis zu Excel-Screenshots mit Zahlenkolonnen.

Der Preis dafür: Bilder verbrauchen jetzt mehr Tokens, weil sie mit mehr Detail verarbeitet werden. Wer die API direkt nutzt, sollte das im Blick behalten. Im Claude-Abo bleibt es unsichtbar – da ist die Verarbeitung im Preis enthalten.

Der wichtigste Verhaltenswechsel: literalere Interpretation

Das ist der Punkt, an dem viele Anwender zuerst aufmerksam werden sollten. Anthropic schreibt, Opus 4.7 folge Anweisungen präziser als sein Vorgänger. Prompts, die für ältere Modelle geschrieben wurden, könnten jetzt unerwartete Ergebnisse liefern, weil Opus 4.7 Anweisungen wörtlicher interpretiert als Opus 4.6 – das Teile von Anweisungen manchmal locker interpretierte oder ganz übersprang.

Ein Beispiel aus dem Alltag: Wer in einem Prompt schreibt „Fass diesen Text kurz zusammen und übersetze ihn ins Englische, wenn nötig“, hat bei Opus 4.6 oft eine Übersetzung bekommen, auch wenn sie gar nicht gebraucht wurde – weil das Modell den Teil „wenn nötig“ eher als Höflichkeitsfloskel las. Opus 4.7 prüft den Bedingungssatz ernster und lässt die Übersetzung manchmal weg, wenn sie nicht zwingend verlangt ist.

Das macht das Modell verlässlicher für Profis – und stolpernder für Nutzer, die ihre Prompts ungenau formulieren. Wer Claude für wiederkehrende Aufgaben einsetzt (Textvorlagen, Auswertungen, automatisierte Abläufe), sollte in den ersten Tagen nach dem Wechsel die Ergebnisse besonders kritisch prüfen. Kleine Formulierungsschwächen, die bei Opus 4.6 durchgingen, werden jetzt sichtbar.

Praxistipp: Prüfen Sie Ihre Standard-Prompts in den ersten Tagen genauer als sonst. Formulierungen wie „wenn möglich“, „gerne auch“ oder „vielleicht“ werden von Opus 4.7 ernster genommen. Ersetzen Sie sie durch klare Ja-Nein-Anweisungen („übersetze immer ins Englische“ statt „übersetze, wenn nötig“).

Kostenfalle: Tokenizer und höherer Denk-Aufwand

Der Preis pro Token bleibt unverändert – und trotzdem können dieselben Anfragen jetzt spürbar teurer werden. Opus 4.7 nutzt einen neuen Tokenizer, der Text effizienter verarbeitet. Der Haken: Derselbe Input wird in roughly 1,0 bis 1,35-mal mehr Tokens umgewandelt – je nach Inhaltstyp.

Bei deutschen Texten mit vielen Umlauten und langen zusammengesetzten Wörtern ist die Differenz tendenziell höher als bei englischem Fließtext. Wer also ein Skript betreibt, das täglich deutsche Dokumente durch Claude schickt, kann mit einer Rechnung konfrontiert werden, die 20 bis 30 Prozent über dem Vormonat liegt – bei gleicher Arbeitslast.

Der zweite Effekt kommt obendrauf: Opus 4.7 denkt auf höheren Stufen intensiver – vor allem in späteren Runden bei mehrstufigen Agenten-Aufgaben. Das verbessert die Zuverlässigkeit bei schwierigen Problemen, produziert aber mehr Output-Tokens. Da Output dreimal mehr kostet als Input, schlägt das durch.

Für Privatnutzer und Kleinunternehmen, die Claude über ein Abo nutzen, ist das weitgehend egal – das Abo deckt den normalen Gebrauch ab. Wer aber produktiv über die API arbeitet, sollte die Rechnung der ersten Wochen nach Umstellung genau beobachten.

Neuer Denk-Modus: „xhigh“ zwischen High und Max

Für Entwickler kommt eine neue Schraube hinzu. Opus 4.7 führt eine neue „xhigh“-Stufe (extra high) zwischen high und max ein. Sie gibt Nutzern feinere Kontrolle über den Trade-off zwischen Denkaufwand und Antwortzeit bei schwierigen Problemen. Anthropic empfiehlt, beim Testen von Opus 4.7 für Coding- und Agenten-Aufgaben mit high oder xhigh zu starten.

In der Praxis bedeutet das: Wer bei Opus 4.6 mit „medium“ gut klarkam, fährt bei Opus 4.7 auf ähnlicher Qualitätsebene oft mit „low“ – das Modell ist in niedrigeren Stufen spürbar stärker geworden. Anthropic selbst beschreibt Opus 4.7 als intelligenteren, effizienteren Opus 4.6: Low-Effort Opus 4.7 entspricht ungefähr Medium-Effort Opus 4.6.

Wer die API nutzt, kann also bei vielen Alltagsaufgaben eine Stufe runterschalten und spart damit Tokens – was die oben erwähnten Zusatzkosten teilweise wieder auffangen kann. Für harte, lang laufende Agenten-Workflows ist xhigh die neue empfohlene Einstiegsstufe.

Bessere Gedächtnisfähigkeit bei Langzeit-Projekten

Ein Punkt, der in der ersten Berichterstattung fast untergegangen ist: Opus 4.7 ist besser im Umgang mit dateibasiertem Gedächtnis. Es merkt sich wichtige Notizen über lange Arbeitssitzungen hinweg und nutzt sie, um an neuen Aufgaben weiterzuarbeiten – mit weniger Vorab-Kontext im Prompt.

Wer Claude über Claude Code oder eigene Agenten-Setups nutzt, kann davon profitieren: Projekte, die mehrere Tage oder Wochen laufen (etwa eine Refactoring-Serie an einer großen Codebasis oder ein wiederkehrender Content-Workflow), müssen Claude beim nächsten Start nicht mehr alles neu erklären. Das Modell findet in den eigenen Notizdateien die Stellen wieder, die es braucht.

Für den Chat-Alltag im Browser ist das weniger relevant – da gelten weiterhin die normalen Kontextfenster-Regeln.

Mythos: Das Modell, das Anthropic nicht veröffentlicht

Ein ungewöhnlicher Aspekt dieser Veröffentlichung: Anthropic gibt offen zu, dass Opus 4.7 nicht das stärkste Modell im Haus ist. Ein intern entwickeltes Modell namens Mythos Preview liegt in mehreren Benchmarks deutlich davor – wird aber bewusst nur an ausgewählte Unternehmen ausgeliefert.

Der Grund: Cybersicherheit. Anthropic hat bei Opus 4.7 im Training aktiv versucht, die Cyber-Fähigkeiten des Modells differenziell zu reduzieren. Zusätzlich gibt es Schutzmechanismen, die automatisch Anfragen erkennen und blockieren, die auf verbotene oder risikoreiche Cyber-Nutzung hindeuten.

Das hat zwei Seiten. Einerseits zeigt es, dass Anthropic bei einem Thema, das zunehmend politisch aufgeladen ist, Zurückhaltung übt – die allermeisten Konkurrenten legen keinen solchen Bremsmechanismus ein. Andererseits bedeutet es, dass Sicherheitsforscher, Pentester und IT-Dienstleister, die KI für legitime Zwecke einsetzen wollen, mit Einschränkungen zu rechnen haben. Für diese Gruppe hat Anthropic ein Cyber Verification Program gestartet, über das verifizierte Profis erweiterten Zugang bekommen können.

Für normale Anwender – vom Handwerksbetrieb über den Arzt bis zum Architekturbüro – ist das Thema irrelevant. Die Schutzmechanismen greifen nur bei sehr spezifischen Anfragen, die mit Angriffs-Tooling zu tun haben.

Verfügbarkeit und Umstieg

Opus 4.7 ist ab dem 16. April 2026 über alle gängigen Wege erreichbar:

  • Claude.ai und Claude-Apps (Pro, Max, Team, Enterprise) – automatischer Rollout.
  • Anthropic API – Modell-ID claude-opus-4-7.
  • Amazon Bedrock – aktuell in den Regionen N. Virginia, Tokio, Irland und Stockholm verfügbar.
  • Google Cloud Vertex AI und Microsoft Foundry – beide zum Start unterstützt.
  • GitHub Copilot – wird für Pro+, Business und Enterprise ausgerollt und ersetzt in den nächsten Wochen Opus 4.5 und 4.6 im Modell-Picker.

Für normale Abo-Nutzer gibt es nichts zu tun – das neue Modell erscheint automatisch im Auswahlmenü. Entwickler, die über die API arbeiten, müssen die Modell-ID umstellen und sollten ihre Prompts gegenprüfen. Anthropic hat parallel einen Migration Guide veröffentlicht, der typische Fallstricke beim Umstieg beschreibt.

Für wen lohnt sich der bewusste Umstieg?

Die ehrliche Antwort: Für die meisten Anwender passiert der Umstieg von selbst und bringt ohne Zutun spürbare Vorteile. Wer Claude gelegentlich für E-Mails, Textentwürfe oder Recherche nutzt, wird bessere Antworten bekommen und ansonsten nichts merken.

Spürbar mehr profitieren:

  • Entwickler und technische Teams, die Claude für Refactorings, Code-Reviews oder Debugging einsetzen. Der Coding-Sprung ist real.
  • Verwaltungen, Anwälte, Buchhalter, die gescannte Dokumente oder PDFs mit kleinem Text an Claude geben. Die bessere Bildauflösung reduziert Fehlinterpretationen.
  • Unternehmen mit eigenen Agenten-Workflows, die Claude über Stunden oder Tage auf Aufgaben ansetzen. Das Selbstprüfen und die bessere Gedächtnisnutzung machen solche Setups verlässlicher.

Für ein paar Gruppen kann der Umstieg kurzfristig lästig werden:

  • Betriebe mit fest verdrahteten Prompt-Templates. Die literalere Interpretation kann bestehende Automationen leicht kippen – einmal prüfen, dann passt es.
  • API-Nutzer mit knappem Budget. Tokenizer und höherer Denk-Aufwand können die Rechnung spürbar erhöhen. Gegenmaßnahme: niedrigere Effort-Stufe testen, Prompts entschlacken.

Einordnung im Wettbewerb

Der KI-Markt hat sich in den letzten sechs Monaten normalisiert. Auf dem akademischen Reasoning-Benchmark GPQA Diamond erreichen Opus 4.7, GPT-5.4 Pro und Gemini 3.1 Pro fast identische Werte – 94,2, 94,4 und 94,3 Prozent. Die Unterschiede liegen in der Messungenauigkeit. Reines „Können“ ist also kein Differenzierungsmerkmal mehr – alle Top-Modelle sind auf Doktoranden-Niveau.

Die Unterschiede liegen jetzt in den Details: Opus 4.7 führt bei SWE-bench Pro mit 64,3 Prozent gegenüber GPT-5.4 mit 57,7 Prozent deutlich beim Programmieren. Die Bildverarbeitung wurde verdreifacht. Das Kontextfenster bleibt bei einer Million Tokens – halb so groß wie Gemini 3.1 Pro mit zwei Millionen, aber für die meisten Geschäftsanwendungen ausreichend.

Wer bisher bewusst bei Claude ist, bekommt mit Opus 4.7 das spürbar stärkste Modell seit Langem. Wer bei einem Konkurrenten ist, wird nicht allein wegen Opus 4.7 wechseln – dafür sind die Grundfähigkeiten zu nah beieinander. Der Tie-Breaker bleibt der konkrete Anwendungsfall, nicht der Benchmark.

Unser Fazit

Opus 4.7 ist ein solides, kein spektakuläres Update. Die wichtigsten Verbesserungen – Coding, Sehen, Selbstprüfung – sind da, wo sie für professionelle Anwender zählen. Die unauffälligen Änderungen – literaler Interpretationsstil und neuer Tokenizer – sind die, die man als Anwender am schärfsten im Auge haben sollte. Vor allem der Tokenizer ist ein leiser Preisaufschlag in einem Release, das den Preis offiziell nicht erhöht.

Dass Anthropic gleichzeitig offen sagt, intern ein stärkeres Modell bewusst zurückzuhalten, ist in der Branche ungewöhnlich. Ob das langfristig klug ist oder ob es Opus einen Teil des Rennens kostet, wird sich zeigen. Für den normalen Arbeitsalltag im Mittelstand, in Kanzleien und Praxen bleibt Claude mit Opus 4.7 das Werkzeug mit dem vielleicht besten Gesamtgefühl am Markt – vorausgesetzt, man nimmt sich einmal die Zeit, die Prompts an das neue, präzisere Modell anzupassen.

KI einführen, ohne die Kontrolle zu verlieren

Claude, ChatGPT, Gemini – welches Modell passt zu welcher Aufgabe? Wir setzen KI-Modelle täglich ein und zeigen Ihrem Team per Fernwartung, welches Tool sich wofür eignet, wie gute Prompts aussehen und worauf Sie beim Datenschutz achten müssen. Fernwartung ab 29 Euro für 30 Minuten.

Zur KI-Beratung ›

Häufige Fragen

Muss ich für Claude Opus 4.7 extra bezahlen?

Nein. Der Preis bleibt identisch zu Opus 4.6: 5 US-Dollar pro Million Input-Tokens, 25 US-Dollar pro Million Output-Tokens. Nutzer der Claude-Abos (Pro, Max, Team, Enterprise) bekommen das neue Modell automatisch.

Funktionieren meine alten Prompts mit Opus 4.7 noch?

Meistens ja, aber Opus 4.7 interpretiert Anweisungen wörtlicher als sein Vorgänger. Prompts, die bei Opus 4.6 funktionierten, können jetzt unerwartete Ergebnisse liefern, wenn sie unklar formuliert sind. Anthropic empfiehlt, Prompts auf Präzision zu prüfen.

Ist Opus 4.7 teurer im Betrieb, obwohl der Preis gleich ist?

Pro Token bleibt der Preis gleich. Allerdings braucht der neue Tokenizer für denselben Input bis zu 35 Prozent mehr Tokens, und das Modell denkt auf hohen Stufen länger. Die tatsächlichen Kosten pro Anfrage können dadurch steigen.

Können wir uns von Ihnen bei der KI-Auswahl beraten lassen?

Ja. Wir setzen KI-Modelle selbst täglich ein und zeigen Ihrem Team per Fernwartung, welches Tool zu welcher Aufgabe passt, wie man Prompts schreibt und worauf beim Datenschutz zu achten ist. Fernwartung ab 29 Euro für 30 Minuten.

Weiterlesen

Direkt per WhatsApp schreiben