Claude Opus 4.7 is uit: wat de nieuwe Anthropic agent betekent voor jouw werk
16 april 2026. Anthropic zette vanmiddag Claude Opus 4.7 live. Ik zat op dat moment in Claude Code een klant-dashboard op te bouwen. Het model wisselde zonder dat ik het doorhad, en de eerste run voelde direct anders.
Dit is geen hype-bericht. Anthropic levert elke paar maanden een nieuwe Opus en meestal is het een stevige upgrade zonder dat iedereen meteen naar het plafond moet. Wat wel nieuw is aan 4.7: de sprong in agentic coding is groot genoeg dat ik mijn eigen setup er vandaag nog op nagekeken heb. Voor iedereen die AI serieus gebruikt in zijn werk staan er een paar dingen op de lijst die je moet weten.
De harde cijfers
Volgens Anthropic's eigen migration docs en de officiele modelpagina:
| Benchmark | Opus 4.6 | Opus 4.7 |
|---|---|---|
| CursorBench | 58% | 70% |
| SWE-bench (production) | baseline | 3x meer opgelost |
| Visual acuity | 54,5% | 98,5% |
| Coding benchmark (93 taken) | baseline | +13% |
| Code review recall | baseline | +10% |
| Bron: Anthropic migration docs en modelpagina, 16 april 2026. Groen = verbetering t.o.v. Opus 4.6. | ||
De vision-sprong is de grootste. Van 54,5 naar 98,5 procent is geen update, dat is een ander model. De maximale image-resolutie ging van 1568 naar 2576 pixels op de lange zijde. Dat maakt een verschil op screenshots, documenten en computer use workflows waar het model dingen op schermafbeeldingen moet kunnen zien die eerder gewoon wegvielen.
De SWE-bench jump zit in het 'production tasks' deel. Dus echte GitHub issues oplossen, geen speelgoedproblemen. Als je AI-agents gebruikt voor code, bugs of data-analyse: dit verander je vandaag.
Wat Anthropic onder de motorkap heeft aangepast
Een paar dingen om te weten als je dit model in productie zet.
Adaptive thinking is nu de enige thinking-modus. Extended thinking budgets zijn eruit. Je zet thinking: {type: "adaptive"} aan en het model beslist zelf hoe diep het gaat. Adaptive verslaat extended in Anthropic's eigen tests. Mijn eerste ervaring: het model switcht sneller tussen snel antwoorden en doordenken. De runs waar 4.6 lang bleef hangen, zie ik 4.7 kortere doordenk-momenten pakken en alsnog bij een beter antwoord uitkomen.
Task budgets (beta). Je geeft het model een richtgetal voor tokens voor een hele agentic loop. Het model ziet een aftellende teller en prioriteert op basis daarvan. Voor iedereen die Claude Code of een eigen agent draait is dit een gamechan... ik bedoel, dit is interessant voor kostencontrole. Ik test deze week of mijn EdGPT orchestrator beter loopt met een task_budget per agent.
Nieuwe tokenizer. Dezelfde tekst gebruikt 1 tot 1,35x zoveel tokens als bij 4.6. Bij de prijs (5 dollar in, 25 dollar uit per miljoen tokens, gelijk aan 4.6) betekent dat 0 tot 35 procent hogere kosten per run als je verder niks aanpast. Check je max_tokens en check je prompts of ze compacter kunnen. Zie de officiele docs voor de details.
De toon is strakker geworden
Dit wordt in de documentatie zonder veel ophef benoemd en het is het ding dat je het eerst merkt: Opus 4.7 is directer. Minder emoji, minder validatie-frasen zoals "Great question!" en minder subagents die zichzelf spawnen. Het model volgt instructies letterlijker en gaat er niet meer vanuit dat het wel weet wat je bedoelt.
Voor mij is dit goed nieuws. De laatste maanden scrollde ik vaak door Claude-output en moest ik de helft weghalen voordat ik iets aan klanten kon laten zien. 4.7 levert kortere antwoorden. Als je prompts had met scaffolding zoals "wees beknopt, geen opsomming van je stappen" dan kun je die er nu uithalen.
Let op als je heel precies bent geworden in je prompts op 4.6. Je moet er een paar opnieuw testen. Wat eerder werkte door een slimme truc, werkt nu misschien niet meer omdat het model letterlijker leest.
Opus 4.7 in jouw organisatie inzetten?
Dertig minuten sparren over waar deze upgrade je werk sneller maakt. Gratis en zonder sales-praat.
Plan een gratis sparsessieWat betekent dit voor MKB en marketing teams
De meeste bedrijven die bij mij aankloppen draaien ChatGPT of Claude op de standaard manier: een chatvenster, copy-paste, volgende taak. Voor die groep verandert 4.7 relatief weinig in het dagelijkse werk. Je antwoorden worden iets scherper, vision werkt merkbaar beter, het gaat iets sneller.
De groep waar het verschil groot is: iedereen die agents draait. Dus een opzet waarin het model meerdere stappen zelfstandig doet, code schrijft, data ophaalt of tools aanroept. Daar zit het verschil tussen 4.6 en 4.7 in taken die 4.6 gewoon niet afmaakte en waar 4.7 wel doorheen komt. Bij mijn eerste test vanmiddag liep een SEO-audit-agent die ik eerder drie keer had moeten herstarten in een enkele run door.
Voor marketing teams is het vision-verhaal het belangrijkste. Als je Claude gebruikt om screenshots van dashboards te analyseren, om posters te reviewen of visuele content te beoordelen: de 98,5% score betekent dat het model nu details ziet die vorige modellen misten. Kleine tekst op banners, logo-posities die een paar pixels afwijken, kleurverschillen die het vorige model gewoon niet doorhad.
Wat ik deze week in EdGPT aanpas
Mijn eigen setup draait op dertig agents die samenwerken via een orchestrator. Hier is mijn vandaag-lijst:
Model switch testen, niet zomaar flippen. Ik heb tien gearchiveerde runs van de afgelopen weken liggen. Die jaag ik vandaag door 4.7 en vergelijk output zin voor zin. Als ergens de kwaliteit zakt, wil ik het weten voordat ik de hele stack laat overgaan.
Prompts opschonen die 4.6-trucs bevatten. Ik heb op meerdere plekken geschreven "beperk emoji" of "geef geen uitgebreide samenvatting aan het eind". Op 4.7 is dat ruis geworden. Die komt eruit.
Eentje voorzichtig aanzetten op 4.7. Mijn SEO-specialist agent heeft vision nodig voor screenshot-analyse. Die zet ik als eerste over. De rest volgt per agent, zodat ik een Learning Loop data heb over wat beter werkt en wat slechter.
Token-budget instellen. Mijn content-writer agent gebruikt gemiddeld 8.000 tokens per run op 4.6. Als die op 4.7 richting 11.000 gaat heb ik 35% hogere kosten zonder dat ik het doorheb. Dus ik zet een rough cap van 10.000 en log afwijkingen.
Verwacht een follow-up blog over welke agents na de switch beter bleken en welke terug moesten naar 4.6 of Sonnet 4.6.
Wat jij deze week kunt doen
Als je zelf met Claude werkt, een paar dingen die de moeite waard zijn.
Begin met een kleine test. Pak een taak die je vaak doet en die je goed kent. Een blogsamenvatting of een klantmail. Doe die taak op 4.6 (of wat je nu draait) en op 4.7, met exact dezelfde prompt. Lees beide antwoorden langzaam. Waar zit het verschil?
Check je prompts op 4.6-specifieke trucjes. Staan er zinnen als "wees beknopt" of "geef me alleen de conclusie"? Grote kans dat 4.7 dat zelf al doet. Laat die instructies even weg en kijk of de output beter of slechter wordt.
Als je code of agents gebruikt: test het op 4.7 met xhigh effort level. Die nieuwe instelling is gemaakt voor langere agentic runs. Het kost meer tokens. Op taken waar 4.6 afhaakt, maakt 4.7 het wel af.
De richting waarin dit gaat
Ik schreef vorige week over Claude Mythos en de les dat je je manier van werken moet bouwen alsof het model volgend kwartaal vervangen wordt. Vandaag is dat letterlijk gebeurd. Als je een setup had die modulair was, is deze overstap kleine moeite. Als je hard had geoptimaliseerd op 4.6-gedrag, merk je vandaag hoeveel werk dat wordt.
Mythos zit nog achter slot en grendel. Opus 4.7 is er wel, vandaag, voor iedereen die een API-key heeft. Het is het beste generally-available model dat Anthropic ooit heeft uitgebracht, met een duidelijk bericht erbij: de sprong zit in agentic werk en in vision. Voor iedereen die Claude inzet in echte processen en niet alleen als chatvenster, is dat waar de waarde ligt.
En voor iedereen die wacht tot het stof neerdwarrelt: het stof dwarrelt niet neer. Er komt later dit jaar Sonnet 4.7 aan, waarschijnlijk Haiku 5 in het najaar en over Mythos weten we over een paar maanden meer. Begin met een test deze week. Volg hem op met een klein proces. Laat het groeien vanuit wat werkt.
Opus 4.7 productief inzetten, zonder zelf te hoeven uitvinden
Training voor jouw team op het nieuwste model. Of een 1-op-1 sparsessie waarin we jouw AI-workflows tegen het licht houden.
Ed van der Molen helpt Nederlandse MKB-bedrijven en ZZP'ers om AI in te zetten. Hij draait EdGPT op Claude met dertig gespecialiseerde agents en schrijft over wat er werkt in zijn eigen werk. Meer lezen? Lees zijn verhaal over een AI-team bouwen als ZZP'er of waarom hij op Claude Mythos voorbereid is.
Bronnen: