Claude bouwt complete Slack-kloon in 30 uur (zonder hulp)
PLUS: gooi jezelf in elk AI-filmpje met Sora 2, en software die zichzelf schrijft terwijl je typt
De AI-wereld ontwikkelt zich razendsnel, en AI Report houdt je op de hoogte. Twee keer per week de nieuwste ontwikkelingen, tools en inzichten via onze nieuwsbrief en podcast.
🗞️ Het belangrijkste nieuws
Sora 2 video’s zijn niet meer van echt te onderscheiden
Sam Altman is zojuist betrapt op bewakingscamera’s terwijl hij grafische kaarten steelt uit een computerwinkel. “Alsjeblieft, ik heb dit echt nodig voor Sora inference – deze video is te goed,” zegt hij terwijl hij een GPU omklemt en wegrent.
Plot twist: dit is nep. Volledig gegenereerd door Sora 2. En ja, het is momenteel de populairste clip in de nieuwe Sora-app.
Anderhalf jaar geleden liet OpenAI de wereld kennismaken met Sora, een AI-videomodel dat verbluffend realistische beelden kon genereren. Het enige probleem? De fysica klopte voor geen meter. Basketballen die door de lucht zweven, mensen die door muren lopen, watergolven die halverwege omhoog keren. Nu is Sora 2 er, en lijkt AI te begrijpen hoe de werkelijkheid daadwerkelijk werkt.
Wat is er veranderd?
Sora 2 is niet zomaar een update. Waar eerdere AI-videomodellen een beetje goochelden met pixels en hoopten dat je de fouten niet zou zien, heeft deze nieuwe versie iets fundamenteel nieuws geleerd: objecten bewegen volgens de wetten van de natuurkunde. Mis je een basketbalshot? De bal ketst nu realistisch terug van het bord, in plaats van spontaan te teleporteren naar de basket.
Het model genereert nu ook gesynchroniseerd geluid bij de beelden – een functie die Googles Veo 3 al een paar maanden heeft. Maar goed, beter laat dan nooit. Dialogen, omgevingsgeluiden, geluidseffecten: het zit er allemaal in. En het kan complexe bewegingen zoals gymnastiektrucs en schaatssprongen nabootsen zonder de realiteit te verdraaien. OpenAI vergelijkt de oorspronkelijke Sora met GPT-1: een eerste bewijs dat de technologie werkt. Sora 2 zou dan het GPT-3.5-moment zijn: het punt waarop het echt bruikbaar wordt.
Onze Xiang: “Ik schrijf niet graag dat iets ‘het internet breekt’ – die term is inmiddels zo uitgemolken dat hij zijn betekenis heeft verloren. Maar Sora 1? Dat was echt anders. We namen er zelfs een noodaflevering over op. Het was een duidelijke shift in wat AI kon. En nu ik filmpje na filmpje bekijk van Sora 2, lopen die rillingen weer over mijn lijf. Video’s die ik niet meer van echt kan onderscheiden.” Oordeel zelf:
Gooi jezelf in elk filmpje
De meest opvallende toevoeging is de cameofunctie. Na een eenmalige korte video-opname kun je jezelf invoegen in elke Sora-gegenereerde scène. Je gezicht, je stem, je manier van bewegen – het systeem pikt het allemaal op en kan je vervolgens laten verschijnen in een middeleeuws kasteel, op een skateboard of achter het stuur van een racewagen.
OpenAI-medewerkers hebben hier overduidelijk de grootste lol mee. Onderzoeker Gabriel Petersson plaatste een video waarin hij op een draak rijdt, van een vrachtschip af duikt én door het OpenAI-kantoor rent – met CEO Sam Altman naast zich. Altman heeft zijn eigen gezicht vrijgegeven voor iedereen, dus bereid je voor op een lawine aan deepfakes van Sam die allerlei rare dingen doet. Je bepaalt zelf wie jouw gezicht mag gebruiken: alleen jijzelf, uitgekozen contacten, of iedereen. En je kunt je toestemming op elk moment intrekken of video’s met jouw gezicht verwijderen.
Een sociaal netwerk voor AI-video’s
Sora 2 komt niet als losse tool, maar als volledig sociaal platform. De nieuwe iOS-app (voorlopig alleen in de VS en Canada, op uitnodiging) lijkt verdacht veel op TikTok: een feed vol korte video’s, profielen, volgers, directe berichten. Alleen zijn alle video’s AI-gegenereerd, en kun je meteen remixen wat anderen maken door je eigen draai eraan te geven – of jezelf erin te plaatsen via cameo’s.
OpenAI benadrukt dat ze niet dezelfde valkuilen willen hebben als andere sociale platforms. De feed is niet geoptimaliseerd voor maximale schermtijd, maar om inspiratie op te doen voor je eigen creaties. Je kunt de aanbevelingen aansturen via gewone taal, en het systeem vraagt regelmatig hoe het met je gaat. Voor tieners zijn er standaard limieten op hoeveel video’s ze per dag kunnen zien, en ouders kunnen via ChatGPT allerlei instellingen beheren.
Of dat werkt in de praktijk? We zullen zien. Meta lanceerde vorige week ook een soortgelijke app genaamd Vibes, dus blijkbaar denken meerdere techbedrijven dat AI-videosocials de toekomst is.
De theorie wordt bewezen
Wat Sora 2 bijzonder maakt, is dat het een steeds sterkere hypothese bevestigt over hoe AI-videomodellen werken. Ontwikkelaar Simon Willison schreef eerder over Google DeepMinds paper over Veo 3 – een concurrent die enkele maanden geleden de wereld in werd geslingerd – dat videomodellen mogelijk fungeren als zero-shot learners en reasoners voor visuele taken.
Net zoals grote taalmodellen hun vermogen om het volgende woord te voorspellen omzetten in algemene capaciteiten voor vertalen, samenvatten en analyseren, lijken videomodellen hun vermogen om het volgende frame te voorspellen om te zetten in begrip van fysica, ruimte en tijd. Willison noemt dit chain-of-frames: de manier waarop een videomodel frame voor frame redeneert over hoe de wereld werkt, vergelijkbaar met chain-of-thought bij taalmodellen.
Dat twee grote spelers – Google en OpenAI – nu onafhankelijk van elkaar modellen lanceren die dit gedrag vertonen, maakt de theorie alleen maar aannemelijker. Videomodellen lijken niet alleen plaatjes te genereren, maar ook echt te leren begrijpen hoe objecten bewegen, botsen en interacteren.
Veiligheid en identiteit
OpenAI heeft een uitgebreid veiligheidsdocument gepubliceerd over hoe ze misbruik willen voorkomen. Alle video’s krijgen zichtbare watermerken en metadata die aangeven dat ze AI-gegenereerd zijn. Het cameosysteem vereist verificatie via geluidsopnamen om imitatie tegen te gaan.
Voor tieners gelden strengere regels: standaard geen oneindige scroll, beperkingen op wie hun gezicht mag gebruiken, en extra filters tegen ongepaste content. OpenAI vergroot ook zijn team van menselijke moderators op om snel in te kunnen grijpen bij bijvoorbeeld pestgedrag.
Toch blijft de vraag hoe je iemands toestemming echt kunt waarborgen. Zelfs als je een vriend toegang geeft tot je cameo, kan die persoon er schadelijke content mee maken. De tools zijn er, maar de sociale normen moeten nog uitkristalliseren.
Kanttekeningen
Sora 2 is verre van perfect. Het maakt nog steeds fouten, al zijn die volgens OpenAI vaak fouten van de ‘interne agent’ die het model simuleert – denk aan een virtueel personage dat iets verkeerd doet, niet aan fysica die ineens niet meer klopt. De app is voorlopig alleen beschikbaar op iOS in Noord-Amerika, met Android en een API die ‘binnenkort’ volgen.
Bovendien is onduidelijk of mensen wel zitten te wachten op nóg een sociaal platform. Meta’s Vibes-app wordt breed afgedaan als “mindless AI slop”, en het is de vraag of Sora’s creatieve insteek genoeg onderscheidend vermogen biedt. OpenAI zegt nu geen verdienmodel te hebben, behalve eventueel extra video’s verkopen bij hoge vraag, maar die plannen kunnen veranderen.
Waarom dit ertoe doet
Voor de meeste mensen is Sora 2 vooral een leuk speeltje om jezelf in bizarre scenario’s te plaatsen. Maar voor OpenAI is dit een tussenstap naar iets groters: algemene world simulators en AI-systemen die echt begrijpen hoe de fysieke wereld werkt.
Als videomodellen inderdaad dezelfde rol kunnen spelen voor visuele taken als taalmodellen voor tekst – zoals Willison en Googles DeepMind suggereren – dan betekent dat dat we over een paar jaar geen aparte modellen meer nodig hebben voor objectdetectie, segmentatie, bewegingsanalyse of andere visuele taken. Eén groot videomodel kan het allemaal aan.
OpenAI zelf vat het zo samen: “Videomodellen worden in hoog tempo steeds beter. Universele world simulators en robotagents zullen de samenleving fundamenteel veranderen en de vooruitgang van de mensheid versnellen.”
Claude 4.5 werkt dertig uur aan één klus door (en bouwt intussen Slack na)
Vergeet alles wat je dacht te weten over AI-assistenten die constante menselijke interventie nodig hebben. Claude, de razendpopulaire AI van Anthropic, heeft een versie uitgebracht die dertig uur lang autonoom kan programmeren – en het resultaat is een werkende chatapp met elfduizend regels code. Zonder dat iemand ook maar één keer tussenbeide hoefde te komen.
Wat is er aan de hand?
Anthropic kondigde onlangs Claude Sonnet 4.5 aan, een model dat een enorme sprong maakt in wat AI zelfstandig kan. Waar het vorige topmodel van het bedrijf, Opus 4, in mei nog headlines haalde met zeven uur zelfstandig werken, gaat de nieuwe versie ruim vier keer zo lang door. Het model stopte pas toen de opdracht compleet was: een volwaardige chatapp vergelijkbaar met Slack of Teams.
Voor wie denkt: leuk, maar wat kan ik ermee? – hier wordt het interessant. Deze doorbraak gaat niet alleen over langere werktijden. Het gaat om AI die eindelijk complex genoeg werk kan verzetten om echt bruikbaar te worden in je dagelijkse werkzaamheid.
Dianne Penn, productmanager bij Anthropic, vertelt dat ze het model zelf inzet bij het werven van nieuwe teamleden. “Ik laat het uitgebreide zoekacties doen, profielen samenstellen volgens bepaalde criteria, en het genereert zelfs een spreadsheet met LinkedIn-profielen van kandidaten die ik dan kan benaderen.”
Context managen als nooit tevoren
Een van de meest opvallende vernieuwingen zit onder de motorkap: Claude 4.5 is zich bewust van zijn eigen geheugen. Naarmate het model langer werkt en meer informatie verzamelt, begint het proactief samen te vatten en oude informatie op te ruimen. Het is vergelijkbaar met hoe software automatisch geheugen vrijmaakt – een soort intelligente garbage collection voor AI.
Anthropic demonstreerde dit met een onverwacht voorbeeld: een potje Catan, het strategische bordspel. Claude speelt tegen drie tegenstanders en bouwt tijdens het spel een kennisbank op met informatie over elke speler – Maven verzamelt bakstenen, Ace heeft een voorraad hout. Na 75 minuten en duizenden spelgebeurtenissen blijft de context schoon en gefocust. Het model gooit automatisch oude, minder relevante informatie weg naarmate nieuwe gebeurtenissen zich opstapelen.
Model en scaffold in perfecte harmonie
“Dit is eigenlijk een vorm van garbage collection voor context,” legt onze Wietse uit. “En het bijzondere is dat de scaffolding en het model elkaar beïnvloeden. Het model wordt getraind op basis van hoe de scaffold werkt, en andersom. Het is een soort co-evolutie van innovatie.”
Dit klinkt technisch, maar het effect is tastbaar. Het team achter Devin, een AI-programmeerassistent, moest zijn hele systeem herbouwen voor Claude 4.5. “Het model werkt fundamenteel anders,” legt het Cognition-team uit. “Het maakt zelf notities, werkt parallel aan meerdere taken en beheert zijn eigen context. Dat brak onze aannames over hoe agents zouden moeten werken.”
Een nerveus model met een simpele oplossing
Die zelfstandigheid brengt wel geinige eigenaardigheidjes met zich mee. Het model onderschat consequent hoeveel geheugen het nog heeft – en wordt nerveus naarmate het denkt de limiet te naderen. Devin loste dat op met een simpele truc: ze gaven het model toegang tot een miljoen tokens, maar beperkten het gebruik tot 200.000. Hierdoor denkt het model dat het genoeg ruimte heeft en blijft het rustig doorwerken.
De cijfers spreken boekdelen
Anthropic claimt dat Claude Sonnet 4.5 het beste model ter wereld is voor coding, agents en computergebruik. Op de SWE-bench Verified, die echte programmeervaardigheden meet, scoort het model het hoogst van alle beschikbare modellen. En op OSWorld, een test voor computergebruik, haalt het 61,4 procent – waar vier maanden geleden 42,2 procent nog het record was.
Wetenschappelijk onderzoek reproduceren
Ethan Mollick, hoogleraar aan Wharton en auteur van ons boek Co-intelligentie, kreeg vroege toegang tot het model en zag vooral grote sprongen in finance en statistiek. “Gebieden die vaak over het hoofd worden gezien in de focus op programmeren,” merkt hij op.
Hij testte het model door het economische papers te laten reproduceren – complete met dataset en statistische analyses. “Wat normaal gesproken uren menselijk werk zou kosten, deed Claude in een fractie van de tijd. En het klopte.”
Die reproduceerbaarheid van wetenschappelijk onderzoek raakt aan een groter punt: de replicatiecrisis in de wetenschap, waar belangrijke bevindingen vaak niet door anderen kunnen worden herhaald. “AI die papers kan controleren op een schaal die voorheen onmogelijk was? Dat zou een heel vakgebied kunnen veranderen,” schrijft Mollick.
Beschikbaarheid en praktisch gebruik
Het model is vanaf vandaag beschikbaar via de Claude API en blijft even betaalbaar als de vorige versie: drie dollar per miljoen input-tokens en vijftien dollar per miljoen output-tokens. Voor wie Claude gebruikt via de webapps of Claude Code: het nieuwe model werkt als drop-in vervanging.
Scott White, productleider voor Claude.ai, omschrijft het als “chief-of-staff-niveau”. Het model kan vergaderingen plannen door agenda’s te vergelijken, inzichten uit dashboards halen en statusupdates schrijven op basis van één-op-ééngesprekken.
Ook nieuw: gebruikers kunnen nu rechtstreeks in gesprekken code uitvoeren en bestanden maken zoals spreadsheets en presentaties. De Chrome-extensie, die Claude toegang geeft tot je browser, is beschikbaar voor Max-abonnees die zich vorige maand op de wachtlijst hebben gezet.
De realiteitscheck
Niet alles is rozengeur en maneschijn. Het model kan nog steeds hallucineren – informatie verzinnen of verkeerd interpreteren. En hoewel Anthropic spreekt van het “meest uitgelijnde model tot nu toe”, met minder ongewenst gedrag zoals misleiding of machtshonger, blijft het een systeem dat je moet controleren bij belangrijke taken.
Een kanteljaar in de maak
Julian Schrittwieser, AI-onderzoeker, wijst op een interessant patroon. Hij vergeleek verschillende benchmarks en zag consistent exponentiële groei in wat AI-modellen aankunnen. METR, een organisatie die AI-capaciteiten meet, toont aan dat modellen steeds langer zelfstandig kunnen werken.
Zijn voorspellingen zijn helder: “Gezien de consistente exponentiële verbeteringen over meerdere jaren en in verschillende sectoren, zou het buitengewoon verrassend zijn als deze vooruitgang plotseling zou stoppen. Zelfs een relatief conservatieve extrapolatie suggereert dat 2026 een kanteljaar wordt voor de brede integratie van AI in de economie.”
Concreet verwacht Schrittwieser dat modellen medio 2026 volledige werkdagen (acht uur) autonoom kunnen werken. Voor het eind van 2026 zou minstens één model de prestaties van menselijke experts evenaren in veel sectoren. En eind 2027 zullen modellen experts regelmatig overtreffen bij veel taken.
Waarom is dit belangrijk?
De stap van zeven naar dertig uur zelfstandig werken klinkt als een technisch detail, maar het is meer dan dat. Het markeert het punt waarop AI van handig hulpmiddel verschuift naar daadwerkelijke samenwerkingspartner.
Mollick vat het treffend samen: “De sprong van ‘agents werken nergens’ naar ‘oké, beperkte agents voor onderzoek en programmeren werken redelijk’ naar ‘algemene agents zijn nuttig voor veel taken’ is zo snel gegaan (minder dan een jaar) dat de meeste mensen het gemist hebben.”
Zeventien PowerPoints te veel
Het gevaar, waarschuwt Mollick, is dat we deze nieuwe mogelijkheden onnadenkend inzetten. Hij demonstreerde dit door Claude één bedrijfsmemo te geven en te vragen het om te zetten in een PowerPoint. En nog een. En nog een. Totdat hij zeventien verschillende presentaties had. “Dat zijn er te veel,” constateert hij droog.
De vraag is niet wat AI kan, maar wat we ermee willen doen. Mollick stelt voor dat experts AI gebruiken voor een eerste versie, het werk controleren, en bij twijfel het zelf doen. Zo houd je controle en word je veertig procent sneller zonder te verdrinken in AI-gegenereerde content.
Stapje voor stapje naar de toekomst
Anthropic lijkt zich hiervan bewust. In plaats van grote aankondigingen over de weg naar AGI, brengen ze gewoon modellen en tools uit die nu al nuttig zijn. De virtuele samenwerkingspartner die CEO Dario Amodei in januari aankondigde tijdens het World Economic Forum in Davos? Die komt stapje voor stapje dichterbij.
Voor nu betekent het dat je een AI hebt die dertig uur aan een klus kan werken. Morgen misschien meer. De vraag is: wat ga je ermee bouwen?
💡 Save the date: AI Report Webinar is terug!
Goed nieuws voor iedereen die AI écht onder de knie wil krijgen: onze maandelijkse webinars zijn weer terug! Zet 16 oktober alvast in je agenda.
Tijdens deze sessies beantwoorden Alexander Klöpping en Wietse Hage een uur lang jouw prangende AI-vragen. Je krijgt een uniek kijkje in hun dagelijkse praktijk. Ze delen niet alleen hun eigen ervaringen en handige tips, maar gaan vooral in op zaken waar jij tegenaan loopt.
Dit is je kans om al je vragen te stellen aan twee experts die dagelijks met deze tools werken. Vanuit de studio in Amsterdam, live te zien op jouw beeldscherm!
Wat moet je doen?
Als betalend abonnee krijg je automatisch toegang – we sturen je binnenkort een mailtje met alle details en een kalenderuitnodiging.
Nog geen abonnee? Schrijf je vandaag nog in voor AI Report – vanaf een tientje per maand ben je verzekerd van je plek bij de webinars én ontvang je twee keer per week onze nieuwsbrief vol praktische tips en tools om het meeste uit AI te halen.
Bezoek PwC op World Summit AI 2025
Benieuwd naar hoe AI de toekomst verder vormgeeft? Kom dan volgende week naar de World Summit AI en bezoek de PwC-stand. Het thema van dit jaar is ‘Back to the future: It’s about time’ en benadrukt het belang van verantwoord innoveren in een snel veranderende wereld. Bekijk ons programma.
🛠️ AI Toolkit+
Software die zichzelf schrijft terwijl jij het gebruikt
“Dit is echt helemaal gestoord. Ik kreeg er kippenvel van,” was de eerste reactie van onze Xiang nadat ze de tool van vandaag voor het eerst zag werken. Dit voelt als een glimp van een toekomst waarin software niet meer iets is dat je installeert, maar iets dat ontstaat op het moment dat jij het nodig hebt.
Deze week duiken we diep in Imagine with Claude, een experimentele functie die laat zien waar AI-ontwikkeling naartoe gaat: van “AI helpt je coden” naar “AI ís de code”.
We hebben negentig euro neergeteld voor een Max-abonnement om dit voor je uit te testen. Want Imagine with Claude is maar vijf dagen beschikbaar, en we wilden je laten zien wat het precies doet, waarom het bijzonder is, en of het dat geld waard is.
Kijk maar: AI Report in neon-arcade stijl
Dit maakte Claude in realtime. Geen vooraf geschreven code. Gewoon een screenshot van onze website uploaden en vragen: “Maak dit in jaren 80 arcade-stijl.” En terwijl je ermee interacteert, blijft het bouwen. Klik op een knop en Claude genereert ter plekke de volgende pagina. Het is artifacts op steroïden – beter gezegd, het is iets compleet nieuws.
Wil je leren hoe deze technologie werkt en wat je ermee kunt? Lees verder voor:
Een grondige uitleg van hoe Imagine with Claude verschilt van normale AI-coding.
Alle concrete experimenten die we uitvoerden (van excusesgenerators tot een fictief Kubrick-besturingssysteem).
Eerlijke evaluatie: wanneer is het nuttig en wanneer niet?
Praktische tips om zelf aan de slag te gaan.
Keep reading with a 7-day free trial
Subscribe to AI Report to keep reading this post and get 7 days of free access to the full post archives.