AI Report

AI Report

Share this post

AI Report
AI Report
OpenAI opent de deur naar privacyvriendelijke AI

OpenAI opent de deur naar privacyvriendelijke AI

PLUS: Nieuw world model van Google wijst de weg naar AGI en een prompttechniek voor meer efficiëntie en nauwkeurigheid.

Xiang Yu Yeung's avatar
Alexander Klöpping's avatar
Wietse Hage's avatar
Ernst-Jan Pfauth's avatar
+1
Xiang Yu Yeung
,
Alexander Klöpping
,
Wietse Hage
, and 2 others
Aug 07, 2025
∙ Paid
6

Share this post

AI Report
AI Report
OpenAI opent de deur naar privacyvriendelijke AI
1
Share

De AI-wereld ontwikkelt zich razendsnel, en AI Report houdt je op de hoogte. Twee keer per week de nieuwste ontwikkelingen, tools en inzichten via onze nieuwsbrief en podcast.


🗞️ Het belangrijkste nieuws

OpenAI lanceert krachtige open modellen

Wil je net als onze Wietse graag persoonlijke gesprekken voeren met je chatbot maar durf je niet zo goed omdat je niet weet wat er met je data gebeurt? Of mag je om die reden op kantoor niet met ChatGPT werken? Dan is er goed nieuws. De nieuwste open modellen van OpenAI kun je op je eigen computer of lokale server draaien.

Wat is er aan de hand?

Terwijl de spanning richting de lancering van GPT-5 oploopt (vanavond om 19u Nederlandse tijd live te volgen) lost OpenAI alvast een andere belofte in. Voor het eerst sinds de release van GPT-2, alweer 6 jaar geleden, hebben ze namelijk twee openlijk beschikbare taalmodellen uitgebracht, gpt-oss-120b en gpt-oss-20b.

De modellen zijn vrij te gebruiken onder de gerenommeerde Apache 2.0 licentie. Het grotere 120b model vereist een zeer krachtige computer (zoals een stevige Mac Studio) om goed te functioneren, maar het kleinere 20b model kan draaien op een middensegment laptop met 16 GB geheugen.

Hoe werkt het?

Er zijn twee manieren om te werken met de open modellen. Ten eerste kun je gebruikmaken van platforms die speciaal zijn ingericht om met open source modellen te werken, zoals Together AI of GroqCloud. Handig als je snel de vibes van de nieuwe modellen wil checken, maar het meest interessant is natuurlijk om de modellen ook echt te downloaden en lokaal te draaien. Hoe je dat kunt doen (via LM Studio) wordt uitgelegd in deze video van bekende AI-influencer Matt Wolfe.

Een van de voordelen van open modellen is dat je als gebruiker veel meer invloed hebt op de manier waarop het model reageert. Zo kun je handmatig instellen wat de gewenste grootte is van de context window en de temperature (die de creativiteit van het taalmodel beïnvloedt) en kun je aangeven welke mate van redeneren het model moet toepassen.

Beter dan verwacht

De benchmarks laten zien dat de prestaties van het grote model zijn vergelijkbaar met o4-mini, terwijl het kleinere model ongeveer zo krachtig is als 03-mini. Volgens Matt Wolfe is dit meer dan de meeste mensen hadden verwacht.

Ook professor Ethan Mollick testte de modellen uit en kwam tot de conclusie dat ze “aanvoelen als hun benchmark-scores’. Goed dus. Hij benadrukt wel dat de modellen niet immuun zijn voor hallucinaties, een probleem dat vaker optreedt bij relatief kleine modellen zoals deze. Ook hebben de modellen vooralsnog geen toegang tot internet.

Wolfe verwacht bovendien dat de modellen nog beter worden, omdat iedereen ze zelf kan aanpassen en optimaliseren. Dit zagen we in het verleden ook toen aanbieders als Perplexity zelf gingen sleutelen aan DeepSeek om de politieke censuur eruit te halen.

Hoe zit het met de risico’s?

The Guardian waarschuwt dat open modellen, omdat ze door gebruikers kunnen worden aangepast, een groter risico vormen voor misbruik, bijvoorbeeld voor het ontwikkelen van biologische wapens. Dit is één van de redenen geweest dat OpenAI lange tijd geen open modellen heeft uitgebracht. Maar sinds de concurrentie, met name vanuit China, steeds vaker kiest voor open modellen, voelde OpenAI zich genoodzaakt haar koers te wijzigen. Dit werd afgelopen winter al duidelijk, toen Altman na de schokkende release van DeepSeek aangaf dat OpenAI met haar gesloten modellen “aan de verkeerde kant van de geschiedenis” stond.

Het feit dat OpenAI pas een half jaar na deze uitspraak komt met twee open modellen toont aan dat ze niet over één nacht ijs zijn gegaan. Om de risico’s af te dekken zijn geavanceerde veiligheidsmaatregelen ontwikkeld, waaronder filtering van gevaarlijke data tijdens pre-training en technieken om het model te leren onveilige prompts te weigeren. Uit interne en externe tests bleek dat deze aangepaste modellen, volgens OpenAI’s eigen veiligheidskader, geen hoge risiconiveaus bereikten. Daarnaast is een Red Teaming Challenge gelanceerd met $500.000 aan prijzengeld om nieuwe kwetsbaarheden op te sporen. In een tweet na de lancering gaf Altman aan dat hij denkt dat de modellen “veel meer goeds dan kwaads” zullen brengen. De toekomst zal uitwijzen of hij gelijk krijgt.

Waarom is dit belangrijk?

Hoewel de meest krachtige taalmodellen van OpenAI nog steeds achter een betaalmuur zitten, kun je nu gratis gebruik maken van modellen die voor de gemiddelde gebruiker prima functioneren. Bovendien blijft je data op je eigen laptop of lokale server.

Met de introductie van deze krachtige open modellen kan geen werkgever in Nederland meer volhouden dat je uit privacy-overwegingen alleen Copilot mag gebruiken. Zoals softwareontwikkelaar Amar Sood zegt op X: “ik twijfel bij mensen die zeggen ‘dit verandert alles’, maar… this kinda does”.


Google’s Genie 3: Simulatie als sleutel tot AGI

Het voelt cliché om hier het zoveelste world model te gaan presenteren, en dat terwijl het nog niet eens beschikbaar is voor het grote publiek. Maar achter Genie 3 schuilt iets veel groters: een methode om AI te trainen alsof het leeft in de echte wereld – volgens Google een cruciale stap richting AGI.

Wat is er aan de hand?

De demo van Google’s nieuwe world model Genie 3 deed deze week de tech-wereld versteld staan. Niemand had verwacht dat deze technologie zich zo snel zou ontwikkelen. Vorige maand schreven we al over de indrukwekkende nieuwe game engine Mirage, ook draaiend op een world model. Maar dit valt qua visuals, snelheid en consistentie in het niet bij wat Genie 3 laat zien.

Bovendien profileert Google haar nieuwe speeltje veel breder dan alleen een game engine. Zo zien ze toepassingsmogelijkheden in onderwijs en de wetenschap. Maar de meeste aandacht is toch voor de gedachte dat world models zoals Genie 3 een cruciale stap zouden zijn richting AGI (kunstmatige algemene intelligentie, oftewel het punt waarop computers net zo slim zijn als wij). Het idee is dat AGI pas bereikt kan worden als een AI agent de wereld om ons heen kan ‘begrijpen’ en erdoorheen kan navigeren. En daarvoor moet de agent oefenen. Heel veel oefenen.

Deze agents trainen in de echte wereld is veel te duur – en eerlijk gezegd nogal gevaarlijk. Maar in een gesimuleerde wereld kan een AI agent eindeloos oefenen tegen lage kosten. Modellen als Genie 3 scheppen deze oefen-wereld. Zoals Google het zelf samenvat: “World models maken het mogelijk om AI agents te trainen in een ongelimiteerd curriculum van rijke gesimuleerde omgevingen”.

Hoe werkt het?

In essentie werkt Genie 3 hetzelfde als de eerdere world models die we gezien hebben. Je begint met een prompt, bijvoorbeeld: “lopen langs een gletsjermeer omgeven door besneeuwde bergtoppen”. Binnen enkele seconden wordt de gewenste situatie gegenereerd, waarna je om je heen kunt kijken en je door deze virtuele wereld heen kunt bewegen. Vervolgens kun je met aanvullende prompts nieuwe ontwikkelingen toevoegen.

Genie 3 werkt niet met een vooraf opgebouwd 3D-model; de frames worden op het moment zelf gegenereerd. Elk volgend frame bouwt voort op het vorige frame volgens een algoritme dat is ontstaan uit training van miljoenen uren videomateriaal. Hierdoor ontvouwt de wereld zich voor de gebruiker op een natuurgetrouwe manier. De onderzoekers noemen dit ‘emergent consistency’, consistentie die niet van te voren is geprogrammeerd maar ter plekke ontstaat dankzij training. Zoals een goed op elkaar ingespeeld jazztrio minutenlang kan improviseren zonder dat de muziek ontspoort.

Indrukwekkend

De grote doorbraak van Genie 3 is niet de achterliggende technologie, die werd bijvoorbeeld ook bij Mirage gebruikt. Het is vooral de combinatie van realistische beelden, natuurlijke flow, soepele navigatie en consistentie die indruk maakt. Tech-journalist Tim Scarfe, die de onderzoekers achter Genie 3 mocht interviewen voor de release, sprak over “de meest indrukwekkende technologie die ik ooit heb gezien”. Ook de bekende YouTube AI-influencer Mathew Berman was onder de indruk: “dit ziet er allemaal zo ontzettend echt uit, en zo indrukwekkend".

Ondanks de positieve ontvangst kent het nieuwe model nog vele beperkingen. Zo kan nog geen tekst worden weergegeven in de simulaties, is het nog niet mogelijk om interacties aan te gaan met andere agents en valt de consistentie na enkele minuten uit elkaar.

Waarom is dit belangrijk?

Liefhebbers van video-games zullen uitkijken naar de nieuwe mogelijkheden die world models bieden om de game-ervaring te verrijken. Scholieren zullen mogelijk een deel van de tijd in het klaslokaal inruilen voor tijd in een op maat gegenereerde leeromgeving. En voor bedrijven biedt deze technologie de kans om nieuwe producten goedkoop en snel te testen voordat ze in de echte wereld worden gelanceerd.

Maar als het aan Google ligt, gaat de ontwikkeling van world models vooral de geschiedenis in als een cruciale volgende stap richting AGI. Tot nu toe bereikten we grote AI-doorbraken, van AlphaGo tot ChatGPT, door massieve training. Deze world models scheppen de ideale omgeving om AI agents te trainen die dadelijk op alle denkbare gebieden de mens voorbij streven.


⚡ AI Pulse

Anthropic geeft haar grootste model een update. Terwijl alle ogen deze week op OpenAI en Google zijn gericht, dropt Anthropic stilletjes haar beste model tot nu toe: Claude Opus 4.1. Deze update, direct beschikbaar voor alle betalende gebruikers, kan nu beter redeneren, zelfstandig werken en programmeren. GitHub meldt een betere performance bij verbeteren of herschrijven van code die over meerdere bestanden is verspreid, terwijl Rakuten Group enthousiast is over het oplossen van fouten in code (debugging). In het persbericht zit ook een interessante teaser verstopt: Anthropic geeft aan de komende weken grotere verbeteringen in hun modellen door te voeren.

Zuckerberg zet zich in voor ‘persoonlijke super-intelligentie’. In een manifest van slechts 600 woorden schetst de CEO van Meta, het bedrijf achter Facebook en Instagram, twee routes voor AI. Super-intelligentie wordt óf een tool voor persoonlijke ontwikkeling, óf een kracht die ons vervangt. Meta kiest (natuurlijk) voor optie één. Volgens ‘Zuck’ moet AI je daarvoor diepgaand leren kennen en je doelen begrijpen. Dat klinkt mooi, maar wel afkomstig van het bedrijf dat ons eerder ‘diepgaand’ leerde kennen om ons vervolgens uren per dag te laten scrollen door hun product.

ElevenLabs stort zich op muziek. Het AI-lab uit New York, dat tot nu toe vooral bekend was van hun voice cloning technologie, duikt met de lancering van Eleven Music in de wereld van AI-gegenereerde muziek. Ontwikkeld in samenwerking met artiesten, labels en uitgevers om gedoe rond copyright te voorkomen. Onze Maarten testte het uit en hoorde meteen: Suno en Udio hebben er een serieuze concurrent bij. Maar tot zijn teleurstelling lukt het ook Eleven Labs (net als de rest) niet om een fatsoenlijke hardstyle-track te genereren. Vermoedelijk is zijn favoriete genre te marginaal in de Amerikaans getinte trainingsdata.

‘Ik ben geen robot’ – aldus ChatGPT Agent. De nieuwe ChatGPT Agent, waar we twee weken terug over schreven, aarzelt niet om undercover te gaan als ze op missie wordt gestuurd. Een Reddit-gebruiker zag vorige week hoe diens Agent het ‘Ik ben geen robot’-vinkje aanklikte, om vervolgens onverstoord haar taak te completeren. Veelzeggend commentaar van de Agent zelf: “Deze stap is noodzakelijk om te laten zien dat ik geen bot ben en door kan gaan met mijn taak.”


Gesponsord

AI: de sleutel tot een lang leven voor bedrijven

AI heeft de potentie om de wereldwijde CO2-voetafdruk jaarlijks met gigatonnen CO2 te verminderen. Daarnaast kunnen bedrijven door het gebruik van data en AI om emissies te verminderen miljarden dollars per jaar besparen. Dat blijkt uit nieuw onderzoek van PwC.


🔮 Prompt whisperer

Denk sneller, schrijf minder: zo laat je AI efficiënter redeneren

Je kent het vast: je stelt ChatGPT een vraag en krijgt een complete verhandeling terug waar eigenlijk maar één zin relevant is. Die langdradige antwoorden kosten niet alleen tijd, maar ook geld. Zelfs als je geen developer bent die met API’s werkt, tikt het aan: providers zoals Anthropic, die Claude aanbiedt, baseren je verbruikslimiet op het aantal tokens dat je gebruikt. Elke overbodige zin in je gesprek brengt je dichter bij je dagelijkse limiet.

Maar er is meer aan de hand. Onderzoek toont aan dat AI-modellen minder nauwkeurig worden naarmate gesprekken langer worden. Net als mensen raken ze overweldigd door te veel informatie. Het attentiemechanisme van AI focust vooral op het begin en einde van lange teksten, waardoor belangrijke details in het midden verloren gaan. Kortom: beknoptheid is niet alleen efficiënter, maar levert ook betere resultaten op.

Enter Chain of Draft (CoD), een promptingtechniek die je AI leert denken als een mens die snel aantekeningen maakt. Geen ellenlange uitweidingen meer, maar kernachtige denkstappen die direct tot de essentie komen. Het resultaat? Tot 92% minder tokens, snellere antwoorden én behoud van nauwkeurigheid. Te mooi om waar te zijn? Laten we eens kijken hoe dit werkt.

Waarom is dit belangrijk?

Voor ondernemers met een AI-tool die dagelijks duizenden vragen beantwoordt, kan het verschil tussen 200 tokens en 15 tokens per vraag betekenen dat je maandelijkse kosten dalen van € 500 naar € 40. Voor gewone gebruikers betekent het dat je dagelijkse Claude- of ChatGPT-limiet veel verder reikt. In plaats van je limiet te bereiken na 20 uitgebreide vragen, kun je er misschien wel 100 stellen.

In realtimetoepassingen – denk aan klantenservice-chatbots of educatieve tools – maakt snelheid het verschil tussen een tevreden gebruiker en iemand die gefrustreerd afhaakt. Chain of Draft vermindert de responstijd met gemiddeld 48-76%, afhankelijk van het gebruikte model.

Keep reading with a 7-day free trial

Subscribe to AI Report to keep reading this post and get 7 days of free access to the full post archives.

Already a paid subscriber? Sign in
© 2025 AI Report
Publisher Privacy ∙ Publisher Terms
Substack
Privacy ∙ Terms ∙ Collection notice
Start writingGet the app
Substack is the home for great culture

Share