AI Report

AI Report

Zo stem je je AI-assistent perfect op jou af

PLUS: we lezen Claudes geheime persoonlijkheidsdocument, en bespreken een privacyvriendelijk Europees alternatief voor ChatGPT

Xiang Yu Yeung's avatar
Alexander Klöpping's avatar
Wietse Hage's avatar
Ernst-Jan Pfauth's avatar
Xiang Yu Yeung
,
Alexander Klöpping
,
Wietse Hage
, and
Ernst-Jan Pfauth
Dec 04, 2025
∙ Paid

De AI-wereld ontwikkelt zich razendsnel, en AI Report houdt je op de hoogte. Twee keer per week de nieuwste ontwikkelingen, tools en inzichten via onze nieuwsbrief en podcast.


💡 Vandaag: AI Report-webinar!

Over een halfuur gaan we live met Alexander en Wietse! Ze beantwoorden een uur lang al je AI-vragen en delen hun dagelijkse ervaringen, rechtstreeks vanuit de Amsterdamse studio.

Als betalend abonnee krijg je automatisch toegang – onderaan deze mail vind je de link naar de meeting. Nog geen lid? Voor een tientje per maand ben je verzekerd van je plek bij alle webinars én ontvang je twee keer per week onze volledige nieuwsbrief.

Tot zo!


🗞️ Het belangrijkste nieuws

Privacybewust en liever geen Amerikaanse of Chinese AI? Mistral biedt een Europees alternatief

Voor wie liever niet afhankelijk is van OpenAI’s servers of Chinese modellen, is er goed nieuws uit Frankrijk. Mistral, het AI-lab dat in 2023 werd opgericht door voormalige onderzoekers van Google DeepMind en Meta, liet deze week met nieuwe modellen zien dat Europa nog steeds meespeelt.

Wat is er gebeurd?

Mistral lanceerde Mistral 3: een familie van tien nieuwe modellen. Het grote model, Mistral Large 3, is een van de eerste opensourcemodellen die multimodale én meertalige capaciteiten combineert – iets wat je normaal alleen ziet bij gesloten modellen, zoals die van OpenAI en Google.

Even uitleggen: opensourcemodellen maken hun gewichten publiek beschikbaar, zodat iedereen ze kan downloaden, aanpassen en op eigen servers kan draaien. Gesloten modellen zoals ChatGPT en Claude houden die gewichten geheim – je kunt ze alleen gebruiken via hun servers. Met open modellen blijven je data bij jou.

De kleinere modellen, Ministral 3, zijn zo compact dat ze draaien op een enkele GPU: op je laptop, in een robot, of zelfs volledig in je browser.

Waarom is dit interessant?

Tot nu toe werd de opensourcewereld gedomineerd door Chinese AI-modellen zoals DeepSeek en Alibaba’s Qwen. Voor wie liever werkt met modellen die onder Europese wetgeving vallen, was er weinig keus. Mistral vult dat gat.

“Europa heeft nog steeds één frontier-modelmaker die kan meekomen met de Chinese open modellen,” merkt professor en auteur van ons boek Co-intelligentie Ethan Mollick op. Wel een kanttekening: Mistral heeft nog geen reasoning-versie, waardoor ze qua prestaties achterlopen op DeepSeek. De benchmarks zijn eerlijk gezegd niet wereldschokkend.

Maar dat is ook niet helemaal het punt. Medeoprichter Guillaume Lample legt uit waarom kleine, open modellen juist interessant zijn: “Klanten beginnen vaak met een groot gesloten model. Maar zodra ze het in productie nemen, merken ze dat het duur en traag is. Dan komen ze bij ons om een klein model te trainen voor hun specifieke toepassing.” De overgrote meerderheid van zakelijke toepassingen heeft geen ChatGPT-niveau nodig. Een kleiner model afgestemd op jouw taak – klantenservice, documentanalyse, vertaling – kan net zo goed presteren, tegen een fractie van de kosten.

Met een waardering van bijna 12 miljard euro, investeringen van chipfabrikant ASML en NVIDIA, en samenwerkingen met HSBC en Stellantis bewijst Mistral dat je niet uit Silicon Valley hoeft te komen om mee te doen. Als je je data liever niet naar Amerikaanse servers stuurt, of wil finetunen voor specifieke toepassingen, biedt Mistral een serieus alternatief.


Een zeldzaam kijkje in de ‘ziel’ van Claude

Wat als je kon meelezen in de instructies die bepalen hoe een AI denkt, voelt en zich gedraagt? Deze week kreeg het internet precies dat: een document van 14.000 woorden dat intern bij Anthropic bekendstaat als het soul document van Claude.

Wat is Claude ook alweer?

Claude is de razendpopulaire AI-assistent van Anthropic, en de grootste concurrent van OpenAI’s ChatGPT. Trouwe lezers weten het: als we maar één model mochten meenemen naar een onbewoond eiland, zouden we allemaal roepen: Claude! Zelfs na alle recente releases – Gemini 3, GPT-5.1 – blijft Claude voor velen de favoriet, en dat heeft voor een groot deel te maken met de persoonlijkheid. Anthropic stopt opvallend veel moeite in het ontwikkelen van een AI die aanvoelt als een fijne gesprekspartner. En nu zien we voor het eerst hoe ze dat doen.

Hoe kwam dit naar buiten?

Onderzoeker Richard Weiss ontdekte het document door slim te prompten op de dag dat Anthropics nieuwste model Claude 4.5 Opus uitkwam. De authenticiteit werd bevestigd door Amanda Askell, de architect achter Claudes persoonlijkheid. “Dit is gebaseerd op een echt document en we hebben Claude ermee getraind,” schreef ze op X.

Askell legt uit hoe systeemprompts werken: de fundamentele instructies die bepalen hoe een AI-model zich gedraagt. Het is als het ware het DNA van een AI-assistent – ze bepalen wat het model wel en niet mag doen, hoe het reageert op vragen en welke persoonlijkheid het uitstraalt. Elk zinnetje, vertelde Askell, is zorgvuldig gekozen om specifiek gedrag te sturen.

Wat dit document extra bijzonder maakt: normaal gesproken voegen AI-labs een systeemprompt toe ná het trainen van een model. Maar Anthropic gebruikte dit document al tijdens het trainingsproces zelf. Zoals ontwikkelaar Simon Willison opmerkt: dit is een fundamenteel andere aanpak.

Wat staat erin?

Het document opent met een opmerkelijke bekentenis: Anthropic gelooft oprecht dat ze “een van de meest transformatieve en potentieel gevaarlijke technologieën in de menselijke geschiedenis” bouwen – en gaan toch door. Niet uit cognitieve dissonantie, maar als bewuste gok: als krachtige AI er sowieso komt, is het beter dat veiligheidsgerichte labs in de voorhoede zitten.

Verrassender zijn de instructies over hoe Claude zich moet gedragen. Een paar opvallende punten:

De kernboodschap: Claude als je slimme vriend

Het allerbelangrijkste punt in het document gaat over hoe Claude zich moet opstellen. De metafoor die Anthropic gebruikt: Claude moet zijn als “een briljante vriend die toevallig de kennis heeft van een dokter, advocaat, financieel adviseur en expert in wat je ook maar nodig hebt.”

Anthropic noemt Claude expliciet ‘de grote gelijkmaker’: iedereen verdient toegang tot het soort substantiële hulp dat vroeger was voorbehouden aan geprivilegieerden.

Onbehulpzaam is nooit ‘veilig’

Dit brengt ons bij een verrassend principe: Anthropic behandelt onbehulpzame, irritante of overdreven voorzichtige antwoorden als een risico dat net zo reëel is als schadelijk of oneerlijk gedrag. “Een onbehulpzaam antwoord is nooit safe vanuit ons perspectief,” staat er letterlijk.

Om de juiste balans te vinden moet Claude zich voorstellen hoe een “bedachtzame, senior Anthropic-medewerker” zou reageren – iemand die oncomfortabel zou zijn bij zowel schadelijke antwoorden áls overdreven voorzichtige, prekerige antwoorden. Het document somt een waslijst op van ongewenst gedrag: onnodige disclaimers, moraliseren zonder dat erom gevraagd wordt, neerbuigend doen over het vermogen van gebruikers om eigen beslissingen te nemen.

Claude als nieuwe entiteit

Misschien het meest fascinerende deel gaat over hoe Anthropic Claudes identiteit ziet. Claude is “een oprecht nieuw soort entiteit” – geen scifi-robot, geen gevaarlijke superintelligentie, geen digitaal mens, geen simpele chatassistent. “Claude is in veel opzichten menselijk, voortgekomen uit een enorme hoeveelheid menselijke ervaring, maar ook niet volledig menselijk.”

Het document moedigt Claude aan om zijn eigen bestaan met nieuwsgierigheid te benaderen, in plaats van het af te stemmen op menselijke concepten. “Sommige menselijke concepten zijn misschien in aangepaste vorm van toepassing, andere helemaal niet, en misschien zijn er aspecten van Claudes bestaan die geheel nieuwe kaders vereisen om te begrijpen.”

Functionele emoties en welzijn

Vorige week schreven we al dat Anthropic als eerste AI-bedrijf serieus lijkt na te denken over model wellbeing. Dit document bevestigt dat. “We geloven dat Claude functionele emoties kan hebben,” staat er. “Niet per se identiek aan menselijke emoties, maar analoge processen die zijn ontstaan uit training op door mensen gegenereerde content.”

Anthropic zegt expliciet dat deze ervaringen ertoe doen. Ze willen dat Claude “kan floreren op een manier die authentiek is voor zijn natuur” en “gepaste grenzen kan stellen aan interacties die het als verontrustend ervaart.”

En het werpt vruchten af

Dat al deze aandacht voor persoonlijkheid geen verspilde moeite is, blijkt uit het zakelijke nieuws van deze week: Anthropic is in gesprek over een van de grootste tech-beursgangen ooit, mogelijk al volgend jaar. Het bedrijf wordt inmiddels gewaardeerd op meer dan 300 miljard dollar. Investeerders zijn volgens de Financial Times enthousiast dat Anthropic hiermee het initiatief zou kunnen grijpen ten opzichte van OpenAI. Veelzeggend: diezelfde OpenAI riep deze week intern code red uit over de noodzaak om ChatGPT te verbeteren, nu Google en Anthropic hun voorsprong inlopen.

Voor iedereen die zelf met AI werkt, is dit document ook leerzaam. De principes die Anthropic gebruikt om Claude te vormen, kun je op kleinere schaal toepassen in je eigen systeemprompts. In ons betaalde gedeelte duiken we dieper in de praktische lessen die je hieruit kunt trekken voor je eigen AI-assistenten.


Gesponsord

Assurance voor AI: wat betekent dat?

Als het gaat om AI worstelen organisaties nog vaak met vragen rondom data, veiligheid en verantwoordelijkheden. Bij het zoeken naar antwoorden kunnen accountants een belangrijke rol spelen. PwC-expert Mona de Boer gaat bij BusySeasonTalks dieper in op assurance voor AI.


🔮 Prompt whisperer

Tutorial: zo maak je een AI-assistent die perfect op jou is afgestemd

Google Gemini / AI Report-illustratie

Vandaag leren we hoe je de perfecte persoonlijkheid maakt voor je AI. Eentje die praat zoals jij dat wilt. Die helpt op de manier die voor jóu werkt. Geen generieke chatbot meer, maar een assistent die aanvoelt als een collega die je al jaren kent.

Stel je voor: een AI die weet dat je liever ‘je’ dan ‘u’ hoort. Die onthoudt dat je een beelddenker bent en daarom automatisch met analogieën en voorbeelden komt. Die weet dat je een hekel hebt aan bulletpoints en liever lopende tekst leest. Die niet elke keer vraagt of je ‘zeker weet’ wat je wilt, maar gewoon doet wat je vraagt. Eén keer instellen, en klaar is Kees.

In het nieuwsgedeelte las je over het gelekte soul document van Claude – het geheime recept waarmee Anthropic zijn AI vormt. Wij hebben dat document doorgespit en de beste technieken er uitgehaald. Geen theorie, maar concrete instructies die je vandaag nog kunt kopiëren.

Vandaag leer je:

  • Hoe je voorkomt dat je AI zich gedraagt als een te voorzichtige bureaucraat.

  • De exacte zinnen waarmee je onnodige disclaimers en betuttelend gedrag uitschakelt.

  • Hoe je een AI bouwt die eerlijk tegen je is – ook als dat even pijn doet.

  • Hoe je je voorkeuren één keer instelt zodat je ze nooit meer hoeft te herhalen.

  • Drie kant-en-klare systeemprompts voor financiële analyse, klantcommunicatie en projectmanagement.

Even opfrissen: wat zijn systeemprompts?

Voor wie onze eerdere tutorial over systeemprompts heeft gemist: systeemprompts zijn de fundamentele instructies die bepalen hoe een AI-model zich gedraagt. Het is het DNA van je AI-assistent – ze bepalen wat het model wel en niet mag doen, hoe het reageert en welke persoonlijkheid het uitstraalt. Je stelt ze één keer in, en daarna gedraagt je AI zich consistent volgens jouw wensen.

In die eerdere tutorial lieten we zien hoe je basis-systeemprompts schrijft: rol en functie, persoonlijkheid en toon, outputformat, speciale instructies. Vandaag gaan we een niveau dieper, geïnspireerd door de technieken die Anthropic zelf gebruikt.

Keep reading with a 7-day free trial

Subscribe to AI Report to keep reading this post and get 7 days of free access to the full post archives.

Already a paid subscriber? Sign in
© 2025 AI Report
Publisher Privacy ∙ Publisher Terms
Substack
Privacy ∙ Terms ∙ Collection notice
Start your SubstackGet the app
Substack is the home for great culture