Waarom de slimste AI alles twee keer leest
OpenAI beschuldigt DeepSeek van diefstal, ChatGPT verovert Washington, en de verbluffend simpele prompt-hack die je resultaten direct verbetert
De AI-wereld ontwikkelt zich razendsnel, en wij, de makers van de podcast Poki, houden je op de hoogte. Twee keer per week de nieuwste AI-ontwikkelingen, tools, use cases en onderzoek.
🗞️ Het belangrijkste nieuws
OpenAI brengt ChatGPT naar Washington
OpenAI lanceerde deze week ChatGPT Gov, een extra beveiligde variant van hun AI-assistent speciaal voor overheidsinstanties. Met deze zet haalt het bedrijf in één klap zijn grootste klant binnen: de hele Amerikaanse overheid.
Wat is er nieuw?
De overheidseditie van ChatGPT draait in de eigen beveiligde cloudomgeving van instanties. ‘Dit stelt ze in staat hun eigen beveiligings-, privacy- en nalevingseisen te beheren,’ legt Felipe Millon uit, hoofd Federale Verkoop bij OpenAI. Anders dan de reguliere versie kan ChatGPT Gov omgaan met gevoelige overheidsinformatie.
En dat blijkt hard nodig: ambtenaren gebruiken ChatGPT nu al volop. Sinds begin dit jaar verstuurden meer dan 90.000 Amerikaanse ambtenaren ruim 18 miljoen berichten. Ze zetten de AI-assistent in voor alles: van het vertalen van documenten tot het schrijven van beleidsnota’s.
De praktijk
De eerste resultaten zijn positief. Het onderzoekslaboratorium van de luchtmacht gebruikt ChatGPT voor zijn administratie, Los Alamos zet het in voor wetenschappelijk onderzoek en de vertaaldienst van Minnesota bespaart flink op vertaalkosten. In Pennsylvania zijn ambtenaren zelfs gemiddeld 105 minuten productiever op de dagen dat ze ChatGPT gebruiken.
Zorgen over privacy
Niet iedereen is enthousiast. Op sociale media maken mensen zich zorgen over de privacy. ‘Het is zorgwekkend dat officiële overheidsdata aan AI worden gegeven zonder expliciete toestemming van betrokkenen,’ schrijft een bezorgde X-gebruiker.
OpenAI’s productbaas Kevin Weil benadrukt dat de gegevens binnen de beveiligde overheidsomgeving blijven. Maar de zorgen zijn niet ongegrond: eerder AI-gebruik door de politie leidde al tot onterechte arrestaties, en in Californië wezen kiezers een plan af om het borgsysteem te vervangen door een AI-algoritme.
Politieke draai
Opvallend is ook OpenAI’s toenadering tot de nieuwe regering. Weil was aanwezig bij de inauguratie en ‘bracht veel tijd door met mensen uit de nieuwe regering’. Het doel? ‘Ervoor zorgen dat Amerika wint op het gebied van AI.’
Ook OpenAI-topman Sam Altman zoekt nadrukkelijk toenadering tot president Trump. Op X schrijft hij dat hij ‘Trump de laatste tijd aandachtiger heeft gevolgd’ en dat zijn perspectief is veranderd. ‘Hij zal in veel opzichten geweldig zijn voor dit land,’ aldus Altman.
Dit valt niet overal goed. Amerikaanse senatoren waarschuwden Altman al per brief dat zijn toenadering tot Trump gezien wordt als een poging om regulering te ontwijken.
Race om de toekomst
De timing is geen toeval. ‘Het is een zeer competitieve industrie, en dit laat zien dat die competitie wereldwijd is,’ vertelt Weil aan verslaggevers. ‘We zijn vastbesloten om snel te blijven bewegen. We willen voorop blijven lopen.’
Deze ontwikkeling past in een breder patroon: techbedrijven die zich zorgen maken over Chinese concurrentie zoeken steun in Washington. De vraag is of deze strategie werkt. Samenwerking met de overheid geeft toegang tot een enorme hoeveelheid middelen en data, maar roept ook vragen op over privacy en de rol van AI in gevoelige overheidstaken.
Eén ding is duidelijk: de AI-race wordt steeds meer een geopolitieke aangelegenheid.
DeepSeek-saga krijgt een staartje: OpenAI beschuldigt Chinese concurrent van diefstal
Dinsdag schreven we over hoe DeepSeek Silicon Valley op zijn grondvesten deed schudden. Vandaag krijgt dat verhaal een opmerkelijk vervolg: OpenAI beschuldigt de Chinese nieuwkomer ervan hun technologie te hebben ‘gestolen’. Maar is er meer aan de hand dan alleen gekrenkte trots?
Het bewijs?
OpenAI zegt aanwijzingen te hebben dat DeepSeek hun modellen heeft gebruikt voor het trainen van R1. Volgens Bloomberg onderzoekt Microsoft, OpenAI’s grootste aandeelhouder, of DeepSeek in het najaar van 2024 grote hoeveelheden data heeft onttrokken aan OpenAI’s API.
De beschuldiging draait om een techniek die ‘distillatie’ heet. In essentie gebruik je daarbij een groot model (de leraar) om een kleiner model (de leerling) te trainen. Je stelt het grote model vragen en gebruikt de antwoorden om het kleinere model te verbeteren. ‘Het is alsof het leerlingmodel de leraar miljoenen vragen stelt en zo het redeneerproces overneemt,’ legt David Sacks, AI czar van het Witte Huis, uit op Fox News.
De ironie ontgaat niemand
Het internet reageerde prompt op de beschuldiging – en niet bepaald subtiel. ‘Ik kan niet ophouden met lachen,’ schrijft techjournalist Ed Zitron. ‘OpenAI, het bedrijf dat letterlijk het hele internet heeft gestolen, huilt nu omdat DeepSeek mogelijk heeft getraind op ChatGPT-output. Een stelletje hypocriete baby’s.’
Deze reactie staat niet op zichzelf. OpenAI ligt zelf onder vuur vanwege mogelijke auteursrechtschending. The New York Times heeft een rechtszaak aangespannen omdat het bedrijf zou hebben getraind op hun artikelen. Techblog 404 Media kopt dan ook ironisch: ‘OpenAI woedend omdat DeepSeek alle data heeft gestolen die OpenAI van ons stal’.
Distillatie: normaler dan je denkt
OpenAI is overigens nog niet met hard bewijs gekomen voor hun beschuldigingen. Ook David Sacks, die het op Fox News had over ‘substantieel bewijs’, heeft dat bewijs niet getoond.
Maar er is meer aan de hand dan alleen gesteggel over data. Distillatie is een gevestigde praktijk in AI-onderzoek. Het meest geciteerde paper over deze techniek komt van Geoffrey Hinton – die onlangs nog de Nobelprijs kreeg. IBM noemt het zelfs ‘een belangrijk hulpmiddel in de democratisering van AI’.
Labs kunnen op verschillende manieren aan de benodigde data komen. De directste route is via API’s: je stuurt vragen naar het model en verzamelt de antwoorden. Hoewel dit tegen de gebruiksvoorwaarden ingaat, is het technisch mogelijk – zelfs als een bedrijf probeert het te voorkomen met snelheidslimieten of IP-blokkades. Het enige wat een bedrijf als OpenAI echt kan doen om dit te voorkomen, is de toegang volledig afsluiten.
‘Het is heel gebruikelijk dat start-ups en academici output van commerciële modellen zoals ChatGPT gebruiken,’ legt Ritwik Gupta uit, AI-onderzoeker aan Berkeley. ‘Je krijgt zo de menselijke feedbackstap gratis. Het verbaast me niet dat DeepSeek dit mogelijk ook heeft gedaan.’
Voortbouwen op elkaars werk is de norm in de wetenschap. OpenAI’s werk bouwt voort op onderzoek van Google, dat weer voortbouwt op academisch werk. Zoals een insider opmerkt: ‘Dit is gewoon hoe wetenschappelijk onderzoek werkt.’
De echte discussie: wie betaalt voor vooruitgang?
Toch zit er een kern van waarheid in OpenAI’s frustratie. In een besloten bijeenkomst over de impact van DeepSeek in China, waarvan techblog ChinaTalk verslag deed, erkenden Chinese AI-experts een belangrijk principe: ‘AI-vooruitgang lijkt op een stapfunctie – volgers hebben maar een tiende van de rekenkracht nodig.’
De eerste zijn kost namelijk veel meer dan volgen. ‘Tijdens de verkenningsfase zijn de kosten van trial-and-error hoog,’ legde een aanwezige uit. ‘Maar hoewel de weg van o1 naar R1 niet makkelijk is, kunnen we tenminste zien hoe de finish eruitziet.’
Met andere woorden: OpenAI heeft als pionier enorme investeringen gedaan in het uitvinden van redeneermodellen. Nu anderen dat principe kunnen kopiëren, zijn hun kosten veel lager. Zoals Andrej Karpathy al zei: je hebt nog steeds een flinke rekenkracht nodig voor frontier modellen, maar er valt veel winst te behalen in efficiëntie.
Wat betekent dit?
Deze ontwikkeling roept fundamentele vragen op over innovatie in het AI-tijdperk. Wie draagt de kosten van grensverleggend onderzoek? Hoe bescherm je intellectueel eigendom in een wereld waarin kennis zo makkelijk te ‘distilleren’ is?
De waarheid ligt – zoals zo vaak – in het midden. Ja, OpenAI’s beschuldiging ‘Ze stelen onze AI!’ is wellicht wat dramatisch en hypocriet. Maar om het bedrijf weg te zetten als een stel geldverslindende oplichters gaat ook te ver. Ze hebben effectief de hele rekening betaald voor frontier onderzoek waar anderen nu van profiteren.
Toch is dit geen slecht nieuws voor de toekomst van AI. Sterker nog: consumenten en bedrijven kunnen zich verheugen op een toekomst met steeds toegankelijkere AI-producten. Want zoals econoom William Jevons al in 1865 observeerde: als iets efficiënter wordt, neemt het gebruik vaak explosief toe. DeepSeek heeft misschien niet netjes op de voordeur geklopt, maar heeft wel de weg vrijgemaakt voor democratischere AI.
Kortom: de echte winnaar in deze saga? Dat zijn wij allemaal.
⚡ AI Pulse
ASML-topman omarmt komst goedkope AI uit China. De beurskoers kelderde even, maar ASML’s nieuwe topman Christophe Fouquet ziet de komst van DeepSeeks zuinige AI-model juist als goed nieuws. ‘Alles wat de kosten van AI naar beneden kan brengen, is positief,’ zegt hij na het bekendmaken van recordcijfers. De chipmachinefabrikant zag de orderportefeuille met 169 procent groeien naar 7,09 miljard euro, ruim boven verwachting.
Alibaba haast zich met antwoord op DeepSeek. Op de eerste dag van het Chinese Nieuwjaar, als het hele land vrij is, komt Alibaba met een opmerkelijke aankondiging: hun nieuwe AI-model Qwen 2.5 zou beter presteren dan zowel DeepSeek V3 als GPT-4o. De ongewone timing laat zien hoeveel druk DeepSeeks succes zet op de Chinese concurrentie.
Franse AI eet koeien-eieren. De door de Franse overheid gesteunde chatbot Lucie is offline gehaald na een reeks pijnlijke blunders. De AI beweerde dat koeien eetbare eieren leggen en kon simpele rekensommen niet oplossen. ‘We lieten ons meeslepen door ons enthousiasme,’ verklaart ontwikkelaar Linagora Group. Een tegenvaller voor president Macron, die volgende maand verschillende wereldleiders ontvangt voor een AI-top in Parijs.
🔮 Prompt whisperer
Rereading: de kunst van het herlezen voor betere AI-resultaten
Je kent het wel: je stelt een doordachte vraag aan ChatGPT, maar het antwoord slaat als een tang op een varken. Of erger nog: het model negeert cruciale details uit je vraag. Frustrerend, toch? Maar wat als er een verrassend eenvoudige ‘hack’ is die dit probleem oplost?
Soms zijn het juist de simpelste technieken die de grootste impact hebben. Neem bijvoorbeeld het inmiddels beroemde ‘Let’s think step by step’ van Chain of Thought-prompting. Deze ogenschijnlijk simpele toevoeging vormde de basis voor de krachtige stap-voor-stap-redeneermethoden die we nu terugzien in de nieuwste AI-modellen, zoals OpenAI’s o1 en DeepSeeks R1.
Met die gedachte in ons achterhoofd presenteren we vandaag ‘rereading’: een nieuwe promptingtechniek die de nauwkeurigheid van AI-antwoorden aanzienlijk verbetert. Het principe is even simpel als effectief: laat het model je vraag twee keer lezen voordat het antwoordt. Uit recent onderzoek blijkt dat deze aanpak de prestaties van taalmodellen met wel 15 tot 45 procent kan verbeteren.
Waarom werkt dit zo goed?
Keep reading with a 7-day free trial
Subscribe to AI Report to keep reading this post and get 7 days of free access to the full post archives.