AI Report
AI Report
ASML investeert 1,3 miljard in Mistral + Claude maakt betere PowerPoints + OpenAI verklaart waarom AI nog wel eens liegt
0:00
-1:07:40

ASML investeert 1,3 miljard in Mistral + Claude maakt betere PowerPoints + OpenAI verklaart waarom AI nog wel eens liegt

Dé Nederlandse podcast over kunstmatige intelligentie waar we uitzoeken welke invloed AI gaat hebben op ons werk, ons leven en de samenleving.

ASML verrast de wereld door 1,3 miljard euro te investeren in het Franse Mistral, waarmee de chipmachinefabrikant ineens groot aandeelhouder wordt van Europa's meest waardevolle AI-bedrijf. Wietse en Alexander worstelen met de strategische logica achter deze bizarre koppeling - wat heeft een bedrijf dat lithografiemachines maakt te zoeken bij een taalmodelbedrijf? De journalistieke takes over "Europese soevereiniteit" voelen als wensdenken, terwijl de echte motivatie mysterieus blijft. Misschien speelt Macron industriepolitiek, misschien is het 4D-schaak die we niet begrijpen.

Claude van Anthropic lanceert een baanbrekende functie waarmee je direct spreadsheets, presentaties en documenten kunt genereren binnen de chatinterface. Het systeem start letterlijk een virtuele computer op waar het PowerPoint-achtige software draait om echte bestanden te maken - geen geblufte code meer, maar werkelijke PPTX-files die je kunt downloaden. Dit markeert de verschuiving van taalmodellen die doen alsof ze bestanden maken naar agents die daadwerkelijk software bedienen. Tegelijkertijd kondigt Microsoft aan dat ze Claude's modellen gaan gebruiken in Office 365 omdat die beter presteren bij het maken van aantrekkelijke presentaties dan OpenAI's modellen.

De relatie tussen Microsoft en OpenAI verslechtert zichtbaar. OpenAI werkt aan eigen infrastructuur en een LinkedIn-concurrent, terwijl Altman openlijk zegt dat hun contract in 2030 afloopt en ze "dan een andere relatie hebben." Microsoft haalt nu bewust de concurrent binnen voor hun kroonjuwelen, wat de spanning illustreert tussen deze voormalige partners die steeds meer elkaars concurrent worden.

OpenAI publiceert cruciaal onderzoek over waarom taalmodellen blijven hallucineren: het probleem zit in de trainingsmethode waarbij modellen beloond worden voor het geven van antwoorden, zelfs foute. Hun oplossing is simpel maar effectief - zwaar straffen voor verkeerde antwoorden en belonen voor het zwijgen wanneer onzeker. Wietse legt uit waarom dit onderscheid tussen "universele" en "particuliere" computing fundamenteel is voor het begrijpen van AI's mogelijkheden en beperkingen.

Als je een lezing wil over AI van Wietse of Alexander dan kan dat. Mail ons op lezing@aireport.email

Op de hoogte blijven van het laatste AI-nieuws en 2x per week tips & tools ontvangen om het meeste uit AI te halen (en bij de webinar te zijn). Abonneer je dan op onze nieuwsbrief via aireport.email

Vandaag nog beginnen met AI binnen jouw bedrijf? Ga dan naar deptagency.com/aireport

Discussion about this episode

User's avatar