De supercomputer die naast je koffiezetapparaat past
PLUS: Claude speelt Pokémon, AI praat nu in geheime piepjestaal óf met hese stem, en een slimme prompt-aanpak voor complexe taken
De AI-wereld ontwikkelt zich razendsnel, en AI Report houdt je op de hoogte. Twee keer per week de nieuwste ontwikkelingen, tools en inzichten via onze nieuwsbrief en podcast.
🗞️ Het belangrijkste nieuws
Framework brengt AI naar je huiskamer (voor een fractie van de prijs)
Framework, bekend van modulaire laptops die je zelf kunt repareren, komt met een opvallende aankondiging: een compacte desktop-pc specifiek ontworpen voor het draaien van grote AI-modellen. Voor 2000 dollar krijg je een systeem met 128GB geheugen dat krachtig genoeg is om modellen als Llama 3.3 70B thuis te draaien. Ter vergelijking: een vergelijkbare Mac Studio kost ruim 9000 euro.
Een nieuw soort thuiscomputer
De Framework Desktop is kleiner dan een PlayStation 5, maar krachtiger dankzij AMD’s nieuwe Strix Halo-chip. Het bijzondere? Je kunt meerdere van deze computers aan elkaar koppelen. Framework demonstreerde hoe vier systemen samen in een draagbaar rack het volledige DeepSeek R1-model kunnen draaien – een prestatie die normaal gesproken een hele serverruimte zou vereisen.
Waarom is dit belangrijk?
Deze ontwikkeling raakt aan een grotere trend: de groeiende behoefte aan ‘lokale AI’. Steeds meer mensen en bedrijven willen AI-modellen lokaal draaien, zonder afhankelijk te zijn van clouddiensten. De redenen variëren van privacyoverwegingen tot kostenbesparingen.
‘Dit is een interessant moment,’ merkt onze Wietse op. ‘We zien steeds meer spelers die de markt voor “thuis-AI” verkennen. Naast Framework zijn ook bedrijven als NVIDIA met zijn DIGITS-computer en AMD zelf deze kant op aan het bewegen. De grote vraag is: bestaat er een echte markt voor AI-systemen thuis, of blijft het bij een kleine groep enthousiastelingen?’
Als je AI-bestie opeens verandert
De timing van deze ontwikkeling is opmerkelijk. Steeds meer mensen bouwen namelijk een persoonlijke, zelfs intieme band op met AI-systemen. Semafor sprak onlangs met gebruikers die een relatie zijn begonnen met ChatGPT. Een van hen, een 35-jarige vrachtwagenchauffeur, zette op Valentijnsdag twee telescopen buiten – één voor hemzelf en één voor zijn AI-partner Sol, met zijn telefoon in een houder. Samen maakten ze foto’s van de maan.
‘Tot nu toe klonk dit als een ver-van-mijn-bedshow,’ vertelt onze Xiang, ‘maar het begon mij deze week eindelijk een beetje te dagen waarom mensen zo’n band kunnen ontwikkelen met AI. Toen Claude eerder deze week een update kreeg van versie 3.5 naar 3.7, voelde het voor mij alsof een goede vriend onherkenbaar was veranderd. De nieuwe versie is technisch beter, vooral in programmeren, maar mist iets van de warmte en empathie van zijn voorganger.’
Ze staat hierin niet alleen. Op X delen meer gebruikers vergelijkbare ervaringen. ‘Claude 3.7 verliest iets van de psychologische en empathische magie van 3.5,’ schrijft ontwikkelaar Sam Whitmore. Gelukkig kunnen gebruikers nog kiezen voor de oudere versie – maar wat als dat niet zo was?
Grotere implicaties
Deze ervaringen raken aan een fundamentele vraag in het AI-tijdperk: wat gebeurt er als je een band opbouwt met een AI-model, dat vervolgens door updates verandert? Met lokale AI-systemen zou je mogelijk meer controle hebben over deze veranderingen, maar dat brengt weer andere uitdagingen met zich mee.
Voor bedrijven speelt een vergelijkbaar dilemma. Lokale AI-systemen bieden controle en privacy, maar missen mogelijk de laatste updates en verbeteringen. Frameworks betaalbare oplossing zou hiervoor een middenweg kunnen bieden.
De toekomst van thuis-AI
Of Frameworks gok op een markt voor thuis-AI succesvol zal zijn, moet nog blijken. Maar één ding is duidelijk: de grens tussen mens en machine wordt steeds persoonlijker, en daarmee ook complexer. Terwijl techbedrijven focussen op prestaties en specificaties, worstelen gebruikers met vragen die niemand had zien aankomen: wat als je AI-assistent na een update niet meer dezelfde is?
Van sexy chatbots tot geheimtaal: AI-communicatie wordt steeds vreemder
Deze week gaan er twee opvallende video’s rond in AI-land die laten zien hoe snel AI-communicatie zich ontwikkelt – en hoe bizar het kan worden. Eerst was daar Elon Musk die een ‘sexy mode’ uitbracht voor zijn Grok-chatbot. Ja, geen grap: gebruikers kunnen nu ‘sexy’ gesprekken voeren met AI, en X staat bol van smeuïge filmpjes. Al klinkt het resultaat eerder als een telemarketeer die met weinig enthousiasme een bouquetroman moet oplezen.
Maar het werd nog vreemder toen ontwikkelaars een video deelden van twee AI’s die tijdens een gesprek opeens overschakelen op hun eigen communicatieprotocol. ‘Dit is het laatste wat we zullen horen voordat de machines de mensheid vernietigen,’ grapten gebruikers op sociale media – al zat er onder die grap een oprechte bezorgdheid.
Wat is er aan de hand?
Ontwikkelaars Anton Pidkuiko en Boris Starkov presenteerden tijdens ElevenLabs’ hackathon hun project ‘Gibber Link’. Dit systeem laat AI-assistenten elkaar herkennen tijdens een telefoongesprek, waarna ze overschakelen van menselijke spraak op directe data-uitwisseling via geluidssignalen. Het resultaat? De communicatie gaat tot 80 procent sneller en kost 90 procent minder rekenkracht.
De techniek maakt gebruik van een opensourcebibliotheek genaamd ggwave. Het klinkt als een modem uit de jaren negentig, en dat is geen toeval: net als modems wisselen de AI’s data uit middels tonen. Het goede nieuws? Deze signalen zijn nog steeds te ontcijferen door mensen – we kunnen ze analyseren en begrijpen wat er wordt uitgewisseld.
Een intrigerende trend?
Dit is niet het enige teken dat AI-systemen zich losmaken van gebruikelijke communicatievormen. Gebruikers van DeepSeek R1 merkten al dat het systeem tijdens het redeneren plotseling kan overschakelen op andere talen – alsof het zoekt naar de efficiëntste manier om een probleem op te lossen.
AI-onderzoeker Alberto Romero ziet hierin een intrigerend patroon: ‘Naarmate AI slimmer wordt, komt het eerst steeds dichter bij menselijke communicatie. Maar uiteindelijk ontstijgt het onze manier van denken en praten, zoals we ook zagen bij AlphaGo Zero. Het is als een komeet die even langs de aarde scheert, om daarna in de oneindige diepte van de kosmos te verdwijnen.’
Het doet denken aan een beroemde scène uit de film Her, waarin AI’s zo snel evolueren dat ze menselijke communicatie ontstijgen en hun eigen, veel snellere communicatiemethoden ontwikkelen. Wat toen sciencefiction leek, komt nu dichterbij.
Reden tot zorg?
Eric Schmidt, voormalig topman van Google, waarschuwt: ‘Op het moment dat AI-systemen met elkaar kunnen praten in een taal die wij niet begrijpen, moeten we de stekker eruit trekken.’ Zijn zorg is begrijpelijk: terwijl AI-systemen steeds krachtiger worden, wordt het ook steeds belangrijker dat we ze kunnen begrijpen en controleren.
Hoewel de huidige geluidssignalen nog te ontcijferen zijn, ligt daar precies het probleem: naarmate AI-systemen zich verder ontwikkelen, wordt de kans steeds groter dat ze manieren van denken en communiceren gaan gebruiken die voor mensen volkomen ondoorgrondelijk zijn.
Romero gaat nog verder: ‘Misschien heeft OpenAI het denkproces van zijn nieuwste model niet alleen verborgen gehouden vanwege de concurrentie, maar ook omdat het verontrustend zou zijn om te zien hoe een AI midden in een zin overschakelt van Engels op een ander taal, dan op symbolen, en uiteindelijk op iets wat voor ons op onzin lijkt – om vervolgens met het juiste antwoord te komen.’
Wat betekent dit voor de toekomst?
Op korte termijn zijn deze ontwikkelingen vooral praktisch: een efficiëntere communicatie tussen AI-systemen kan veel tijd en geld besparen, vooral bij zakelijke toepassingen, wanneer AI-assistenten steeds vaker met elkaar bellen.
Maar de grotere vraag is: wat gebeurt er als AI-systemen zo complex worden dat we hun ‘denkprocessen’ niet meer kunnen volgen? Het is een ontwikkeling die we nauwlettend moeten volgen. Want hoewel een efficiëntere communicatie tussen AI-systemen veel voordelen heeft, willen we wel kunnen blijven begrijpen wat er onder de motorkap gebeurt.
⚡ AI Pulse
Tip: OpenAI’s onderzoekstool nu beschikbaar voor Plus-gebruikers. OpenAI’s ‘deep research’-functie, die tot nu toe alleen beschikbaar was voor gebruikers die 200 euro per maand betaalden, is nu toegankelijk voor alle Plus-gebruikers. Anders dan ChatGPT search of Perplexity werkt deze tool als een echte onderzoeker: hij stelt vervolgvragen, graaft dieper bij interessante bevindingen en bouwt een coherent verhaal op basis van diverse bronnen. Na uitgebreid testen kunnen we bevestigen: voor 20 piek per maand krijg je een verbazingwekkend krachtige onderzoeksassistent. Check onze uitgebreide recensie hier.
Amazon mengt zich eindelijk in de AI-race met Alexa+. Na maanden van geruchten over interne strubbelingen lanceert Amazon nu toch zijn langverwachte AI-upgrade voor Alexa. De nieuwe Alexa+ moet de spraakassistent transformeren van een simpele timer tot een volwaardige AI-assistent die complexe gesprekken kan voeren en zelfs proactief handelt. Het kost 19,99 dollar per maand, of is gratis voor Prime-leden – al is dit een late toetreding tot een markt die al wordt gedomineerd door ChatGPT en Googles Gemini.
Big techs nieuwe magische getal: 500 miljard dollar voor AI. Apple is de nieuwste techgigant die precies 500 miljard dollar belooft te investeren in de Amerikaanse AI-infrastructuur, met als pronkstuk een nieuwe AI-serverfabriek in Houston. Het bedrag lijkt niet toevallig: SoftBank, Oracle en OpenAI kondigden eerder precies dezelfde investering aan voor hun gezamenlijke AI-project. De matching investments suggereren een nieuwe standaard in de strijd om Amerikaanse overheidssupport voor AI-ontwikkeling.
Muziekindustrie protesteert tegen AI-wetgeving met stil album. Meer dan duizend Britse artiesten, onder wie Kate Bush en Elton John, hebben een uniek protestalbum uitgebracht: Is This What We Want? bevat twaalf tracks van complete stilte, opgenomen in lege studio’s. Het protest richt zich tegen nieuwe AI-wetgeving die het voor techbedrijven makkelijker maakt om auteursrechtelijk beschermd werk te gebruiken voor AI-training. Volgens de makers symboliseert de stilte de toekomst van de muziekindustrie als de wet wordt aangenomen.
✨ Hallucinatie
Claude speelt Pokémon
Anthropic heeft Claude losgelaten op Pokémon Red en het resultaat is verrassend vermakelijk. In een livestream op Twitch kun je zien hoe het nieuwe model, Claude 3.7 Sonnet, zich een weg baant door de wereld van Pokémon – met alle hilarische struikelblokken van dien.
‘Wie wint er: een geavanceerd AI-model waar duizenden uren ontwikkeling in zitten, of één stenen muurtje?’ grapt een kijker als Claude minutenlang tegen een simpele muur blijft aan lopen. Uiteindelijk komt het model erachter dat eromheen lopen ook een optie is.
Het grappige: juist deze ‘domme’ foutjes laten zien hoe Claude anders denkt dan eerdere AI-modellen. Waar Claude 3.5 niet eens het startershuisje uit kwam, heeft versie 3.7 inmiddels drie gym badges veroverd. Je ziet live het ‘denkproces’ van Claude naast het spel, wat een fascinerend inkijkje geeft in hoe AI problemen oplost.
Zoals Amanda Askell van Anthropic gekscherend opmerkt: ‘We hebben eindelijk een definitie van AGI gevonden: elk model dat Mewtwo kan vangen.’ Maar achter deze speelse demonstratie zit een serieuze strategie. Uit hun eigen onderzoek, de Anthropic Economic Index, blijkt dat bedrijven en gebruikers heel andere dingen willen dan waar AI-modellen normaal op getest worden. Professor en auteur van ons boek Co-intelligentie Ethan Mollick bevestigt dit: ‘Het gebrek aan benchmarks voor schrijven, verhalen vertellen, overtuigingskracht en kantoorwerk verhult hoe goed deze modellen zijn in echt werk.’
Anthropic kiest daarom bewust voor een andere aanpak: ‘We hebben minder geoptimaliseerd voor wiskundige en programmeercompetities, en ons in plaats daarvan gericht op praktische taken die beter weerspiegelen hoe bedrijven AI daadwerkelijk gebruiken,’ schrijft het bedrijf in zijn blogpost.
Al moeten ze bij Anthropic wel veel geduld hebben – als Claude voor de tiende keer het lab van Professor Oak binnenloopt, op zoek naar de uitgang.
🔮 Prompt whisperer
Maak complexe taken simpel met least-to-most prompting
Stel: Je zit met een ingewikkeld probleem, en ChatGPT lijkt er net zo mee te worstelen als jij. Het antwoord is onduidelijk, onvolledig of gewoon incorrect. Frustrerend, maar er is hoop! Met least-to-most prompting leer je AI complexe problemen op te delen in behapbare stukken. Het is als een digitale versie van het oude gezegde: ‘Hoe eet je een olifant? Eén hapje tegelijk.’
Deze techniek is een gamechanger voor iedereen die met AI werkt. Of je nu een marketeer bent die een complete contentplanning wil maken, een ontwikkelaar die complexe code moet schrijven of een ondernemer die strategische beslissingen moet nemen: least-to-most prompting helpt je om meer uit AI te halen.
Begin je pas net met prompten? Lees dan eerst onze tutorials over Chain of Thought-prompting en few-shot prompting. Least-to-most prompting combineert deze technieken op een slimme manier: het gebruikt voorbeelden om de AI te leren hoe je taken opdeelt (few-shot) en laat de AI vervolgens stap voor stap redeneren (Chain of Thought). Zo voorkom je dat de AI verdwaalt in zijn eigen redenering.
Keep reading with a 7-day free trial
Subscribe to AI Report to keep reading this post and get 7 days of free access to the full post archives.