AI Report

AI Report

Vibe code je eigen iPhone-app... vanaf je iPhone

PLUS: AirPods die live vertalen, OpenAI’s onthulling over hallucinaties, en de wearable die gedachten leest (spoiler: niet echt)

Xiang Yu Yeung's avatar
Alexander Klöpping's avatar
Wietse Hage's avatar
Ernst-Jan Pfauth's avatar
Xiang Yu Yeung
,
Alexander Klöpping
,
Wietse Hage
, and
Ernst-Jan Pfauth
Sep 11, 2025
∙ Paid
Share

De AI-wereld ontwikkelt zich razendsnel, en AI Report houdt je op de hoogte. Twee keer per week de nieuwste ontwikkelingen, tools en inzichten via onze nieuwsbrief en podcast.


🗞️ Het belangrijkste nieuws

‘Telepathische’ AI-wearable leest geen gedachten, maar je kaaklijn

Je zit in een volle trein en wilt je partner appen zonder dat de hele coupé meeleest. Of je bent in een belangrijke vergadering en wilt snel iets opzoeken zonder je laptop open te klappen. Een nieuwe AI-wearable belooft dit mogelijk te maken door je ‘gedachten te lezen’ – al blijkt dat laatste vooral slimme marketing.

Wat is er aan de hand?

Het bedrijf AlterEgo uit Boston heeft deze week een wearable onthuld die claimt bijna telepathisch te werken. Het apparaat, dat eruitziet als een futuristische hoofdband, zou je in staat stellen om stil te communiceren met computers en andere apparaten. De demo’s zijn indrukwekkend: oprichter Arnav Kapur schrijft code, stuurt berichten en voert zelfs stille gesprekken met andere gebruikers zonder een woord hardop uit te spreken.

Niet gek dus dat de technologie momenteel viraal gaat op sociale media, met miljoenen views op X. Maar is het echt zo revolutionair als het lijkt?

Hoe werkt het eigenlijk?

Hier wordt het interessant – en ook een beetje teleurstellend. AlterEgo leest geen gedachten. Het apparaat detecteert subtiele spierbewegingen in je kaak en keel wanneer je ‘innerlijk spreekt’. Deze techniek, bekend als elektromyografie (EMG), vangt de signalen op die je hersenen naar je spraaksysteem sturen, nog voordat je daadwerkelijk praat.

Sterling Crispin, een AI-onderzoeker, waarschuwt op X: “Extreem misleidend! Je moet je mond bewegen. Het apparaat leest je gedachten niet.” Hij wijst erop dat zelfs de meest geavanceerde hersenscanners met 64 elektroden slechts 40 procent nauwkeurigheid halen bij het proberen te ‘lezen’ van gedachten.

De echte technologie

Wat AlterEgo doet, is eigenlijk een slimme combinatie van bestaande technologieën. Het gebruikt EMG-sensoren (al decennia toegepast in protheses), combineert dit met machinelearning voor het interpreteren van de signalen, en stuurt het geluid terug via botgeleiding – dezelfde techniek die in sommige koptelefoons zit.

Het bedrijf noemt zijn doorbraaktechnologie Silent Sense. Dit systeem detecteert de meest subtiele mondbewegingen. Je kunt zelfs geluidloos communiceren als je wilt, zolang je mond maar beweegt.

Waarom de verwarring?

De marketingafdeling van AlterEgo speelt handig in op onze fascinatie met Neuralink en andere hersenimplantaten. Door termen als near-telepathic te gebruiken, wekken ze de indruk dat hun technologie veel geavanceerder is dan die werkelijk is. Dat is jammer, want wát ze hebben gebouwd is behoorlijk indrukwekkend.

Het verschil met echte herseninterfaces zoals Neuralink is fundamenteel: AlterEgo registreert alleen intentionele motorische signalen – bewegingen die je bewust maakt. Het kan niet zomaar je gedachten ‘lezen’, wat het bedrijf ook benadrukt als een privacyvoordeel.

Praktische toepassingen

Ondanks de overdreven marketingclaims heeft AlterEgo wel degelijk potentie. Het systeem zou kunnen helpen bij:

  • stille communicatie in openbare ruimtes;

  • ondersteuning voor mensen met spraakproblemen;

  • handsfree bediening van apparaten;

  • sneller typen zonder toetsenbord.

Het bedrijf werkt samen met patiënten en medische experts om de technologie toegankelijk te maken voor mensen die niet meer kunnen spreken.

De realiteitscheck

Laten we eerlijk zijn: dit is geen telepathie. Het is een geavanceerde mondbewegingendetector met een fancy AI-sausje. Maar dat maakt het niet minder interessant. De technologie bouwt voort op onderzoek uit 2018 van het MIT Media Lab, waar Kapur als student het eerste prototype ontwikkelde.

Het Amerikaanse leger experimenteerde al in de jaren 2000 met vergelijkbare subvocale spraaktechnologie, maar de apparaten waren toen log en onnauwkeurig. AlterEgo heeft deze technologie eindelijk draagbaar en toepasbaar gemaakt.

Waarom is dit belangrijk?

Ondanks de misleidende marketing vertegenwoordigt AlterEgo wel degelijk een interessante stap voorwaarts in de interactie tussen mens en machine. Terwijl Elon Musk met Neuralink inzet op invasieve hersenimplantaten en Meta experimenteert met EMG-polsbandjes, kiest AlterEgo voor een middenweg: niet-invasief maar wel direct verbonden met onze natuurlijke spraakintentie.

Voor Nederlandse professionals die veel in openbare ruimtes werken – denk aan de stiltecoupé of het kantoortuintje – zou zo’n technologie wel eens heel praktisch kunnen zijn. Al blijft de vraag of we echt zitten te wachten op nóg een manier om constant connected te zijn.

Het bedrijf heeft nog geen releasedatum of prijs bekendgemaakt. Tot die tijd kunnen we alleen maar raden of AlterEgo de belofte waarmaakt, of dat het weer een van die AI-wearables wordt die na veel bombarie in een la verdwijnt.

Want laten we wel wezen: op echte telepathie moeten we waarschijnlijk nog even wachten.


Apples stilste AI-update zit in je oren: AirPods Pro 3 met live vertaling

Terwijl iedereen wachtte op grote AI-aankondigingen tijdens Apples jaarlijkse hardwareshow, bleef het opvallend stil. De enige plek waar Apple Intelligence echt van zich liet horen? In je oren. De nieuwe AirPods Pro 3 krijgen als eerste Apple-product een praktische AI-functie die je daadwerkelijk gaat gebruiken: realtime vertaling van gesprekken.

Wat is er nieuw?

Na drie jaar krijgen de AirPods Pro eindelijk een grote update. Voor 249 dollar (Nederlandse prijs nog onbekend) krijg je oordopjes die niet alleen kleiner zijn en beter passen, maar ook uitgerust zijn met Apples eerste echte poging tot praktische AI. De Live Translation-functie vertaalt gesprekken in realtime tussen Engels, Frans, Duits, Portugees en Spaans. Later dit jaar komen daar Italiaans, Japans, Koreaans en Chinees bij.

Het werkt verrassend elegant: terwijl iemand in een vreemde taal tegen je praat, dempt de ruisonderdrukking het originele geluid en hoor je de vertaling in je eigen taal. Voor de gesprekspartner zonder AirPods kun je je iPhone horizontaal neerleggen als een soort digitale tolk – die toont dan jouw woorden in hun taal.

Hoe werkt de vertaalmagie?

Apple combineert hier slim verschillende technologieën. De verbeterde ruisonderdrukking – volgens Apple ‘de beste ter wereld’ dankzij nieuwe schuimgevulde oordopjes – zorgt ervoor dat je de vertaling duidelijk hoort terwijl het origineel wordt gedempt. De Apple Intelligence-chip in je iPhone doet het zware rekenwerk, terwijl de AirPods het geluid verwerken.

Bijzonder handig: als beide gesprekspartners AirPods dragen, wordt het een naadloze tweetalige conversatie. Je praat gewoon in je eigen taal en hoort daarin ook de vreemde taal van je gesprekspartner, alsof je allebei dezelfde taal spreekt.

Meer dan alleen vertalen

Apple pakt ook meteen een paar andere pijnpunten aan. De nieuwe hartslagsensor gebruikt infraroodlicht dat 256 keer per seconde pulseert om je hartritme te meten. In combinatie met de bewegingssensoren en GPS van je iPhone krijg je zo een compleet beeld van je workout zonder extra apparaten.

En voor wie weleens klaagt over de pasvorm: Apple heeft 10.000 3D-oorscans geanalyseerd om de dopjes kleiner en comfortabeler te maken. Met vijf verschillende maten oordopjes in plaats van drie moet er nu voor iedereen een passende bij zitten.

De realiteitscheck

Natuurlijk moeten we Apples claims met een korreltje zout nemen. De vertaalfunctie is nog in bèta en werkt alleen met een beperkt aantal talen. Voor een spontaan gesprek in een Londens café is het prima, maar voor een diepgaand zakelijk gesprek in het Mandarijn moet je waarschijnlijk nog even wachten.

Ook belangrijk: je hebt een iPhone nodig met Apple Intelligence, dus waarschijnlijk een iPhone 15 Pro of nieuwer. En of de functie bij lancering in Europa beschikbaar is? Dat is gezien Apples voorzichtige AI-uitrol in de EU nog maar de vraag.

Waarom dit ertoe doet

Terwijl techbedrijven worstelen met de vraag hoe ze AI praktisch kunnen maken voor consumenten, kiest Apple voor een verfrissend concrete toepassing. Geen vage beloftes over het ‘transformeren van je leven’, maar gewoon: je kunt nu makkelijker praten met mensen die een andere taal spreken.

Voor Nederlandse reizigers en expats kan dit een gamechanger zijn. Of het de 249 dollar waard is? Dat hangt af van hoe vaak je in het buitenland komt of anderstaligen ontmoet.


OpenAI ontrafelt het hallucinatieprobleem: AI’s liegen omdat gokken loont

Vraag ChatGPT naar de verjaardag van je buurman en je krijgt een datum. Vraag het nog twee keer en je krijgt twee andere datums. Allemaal even overtuigend gebracht, allemaal fout. OpenAI publiceerde deze week een onderzoek dat eindelijk verklaart waarom AI-modellen zo zelfverzekerd onzin uitkramen – en de oorzaak is verrassend menselijk: we hebben ze geleerd dat gokken loont.

Het probleem met zelfverzekerde leugens

In een nieuwe onderzoekspaper definieert OpenAI hallucinaties als ‘plausibele maar valse uitspraken van taalmodellen’. En ondanks alle verbeteringen blijven ze een fundamenteel probleem dat nooit helemaal zal verdwijnen. Zelfs het gloednieuwe GPT-5 hallucineert nog steeds, al is het aanzienlijk minder dan zijn voorgangers.

De onderzoekers illustreren het probleem met een simpel experiment. Ze vroegen een veelgebruikte chatbot naar de titel van Adam Tauman Kalais proefschrift (Kalai is een van de auteurs). Drie keer vragen, drie verschillende antwoorden – allemaal fout. Hetzelfde gebeurde met zijn verjaardag: drie datums, geen daarvan correct.

De perverse prikkel van het eindexamen

Hier wordt het interessant. OpenAI suggereert dat het probleem niet zozeer ligt in hoe AI’s worden getraind, maar in hoe we ze beoordelen. Het huidige systeem werkt als een meerkeuzetoets waarbij je geen punten verliest voor foute antwoorden. Gokken kan lonen, niets invullen garandeert een nul.

“Als een taalmodel niet weet wanneer iemand jarig is en gokt op ‘10 september’, heeft het een kans van 1 op 365 om gelijk te hebben,” leggen de onderzoekers uit. “Zeggen dat je het niet weet, levert gegarandeerd nul punten op. Uit duizenden testvragen blijkt dat het gokmodel beter presteert dan een voorzichtig model dat onzekerheid toegeeft.”

De oorsprong van het probleem

Maar waar komen die feitelijke onjuistheden vandaan? Het antwoord moet worden gezocht in de manier waarop taalmodellen leren. Tijdens de training voorspellen ze miljarden keren het volgende woord in een zin. Ze zien alleen voorbeelden van vloeiende taal, zonder labels die aangeven wat waar of onwaar is.

De onderzoekers maken een heldere vergelijking: stel je voor dat je een algoritme traint om foto’s van huisdieren te labelen – niet met ‘kat’ of ‘hond’, maar met de verjaardag van het dier. Omdat verjaardagen willekeurig zijn, zou dit altijd fouten opleveren, hoe geavanceerd je algoritme ook is.

Spelling en grammatica volgen consistente patronen, dus daar verdwijnen fouten naarmate modellen groter worden. Maar willekeurige feiten zoals iemands verjaardag kunnen niet uit patronen worden afgeleid – en leiden dus tot hallucinaties.

De oplossing: bestraffen in plaats van belonen

OpenAI’s voorstel is verfrissend praktisch: pas de beoordelingsmethoden aan. Net zoals sommige gestandaardiseerde tests punten aftrekken voor foute antwoorden of deelpunten geven voor blanco antwoorden, moeten AI-evaluaties zelfverzekerde fouten zwaarder bestraffen dan toegegeven onzekerheid.

Een concreet voorbeeld uit het onderzoek: GPT-5-thinking-mini geeft in 52 procent van de gevallen toe het antwoord niet te weten, met een foutpercentage van 26 procent. Het oudere o4-mini model gokt veel vaker, waardoor het een iets hogere nauwkeurigheid haalt (24 procent versus 22 procent), maar ook een dramatisch hoger foutpercentage: 75 procent.

Mythes ontkracht

Het onderzoek prikt ook door enkele hardnekkige mythes:

  • “Hallucinaties verdwijnen als modellen 100 procent accuraat worden”: Onzin, want sommige vragen zijn inherent onbeantwoordbaar.

  • “Hallucinaties zijn onvermijdelijk”: Ook niet waar – modellen kunnen leren zich te onthouden van het geven van onzekere antwoorden.

  • “Alleen grote modellen kunnen hallucinaties vermijden”: Juist kleine modellen kunnen makkelijker hun grenzen kennen.

Waarom dit ertoe doet

Voor professionals die steeds meer op AI vertrouwen, is dit onderzoek een wake-upcall. Het verklaart waarom zelfs de meest geavanceerde AI-systemen nog steeds moeiteloos kunnen liegen. Maar het biedt ook hoop: het probleem ligt niet in een mysterieus technisch defect, maar in de manier waarop we AI’s evalueren en belonen.

De boodschap is helder: zolang we AI’s blijven belonen voor gokken in plaats van eerlijkheid, zullen ze blijven hallucineren. Het is tijd dat AI-labs hun rapportcijfers herzien. Want een AI die toegeeft iets niet te weten, is uiteindelijk betrouwbaarder dan eentje die zelfverzekerd liegt.


Gesponsord

Los complexe uitdagingen op met PwC's agent OS 

Om waarde te creëren die echt het verschil maakt, moet je AI-agents koppelen aan werkprocessen, ze samen met je mensen in teams laten werken en integreren met je bedrijfs­systemen.

PwC’s agent OS is het uniforme platform waarmee je meerdere AI-agents kunt orkestreren in werkprocessen. Zo kun je snel complexe uitdagingen oplossen.


Ontgrendel de kracht van AI in je werk en je leven:

Upgrade naar ons betaalde abonnement en ontvang 2x per week game-changing AI-tools en tips.

Vandaag:

  • Leer je eigen iPhone-apps vibe coden vanaf je telefoon.

  • Bouw tijdens je treinreis een app die je waarschuwt wanneer je moet uitstappen.

  • Creëer in 5 minuten een persoonlijke budgettracker die écht bij jouw uitgavenpatroon past.

  • Maak een minigame voor je kinderen - zonder ook maar één regel code.

  • Transformeer dat briljante douche-idee in een werkend app-prototype voordat je haar droog is.


🛠️ AI Toolkit+

Programmeer je eigen iPhone-app... vanaf je iPhone (ja, echt)

Deze week duiken we in een ontwikkeling die het bouwen van apps zo radicaal versimpelt dat het bijna belachelijk wordt: vibe coding vanaf je smartphone. Vergeet complexe ontwikkelomgevingen, installatieprocedures en urenlange tutorials. Met deze tool bouw je native Swift-apps rechtstreeks op je iPhone, gewoon door te chatten met AI.

Nieuwe lezers: voor meer inspiratie over wat mogelijk is met vibe coding –programmeren met AI – check ook onze eerdere duik in AI-codingtools en ons vergelijkend onderzoek naar de beste platforms.

Keep reading with a 7-day free trial

Subscribe to AI Report to keep reading this post and get 7 days of free access to the full post archives.

Already a paid subscriber? Sign in
© 2025 AI Report
Publisher Privacy ∙ Publisher Terms
Substack
Privacy ∙ Terms ∙ Collection notice
Start writingGet the app
Substack is the home for great culture