Elons zelfrijdende robotaxi’s hebben nog steeds een babysitter nodig
PLUS: OpenAI’s mysterieuze zakcomputer, en waarom ‘probeer nog eens-verzoeken’ je AI gek maken
De AI-wereld ontwikkelt zich razendsnel, en AI Report houdt je op de hoogte. Twee keer per week de nieuwste ontwikkelingen, tools en inzichten via onze nieuwsbrief en podcast.
🗞️ Het belangrijkste nieuws
Tesla’s robotaxi’s rijden rond in Austin, maar de vragen stapelen zich op
Na een decennium aan beloftes laat Tesla eindelijk zelfrijdende auto’s rondtoeren in Austin. Voor de spotprijs van $ 4,20 per rit kun je plaatsnemen in een Model Y die zichzelf bestuurt – al zit er voor de zekerheid wel een Tesla-medewerker naast je. De eerste reizigers delen enthousiast filmpjes op sociale media, maar federale veiligheidsinstanties kijken nu al kritisch mee.
Wat is dit?
Tesla is begonnen met het aanbieden van commerciële ritten in zelfrijdende Model Y’s in een klein gebied in Zuid-Austin. Via een speciale app kunnen uitgenodigde klanten een rit boeken. De dienst draait dagelijks van 6:00 uur tot middernacht, tenzij het slecht weer is. Opvallend detail: in elke auto zit een Tesla-medewerker als ‘veiligheidsmonitor’ op de passagiersstoel.
Het gaat om ongeveer tien voertuigen die rondrijden in een beperkt gebied. Dat is beduidend minder grootschalig dan concurrent Waymo, die al langer commerciële robotaxi’s laat rijden in Phoenix, Los Angeles, San Francisco en Austin – zonder menselijke begeleiding aan boord.
Uitleg & Context
Tesla’s aanpak verschilt fundamenteel van andere spelers in de zelfrijdende auto-industrie. Waar bedrijven als Waymo gebruikmaken van dure lidar-sensoren en gedetailleerde kaarten, vertrouwt Tesla volledig op camera’s en kunstmatige intelligentie. Het bedrijf zet alles op een zogenaamd end-to-end AI-systeem: het neurale netwerk leert direct van videobeelden hoe het moet rijden, zonder tussenkomst van traditionele programmeerregels.
Deze AI-first strategie is Elon Musks grote gok. Hij gelooft dat alleen machinelearning de complexiteit van het echte verkeer aankan – geen vooraf geprogrammeerde regels, maar een AI die leert zoals mensen dat doen: door te kijken en ervaring op te doen. De auto’s gebruiken een unsupervised versie van Tesla’s Full Self-Driving software, waarbij het AI-model zelfstandig beslissingen neemt zonder menselijke input. Dat is een belangrijke stap die verder gaat dan de FSD-software die Tesla nu aan klanten verkoopt, waarbij de bestuurder altijd moet opletten en kunnen ingrijpen.
Het bedrijf probeert zelfs actief informatie achter te houden. Tesla blokkeerde verzoeken van journalisten om documenten op te vragen bij de staat Texas. “Tesla streeft naar maximale transparantie,” schreef een bedrijfsjurist, om vervolgens uit te leggen dat allerlei informatie geheim moet blijven vanwege “vertrouwelijke informatie, handelsgeheimen en bedrijfsinformatie.”
Perspectieven
Ed Niedermeyer, auteur van Ludicrous: The Unvarnished Story of Tesla Motors en ter plaatse in Austin, observeerde de robotaxi’s vanaf dag één. Hij zag een Tesla plotseling remmen – twee keer achter elkaar, waarvan één keer midden op een kruispunt. In beide gevallen gebeurde dit toen de auto langs geparkeerde politievoertuigen reed.
“Het is fascinerend om te zien hoe Tesla dit aanpakt,” vertelt Niedermeyer. “Ze gebruiken een soort tussenoplossing met die veiligheidsmonitor. Gewoonlijk doen bedrijven dit tijdens de testfase, niet tijdens commerciële operaties.”
Een van de eerste passagiers meldde op sociale media dat het ondersteuningsteam van Tesla op afstand moest helpen tijdens zijn rit, al blijft onduidelijk wat er precies gebeurde. Diezelfde passagier sprak later lovend over de rit.
Kanttekeningen
De beperkingen van Tesla’s robotaxidienst zijn aanzienlijk. De auto’s rijden alleen bij goed weer, in een klein gebied, met beperkte openingstijden én met een begeleider aan boord. Dat laatste roept vragen op: waarom is die persoon nodig als de AI-technologie echt autonoom is? En wat is precies de rol van deze begeleiders – kunnen ze ingrijpen of hebben ze alleen toegang tot een noodknop?
De eerste waarnemingen suggereren dat de AI nog worstelt met onverwachte situaties. Het plotseling remmen bij politievoertuigen wijst mogelijk op een AI-model dat te voorzichtig reageert op bepaalde visuele patronen. Dit soort edge cases – situaties die net afwijken van de trainingsdata – blijven een klassiek probleem voor machinelearning-systemen.
Binnen een dag na de lancering nam de Amerikaanse verkeersveiligheidsinstantie NHTSA al contact op met Tesla. Online video’s tonen robotaxi’s die te hard rijden en in één geval uitwijken naar de verkeerde rijstrook. “We zijn op de hoogte van de incidenten en verzamelen aanvullende informatie,” aldus NHTSA in een verklaring.
Tesla moedigt passagiers aan om foto’s en video’s te delen van hun ervaringen, maar waarschuwt tegelijk dat toegang kan worden ingetrokken als ze “content verspreiden die regelovertredingen of misbruik van de robotaxi toont.” Een opmerkelijke spagaat tussen transparantie en controle.
Waarom is dit belangrijk?
De lancering van Tesla’s robotaxi is een cruciale test voor de toekomst van AI in het verkeer. Als Tesla kan bewijzen dat hun camera-only aanpak met end-to-end machinelearning werkt, zou dat een doorbraak betekenen voor de hele AI-industrie. Het zou aantonen dat neurale netwerken complex menselijk gedrag kunnen evenaren zonder dure sensoren of vooraf geprogrammeerde regels.
Voor Nederlandse AI-bedrijven en onderzoekers biedt deze lancering waardevolle inzichten. Het laat zien hoe ver we zijn met het toepassen van deep learning op kritieke veiligheidssystemen, maar ook waar de grenzen liggen. De problemen die Tesla tegenkomt – van edge cases tot regelgevingskwesties – zijn leerzaam voor iedereen die AI wil inzetten in de fysieke wereld.
De komende maanden worden cruciaal. Kan Tesla’s AI-model leren van de incidenten en verbeteren? Durven ze het aan om de begeleider weg te laten? En belangrijker: bewijst dit dat pure machinelearning voldoende is voor veilig autonoom rijden? De antwoorden bepalen niet alleen Tesla’s toekomst, maar kunnen richting geven aan de hele AI-industrie. Want als Tesla’s radicale AI-first benadering werkt, zullen veel meer sectoren deze les toepassen: vertrouw op data en leeralgoritmes in plaats van op regels en sensoren.
Wat is het mysterieuze AI-apparaat van OpenAI en Jony Ive?
Rechtbankdocumenten onthullen waar OpenAI en designlegende Jony Ive aan werken sinds de AI-gigant zijn designstudio io overnam voor 6,5 miljard dollar. Samen onderzochten ze minstens dertig verschillende koptelefoons, maar hun eerste product wordt verrassend genoeg helemaal geen in-ear apparaat. Wat dan wel? Dat houdt Sam Altman angstvallig geheim.
Wat is dit?
OpenAI en io, het designbedrijf van voormalig Apple-ontwerper Jony Ive, ontwikkelen samen een AI-hardwareapparaat. Details komen naar buiten door een rechtszaak van iyO, een door Google gesteunde startup die OpenAI beschuldigt van merkinbreuk. Uit de ingediende documenten blijkt dat beide bedrijven het afgelopen jaar intensief onderzoek deden naar verschillende hardwareconcepten.
Tang Tan, medeoprichter van io en voormalig Apple-executive, verklaart onder ede dat het prototype waar Sam Altman het over had “geen in-ear apparaat is, noch een draagbaar apparaat.” Het ontwerp is nog niet af en het duurt minstens een jaar voordat het product op de markt komt. Altman zelf sprak eerder over een apparaat dat in je zak past of op je bureau staat, volledig bewust van je omgeving – een derde apparaat naast je smartphone en laptop.
Waarom nieuwe hardware voor AI?
De samenwerking tussen OpenAI en io markeert een belangrijke verschuiving in de AI-industrie. Waar de meeste bedrijven AI-software in bestaande apparaten stoppen, wil OpenAI hardware bouwen die vanaf de basis is ontworpen voor kunstmatige intelligentie. Het is een logische stap: als je AI écht naadloos in ons leven wilt integreren, heb je waarschijnlijk nieuwe interfaces nodig.
AI die je omgeving begrijpt
De AI in dit apparaat zou continu je omgeving analyseren en begrijpen wat je nodig hebt zonder dat je ernaar vraagt. Denk aan een assistent die weet wanneer je hulp nodig hebt bij een taak, relevante informatie geeft tijdens gesprekken, of je herinnert aan afspraken op basis van wat er om je heen gebeurt. Het vereist geavanceerde computer vision, natuurlijke taalverwerking en contextbegrip, allemaal draaiend op een apparaat klein genoeg voor je zak.
Dertig koptelefoons later
Opvallend is dat OpenAI en io uitgebreid onderzoek deden naar bestaande producten. Ze kochten dertig verschillende koptelefoons om de markt te verkennen. In mei ontmoetten executives van OpenAI en io het team van iyO om hun op maat gemaakte oordopjes te testen. Die demo’s liepen niet vlekkeloos. De producten faalden herhaaldelijk tijdens de demonstratie, tot teleurstelling van de OpenAI-executives.
Wat Altman en Ive willen bouwen
“Onze intentie met deze samenwerking was, en is, om producten te creëren die verdergaan dan traditionele producten en interfaces,” verklaarde Sam Altman in de rechtbankdocumenten. Die ambitie wordt onderstreept door het brede onderzoek dat het team deed.
Advocaten van OpenAI onthullen dat het bedrijf een breed scala aan apparaten onderzocht: “desktop-gebaseerd en mobiel, draadloos en bedraad, draagbaar en portable.” Dit suggereert dat het team meerdere concepten parallel ontwikkelt, mogelijk voor verschillende gebruikssituaties.
De mislukte overnamepogingen
Jason Rugolo, CEO van iyO, probeerde herhaaldelijk een diepere samenwerking te smeden. Hij stelde voor om iyO’s apparaat als vroege developer kit voor OpenAI’s uiteindelijke product te lanceren. Hij pitchte zelfs de verkoop van zijn hele bedrijf voor 200 miljoen dollar. Alle voorstellen werden afgewezen.
Het mysterie van het ontwerp
Het mysterie rond het exacte product roept vragen op. Waarom is OpenAI zo geheimzinnig over de vorm van het apparaat? Het kan strategische redenen hebben – concurrenten als Meta en Google werken hard aan AI-brillen – maar het kan ook betekenen dat het concept nog niet uitgekristalliseerd is.
Juridische complicaties
De rechtszaak zelf werpt een schaduw over het project. iyO beschuldigt OpenAI van merkinbreuk en het stelen van ideeën tijdens hun ontmoetingen. Tang Tan beweert dat hij voorzorgsmaatregelen nam, zoals het laten controleren van materialen door advocaten, maar e-mails tonen dat io-medewerkers overwogen om databases met oorscans te kopen van iyO’s partners.
Nog lang niet klaar
Het feit dat het product minstens een jaar van lancering verwijderd is, suggereert dat OpenAI nog worstelt met fundamentele ontwerpkeuzes. Voor een bedrijf dat 6,5 miljard uitgaf aan de overname van io is dat een lange ontwikkeltijd.
Waarom is dit belangrijk?
OpenAI’s hardwareplannen signaleren een cruciale verschuiving in hoe we met AI omgaan. Tot nu toe ervaren we AI vooral via apps en chatbots op bestaande apparaten. Een speciaal ontworpen AI-apparaat kan die interactie fundamenteel veranderen – denk aan de impact die de iPhone had op mobiel internet.
Voor de Nederlandse techindustrie biedt dit waardevolle lessen. Het toont dat succesvolle AI-implementatie mogelijk nieuwe hardwareconcepten vereist, niet alleen betere software. Bedrijven die AI-oplossingen ontwikkelen, moeten nadenken over de hele gebruikerservaring, inclusief de fysieke interface.
De samenwerking tussen OpenAI (AI-expertise) en io (design) illustreert ook het belang van interdisciplinaire teams. Nederlandse bedrijven die in AI innoveren kunnen leren van deze aanpak: combineer technische kennis met gebruikersgerichte ontwerpers vanaf het begin van het ontwikkelproces. Want als OpenAI gelijk heeft, bepalen niet alleen algoritmes maar ook het fysieke ontwerp hoe we straks met AI leven.
🔮 Prompt whisperer
Chain-of-Feedback: beter dan eindeloos “probeer het nog eens” zeggen tegen AI
Je stelt ChatGPT een vraag, krijgt een antwoord dat net niet helemaal klopt, en dan begint het: “Weet je het zeker?” “Probeer het nog eens.” “Doe dat nog een keer.” Voor je het weet zit je in een eindeloze spiraal van steeds bizardere antwoorden, waarbij de AI van kwaad tot erger vervalt. Wat begon als een simpele rekenvraag eindigt met ChatGPT die beweert dat twee plus twee gelijk is aan een aubergine.
Gelukkig is er een betere manier: Chain-of-Feedback. De promptingtechniek die van frustrerende AI-gesprekken productieve werksessies maakt. Een methode die je AI niet alleen corrigeert, maar actief begeleidt naar betere antwoorden.
Na het lezen van deze tutorial:
✓ stop je voorgoed met betekenisloze ‘probeer het nog eens-verzoeken’;
✓ geef je gerichte feedback die AI echt helpt verbeteren;
✓ voorkom je de drie AI-doodspiralen: de opgever, de overdrijver en de koppige;
✓ bouw je stapsgewijs naar complexe oplossingen;
✓ transformeer je elke AI-interactie in een productieve werksessie.
Waarom ‘probeer het nog eens’ niet werkt
Stel je voor: je vraagt AI om een berekening te maken. Je twijfelt over het antwoord, dus je vraagt: “Weet je het zeker?” Wat er dan gebeurt is fascinerend én frustrerend. In plaats van het antwoord te verbeteren, begint de AI vaak te twijfelen aan zichzelf. Het oorspronkelijk correcte antwoord verandert plotseling in een fout, en elke volgende poging dwaalt verder af van de waarheid.
Dit gebeurt omdat AI-modellen getraind zijn om te reageren op patronen. Als je steeds opnieuw vraagt om het nog eens te proberen zonder richting te geven, interpreteert de AI dit als een signaal dat het fout zit - zelfs als dat niet zo is. Het resultaat? Een digitale versie van iemand die zo hard zijn best doet om het goed te doen dat hij steeds verder de mist in gaat.
Hoe Chain-of-Feedback werkt
Chain-of-Feedback doorbreekt deze neerwaartse spiraal door structuur en richting te geven. In plaats van blind te vragen om een nieuwe poging, volg je deze aanpak:
Stap 1: vraag om een stapsgewijze uitleg
Begin met het vragen aan de AI om het probleem stap voor stap op te lossen:
"Los dit probleem stap voor stap op en laat bij elke stap zien wat je doet:[je vraag hier]"
Stap 2: identificeer waar het misgaat
Bekijk de stappen kritisch. Waar zit de fout? Is het in de berekening, de logica, of de interpretatie van de vraag?
Stap 3: geef gerichte feedback
In plaats van “probeer nog eens”, zeg je bijvoorbeeld:
“Je aanpak is goed, maar in stap 3 maak je een rekenfout. Als het domein van h(x) [-8, 8] is en we x delen door 2, dan wordt het bereik van x juist groter, niet kleiner. Kun je het probleem opnieuw oplossen met deze correctie?”
Stap 4: laat de AI de correctie verwerken
De AI gebruikt nu je specifieke feedback om het probleem opnieuw aan te pakken, waarbij de fout wordt vermeden.
Concrete voorbeelden in de praktijk
Voor de marketeer die perfecte copy wil
Fout: “Deze tekst is niet goed. Schrijf hem opnieuw.” Goed: “De opening is sterk, maar de call-to-action mist urgentie. Kun je de laatste alinea herschrijven met een duidelijke tijdslimiet en een concrete actie die de lezer moet ondernemen?”
Voor de ontwikkelaar met een buggy script
Fout: “Deze code werkt niet. Probeer het nog eens.” Goed: “De functie geeft een foutmelding bij regel 15. Het lijkt erop dat je een variabele gebruikt voordat deze is gedefinieerd. Kun je de code aanpassen zodat alle variabelen eerst worden gedeclareerd?”
Voor de ondernemer die marktanalyse doet
Fout: “Deze analyse klopt niet. Doe het over.” Goed: “Je analyse van de marktomvang is goed, maar je groeicijfers zijn gebaseerd op Amerikaanse data. Kun je de berekening opnieuw maken met Europese marktcijfers?”
De kunst van recursieve feedback
Voor complexere problemen kun je Recursive Chain-of-Feedback gebruiken. Dit is als het ware feedback in feedback:
Verdeel het grote probleem in kleinere deelproblemen.
Los elk deelprobleem apart op (eventueel met een andere AI).
Combineer de oplossingen tot een coherent geheel.
Geef feedback op het totaalplaatje en herhaal indien nodig.
Een praktisch voorbeeld: je wilt een compleet marketingplan. In plaats van alles in één keer te vragen:
vraag eerst om een doelgroepanalyse;
daarna om een concurrentieanalyse;
vervolgens om een positioneringsstrategie;
tot slot: laat de AI alles samenvoegen met jouw feedback per onderdeel.
Tips voor optimaal gebruik
1. Wees specifiek in je feedback Niet: “Dit klopt niet” Wel: “De berekening in stap 2 gebruikt de verkeerde formule”.
2. Bevestig wat goed gaat “Je aanpak is correct, maar...” geeft betere resultaten dan alleen kritiek.
3. Geef context Leg uit waarom iets fout is, niet alleen dat het fout is.
4. Gebruik het met mate Niet elk probleem heeft deze aanpak nodig. Simpele vragen kunnen vaak in één keer goed.
5. Experimenteer met verschillende AI’s Soms helpt het om een second opinion te vragen aan Gemini als ChatGPT vastloopt.
De wetenschap achter Chain-of-Feedback
Onderzoekers hebben deze techniek wetenschappelijk onderbouwd in de paper Recursive Chain-of-Feedback Prevents Performance Degradation from Redundant Prompting. Hun onderzoek toont aan wat velen van ons uit ervaring al wisten: betekenisloze herhalingsprompts maken AI-antwoorden juist slechter.
De onderzoekers definiëren ‘betekenisloze feedback’ als feedback die:
geen extra verduidelijking over de vraag geeft;
geen richting aangeeft naar het correcte antwoord.
Hun experimenten laten zien dat AI bij herhaalde ‘probeer nog eens-verzoeken’ drie verontrustende patronen vertoont:
De opgever: AI beweert dat er geen oplossing is (terwijl die er wel is).
De overdrijver: AI zegt dat er oneindig veel oplossingen zijn (bij een uniek antwoord).
De koppige: AI blijft hetzelfde foute antwoord herhalen.
Het fascinerende is dat de onderzoekers aantonen hoe elke betekenisloze herhaling de AI verder van het juiste antwoord afdrijft. Het is alsof je in drijfzand stapt: hoe meer je spartelt zonder strategie, hoe dieper je wegzakt.
Hun oplossing - Recursive Chain-of-Feedback - werkt omdat het de AI dwingt om:
complexe problemen op te delen in behapbare stappen;
foute stappen te isoleren en specifiek te corrigeren;
correcties systematisch te integreren in het eindantwoord.
Dit verklaart waarom gerichte feedback zo veel beter werkt: je geeft de AI houvast in plaats van het in het diepe te gooien met een vaag “doe het nog maar eens”.
Tot slot
De volgende keer dat je AI een antwoord geeft waar je niet helemaal tevreden mee bent, onderdruk dan de neiging om te zeggen “probeer het nog eens”. Neem even de tijd om te analyseren wat er mis is, en geef gerichte feedback. Je zult versteld staan van hoeveel beter de resultaten worden.
Want net als bij mensen geldt ook bij AI: goede feedback is goud waard. Het verschil tussen “dat is fout” en “hier is precies wat je moet aanpassen” kan het verschil zijn tussen eindeloos in cirkels draaien en in één keer de spijker op de kop slaan.
Dus stop met dat betekenisloze “probeer het nog eens” en begin met Chain-of-Feedback. Je AI (en je bloeddruk) zullen je dankbaar zijn.
Zit je ergens mee of wil je meer weten? Als betaalde abonnee kun je terecht in onze comments-sectie onderaan deze nieuwsbrief. Of je nu een vraag hebt, een opmerking wilt delen of ergens tegenaan loopt - we staan voor je klaar. Stel je vraag of deel je gedachten - we lezen en beantwoorden alles.
Tot de volgende keer,
Xiang Yu Yeung, Wietse Hage en Alexander Klöpping
Vwb de Teslas in Texas, check deze post even!
https://www.instagram.com/reel/DK2X70Oyk1A/?igsh=MTMzZHB3eHRicWRuOA==
Waarom zo’n vooringenomen stuk over de Robotaxi? De Tesla koers knalde 10% omhoog dus blijkbaar is de markt heel positief. Bovendien zijn er geen grote issues gemeld. Kritisch zijn mag maar wel gebalanceerd.