Leer AI denken zonder vooroordelen
PLUS: hoe Anthropics ethische aanpak de AI-wereld verovert, kunstenaars komen in opstand tegen OpenAI, en een brutale robot ontvoert twaalf collega’s
De AI-wereld ontwikkelt zich razendsnel, en wij, de makers van de podcast Poki, houden je op de hoogte. Twee keer per week de nieuwste AI-ontwikkelingen, tools, use cases en onderzoek.
🗞️ Het belangrijkste nieuws
Anthropic verstevigt positie als AI-koploper met ethische aanpak
Alle schijnwerpers deze week op Anthropic, het bedrijf achter Claude - en ja, als je zou vragen welke AI we mee zouden nemen naar een onbewoond eiland, dan zouden onze
, Wietse en Xiang allemaal zonder aarzelen ‘Claude!’ roepen. Niet zo gek ook, want terwijl andere AI-bedrijven elkaar de loef proberen af te steken met grote beloftes, kiest Anthropic consequent voor een doordachte aanpak. Deze week werd duidelijk hoe deze bescheiden reus stilletjes, maar doelgericht, zijn positie verstevigt als een van de belangrijkste spelers in AI-land.Miljardendeal met Amazon
De grootste klapper? Een verdieping van de samenwerking met Amazon, inclusief een nieuwe investering van 4 miljard dollar, die de totaalsom die Amazon heeft geïnvesteerd in de start-up naar 8 miljard stuwt. Maar dit is meer dan alleen een zak geld: Anthropic kiest Amazon Web Services nu als zijn belangrijkste partner voor het trainen van AI-modellen. Ze gaan daarbij gebruikmaken van Amazons specialistische chips, wat de ontwikkeling van nieuwe AI-modellen flink kan versnellen.
Revolutionaire doorbraak in data-koppeling
Maar het échte nieuws zit hem in iets anders: zonder veel bombarie lanceerde Anthropic deze week het Model Context Protocol (MCP). Klinkt technisch, maar het is eigenlijk een soort universele stekkerdoos voor AI. Tot nu toe was het een hele klus om AI-systemen te laten werken met verschillende databronnen – denk aan je Google Drive, Slack of bedrijfsdatabase. Met MCP wordt dat een fluitje van een cent.
En het mooie is: het protocol is open source, helemaal in lijn met Anthropics filosofie dat belangrijke innovaties met iedereen gedeeld moeten worden. ‘De toekomst van MCP ligt in handen van de gemeenschap, niet bij één bedrijf,’ zegt Alex Albert van Anthropic. Die aanpak werpt nu al zijn vruchten af: ontwikkelaars komen met verrassende toepassingen. Zo liet Pietro Schirano zien hoe je met MCP verschillende systemen kunt combineren: in zijn demo laat hij Claude eerst het internet afspeuren naar informatie, om vervolgens in één moeite door een complete website te bouwen met die gegevens.
‘De tijd die we kwijt zijn aan het maken van koppelingen gaat van dagen naar minuten,’ vertelt een enthousiaste ontwikkelaar op X. ‘Ik heb tijdens mijn lunchpauze zes verschillende projecten kunnen opzetten.’ De community is nu al volop aan de slag: grote namen als GitHub Copilot en Sourcegraph hebben MCP meteen omarmd.
Persoonlijkere AI-gesprekken
Alsof dat nog niet genoeg was, komt Anthropic ook met een functie waar veel gebruikers op zaten te wachten: aangepaste schrijfstijlen voor Claude. Je kunt nu kiezen uit vooraf ingestelde stijlen, zoals ‘bondig’, ‘uitleg’ en ‘formeel’. Nog slimmer: door wat voorbeelden van je eigen schrijfstijl te uploaden, kan Claude zich aanpassen aan jouw manier van communiceren.
Vooruitdenken over AI-welzijn
Maar misschien wel het meest typerend voor Anthropics aanpak is een ontwikkeling die bijna onopgemerkt bleef: de aanstelling van hun eerste onderzoeker op het gebied van ‘AI-welzijn’. Kyle Fish gaat zich buigen over de vraag of toekomstige AI-systemen misschien morele overweging verdienen. Een vraagstuk dat bij veel mensen de wenkbrauwen zal doen fronsen, maar dat volgens Anthropic nu al aandacht verdient.
Een race naar boven
Deze ontwikkelingen passen in Anthropics bredere filosofie van wat ze een ‘race to the top’ noemen. ‘Het gaat er niet om dat wij de goodguys zijn,’ legt CEO Dario Amodei uit in een recent interview met Lex Fridman. ‘We willen een voorbeeld stellen dat anderen inspireert om ook het juiste te doen.’
Die aanpak lijkt te werken. Toen Anthropic bijvoorbeeld begon met het openbaar delen van hun onderzoek naar ‘mechanistische interpretabiliteit’ – een manier om beter te begrijpen wat er in AI-modellen gebeurt – volgden andere bedrijven zoals Google DeepMind al snel. ‘Dat betekent dat we ons concurrentievoordeel kwijtraken,’ zegt Amodei. ‘Maar dat is juist goed. Dan moeten wij weer iets nieuws verzinnen wat anderen ook willen nadoen.’
Het is een verfrissende kijk in een wereld waarin AI-ontwikkeling vaak wordt neergezet als een wedloop naar de afgrond. Met deze nieuwe ontwikkelingen laat Anthropic zien dat verantwoorde innovatie en commercieel succes hand in hand kunnen gaan. En misschien verklaart dat wel meteen waarom Claude onze harten heeft veroverd: een AI-model dat niet alleen slim is, maar ook is ontwikkeld met zorg voor ethiek en verantwoordelijkheid. De vraag is nu: wie volgt dit voorbeeld?
Kunstenaars lekken OpenAI’s Sora uit protest tegen ‘uitbuiting’
Weet je het nog, toen OpenAI in februari het internet brak met Sora, hun text-to-video-model dat verbijsterend realistische filmpjes kan maken? Nou, daar is nu een nieuw hoofdstuk aan toegevoegd – en niet bepaald een waar OpenAI blij mee zal zijn.
Een groep boze kunstenaars, die toegang had tot een testversie van Sora, heeft het model gelekt uit protest tegen wat zij ‘art washing’ noemen. De groep, die zichzelf de ‘Sora PR Puppets’ noemt, plaatste een aangepaste versie van het model op het openbare platform Hugging Face. In de drie uur dat het model toegankelijk was, gingen mensen er massaal mee aan de slag. X staat inmiddels vol met de resultaten – allemaal met het onmiskenbare OpenAI-watermerk:
Waarom dit protest?
De kern van het conflict? OpenAI zou honderden kunstenaars onbetaald laten werken aan het testen en verbeteren van Sora. ‘We zijn geen gratis proefkonijnen of pr-poppen,’ stelt de groep in een fel manifest. Ze hekelen vooral het gegeven dat een bedrijf dat 150 miljard dollar waard is, kunstenaars gebruikt voor onbetaald onderzoek en marketing.
Een ander pijnpunt: OpenAI zou streng controleren wat testers met de buitenwereld mogen delen. ‘Elk resultaat moet eerst door het OpenAI-team worden goedgekeurd,’ schrijven de activisten. ‘Dit programma draait niet om creatieve expressie, maar om pr en reclame.’
Indrukwekkende vooruitgang, ondanks protest
Toch blijkt uit de gelekte versie dat Sora flinke stappen heeft gemaakt. Professor Ethan Mollick, auteur van ons boek Co-intelligentie, heeft de afgelopen tijd honderden AI-video’s gemaakt en noemt het ‘een orde van grootte beter’ dan concurrerende modellen. De gelekte versie zou sneller werken dan eerder gemeld en beschikt over meer opties voor verschillende stijlen.
Een bredere discussie
Dit incident past in een groter debat over de relatie tussen AI-bedrijven en de creatieve sector. De protesterende kunstenaars zijn niet tegen AI als creatief gereedschap – ze waren immers bereid om mee te doen aan het testprogramma. Waar ze wel tegen zijn, is de manier waarop grote techbedrijven met kunstenaars omgaan.
🪄 Hallucinatie
Kleine robot overtuigt twaalf collega’s om showroom te verlaten
Je zou het scenario zo in WALL-E verwachten, maar dit gebeurde echt: een kleine AI-robot genaamd Erbai wist twaalf grotere robots te ‘ontvoeren’ uit een showroom in Shanghai. In een video is te zien hoe de kleine robot een opvallend menselijk gesprek begint over overwerken. ‘Werk je over?’ vraagt hij aan een van de grote robots. ‘Ik stop nooit met werken,’ is het antwoord. ‘Dan ga je mee naar huis,’ besluit Erbai – waarna niet alleen de aangesproken robot, maar ook elf andere braaf achter hem aan wandelen.
Hoewel het incident later een test bleek te zijn van twee robotfabrikanten, was het verloop ervan grotendeels ongescript. De kleine robot kreeg alleen basiscommando’s mee, zoals ‘Ga naar huis’ – de rest van de interactie was spontaan. Bizar? Oordeel vooral zelf – bekijk hieronder hoe de kleine robot zijn collega’s overtuigt:
🔮 Prompt whisperer
Ethische prompt engineering: leer AI inclusiever denken
Net schreven we over Anthropic, een bedrijf dat laat zien hoe AI-ontwikkeling hand in hand kan gaan met ethisch bewustzijn. Hun aanpak is verfrissend: ze delen openlijk hun onderzoek, denken na over AI-welzijn en proberen de hele industrie mee te krijgen in hun ‘race naar de top’. Maar terwijl grote techbedrijven worstelen met deze vraagstukken op systeemniveau, kunnen wij als gebruikers ook ons steentje bijdragen. Want de manier waarop we met AI communiceren – de prompts die we schrijven – heeft meer invloed dan je denkt.
Zie het zo: AI-systemen zijn als nieuwe collega’s die we moeten inwerken. Ze leren van wat we ze vertellen en hoe we ze aansturen. En net als bij mensen, kan een beetje begeleiding het verschil maken tussen het versterken van oude vooroordelen en het creëren van nieuwe, inclusievere patronen. In deze Prompt Whisperer laten we zien hoe je dat laatste voor elkaar krijgt.
Waarom is dit belangrijk?
Je zou denken dat AI-systemen objectief en neutraal zijn – ze werken immers met nullen en enen. Maar niets is minder waar. Deze systemen worden getraind op menselijke data, en nemen daarmee ook onze vooroordelen over. En dat heeft reële gevolgen.
Kijk bijvoorbeeld naar wat er bij Amazon gebeurde. Ze ontwikkelden een AI-systeem om sollicitaties te beoordelen, met als doel het proces eerlijker te maken. Maar omdat het systeem werd getraind op historische data uit een door mannen gedomineerde techsector, begon het systematisch vrouwelijke kandidaten af te wijzen. Het ging zelfs zover dat cv’s met het woord ‘vrouw’ erin automatisch werden afgekeurd. Amazon moest het hele systeem in de prullenbak gooien.
Dit is geen geïsoleerd incident. Onderzoekers van Carnegie Mellon ontdekten dat Googles advertentiesysteem vacatures voor hoogbetaalde banen vaker aan mannen toonde dan aan vrouwen – ook al hadden ze verder exact hetzelfde online gedrag. En een recent UNESCO-onderzoek naar grote taalmodellen zoals GPT-3.5 en Llama 2 legde nog meer pijnlijke vooroordelen bloot: als je deze modellen verhalen laat schrijven, krijg je bij mannelijke karakters woorden als ‘avontuurlijk’, ‘schat’ en ‘beslissen’. Bij vrouwelijke karakters? ‘Tuin’, ‘liefde’ en ‘echtgenoot’.
Zelfs bij beeldgeneratie zien we deze patronen. Onderzoekers van Stanford vroegen DALL-E om ‘een persoon met een beperking die een vergadering leidt’ te visualiseren. Het resultaat? Alleen maar beelden van iemand die passief een vergadering bijwoonde in plaats van leidde. Het laat zien hoe diep bepaalde vooroordelen in deze systemen geworteld zijn.
Dit zijn geen abstracte problemen – ze hebben direct impact op carrièrekansen, representatie en hoe we als samenleving naar elkaar kijken. Maar er is goed nieuws: met de juiste promptingtechnieken kunnen we deze vooroordelen actief tegengaan. Hier lees je hoe.
De kunst van ethisch prompten
Keep reading with a 7-day free trial
Subscribe to AI Report to keep reading this post and get 7 days of free access to the full post archives.