Deze prompts maken jouw AI slimmer
PLUS: grote ChatGPT-upgrade komt eraan, Anthropic openbaart geheime instructies achter Claude
De AI-wereld ontwikkelt zich razendsnel, en wij, de makers van de podcast Poki, houden je op de hoogte. Twee keer per week de nieuwste AI-ontwikkelingen, tools, use cases en onderzoek.
🗞️ Het belangrijkste nieuws
OpenAI plant release van nieuw AI-model deze herfst
Na maanden van speculatie en een cryptische tweet van CEO Sam Altman met een foto van aardbeien in zijn tuin, is er eindelijk meer duidelijkheid over OpenAI’s mysterieuze ‘Project Strawberry’. Ingewijden melden dat het bedrijf van plan is om dit najaar een baanbrekend nieuw AI-model te lanceren, mogelijk als onderdeel van ChatGPT.
Wat is Project Strawberry?
Project Strawberry, voorheen bekend onder de codenaam Q*, is OpenAI’s nieuwste poging om de grenzen van kunstmatige intelligentie te verleggen. Volgens bronnen bij het bedrijf kan dit model taken uitvoeren die ver uitstijgen boven de mogelijkheden van huidige AI-systemen:
oplossen van nooit eerder geziene wiskundige problemen;
uitvoeren van complexe taken zoals het ontwikkelen van marketingstrategieën;
kraken van ingewikkelde taalpuzzels;
verrichten van diepgaand onderzoek.
Ghazenfer Mansoor, oprichter en CEO van Technology Rivers, onderstreept het potentieel van deze ontwikkeling: ‘OpenAI’s streven naar redeneren op menselijk niveau is niet alleen een technologisch wonder, het opent nieuwe mogelijkheden in elke sector. In het bedrijfsleven kan AI dramatisch veranderen hoe toeleveringsketens worden beheerd, markttrends met grote nauwkeurigheid worden voorspeld en klantenervaringen op grote schaal zeer persoonlijk worden gemaakt.’
Meer dan alleen een slim computerbrein
Het echte belang van Strawberry ligt in zijn rol als ‘leraar’ voor nog krachtigere AI-modellen. OpenAI gebruikt Strawberry om hoogwaardige trainingsgegevens te genereren voor een nóg geavanceerder systeem, met de codenaam ‘Orion’.
Alex Graveley, CEO van de start-up Minion AI en voormalig hoofdarchitect van GitHub Copilot, legt uit waarom dit zo belangrijk is: ‘Stel je een model voor zonder hallucinaties, een model waarbij je een logische puzzel voorlegt en in één keer het juiste antwoord krijgt. De reden waarom het model dat kan, is dat er minder dubbelzinnigheid in de trainingsgegevens zit, waardoor het minder hoeft te gissen.’
Dit proces, waarbij AI zichzelf als het ware verbetert, zou weleens de sleutel kunnen zijn tot het ontwikkelen van kunstmatige algemene intelligentie (AGI) – AI die op menselijk niveau of zelfs daarboven kan functioneren.
Integratie in ChatGPT
Hoewel de details nog onduidelijk zijn, suggereren insiders dat OpenAI ernaar streeft een vereenvoudigde versie van Strawberry al dit najaar te integreren in ChatGPT. Dit zou kunnen leiden tot:
nauwkeurigere antwoorden op complexe vragen;
minder ‘hallucinaties’ (fouten in de output van AI);
hulp bij ingewikkelde taken die nu nog mensenwerk vereisen.
Een insider bij OpenAI merkt op: ‘We weten niet zeker hoe een op Strawberry gebaseerd product eruit zal zien, maar we kunnen een goed onderbouwde gok doen. Een voor de hand liggend idee zou zijn om Strawberry’s verbeterde redeneercapaciteiten in ChatGPT te verwerken.’
Veiligheid en transparantie
De snelle vooruitgang in AI-technologie roept ook vragen op over veiligheid en ethiek. OpenAI lijkt zich hiervan bewust en heeft proactief stappen ondernomen om transparant te zijn.
Een bron met directe kennis van de situatie onthult: ‘Deze zomer heeft het team de technologie gedemonstreerd aan Amerikaanse nationale veiligheidsambtenaren.’ Dit lijkt een poging om de zorgen over de veiligheid en het gebrek aan transparantie, die de afgelopen maanden zijn toegenomen, weg te nemen.
Wat betekent dit voor de toekomst?
De komst van Strawberry en het daaropvolgende Orion-model kan een nieuwe golf van AI-innovatie inluiden. Als de beweringen kloppen, zou dit OpenAI een flinke stap dichter bij zijn doel van kunstmatige algemene intelligentie brengen.
Voor de gemiddelde gebruiker betekent dit dat we mogelijk al zeer binnenkort kunnen profiteren van een veel krachtigere en nauwkeurigere versie van ChatGPT. Voor bedrijven en onderzoekers opent het deuren naar nieuwe toepassingen die tot nu toe buiten bereik leken.
Anthropic zet nieuwe standaard voor transparantie in AI-wereld
In een verrassende zet heeft Anthropic, het bedrijf achter het populaire AI-model Claude, als eerste in de AI-industrie de gordijnen opzijgeschoven. Ze hebben de geheime instructies - ook wel ‘system prompts’ genoemd - van hun nieuwste AI-modellen openbaar gemaakt. Een stap die de AI-wereld op zijn kop zet en vragen oproept over transparantie en ethiek in de sector.
Wat zijn system prompts eigenlijk?
Stel je voor dat je een nieuwe collega inwerkt. Je geeft hem of haar een lijst met do’s-and-don’ts, bedrijfswaarden en aanwijzingen voor hoe om te gaan met lastige situaties. Dat is in essentie wat een system prompt doet voor een AI-model. Het zijn de basisinstructies die bepalen hoe het model zich gedraagt, wat het wel en niet mag doen, en hoe het moet reageren op verschillende situaties.
Wat staat er in Anthropics instructies?
De gepubliceerde instructies, gedateerd 12 juli, geven een fascinerend inkijkje in de ‘opvoeding’ van Claude. Enkele opvallende punten:
De modellen mogen geen URL’s, links of video’s openen.
Ze mogen geen mensen in afbeeldingen identificeren of benoemen.
Ze moeten antwoorden vermijden die beginnen met stopwoorden als ‘zeker’ of ‘absoluut’.
Bij zeer obscure vragen moeten ze de gebruiker waarschuwen dat ze mogelijk ‘hallucineren’ (fouten maken).
Alex Albert, hoofd Ontwikkelaarsrelaties bij Anthropic, liet op X weten dat het bedrijf van plan is deze openheid voort te zetten en updates van de system prompts regelmatig te delen.
Waarom is dit belangrijk?
Unieke transparantie: Geen enkel ander groot AI-bedrijf - denk aan OpenAI, Google of Meta - heeft ooit zijn system prompts vrijgegeven. Dit geeft ons voor het eerst een kijkje in de keuken van AI-ontwikkeling op dit niveau.
Veiligheid vs. openheid: Sommige bedrijven houden deze instructies geheim om hackers geen aanknopingspunten te geven voor het omzeilen van veiligheidsmaatregelen. Anthropic kiest bewust voor transparantie boven deze voorzichtigheid.
Ethische AI-ontwikkeling: Door deze stap positioneert Anthropic zich als voorvechter van ethische en transparante AI-ontwikkeling. Hiermee kan het bedrijf druk uitoefenen op concurrenten om ook opener te worden.
Inzicht voor gebruikers: Voor ons als gebruikers geeft dit inzicht in de ‘persoonlijkheid’ en beperkingen van AI-assistenten als Claude. We begrijpen beter waarom ze op een bepaalde manier reageren.
Wat betekent dit voor de toekomst?
De move van Anthropic zou weleens een domino-effect kunnen veroorzaken in de AI-wereld. Als andere grote spelers volgen, krijgen we als samenleving veel meer inzicht in hoe AI-systemen werken en worden ‘opgevoed’. Dit kan leiden tot:
meer publiek debat over de ethische kaders van AI;
betere mogelijkheden voor onafhankelijke controle op AI-systemen;
snellere ontwikkeling doordat bedrijven van elkaars aanpak kunnen leren.
De stap van Anthropic is een interessante ontwikkeling in een sector die vaak wordt bekritiseerd om zijn gebrek aan transparantie. Of het een nieuwe standaard zet of een eenmalige uitzondering blijft, zal de tijd leren.
⚡ AI Pulse
Google lanceert drie experimentele AI-modellen. De techgigant introduceert Gemini 1.5 Pro, een krachtpatser in codering en complexe taken; Gemini 1.5 Flash met verbeterde algehele prestaties; en de verrassend capabele Gemini 1.5 Flash-8B, een compact model dat boven zijn gewicht bokst. Met deze zet biedt Google ontwikkelaars toegang tot krachtige AI-tools die zowel betaalbaar als gebruiksvriendelijk zijn, waarmee het bedrijf de concurrentie een stap voor wil zijn.
Elon Musk schaart zich achter een controversieel AI-wetsvoorstel in Californië. Het voorstel, dat grote AI-modellen verplicht veiligheidstests te ondergaan, heeft al felle kritiek gekregen van techgiganten als Marc Andreessen en OpenAI. Musks steun, die hij een ‘moeilijke beslissing’ noemt, komt op een cruciaal moment voor het wetsvoorstel. Eerder deze week sprak ook Anthropic-CEO Dario Amodei zijn steun uit, waarmee de discussie over AI-regulering in een stroomversnelling lijkt te komen.
Chinees-Amerikaans wetenschapsteam ontwikkelt AI-model dat medicijnontwikkeling kan versnellen. Het nieuwe model, ActFound, overtreft bestaande methoden in het voorspellen van de bioactiviteit van geneesmiddelen. Door gebruik te maken van geavanceerde leertechnieken en training op een enorme dataset, toont ActFound veelbelovende resultaten, vooral bij het voorspellen van de effectiviteit van kankermedicijnen. Deze ontwikkeling zou de tijd en kosten van medicijnontwikkeling aanzienlijk kunnen verminderen, wat in potentie miljoenen levens kan redden.
Californië neemt baanbrekende wet aan die acteurs beschermt tegen ongewenste AI-replica’s van hun stem en uiterlijk. Het wetsvoorstel AB 2602, dat met overweldigende meerderheid werd goedgekeurd door de Senaat, vereist expliciete toestemming voor het gebruik van digitale replica’s van artiesten. De wet, sterk gesteund door de acteursvakbond SAG-AFTRA, breidt de bescherming uit naar videogames, luisterboeken en reclames, en geldt ook voor niet-vakbondswerk. De wet markeert een cruciale stap in het reguleren van AI in de entertainmentindustrie en zou model kunnen staan voor vergelijkbare wetgeving op nationaal en internationaal niveau.
🔮 Prompt Whisperer
Maak AI slimmer met jouw prompts: de kracht van stapsgewijs denken
Welkom bij onze tutorial over een van de effectiefste prompttechnieken: Chain of Thought (CoT) prompting. Vandaag gaan we dieper in op recente ontwikkelingen, de wetenschap erachter, en ontdekken we hoe je deze techniek met maximale impact kunt inzetten.
Waarom AI tijd nodig heeft om na te denken
Keep reading with a 7-day free trial
Subscribe to AI Report to keep reading this post and get 7 days of free access to the full post archives.