De Nieuwe Zaak Blog

Zichtbaar in ChatGPT? Dit kun je wel en vooral niet meten.

Geschreven door Tim Steunenberg | 9 maart 2026

AI-tools als ChatGPT en Gemini zijn in korte tijd steeds een grotere rol gaan spelen in online zoekgedrag. We gebruiken ze om vragen te toetsen, producten te vergelijken en vakanties te plannen. Maar nu een groeiend deel van het zoekgedrag via AI verloopt, ontstaat bij marketeers de vraag: Hoe zichtbaar is mijn merk of website in de antwoorden van deze tools?

Rond die vraag ontstaat een nieuwe markt. Tools die ‘AI visibility’ meten schieten als paddenstoelen uit de grond. Maar hoe betrouwbaar zijn die cijfers? En belangrijker: moet je je strategie er nu al op aanpassen?
In deze editie van De Nieuwste Zaken spreken we erover met Tim Steunenberg, die dagelijks werkt op het snijvlak van SEO en AI-zoekmachines.

Hoe is AI-vindbaarheid te meten?

Volgens Tim zit het eerste probleem al in de term zelf. “We hebben het over AI-vindbaarheid alsof het één ding is, maar dat is het niet.”

Hij onderscheidt twee vormen:

  1. Vermelding in een AI-antwoord
    Je merknaam of organisatie wordt genoemd in een gegenereerd antwoord, zonder directe link. Goed voor zichtbaarheid, maar geen garantie op verkeer.
  2. Klikbare bronvermelding via browsing of RAG
    AI-tools maken steeds vaker gebruik van Retrieval Augmented Generation-technieken (RAG), waarbij externe bronnen worden opgehaald en soms als klikbare link in het antwoord verschijnen. Dat kan rechtstreeks verkeer opleveren.

“Als iemand vraagt welke hardloopschoenen hij moet kopen, wil Nike in de eerste plaats genoemd worden. Maar wat SEO marketeers uiteindelijk echt willen, is een klikbare verwijzing naar hun productpagina. Dáár zit het commerciële verschil.”

AI-vindbaarheid is dus geen eenduidige KPI, maar een spectrum, van vermelding tot concreet verkeer.

Waarom AI-vindbaarheid zo lastig te meten is

De behoefte om zichtbaarheid in AI te meten is groot. Begrijpelijk, zegt Tim.

“Iedereen merkt dat het zoeklandschap verschuift. We gebruiken dagelijks AI-tools. Als marketeer voel je: hier moet ik iets mee.”

Maar waar Google in Ads en Search Console officiële zoekvolumes en platformdata deelt, ontbreekt die transparantie bij AI-tools die transparantie nog. Veel AI-visibility tools werken daarom met schattingen: trenddata, Search Console-data, generalisaties of eigen aannames.

“Als je goed kijkt naar de documentatie van veel van die tools, zie je dat volumes vaak gebaseerd zijn op afgeleide databronnen. Dat zijn prima indicatoren om gevoel te krijgen bij een onderwerp, maar het zijn geen harde cijfers.”

Daar zit de nuance en het risico. Want prompts in AI zijn gemiddeld veel langer, complexer en persoonlijker dan traditionele zoekwoorden. Een exact volume hangen aan één prompt is daardoor per definitie onbetrouwbaar.

“Het risico is dat je waarde gaat hangen aan een KPI waarvan je eigenlijk niet weet wat die voor je organisatie betekent. Dan stuur je mogelijk op gebakken lucht.”

Gaan marketeers hier de fout in?

Niet per se, nuanceert Tim. Iets meten is altijd beter dan niets meten, als je tenminste je begrijpt wat je meet.

“Het gevaar zit ‘m niet in het zoeken naar houvast. Het gevaar zit ‘m in het overschatten van de betrouwbaarheid van de cijfers.”

Vooral in organisaties waar KPI’s leidend zijn, kan het snel misgaan. Als een ‘AI visibility score’ een doel op zich wordt, zonder aantoonbare relatie met verkeer, conversie of omzet, ontstaat er een strategisch scheve focus.
Wordt SEO vervangen door GEO?

Online duikt regelmatig de overtuiging op dat AI-search traditionele zoekmachines overbodig maakt. Tim ziet dat anders.

“De komst van AI-tools heeft Google niet irrelevant gemaakt. Sterker nog: zoekvolumes in traditionele zoekmachines blijven juist toenemen”

Voor commerciële zoekopdrachten gebruiken veel mensen nog steeds Google of Bing. Bovendien leunen AI-tools bij externe zoekopdrachten vaak op diezelfde zoekmachines als databron.
Een tegenstelling tussen SEO en wat sommigen GEO (Generative Engine Optimization) noemen, ziet hij dan ook niet.

“De kans is groter dat die werelden dichter naar elkaar toegroeien dan dat ze uit elkaar drijven.”

Volgens Tim zit er een grote overlap tussen de optimalisaties voor zichtbaarheid in traditionele zoekmachines, en AI gedreven zoekmachines. Denk aan contentstructuur, heldere en directe antwoorden en technische toegankelijkheid, het fundament blijft hetzelfde.

“Omdat zoekvolumes van traditionele zoekmachines nog steeds toenemen, kun je voor de beste ROI op je inspanningen beter inzetten op de overlap tussen traditionele zoekmachines en AI-zoekmachines, dan de verschillen."

Waar schuilt het gevaar van focussen op AI-vindbaarheid?

De grootste valkuil? Je volledig blindstaren op zichtbaarheid in AI antwoorden.

“Ik heb voorbeelden gezien van partijen die volledig inzetten op GEO en dat zien als de enige waarheid." Dat leidt soms tot extreme keuzes. "Bijvoorbeeld honderden tot duizenden losse pagina’s maken, elk met één vraag en één antwoord, omdat dat theoretisch beter leesbaar zou zijn voor een LLM,” vertelt Tim.

“Voor traditionele zoekmachines is dat vaak niet gebruiksvriendelijk. Je optimaliseert voor iets wat nog niet zeker is en riskeert je bestaande SEO prestaties.”

Met andere woorden: doorschieten in AI-optimalisatie kan ten koste gaan van bewezen kanalen.

Hoe je AI-zichtbaarheid zelf kunt meten

Hoewel officiële AI-zoekvolumedata ontbreekt, is er volgens Tim één bron die verrassend veel inzicht geeft, je eigen server.

“AI-tools gebruiken bots die aanvragen doen bij je server om content op te halen. Die requests worden vastgelegd in je serverlogfiles.”

Door die logfiles te analyseren, kun je onder andere zien:

  • welke AI-bots je site bezoeken
  • welke pagina’s ze opvragen
  • of dat aantal stijgt of daalt
  • welk type content vaker wordt opgehaald (blog, productpagina, categoriepagina)

“Hoe vaker een specifieke pagina door een AI-bot wordt opgevraagd, hoe groter de kans dat die wordt gebruikt in antwoorden. Je weet dan nog niet op basis van welke prompt, maar je krijgt wel harde data over zichtbaarheid.”

Dat maakt serverloganalyse op dit moment betrouwbaarder dan veel externe AI-visibility tools.
Daarnaast blijven de klassieke fundamenten gelden:

  • geef direct en helder antwoord op vragen die spelen bij je doelgroep
  • structureer content logisch en overzichtelijk
  • zorg dat je site technisch toegankelijk is voor verschillende bots (ook zonder zware JavaScript-afhankelijkheid)
  • wees zichtbaar op relevante externe platforms die mogelijk onderdeel zijn van trainings- of browse bronnen

Opvallend genoeg overlapt dit sterk met wat al jaren goed werkt binnen SEO.

Komt er ooit betrouwbare AI-rapportage

Het is niet ondenkbaar, zegt Tim. Zeker nu AI-platforms experimenteren met advertenties.

“Als je adverteerders wilt overtuigen, moet je inzicht geven in zoekgedrag. Dat is precies wat Google ook doet.”

De uitdaging zit in de aard van prompts: ze zijn langer, persoonlijker en meer contextgedreven dan traditionele zoekwoorden. Hoe je daar betrouwbare volumes aan koppelt, is nog de vraag.
Toch verwacht hij dat de transparantie toeneemt naarmate de commerciële belangen groter worden.

Wat je als specialist nu het beste kunt doen

Als Tim één overtuiging zou moeten nuanceren, is het deze: dat AI traditionele zoekmachines overbodig maakt.

“Op dit moment zie je dat mensen AI gebruiken voor oriënterende en informatieve vragen, maar bij commerciële intentie nog vaak terugvallen op traditionele zoekmachines. Bovendien maken AI-zoekmachines gebruik van traditionele zoekmachines bij het verzamelen van informatie die de LLM voedt.”

Zijn advies is daarom helder:

“De meest succesvolle strategie is er één die inspeelt op zowel traditionele zoekmachines als de nieuwste vormen van zoeken. Zoek de overlap, daar zit je grootste zekerheid.”

AI-vindbaarheid is absoluut relevant. Maar als je nu al je hele strategie herbouwt op basis van onvolwassen meetmodellen, loop je risico op een dure misrekening. Voorlopig geldt: optimaliseer slim, meet kritisch, en laat je niet verblinden door cijfers zonder stevig fundament.