Inhoud
Wat AI-vision goed kan
Moderne vision-modellen (Claude vision, GPT-4V, Gemini, lokale getrainde YOLO-varianten) zijn verrassend goed in een aantal specifieke taken voor infra-inspectie:
- Schadebeeld-herkenning op verhardingen — scheurvorming-langs, scheurvorming-blok, rafeling, spoorvorming, kuilen. 85-92% accuraatheid bij standaard belichting en goed perspectief.
- Categorisatie van standaard objecten — putten, lantaarnpalen, bewegwijzeringsborden. Welk type, in welke staat globaal.
- Tellen en spreiding — aantal schades op een wegvak, percentage oppervlakte met spoorvorming. Goed voor CROW-omvang-classificatie (1/2/3).
- Eerste filter bij grootschalige inspecties — uit 1000 foto's de 200 met "iets significants" voorselecteren voor menselijke beoordeling.
Waar AI-vision faalt
Voor andere taken is AI-vision (nog) niet betrouwbaar:
- Ernst-bepaling — een "5 mm scheur" vs "12 mm scheur" zonder schaalreferentie kan AI niet betrouwbaar zien. Ernst-classificatie (L/M/E) blijft mensenwerk of vraagt om foto-meta-data en additionele referentie-input.
- Constructieve beoordeling — is deze brug nog veilig? Zit de wapening te dicht aan de buitenzijde? AI kan oppervlakte-schade tonen maar geen constructieve beoordeling vervangen.
- Slechte foto-condities — schemering, regen, contralicht, ondergesneeuwd. Accuraatheid kelder van 90% naar <50%.
- Zeldzame schadebeelden — corrosie aan staalconstructies, alkali-silica-reactie in beton, bijzondere wegopbouw. Modellen zijn vooral getraind op de meest voorkomende schadebeelden.
- Context — een groot afgebroken stuk asfalt is iets anders bij een net opgeleverde weg dan bij een wegvak op de vervangingsplanning. AI heeft die context niet.
Hoe accuraat is het echt?
Wij hanteren in productie deze realistische cijfers voor CROW-classificatie via Claude vision:
- Schadegroep correct (samenhang vs vlakheid vs voegen): 92-95%.
- Schadebeeld correct (specifiek welk type, bv "scheurvorming-langs"): 80-87%.
- Ernst correct (L/M/E zonder additionele context): 60-70%.
- Omvang correct (1/2/3 op fragmentfoto): 55-65%.
- Volledige CROW-klasse correct (alle vier juist): ~50-55%.
Dat laatste cijfer (50-55%) klinkt teleurstellend tot je het vergelijkt met de praktijk: tussen twee menselijke inspecteurs is de overeenkomst voor volledige CROW-klasse vaak 70-80%, en niet 100%. AI is dus niet veel slechter dan het verschil tussen mensen onderling — én is consistent in z'n manier van fout zitten, wat valideren makkelijker maakt.
De juiste workflow: AI suggereert, mens valideert
In een goede AI-foto-inspectie-workflow wordt AI gebruikt als versneller, niet als vervanger:
- Foto wordt gemaakt door inspecteur op locatie (of automatisch via dashcam).
- AI analyseert en suggereert: schadegroep, schadebeeld, ernst, omvang, en daaruit de CROW-klasse + GWWkosten-RAW maatregel.
- Inspecteur valideert de AI-suggestie. Bij <70% confidence: kritisch heroverwegen; bij 70-90%: meestal accepteren met snelle check; bij >90%: vrijwel altijd accepteren.
- AI-bron wordt vastgelegd — de oorspronkelijke AI-suggestie + confidence + model-versie + prompt-versie blijven bij de melding voor traceability.
Resultaat: een nog onervaren inspecteur classificeert net zo consistent als een veteraan, omdat de AI als "second opinion" fungeert. De veteraan zelf werkt 30-50% sneller omdat de AI-pre-vulling het meeste werk al doet.
Audit-implicaties van AI-suggesties
Voor opdrachtgevers met compliance-eisen (Rekenkamer, ISO 27001, GDPR-DPA) is AI-gebaseerde inspectie geen blocker — mits je drie dingen documenteert:
- Wie maakte de uiteindelijke beslissing? Mens of AI? In de juiste workflow is het altijd de mens; AI is een hulpmiddel.
- Welke AI-versie + welke prompt-versie? Modellen veranderen; een classificatie-uitkomst van Claude 3.5 is anders dan Claude 4.6. Vastleggen welke combo gebruikt is.
- Wat was de confidence? Een 95%-confidence-suggestie die geaccepteerd is verschilt sterk van een 60%-confidence-suggestie die geaccepteerd is. Beide moeten in het audit-log staan.
Wij noemen dit principe Audit-Bound AI™: elke AI-output draagt z'n eigen onderbouwing met zich mee. Bij een audit kun je 5 jaar later nog reproduceren waarom een classificatie is toegekend.
Wat kost AI-foto-inspectie?
Drie kosten-componenten in productie:
- API-kosten per foto — Claude vision: €0,005-€0,02 per foto afhankelijk van resolutie en prompt-grootte. Voor 10.000 foto's per jaar: €50-€200.
- Storage voor foto's — 1-3 MB per foto na compressie. 10.000 foto's = 10-30 GB. Op EU-cloud-storage: €5-€15 per maand.
- Implementatie + integratie — eenmalig. Zit ingebakken bij FieldOps; bij eigen ontwikkeling 80-200 uur engineer-werk.
Tegenover deze kosten: 30-50% snellere inspectierondes en 20-40% consistentere classificatie. Voor een organisatie met inspectie-werk >2 dagen per week is de break-even meestal binnen 3-6 maanden.
Drie valkuilen bij implementatie
1. AI als blackbox accepteren
Een AI-classificatie zonder rationale is bij elke audit een probleem. Eis dat de software de AI-output toont mét confidence en mét bron — anders is het niet inzetbaar voor publieke opdrachtgevers.
2. AI gebruiken voor wat het niet kan
Foto's bij slechte belichting of vanaf vreemde hoeken accepteren omdat "AI het wel ziet" — terwijl AI op die foto's juist faalt. Documenteer foto-richtlijnen en houd inspecteurs eraan.
3. Inspecteurs vervangen door AI
"We doen alleen nog automatische inspecties via dashcam-AI" werkt niet voor compliance-werk en mist contextuele beoordeling. AI is een versneller, geen vervanger. De ervaren inspecteur blijft nodig voor edge cases en eindverantwoordelijkheid.
Hoe FieldOps het inzet
FieldOps gebruikt Claude vision voor CROW-classificatie van foto's, met expliciete Audit-Bound AI™-implementatie:
- Elke foto-analyse logt prompt-versie + model-id + confidence in het audit-log.
- De AI-suggestie wordt apart vastgelegd náást de uiteindelijke melding — als de inspecteur afwijkt, blijft de AI-versie zichtbaar voor reproduceerbaarheid.
- Confidence-drempel instelbaar per organisatie — onder die drempel is een tweede mensen-validatie verplicht.
- Foto's worden EU-side opgeslagen (Frankfurt); geen US-data-overdracht.
Verder lezen
Over de classificatie waar AI naar suggereert: CROW 146 en NEN 2767-2 conditiescore. Over de procesketen waar de AI in past: MOR-meldingen automatiseren. Over predictive op de geclassificeerde data: risicogestuurd onderhoud.