De onzichtbare collega in de haven
In de vorige editie van Onze Haven schreef collega- columnist Marijn van Schoote al: “Alles is fake – wat nu?” En daarmee sloeg hij de spijker op zijn kop. Ik wil daarop voortborduren en het hebben over een verwante trend: shadow AI. Dat is het ongezien inzetten van AI-tools zonder dat de organisatie het weet. En dat probleem is groter dan je misschien denkt. Volgens recente cijfers gebruikt zo’n 50% van de medewerkers ongeautoriseerde AI-tools. Dat is behoorlijk wat.
In de haven, waar veiligheid en betrouwbaarheid altijd centraal staan, is dat natuurlijk een ongewenste situatie. We werken met duidelijke procedures en strakke afspraken, maar met AI komt er ineens een onzichtbare collega bij. En daar moeten we mee leren omgaan.
Het begint klein
Een planner die via ChatGPT een leveringsschema laat aanpassen. Een marketeer die een gratis beeldgenerator gebruikt voor een flyer. Een data-analist die ladingvolumes door een AI-tool haalt om patronen te ontdekken.
Handig, snel en zonder kwade bedoelingen. Maar ondertussen deel je ongemerkt gevoelige informatie of baseer je beslissingen op modellen die niemand kent of controleert.
Een persoonlijke wake-up call
Ik maakte het zelf ook mee. Ik was bezig met een data- analyse en dacht dat ik alles netjes had geanonimiseerd.
Toch uploadde ik per ongeluk een verkeerd bestand met klantgegevens. Ik schrok me rot, want ik wist niet waar die data terechtkwam. Dat laat zien hoe makkelijk je in zo’n valkuil stapt, zelfs als je denkt dat je het goed doet.
Vertrouwen in de keten
In de haven draait alles om vertrouwen. Als ergens iets vastloopt, kan een hele supply chain daar hinder van ondervinden. Een verkeerde beslissing kan leiden tot vertragingen, claims of reputatieschade. En verzekeraars of toezichthouders willen altijd weten hoe je tot een besluit bent gekomen. Kun je dat niet uitleggen omdat je een ongeziene AI-tool hebt gebruikt, dan heb je een serieus probleem.
Niet verbieden, wel zichtbaar maken
Alles verbieden werkt niet, als je het mij vraagt. Mensen zoeken dan toch hun eigen weg. Beter is om AI-gebruik zichtbaar en beheersbaar te maken. Vraag teams welke tools ze gebruiken, bied een veilige plek om ermee te experimenteren en zet er simpele spelregels omheen. Zo voorkom je problemen zonder alles op slot te zetten.
AI is meer dan een tool; het voelt soms als een nieuwe collega met een wel heel ingewikkelde gebruiksaanwijzing. Dat vraagt om gedragsverandering en bewustwording. Wie dat inziet, kan niet alleen de technologie beter begeleiden, maar vooral ook de mensen die ermee werken.