Kars en Sierd Waanders onderzoeken dagelijks wat AI doet met de manier waarop criminelen werken. Als onderzoekers bij het lectoraat Technology for Criminal Investigation (verbonden aan Saxion Hogeschool én de Politieacademie in Apeldoorn) zien ze van dichtbij hoe snel de technologie zich ontwikkelt. En wat er op het spel staat als burgers die ontwikkeling niet bijhouden.

Het echte risico zit niet in de technologie

Veel organisaties reageren op AI met terughoudendheid. Sommige verbieden het gebruik van ChatGPT op het werk. Anderen wachten af. Dat is begrijpelijk, maar het is precies de verkeerde reactie.

“Het grootste risico is niet de technologie zelf. Het is het gebrek aan begrip ervan.”

AI is niet inherent gevaarlijk. Maar het vergroot alles, inclusief de gevolgen van onwetendheid. Phishingmails die vroeger snel herkenbaar waren door slecht taalgebruik, zijn nu feilloos geschreven. In elke taal, op maat, geloofwaardig tot in de puntjes. Een nepwebsite die identiek lijkt aan die van de Belastingdienst? Criminelen bouwen hem in vijf minuten. En deepfakes (video’s of afbeeldingen die nauwelijks van echt te onderscheiden zijn) overspoelen steeds vaker het sociale medialandschap.

Voor mensen die digitaal al moeite hebben om overeind te blijven, wordt de wereld er niet eenvoudiger op. Tenzij we samen in actie komen.

Een tweesnijdend zwaard, maar ook een kans

AI biedt kansen én risico’s. Het is belangrijk om beide te begrijpen.

Voor mensen die digitaal minder vaardig zijn, kan AI een uitkomst zijn. Een chatbot zoals Claude of ChatGPT die stap voor stap uitlegt hoe je een e-mail verstuurt. Of een digitale assistent die helpt bij taken waarvoor mensen voorheen afhankelijk waren van anderen. In dat opzicht kan AI bestaande achterstanden verkleinen. Als mensen weten hoe ze het veilig en slim kunnen gebruiken.

Maar de risico’s zijn net zo concreet. Neem iemand die niet weet dat een chatbot zoals Claude of ChatGPT alles opslaat wat je intypt, inclusief naam, adres of arbeidscontract. Zonder het te beseffen deelt diegene gevoelige data met grote technologiebedrijven. Een phishingmail die er professioneel uitziet, leidt tot toegang tot accounts of persoonlijke data. En wie AI-gegenereerde content klakkeloos als waarheid accepteert, neemt beslissingen op basis van informatie die simpelweg verzonnen is.

Sociale media stroomt de komende jaren vol met content die niet van echt te onderscheiden is. Het is daarom belangrijk dat mensen leren hoe ze dit kunnen herkennen. Awareness is geen nice-to-have meer. Het is een basisvaardigheid.

“Ziet iets er te mooi uit om waar te zijn? Dan is het dat waarschijnlijk ook. Controleer altijd de officiële website van het bedrijf of de organisatie en geloof niet zomaar wat je ziet.”

Verbieden werkt niet. Investeren wel.

AI blokkeren of verbieden lost niets op. Mensen gebruiken het thuis toch. Of stiekem via hun telefoon. Het enige wat een verbod doet, is het gesprek bemoeilijken. Terwijl juist dat gesprek nodig is. Thuis, op school, op het werk en in de buurt.

Wat wél werkt: leren hoe je AI veilig en slim inzet. Dat geldt voor burgers, voor werkgevers én voor de overheid. Met bewustwording die niet aan toeval wordt overgelaten, maar structureel verankerd is, in organisaties, maar ook in wijkcentra, bibliotheken en klaslokalen.

“De verantwoordelijkheid is gedeeld. Overheden moeten brede campagnes voeren. Bibliotheken kunnen laagdrempelige cursussen aanbieden. En werkgevers staan het dichtst bij hun mensen en dragen daarmee ook verantwoordelijkheid. Wie nu niets doet, loopt over een jaar al achter. En AI wacht niet.”

Het begint bij een kritische houding: niet alles wat een chatbot genereert of wat op sociale media verschijnt is waar. Voer nooit gevoelige gegevens in zoals een adres of arbeidscontract, die data is openbaar zodra je op enter drukt. Controleer bij twijfel altijd de officiële website. En trap je toch in een phishingmail of AI-scam: praat erover. Zo waarschuw je anderen en beperk je verdere schade.

Leren in acht minuten. Ook over AI.

Oefenen.nl ontwikkelde samen met onderzoekers als Kars en Sierd de AI-Leerflitsen: korte, toegankelijke oefenprogramma’s waarmee mensen stap voor stap leren omgaan met AI en digitale basisvaardigheden. Geen zware cursus en geen technisch jargon. Wél praktisch, visueel en direct toepasbaar. In sessies van ongeveer acht minuten.

“AI gaat niemand voorbij. Daarom is het zo goed dat Oefenen.nl hiermee start. Het is belangrijk dat organisaties aan de slag gaan met AI-programma’s zoals Oefenen.nl, zodat mensen veilig en wijs leren omgaan met de technologie.”

De Leerflitsen behandelen precies de thema’s die Kars en Sierd als cruciaal benoemen: wat zet je wél en niet in een chatbot zoals Claude of ChatGPT? Hoe herken je een phishingmail die door AI is geschreven? Wat is een deepfake en hoe prik je erdoorheen? En hoe blijf je kritisch op informatie die AI genereert?

Binnenkort op Oefenen.nl: acht Leerflitsen over AI. Praktisch, toegankelijk en direct toepasbaar.