
Kunstmatige intelligentie in het veiligheidsdomein: de nieuwe realiteit
Kunstmatige intelligentie, of ‘artificial intelligence, AI’: het ‘buzz-word’ zingt al meerdere jaren rond. Maak echter niet de fout door AI een ‘hype’ te noemen, dit suggereert namelijk dat het van tijdelijke aard is. Als we iets zeker weten is dat we steeds meer AI-toepassingen in de praktijk zullen zien terugkomen. Het is bovendien een verzamelterm met raakvlakken met verscheidene andere technische vakgebieden, zoals automatisering, machine learning en data science (zie figuur 1). Sommige toepassingen staan nog aan het begin van de Gartner Hype Cycle en moeten hun potentie nog bewijzen, terwijl andere technologieën al richting algemene acceptatie gaan (neem bijvoorbeeld spraakherkenning).1 In het tijdperk van big data zullen we steeds afhankelijker worden van AI om immense hoeveelheden data te verwerken en te analyseren.
Ook in het veiligheidsdomein kunnen dergelijke AI-toepassingen van veel toegevoegde waarde zijn. Een mooi voorbeeld is het gebruik van een AI-toepassing in de Amerikaanse stad Cincinnati om noodoproepen op basis van urgentie te prioriteren. Hiermee werden vertragingen om patiënten tijdig naar ziekenhuizen te krijgen met 22% teruggedrongen.2 Naast een dergelijke vrijwillige efficiëntieslag met behulp van AI zijn er ook voorbeelden te benoemen waarop de inzet van AI
simpelweg onontkoombaar is, voornamelijk omdat deze technologieën ook door kwaadwillenden worden ingezet. Neem bijvoorbeeld deep fake news, waar collega Maarten van Eck in dit rapport over schrijft.3 Deze term behelst niet of nauwelijks van echt te onderscheiden audio en videobeelden die met kunstmatige intelligentie zijn gecreëerd. Technologie stelt ons in staat om op steeds geavanceerdere wijze materiaal na te bootsen. De makers van Tegenlicht wisten bijvoorbeeld al beelden te creëren waarop Mark Rutte dingen zei die hij in werkelijkheid nooit heeft uitgesproken.4 Het ministerie van Defensie van de Verenigde Staten heeft deze Deep Fake technologie inmiddels verklaard tot een bedreiging voor de nationale veiligheid. Het zal niet lang meer duren voordat wij zelf niet meer in staat zijn om met het blote oog dergelijke nep-content van echt materiaal te onderscheiden, waar AI dit wél kan. Met andere woorden, partijen in het veiligheidsdomein kunnen ook niet om artificial intelligence heen; AI is here to stay.
Zorgvuldigheid en bedachtzaamheid zijn essentieel voor een verantwoorde inzet van AI in het veiligheidsdomein
Aandacht voor privacy
De diversiteit aan manieren waarop AI kan worden ingezet in het veiligheidsdomein is groot. Het gebruik van AI bij surveillance spreekt het meest tot de verbeelding. Het roept beelden op van Orwelliaanse samenlevingen waar Big Brother meekijkt en iedereen te allen tijde door een systeem gemonitord wordt. Uit berichtgeving over China blijkt dat Beijing AI-technologieën als gezichtsherkenning volop inzet om haar 1.4 miljard inwoners te identificeren en te volgen, suggererend dat 1984 van George Orwell misschien toch op de non-fictie boekenplank thuishoort. Dergelijke beelden zorgen ervoor dat de inzet van AI in het veiligheidsdomein bij Nederlanders eerder een onveilig dan een veilig gevoel oproept. Dit benadrukt het belang van democratische ‘checks and balances’, waar in Nederland gelukkig verantwoordelijker mee wordt omgegaan. Bij surveillanceprojecten als in uitgaansgebied Stratsumseind in Eindhoven worden gezichten van passanten bijvoorbeeld onherkenbaar gemaakt in het kader van privacy.
Aandacht voor vooringenomenheid en automation bias
Buiten kijf staat dat AI betekenisvolle analyses los kan laten op de data die met surveillance wordt verzameld, bijvoorbeeld om patronen te herkennen. Dit is het geval bij ‘predictive policing’, waarbij door middel van het voorspellend vermogen van AI misdaad wordt voorkomen, bijvoorbeeld door politieauto’s te laten surveilleren op gesignaleerde ‘hot-spots’ waar misdaad wordt verwacht. Ook binnen het justitiële systeem wordt gekeken naar mogelijkheden om AI in te zetten, bijvoorbeeld om te assisteren bij het efficiënt vellen van oordelen, maar ook door de kans op recidive te voorspellen. Het zal u niet verbazen dat de bovenstaande voorbeelden ook tot de meest controversiële toepassingen van AI behoren. Als Netflix een suggestie doet voor een film die niet haarfijn aansluit op uw wensen dan is dat een lichte teleurstelling. In het veiligheidsdomein hebben de consequenties aanzienlijk meer impact, bijvoorbeeld als algoritmes (onbedoeld) vooringenomen blijken te zijn. Dit getuige onderzoeken uit de Verenigde Staten waar predictive policing bepaalde bevolkingsgroepen bleek te benadelen, door een verhoogde kans op incorrect vonnis.5 Een ander probleem dat hierbij aan het licht kwam was een gebrek aan transparantie en een te grote complexiteit van systemen, waarbij rechters vertrouwen op de grondigheid van een systeem maar onvoldoende begrijpen wat heeft geleid tot de uitkomst. Deze neiging om blind te vertrouwen op automatische systemen staat ook bekend als de automation bias.
Bovenstaande complicaties laten zien dat er zorgvuldig en bedachtzaam met AI moet worden omgegaan in het veiligheidsdomein. Voorkomen moet worden dat inzet van AI in het veiligheidsdomein zorgt voor een onveilig gevoel, zoals wordt aangegeven in het onderzoek dat we hebben laten uitvoeren door Ipsos. In het rapport van vorig jaar schreef collega Frank Inklaar dan ook dat het construeren van een AI-systeem, dat altijd goede en ethisch verantwoorde beslissingen aandraagt of neemt, geen triviale zaak is.6 Deze overwegingen moeten echter niet verlammend werken; enkel door te experimenteren komen we erachter hoe we de potentie van AI op een verantwoorde manier kunnen ontsluiten.
Een casus: machine learning en visual recognition
Dit is precies wat er op het Innovatiecongres van het ministerie van Justitie en Veiligheid gebeurde, toen de AI-specialisten van Capgemini samen met het innovatieteam van het ministerie de uitdaging aangingen om binnen een kort tijdsbestek te laten zien hoe een AI-systeem leert. De tweedaagse demonstratie had als doel te laten zien hoe we een beeldherkenningssysteem, een neuraal netwerk, kunnen trainen om houdingen en bewegingen van mensen te herkennen, iets waar partijen in het veiligheidsdomein wellicht baat bij zouden kunnen hebben.
In een eerste setting werd het systeem getraind (machine learning) door het maken van foto’s van bezoekers die een houding aannemen. Door bijvoorbeeld koffie te drinken, zwaaien, slaan of bellen voor de camera leert het systeem deze houdingen/handelingen van mensen te herkennen. Gedurende het congres zijn steeds meer foto’s gemaakt en toegevoegd aan de database. Deze kennis werd vervolgens in een tweede setting gebruikt om de houding/handeling van mensen voor een camera herkennen, iets waar de AI steeds beter in werd. Terwijl het systeem in de ochtend nog geen verschil zag tussen houdingen, kon het in de middag bijvoorbeeld met zekerheid vaststellen dat deze persoon zwaaide of wijste, maar in ieder geval niet aan het bellen was.
Praktische overwegingen bij de inzet van AI-toepassingen
De deelnemers aan het Innovatiecongres konden zien wat een AI-toepassing kan bereiken met input van een enkele dag aan beeldmateriaal. Deze kleinschalige demonstratie van machine learning begon met een idee, en enkele observaties tijdens de ontwikkeling van het idee naar toepassing zijn illustratief voor de overwegingen die komen kijken bij het inzetten van AI.
Zo bewijst het daadwerkelijk opzetten van een proefopstelling dat datakwaliteit en kwantiteit bepalend zijn voor hoe goed een algoritme wordt getraind. De relatief beperkte hoeveelheid input beeldmateriaal (N>500) die in 1 dag kan worden verzameld is bijvoorbeeld niet voldoende om de identificatie van beelden met grote nauwkeurigheid te doen. Daarvoor zijn duizenden kwalitatief goede beelden nodig. Ook de kwaliteit en diversiteit van beelden is cruciaal voor een goede identificatie. Het feit dat er in onze demonstratie veel mannen in pak voor de camera stonden, kan er bijvoorbeeld toe leiden dat vrouwen minder goed worden herkend.
Een tweede belangrijke les is de beschikbaarheid van goede data voor het trainen van het AI-algoritme. Veelal is er wel ergens beeldmateriaal aanwezig, maar is de beschikbaarheid van dit beeldmateriaal beperkt door juridische kaders (WBP, Auteursrecht, Vertrouwelijkheid). Dit sluit weer aan op de ‘checks and balances’ omtrent onder andere privacy.
Een andere les uit deze demonstratie is de behoefte aan grote rekencapaciteit voor een grondige beeldherkenning. Waar het initieel de ambitie was om bewegende beelden te analyseren, bleek bij ontwikkeling dat een server met een GPU-processor niet voldoende was om dit snel te doen. Filmherkenning is duidelijk een gewenste vervolgstap, maar een toename in de hoeveelheid en complexiteit van de data vraagt ook om aanzienlijk meer capaciteit. Bij het inzetten van Artificial Intelligence is het dus van groot belang om te bedenken of de benodigde rekencapaciteit kan worden ingezet om datasets nauwkeurig te laten analyseren binnen het gewenste tijdsbestek.

Experimenteren met AI leert ons zorgvuldige en gedragen AI-toepassingen te ontwikkelen
Kunstmatige intelligentie is geen science fiction meer, maar realiteit. Ook binnen het veiligheidsdomein kan AI op vele manieren worden ingezet, en heeft het de potentie om bij te dragen aan een veiliger Nederland. Uit het onderzoek van Ipsos blijkt dat maar liefst 73% van de Nederlanders aangeeft criminelen innovatiever te vinden dan de overheid. Het is hoog tijd om dit tij te doen keren in het publieke veiligheidsdomein. Tegelijkertijd vraagt de aard van het veiligheidsdomein om een bedachtzame adaptatie van AI, aangezien de consequenties impactvol kunnen zijn. Hierbij spelen onder andere overwegingen omtrent rechtstatelijke en democratische waarden, privacy, transparantie en de automation bias een rol. Deze overwegingen moeten echter niet tot een impasse leiden: het is van groot belang om stappen te blijven zetten. Gebruik van kunstmatige intelligentie zal namelijk steeds vaker een noodzakelijkheid worden. Daarom is het winnen van het vertrouwen van medewerkers en het wegnemen van hun zorgen essentieel. Medewerkers in het veiligheidsdomein zijn meer nog dan medewerkers in andere sectoren overtuigd dat het menselijk oordeel beter is dan het machine-oordeel. Het doel van de demonstratie van een AI-toepassing op het innovatie congres van Justitie en Veiligheid was om bezwaren weg te nemen. De besproken casus is een toevoeging aan de ruim 50 beschreven AI-cases in ons wereldwijde onderzoek Artificial Intelligence Decoded.7 De belangrijkste les is dat je moet starten om te laten zien wat mogelijk is, middels incrementele stappen die verkennen wat de praktische kwesties zijn waar je tegen aan gaat lopen. Dergelijke praktische overwegingen betreffen onder andere de kwaliteit, kwantiteit en beschikbaarheid van data, maar ook de benodigde rekencapaciteit. De technologische voorruitgang blijft snel gaan en vormt steeds minder barrières, waarbij het de uitdaging is om de medewerkers de voordelen van AI in te doen zien. Alleen door de toepassing van nieuwe technologieën op deze manier gezamenlijk te verkennen leveren we de werkelijke innovatie.
