Slechts één op de vijf Nederlanders heeft een veilig gevoel bij de inzet van kunstmatige intelligentie in het veiligheidsdomein.1 Toch wint de inzet van deze en soortgelijke technologieën bij politiewerk aan terrein. Wat vinden wij daar als samenleving van?

Waar de politie van oudsher reactief was wanneer een overtreding of misdaad plaatsvond, stellen technologische ontwikkelingen de politie in staat steeds meer proactief te werk te gaan. Slimme camera’s en sensoren verzamelen enorme datasets aan informatie over jou en mij. Kunstmatige intelligentie beoordeelt deze data bijvoorbeeld op verdacht gedrag en koppelt gegevens van diverse databronnen aan elkaar. Zo wordt het mogelijk om overtredingen real time te detecteren, te bestraffen of zelfs te voorkomen. Het gebruik van big data en kunstmatige intelligentie kan zo een ingrijpende invloed hebben op de veiligheid en leefbaarheid van onze samenleving. Waar ligt de grens van collectieve versus individuele veiligheid? De eerste stappen worden gezet zoals de ethische richtlijnen omtrent kunstmatige intelligentie vanuit de Europese Commissie die in maart 2019 gepubliceerd worden.2

Ondanks oneindige technologische mogelijkheden is het cruciaal om stil te staan bij morele overwegingen: Is alles wat mogelijk is ook wenselijk? In dit artikel geven we aan de hand van twee voorbeelden vijf concrete acties om ethische vraagstukken te beantwoorden. Deze acties dragen bij aan het waarborgen van de veiligheid en leefbaarheid in de technologische samenleving.