Die vraag drijft Udipta Boro, promovendus op het gebied van Urban Safety and AI aan de Universiteit Twente. In zijn onderzoek kijkt hij achter de technologie en vraagt hij zich af wat er gebeurt wanneer steden door de ogen van kunstmatige intelligentie gaan kijken.
“Er is een geruststellend verhaal dat technologie voor ons zorgt,” zegt Boro. “Dat meer camera’s zorgen voor meer veiligheid. Maar als je goed kijkt, is het een stuk ingewikkelder.”
De ogen van de slimme stad
In zijn promotieonderzoek Cities under the AI Gaze onderzoekt Boro hoe moderne surveillancesystemen worden ontworpen, en hoe ideeën over veiligheid daarin vorm krijgen. Over de hele wereld plaatsen steden AI-gestuurde camera’s om verkeer te monitoren, geweld te voorkomen of de veiligheid van vrouwen in de openbare ruimte te verbeteren.
In India verbindt het Safe City Project bijvoorbeeld duizenden camera’s aan algoritmes die proberen SOS-gebaren of risicovolle situaties te herkennen en automatisch de politie in te schakelen. “Het klinkt effectief,” legt Boro uit. “Maar er is geen duidelijk bewijs dat meer camera’s leiden tot minder criminaliteit. Vaak verplaatst het probleem zich gewoon – en ontstaan er nieuwe.”
Wanneer bescherming controle wordt
Volgens Boro is het kernprobleem niet alleen technisch – het is bovenal menselijk. Tijdens zijn veldwerk in steden als Bengaluru en Chennai onderzoekt hij niet alleen wat deze systemen doen, maar ook hoe ze worden gemaakt. Zo ontdekte hij dat politiedata die worden gebruikt om AI-systemen te trainen, vaak bepaalde sociale groepen oververtegenwoordigen.
“Als dat je dataset is,” zegt hij, “worden mensen die daarop lijken sneller als risicovol gezien. Het systeem is niet objectief – het weerspiegelt bestaande vooroordelen.”
Soms, voegt hij toe, worden systemen die bedoeld zijn om te beschermen juist ingezet voor controle.“In sommige landen worden camera’s die zijn geplaatst voor veiligheid gebruikt voor morele handhaving, bijvoorbeeld om te beoordelen of de kleding van vrouwen als ‘gepast’ wordt gezien. Dan verandert bescherming in toezicht.”
En naarmate meer van dit soort systemen opduiken in de publieke ruimte, worden de vragen alleen maar groter. “Het roept belangrijke vragen op,” zegt Boro. “Wie bepaalt wat onveilig is? En wat gebeurt er wanneer technologie ons gedrag begint te sturen?”
Wat betekent ‘veilig’ eigenlijk?
In zijn onderzoek volgt Boro hoe het begrip veiligheid verschuift tussen beleidsmakers, politie en technologiebedrijven. “In het begin gaat het om bescherming,” legt hij uit. “Maar zodra technologie het overneemt, wordt veiligheid iets dat je kunt meten – cijfers in plaats van mensen. De menselijke kant verdwijnt.”
Voor hem is echte veiligheid veel breder. “Het gaat niet alleen om het vermijden van gevaar,” zegt hij. “Het gaat om vrij kunnen bewegen, zonder angst of constante observatie – en weten dat je persoonlijke data ook veilig zijn. Een écht veilige stad vertrouwt haar inwoners,” zegt Boro. “Ze geeft mensen de ruimte om zichzelf te zijn.”
Ontwerpen met zorg, niet met controle
“Er is geen perfecte oplossing,” erkent Boro. “Technologie is nooit neutraal – ze is politiek. Wat we bouwen, laat zien wie we zijn en wat we belangrijk vinden.” Toch blijft hij optimistisch. “We kunnen technologie anders ontwerpen,” zegt hij. “Met zorg, niet met controle. Door te luisteren naar de mensen die daadwerkelijk in deze steden leven en te vragen wat zij nodig hebben om zich veilig te voelen.”
Daarbij gaat veiligheid niet alleen over slimme systemen, maar over menselijke systemen – met ruimte voor waardigheid, diversiteit en vertrouwen.
Volgens Boro begint dat met open gesprek. “We hebben disciplines en geluiden uit de samenleving nodig om te praten over wat veiligheid werkelijk betekent. Alleen dan kunnen we technologie ontwerpen die recht doet aan iedereen.”





