zaterdag 10 november 2012

Analyse van een Gevarenmatrix


"Je kunt alles vinden zolang je maar weet wat je zoekt."
                                                                                      — Sam Rain
Op Veronica wordt er sinds kort een nieuwe serie uitgezonden — 'Person of Interest'. Het plot gaat verreweg om een bijzonder programma dat mensen uitzondert die mogelijk relationeel gezien gevaar te lopen of gevaar te veroorzaken. De reden waarom is niet duidelijk vanwege de complexiteit van het programma — maar de methodiek is dat er gebruik wordt gemaakt van allerlei publieke systemen, zoals cameratoezicht, social media enzovoort. Of er zo'n dergelijk systeem bestaat blijft een vraagstuk, maar is het mogelijk?
Het bedrijf Google begon ooit als een studentenuitvinding — het patent op de `PageRank', dat de technologie beschermd waarmee er een gewicht wordt toegekend aan een webpagina, maakte de zoekmachine dusdanig innovatief dat de concurrerende diensten in de vergetelheid zijn geraakt. Hoewel de advertenties en stiekeme informatievergaring Google winstgevend hebben gemaakt naar een miljardenbedrijf, is het de technologie die het Internet heeft veranderd van `cyberspace' naar een medium die voor iedereen toegankelijk is.
Wiskundig gezien is het niet meer dan logisch — factoren die opgebouwd zijn uit andere 'eigenschappen' geven de ruimte voor verdere analyse. Door uit een groep van honderd vormen een eigenschap 'kleur' toe te voegen, kunnen er groepen gerangschikt worden. Wie op zoek is naar het aantal vormen met de kleur rood, zal het nut van eigenschappen waarderen. Eigenschappen geeft een informatievorm gewicht.
Als mensen de informatievorm zijn en er een gevarenmatrix voor ontworpen zou worden, dient men eerst de belangrijkste eigenschappen aan te nemen. Het geslacht, de leeftijd, de lengte en de verblijfplaats zijn eigenschappen die een belangrijk onderscheid maken en die men terug zou willen zien in de resultaten. Andere eigenschappen liggen privacy gevoelig; het is informatie die een overheid eigenlijk niet zou mogen gebruiken zonder toegestane reden. Zoals etnische achtergrond, ontwikkelingsniveau, medische achtergrond, sociaal netwerk, justitieel verleden, financieel gedrag, politieke voorkeur, hobby's en zo verder.
Stel, dat een programma toegang had tot dergelijke gegevens, dan zouden het aantal potentiële kandidaten dat in staat is om een gevaar te vormen voor de maatschappij vrijwel voor 90% in kaart gebracht kunnen worden. De uitzonderingen op de regel zijn er namelijk altijd en een dergelijke analyse schept alleen water waar zich geen vis bevindt — geen garanties zijn mogelijk. Zelfs een programma dat gedrag kan bepalen in mogelijke scenario's zijn mogelijk, mits er duidelijke profielen zijn.
Een zoekopdracht wordt uitgevoerd met behulp van criteria — en het programma zoekt alleen maar naar gelijkenissen in de informatie. Wat maakt een profiel daadwerkelijk een profiel; immers wie bepaald dat het profiel accuraat is? Zoals bij alle technologieën is de toepassing altijd een kwestie van ethiek en politiek. Wordt zij gebruikt voor het hogere doel, maar niet ten koste van alles? Wordt zij echt gezien als een objectief instrument in plaats van een geautomatiseerde rechter? Het probleem is nooit de technologie, maar diegene die het effectief weet toe te passen met succes. En vaak gaat dat succes niet samen met de ethiek die er absoluut bij hoort.
©SamRain
Gevarenmatrix

Geen opmerkingen:

Een reactie posten