Kinderbeschermingsdiensten willen kunstmatige intelligentie om kindermisbruik te voorspellen

Kinderbeschermingsdiensten willen kunstmatige intelligentie om kindermisbruik te voorspellen

22 september 2018 0 Door Redactie SDB

Voorspellende technologie explodeert. De komst van  Big Data-  initiatieven door de overheid, evenals een enorme industrie van  gegevensmakelaars brengt  niet alleen de privacy in gevaar, maar biedt degenen die toegang hebben tot de informatie ongekende manieren om ons leven te micromanieren.

In de afgelopen paar jaar heb ik de komst van full-on pre-crime politie-technologie ( zowel publiek als geheim ) behandeld die begint met het richten op potentiële hotspots voor misdaad, evenals het plaatsen van bepaalde personen op lijsten gemaakt door kunstmatige intelligentie om vermeende toekomstige criminelen te identificeren.

Ik heb ook trends in de predictieve geneeskunde behandeld die controversieel zijn afgedwaald op het  gebied van geestelijke gezondheid , waarbij een algoritmisch beeld is verbeeld van mensen die de belangrijkste kandidaten zijn voor een of andere vorm van mogelijke interventie. Deze maatregelen worden vaak aangeprezen als zowel humanitair als economisch verstandig, aangezien gezondheidswerkers en verzekeraars in staat zijn om gebruik te maken van de bijna constante stroom van informatie die door Big Data wordt verstrekt.

Maar voorspellend kindermishandeling?

Ik veronderstel dat we niet geschrokken moeten zijn als we beginnen met versnellen onbeheerst over de glibberige helling. Het VK is op dit moment toevallig een van de wereldleiders voor het smeren van de skids. Volgens  een nieuw rapport van  The Guardian zien we duidelijk hoe een verscheidenheid aan maatschappelijke zorgen kan worden gecombineerd met de ‘plicht’ van de overheid om kosten te besparen waar mogelijk. Het resultaat zou een echt dystopisch scenario kunnen zijn waarbij het welzijn van kinderen aan computers wordt toevertrouwd.

Lokale overheden – die geconfronteerd worden met een  stijgende vraag en een financieringstekort van £ 800 miljoen  – beginnen zich af te vragen of big data kan helpen om kwetsbare kinderen te identificeren. Kan een computerprogramma een probleemfamilie markeren, een mogelijk slachtoffer identificeren en een andere baby P of Victoria Climbié voorkomen? Jaren geleden waren dergelijke vragen het spul van science fiction; nu zijn ze het spul van het wetenschappelijke feit. Bristol is één plek die experimenteert met deze nieuwe vermogens en worstelt met de morele en ethische vragen die daarmee gepaard gaan.

We kunnen ook zien hoe parallelle trends in het verzamelen van gegevens snel kunnen overslaan naar elk gebied van het menselijk leven. Dit is een belangrijke reden waarom  Activist Post  al tien jaar met dit onderwerp bezig is. The Guardian  stelt specifiek (in theorie natuurlijk) consumentengedrag gelijk met signalering van potentiële slachtoffers voor misbruik.

Machine-leersystemen die zijn gebouwd om enorme hoeveelheden persoonlijke gegevens te ontginnen, zijn lang gebruikt om het gedrag van klanten in de privésector te voorspellen. Computerprogramma’s beoordelen hoe waarschijnlijk het is dat wij in gebreke blijven bij een lening, of hoeveel risico wij stellen aan een verzekeringsaanbieder. Ontwerpers van een voorspellend model moeten een “uitkomstvariabele” identificeren, die de aanwezigheid aangeeft van de factor die ze proberen te voorspellen. Voor de beveiliging van kinderen kan dit een kind zijn dat het zorgsysteem betreedt. Vervolgens proberen ze kenmerken te identificeren die vaak voorkomen bij kinderen die het zorgsysteem betreden. Nadat deze zijn geïdentificeerd, kan het model tegen grote gegevensreeksen worden uitgevoerd om andere personen te vinden die dezelfde kenmerken hebben.

Nu gaat het buiten het bestek van dit artikel, maar kinderbeschermingsdiensten zelf zijn enorm gedocumenteerd om kinderen het risico te laten lopen misbruik te plegen. Dus het idee dat data geëxtrapoleerd van dat gebrekkige systeem zou de bredere wereld moeten informeren over de mensen die daar eindigen, lijkt een heel slecht idee. Ik bied dit voorbeeld om te laten zien hoe zogenaamd nauwkeurige computersystemen kunnen eindigen met slechte gegevens om hun conclusies te trekken.

In feite is dit precies de bezorgdheid die is geuit door experts in het veld die bij het toepassen van algoritmen op sociale systemen hebben aangedrongen op voorzichtigheid in plaats van, bijvoorbeeld, onbewerkte gegevens zoals consumentenaankopen en andere, veel gemakkelijker te volgen, gegevens. Bijna elke applicatie van voorspellende analyses die ik tegenkom presteert ergens in het bereik van 80%. Ik ben er zeker van dat de andere 20% van de gezinnen die zijn aangemerkt als potentiële misbruikers van kinderen – en daardoor door de hel worden gesleurd – blij zullen zijn dat het allemaal om “het grotere goed” gaat.

Hier is wat  The Guardian  ontdekte over hoe technologie kinderen moet ‘beschermen’.

Ze omvatten de geschiedenis van huiselijk geweld, jeugdmisdrijven en spijbelen. Meer verrassende indicatoren zoals huurachterstanden en gezondheidsgegevens werden aanvankelijk overwogen, maar uitgesloten van het definitieve model. In het geval van zowel Thurrock, een raad in Essex, als de Londense wijk Hackney, kunnen families worden aangeduid als maatschappelijk werkers voor het Troubled Families-programma. Via deze regeling ontvangen gemeenten subsidies van de centrale overheid voor het helpen van huishoudens met langdurige problemen zoals werkloosheid.

En trouwens, hier is de transparantie die het publiek kan verwachten als dit ooit volledig wordt geïmplementeerd:

Er is geen nationaal overzicht van voorspellende analysesystemen door de centrale overheid, wat resulteert in zeer verschillende benaderingen van transparantie door verschillende autoriteiten. De raad van Thurrock publiceerde een privacy-effectbeoordeling op haar website, hoewel het niet duidelijk is of dit bij de bewoners tot een reëel bewustzijn van de regeling heeft geleid.

Hackney Council heeft in het verleden ook een privacyverklaring gepubliceerd. Een afzonderlijke privacy-effectbeoordeling, die eerder dit jaar werd vrijgegeven naar aanleiding van een verzoek om  vrijheid van informatie , verklaarde echter: “Betrokkenen worden niet op de hoogte gebracht, waardoor voorlichting aan de betrokkenen de interventies die dit project moet identificeren waarschijnlijk zal schaden.” Hackney weigerde de Guardian te vertellen welke datasets hij gebruikte voor zijn voorspellende model.

Degenen in de VS moeten hun hoede voor dit onderwerp ook niet laten varen. In 2016 schreef PBS een zeer lang en informatief artikel:  “Can big data save these children?”,  Waar we kunnen zien hoe dit al werd nagestreefd door pleegzorg in Pennsylvania.

Om kinderen uit de pleegzorg te houden, om in te grijpen en families te onderhouden voordat ze instorten, moet je de toekomst van een kind kunnen voorspellen. Een kristallen bol. Cherna vond zijn oplossing in de vorm van een datamodel, gemaakt door een econoom, een halve wereld verwijderd. De Nieuw-Zeelandse econoom Rhema Vaithianathan bouwde twee computermodellen die de kans op een kind om pleegouder te worden kunnen voorspellen.

 

Men voorspelt bij de geboorte de kans dat een kind wordt misbruikt of verwaarloosd en uiteindelijk in pleeggezinnen terechtkomt. Het  model  doet dit door een aantal factoren te wegen: waaronder woont het kind bij een of beide ouders? Heeft het gezin eerdere onderzoeken naar kinderwelzijn ondergaan? Ontvangt het gezin publieke voordelen? Het tweede model gebruikt vergelijkbare informatie, maar wordt alleen geactiveerd wanneer een oproep over de veiligheid van een kind wordt geplaatst. Maar – en dit is van cruciaal belang – die oproep komt vaak pas nadat het misbruik heeft plaatsgevonden.

Wat kan er fout gaan?

Het worstcasescenario is dat de score slechts de vooroordelen of overtuigingen weerspiegelt van degene die het algoritme heeft gescoord, “zei hij. “Het is heel belangrijk dat deze dingen transparant zijn, zodat ze door het publiek en door experts kunnen worden gecontroleerd.”

Maar is dit echt het huidige pad waarop we ons bevinden?


Nicholas West schrijft voor Activist Post , waar dit artikel voor het eerst verscheen. 

Reacties

Reacties