Kies land en taal

Het is geen magie: Ondoorzichtige AI-tool zou ouders met een Handicap kunnen signaleren

Als onderdeel van een jaar durend onderzoek heeft The Associated Press de datapunten verkregen die ten grondslag liggen aan verschillende algoritmen die door kinderbeschermingsinstanties worden gebruikt om te begrijpen hoe zij voorspellen welke kinderen het risico lopen schade op te lopen.

het is geen magie ondoorzichtige ai tool zou ouders met een handicap kunnen signaleren
Jessie Wardarski

PITTSBURGH (AP) - Gedurende de twee weken dat het meisje uit Hackney verzwakt door uitdroging in een ziekenhuisbed in Pittsburgh lag, waren haar ouders nauwelijks van haar gescheiden.

Ze waren de klok rond bij hun dochter terwijl ze werd overgebracht naar een revalidatiecentrum om weer op krachten te komen. Uiteindelijk weigerde de 8 maanden oude dochter geen flesjes meer en begon ze weer aan te komen.
"Het ging goed met haar en we vroegen ons af wanneer ze weer naar huis mocht", zegt Lauren Hackney. "En vanaf dat moment werden we volledig in de steek gelaten en zeiden ze nooit iets."

Het stel was stomverbaasd toen de kinderbescherming kwam opdagen, hen vertelde dat ze nalatig waren en hun dochter meenam.

"Ze hadden de voogdij papieren en namen haar daar mee," herinnert Lauren Hackney zich. "En we barstten in tranen uit."

Meer dan een jaar later is hun dochter, nu twee jaar oud, nog steeds in een pleeggezin. De Hackneys, die een ontwikkelingsstoornis hebben, kunnen maar moeilijk begrijpen hoe het naar het ziekenhuis brengen van hun dochter, die weigerde te eten, als zo verwaarlozend kan worden beschouwd dat ze uit huis moet worden geplaatst.

Ze vragen zich af of een kunstmatige intelligentie-instrument dat het Allegheny County Department of Human Services gebruikt om te voorspellen welke kinderen een risico lopen op schade, hen heeft gemarkeerd vanwege hun handicap.

Het Amerikaanse Ministerie van Justitie stelt dezelfde vraag. Het bureau onderzoekt het kinderwelzijnssysteem van de county om te bepalen of het gebruik van het invloedrijke algoritme discriminerend is voor mensen met een handicap of andere beschermde groepen, zo heeft The Associated Press vernomen. Later deze maand zullen federale burgerrechtenadvocaten de Hackney's en Andrew Hackney's moeder, Cynde Hackney-Fierro, ondervragen, aldus de grootmoeder.

Lauren Hackney heeft een aandachtstekortstoornis met hyperactiviteit die haar geheugen aantast, en haar man, Andrew, heeft een begripsstoornis en zenuwschade van een beroerte die hij in zijn twintiger jaren kreeg. Hun dochter was pas 7 maanden oud toen ze een fles begon te weigeren. Door een landelijk tekort aan flesvoeding reisden ze van Pennsylvania naar West Virginia op zoek naar flesvoeding en waren ze gedwongen om van merk te veranderen. De baby leek het niet leuk te vinden.

Haar kinderarts stelde hen eerst gerust dat baby's soms kieskeurige eters kunnen zijn en stelde ideeën voor om haar weer eetlustig te maken.

Toen ze dagen later lusteloos werd, zei dezelfde arts dat ze haar naar de eerste hulp moesten brengen. De Hackneys geloven dat het medisch personeel de kinderbescherming waarschuwde toen ze met een uitgedroogde en ondervoede baby aankwamen.

Toen werd hun informatie volgens hen ingevoerd in het Allegheny Family Screening Tool, wat volgens ambtenaren van de provincie een standaardprocedure is voor beschuldigingen van verwaarlozing. Een maatschappelijk werker kwam hen al snel ondervragen en hun dochter werd naar een pleeggezin gestuurd.

De afgelopen zes jaar heeft Allegheny County gediend als een echt laboratorium voor het testen van op kunstmatige intelligentie gebaseerde kinderbeschermingstools die stapels gegevens over lokale gezinnen verwerken om te proberen te voorspellen welke kinderen bij hen thuis gevaar lopen. Volgens de American Civil Liberties Union hebben instanties voor kinderwelzijn in ten minste 26 staten en Washington D.C. overwogen algoritmische hulpmiddelen te gebruiken en hebben instanties in ten minste 11 staten ze al toegepast.

Het verhaal van de Hackneys - gebaseerd op interviews, interne e-mails en juridische documenten - illustreert de ondoorzichtigheid van deze algoritmen. Zelfs als ze vechten om de voogdij over hun dochter terug te krijgen, kunnen ze de "risicoscore" die de tool van Allegheny County aan hun zaak heeft toegekend niet aanvechten, omdat ambtenaren die niet aan hen bekendmaken. En noch de county noch de mensen die het instrument hebben gemaakt hebben ooit uitgelegd welke variabelen zijn gebruikt om de ouderschapscapaciteit van de Hackneys te meten.

"Het is alsof je een probleem hebt met iemand die een handicap heeft," zei Andrew Hackney in een interview vanuit zijn flat in Pittsburgh. "In dat geval ... ga je waarschijnlijk achter iedereen aan die kinderen heeft en een handicap heeft."

Als onderdeel van een jaar durend onderzoek heeft het AP de gegevens verkregen die ten grondslag liggen aan verschillende algoritmen van kinderwelzijnsinstanties, waaronder enkele met het opschrift "CONFIDENTIAL". Onder de factoren die zij hebben gebruikt om het risico van een gezin te berekenen, hetzij direct of bij benadering: ras, armoedecijfers, invaliditeitsstatus en gezinsgrootte. Ook of de moeder rookte voordat ze zwanger werd en of er in het gezin eerder melding is gemaakt van kindermisbruik of -verwaarlozing.

Wat ze meten is belangrijk. Uit een recente analyse door onderzoekers van de ACLU bleek dat wanneer het algoritme van Allegheny mensen markeerde die toegang hadden tot geestelijke gezondheidszorg en andere programma's voor gedragsbeïnvloeding, dit tot drie punten kon toevoegen aan de risicoscore van een kind, een aanzienlijke stijging op een schaal van 20.

De woordvoerder van Allegheny County, Mark Bertolet, weigerde te verwijzen naar de zaak Hackney en reageerde niet op gedetailleerde vragen over de status van het federale onderzoek of kritiek op de gegevens die het instrument voeden, onder meer van de ACLU.

"Wij geven geen commentaar op rechtszaken of juridische kwesties", zei Bertolet in een e-mail.

Woordvoerster Aryele Bradford van het ministerie van Justitie gaf geen commentaar.

HET IS GEEN MAGIE

Kinderbeschermingsalgoritmen voeren grote hoeveelheden openbare gegevens over plaatselijke gezinnen in complexe statistische modellen in om een zogenaamde risicoscore te berekenen. Het verkregen cijfer wordt vervolgens gebruikt om maatschappelijk werkers te adviseren bij de beslissing welke gezinnen moeten worden onderzocht of welke gezinnen extra aandacht nodig hebben, een zware beslissing die soms leven of dood kan betekenen.

Verschillende lokale leiders hebben zich tot AI-technologie gewend toen zij onder druk stonden om systeemveranderingen door te voeren, zoals in Oregon tijdens een pleegzorgcrisis en in Los Angeles County na een reeks geruchtmakende kindersterfgevallen in een van de grootste kinderwelzijnssystemen van het land.

Brandon Nichols, directeur van het departement voor kinder- en gezinszorg van Los Angeles County, zegt dat algoritmen kunnen helpen om gezinnen met een hoog risico te identificeren en de resultaten in een zwaar belast systeem te verbeteren. Hij kon echter niet uitleggen hoe het screeningsinstrument dat zijn bureau gebruikt werkt.

"We zijn een soort sociaal werkers, geen computerwetenschappers," zei Nichols in een interview. "Hoe het algoritme werkt, is in zekere zin magisch voor ons, maar het valt buiten onze kennis en expertise."

Nichols en ambtenaren van twee andere instanties voor kinderwelzijn verwezen gedetailleerde vragen over hun AI-tools naar de externe ontwikkelaars die ze hebben gemaakt.

In Larimer County, Colorado, erkende een ambtenaar dat ze niet wist welke variabelen werden gebruikt om lokale gezinnen te beoordelen.

"De variabelen en wegingen die door de beslissingsondersteunende tool van Larimer worden gebruikt, maken deel uit van de door Auckland ontwikkelde code en daarom beschikken we niet over dit detailniveau", zei Jill Maasch, woordvoerder van Larimer County Human Services in een e-mail, verwijzend naar de ontwikkelaars.

In Pennsylvania, Californië en Colorado hebben provincieambtenaren hun datasystemen opengesteld voor de twee academische ontwikkelaars die datapunten selecteren om hun algoritmen op te bouwen. Rhema Vaithianathan, hoogleraar gezondheidseconomie aan de Auckland University of Technology in Nieuw-Zeeland, en Emily Putnam-Hornstein, hoogleraar aan de School of Social Work van de University of North Carolina at Chapel Hill, zeiden in een e-mail dat hun werk transparant is en dat ze hun computermodellen openbaar maken.

"In elk rechtsgebied waar een model volledig is geïmplementeerd, hebben we een beschrijving gepubliceerd van de velden die zijn gebruikt om het instrument te bouwen, samen met informatie over de gebruikte methoden," zeiden ze in een e-mail.

Een rapport van 241 pagina's op de website van Allegheny County bevat pagina's met gecodeerde variabelen en statistische berekeningen.

Het werk van Vaithianathan en Putnam-Hornstein is geprezen in rapporten van zowel UNICEF als de regering Biden voor het ontwikkelen van computermodellen die de werkdruk van caseworkers kunnen verlichten op basis van een aantal eenvoudige factoren. Zij beschrijven het gebruik van deze instrumenten als een morele plicht, waarbij zij erop aandringen dat kinderwelzijnswerkers alle gegevens waarover zij beschikken moeten gebruiken om ervoor te zorgen dat kinderen niet worden misbruikt.

Door hun werk in het hele land te volgen, ontdekte de AP echter dat hun instrumenten gezinnen kunnen voorbestemmen tot scheiding door hun risico te classificeren op basis van persoonlijke kenmerken die zij niet kunnen veranderen of controleren, zoals ras of handicap, in plaats van alleen hun acties als ouders.

In Allegheny County, een uitgestrekt graafschap met 1,2 miljoen inwoners in de buurt van de grens met Ohio, heeft het algoritme toegang gekregen tot een reeks externe gegevens, zoals gegevens over gevangenissen, jeugdreclassering, Medicaid, welzijn, gezondheid en geboorte, die allemaal zijn opgeslagen in een enorm "data warehouse" dat het hele graafschap bestrijkt. De tool gebruikt die informatie om het risico te voorspellen dat een kind in een pleeggezin wordt geplaatst, twee jaar nadat een gezin voor het eerst is onderzocht.

Ambtenaren van de provincie hebben AP verteld dat ze trots zijn op hun baanbrekende aanpak, en ze hebben hun werk zelfs uitgebreid met een ander algoritme voor pasgeborenen. Ze zeiden dat ze hun risicoscore-instrument nauwlettend in de gaten houden en het na verloop van tijd bijwerken, onder meer door variabelen zoals uitkeringen en geboorteregisters te verwijderen.

Vaithianathan en Putnam-Hornstein weigerden herhaalde interviewverzoeken van de AP om te bespreken hoe ze de specifieke gegevens kiezen die hun modellen voeden. Maar in een rapport van 2017 hebben ze de methoden gedetailleerd die zijn gebruikt om de eerste versie van Allegheny's tool te bouwen, inclusief een voetnoot die een statistische grens beschreef als "vrij willekeurig, maar gebaseerd op vallen en opstaan".

"Deze voetnoot verwijst naar onze verkenning van meer dan 800 kenmerken van het Allegheny-datawarehouse meer dan vijf jaar geleden," zeiden de ontwikkelaars per e-mail.

Die aanpak blijkt uit hun ontwerpkeuzes, die van county tot county verschillen.

In hetzelfde rapport van 2017 erkenden de ontwikkelaars dat het gebruik van raciale gegevens de nauwkeurigheid van het model niet aanzienlijk verbeterde, maar ze bleven het bestuderen in Douglas County, Colorado, maar kozen er uiteindelijk voor om het niet in dat model op te nemen. Om tegemoet te komen aan de bezorgdheid van de gemeenschap dat een instrument raciale vooroordelen zou kunnen verharden in Los Angeles County, sloten de ontwikkelaars het strafblad van mensen, de postcode en geografische indicatoren uit, maar bleven die gegevens gebruiken in de regio Pittsburgh.

Toen hen werd gevraagd naar de inconsistenties, verwezen de ontwikkelaars naar methodologische documenten die zij hadden gepubliceerd.

We hebben verschillende maatstaven gedetailleerd die worden gebruikt om de nauwkeurigheid te beoordelen, evenals 'externe validaties'," verklaarden de ontwikkelaars per e-mail.

Toen het Oregon Department of Human Services een algoritme ontwikkelde dat was geïnspireerd op Allegheny, hield het rekening met het ras van een kind bij het voorspellen van het risico van een gezin, en paste het ook een "billijkheidscorrectie" toe om raciale vooroordelen te verminderen. Afgelopen juni werd het instrument helemaal afgeschaft vanwege bezorgdheid over de eerlijkheid, nadat een onderzoek van de AP in april had aangetoond dat dergelijke instrumenten mogelijk een raciale inslag hadden.

Juristen van het ministerie van Justitie haalden afgelopen herfst hetzelfde AP-artikel aan toen federale burgerrechtenadvocaten vragen begonnen te stellen over andere discriminatieproblemen met het instrument van Allegheny. Zij spraken op voorwaarde van anonimiteit, zeggende dat het Ministerie van Justitie hen vroeg de vertrouwelijke gesprekken niet te bespreken. Twee van hen zeiden dat ze ook professionele vergelding vreesden.

INTELLIGENTIETESTS, OUDERSCHAPSCURSUSSEN

Zonder antwoorden over wanneer ze hun dochter weer naar huis konden krijgen, diende de advocaat van de Hackney's in oktober namens hen een federale rechtszaak in tegen de manier waarop het screeningsinstrument in hun geval was gebruikt.

Mettertijd heeft Allegheny bijgehouden of familieleden de diagnose schizofrenie of stemmingsstoornissen hebben. Het heeft ook gemeten of de ouders of andere kinderen in het huishouden een handicap hebben en of er gezinsleden zijn die een aanvullende uitkering ontvangen, een federale uitkering voor mensen met een handicap. Het district zei dat het rekening houdt met SSI-betalingen, deels omdat kinderen met een handicap meer kans lopen om misbruikt of verwaarloosd te worden.

Het district zei ook dat gegevens over handicaps "de resultaten kunnen voorspellen" en dat "het geen verrassing is dat ouders met een handicap.... ook behoefte hebben aan extra ondersteuning en diensten." In een gemailde verklaring voegde de provincie eraan toe dat in andere delen van het land maatschappelijk werkers ook vertrouwen op gegevens over geestelijke gezondheid en andere aandoeningen die van invloed kunnen zijn op het vermogen van een ouder om veilig voor een kind te zorgen.

De hackers zijn verplicht ouderschapscursussen te volgen en zeggen dat ze overbelast zijn door alle eisen van het kinderwelzijnssysteem, inclusief IQ-tests en rechtszittingen in het centrum van de stad.

Mensen met een handicap zijn oververtegenwoordigd in het kinderwelzijnssysteem, maar er is geen bewijs dat zij hun kinderen meer schade berokkenen, zegt Traci LaLiberte, een deskundige op het gebied van kinderwelzijn en handicaps aan de Universiteit van Minnesota.

Het opnemen van gegevens over handicaps in een algoritme is problematisch omdat het historische vooroordelen in het systeem bestendigt en zich richt op de fysiologische kenmerken van mensen in plaats van op het gedrag dat hulpverleners moeten aanpakken, aldus LaLiberte.

Het instrument van Los Angeles weegt mee of een van de kinderen in het gezin ooit speciale onderwijsdiensten heeft ontvangen, eerdere verwijzingen naar ontwikkeling of geestelijke gezondheid heeft gehad, of drugs heeft gebruikt om de geestelijke gezondheid te behandelen.

"Dit is niet uniek voor maatschappelijk werkers die deze tool gebruiken; het is gebruikelijk voor maatschappelijk werkers om deze factoren in overweging te nemen bij het bepalen van potentiële ondersteuning en diensten," zeiden de ontwikkelaars per e-mail.

Voordat de algoritmes werden gebruikt, was het kinderwelzijnssysteem lang op zijn hoede voor ouders met een handicap. In de jaren 1970 werden ze regelmatig gesteriliseerd en geïnstitutionaliseerd, zei LaLiberte. Een baanbrekend federaal rapport uit 2012 stelde vast dat ouders met psychiatrische of verstandelijke beperkingen in 80 procent van de gevallen de voogdij over hun kinderen verloren.

Uit het onderzoek van LaLiberte bleek dat kinderbeschermingsinstanties in de Verenigde Staten zelden een handicaptraining voor maatschappelijk werkers verplicht stellen. Het resultaat: Ouders met een handicap worden vaak beoordeeld door een systeem dat niet begrijpt hoe ze hun capaciteiten als verzorgers moeten beoordelen, zei ze.

De Hackney's hebben dit aan den lijve ondervonden. Toen een maatschappelijk werker Andrew Hackney vroeg hoe vaak hij de baby voedde, antwoordde hij letterlijk: twee keer per dag. De werkster leek ontsteld en schold hem uit door te zeggen dat baby's vaker moeten eten. Hackney had moeite om uit te leggen dat de moeder, grootmoeder en tante van het kind haar ook elke dag om beurten voedden.

GEMARKEERD VOOR HET LEVEN

De ambtenaren van Allegheny County hebben gezegd dat de integratie van AI in hun processen hen helpt "beslissingen te nemen op basis van zoveel mogelijk informatie", en merkten op dat het algoritme slechts gebruik maakt van gegevens waartoe maatschappelijk werkers al toegang hebben.

Dit kan records omvatten die tientallen jaren teruggaan. De tool uit het Pittsburgh-gebied heeft bijgehouden of ouders ooit overheidsuitkeringen hebben ontvangen of een strafblad hadden, zelfs als ze destijds minderjarig waren, of als ze nooit zijn aangeklaagd of veroordeeld.

AP ontdekte dat deze ontwerpbeslissingen mensen kunnen benadelen die in armoede zijn opgegroeid, waardoor historische ongelijkheden in de gegevens blijven bestaan, of mensen met een strafblad in het jeugd- of strafrechtsysteem, lang nadat de maatschappij hun verlossing heeft verleend. En critici zeggen dat de algoritmen een self-fulfilling prophecy kunnen creëren door te beïnvloeden welke gezinnen in eerste instantie het doelwit zijn.

Volgens de analyse van onderzoekers van de ACLU en de non-profit Human Rights Data Analysis Group "hebben deze voorspellers tot gevolg dat er permanente verdenking wordt gezaaid en dat er geen verhaal mogelijk is voor gezinnen die door deze indicatoren worden gemarkeerd". "Ze worden voor altijd gezien als gevaarlijker voor hun kinderen."

Nu algoritmen voor kinderwelzijn steeds gebruikelijker worden, vrezen ouders die de kritische blik van maatschappelijk werkers hebben ervaren, dat de modellen hen niet zullen toestaan aan hun verleden te ontsnappen, hoe oud of irrelevant hun eerdere confrontaties met het systeem ook mogen zijn.

Charity Chandler-Cole, lid van de Los Angeles County Commission on Children and Families, is een van hen. Als tiener belandde ze in een pleeggezin nadat ze was gearresteerd voor het stelen van ondergoed voor haar jongere zusje. Als volwassene, zegt ze, doken maatschappelijk werkers eens op bij haar flat nadat iemand valselijk had gemeld dat er een vleugelpiano naar haar neefje, die bij haar thuis woonde, was gegooid, hoewel ze het instrument niet bezaten.

Volgens Chandler-Cole kon het lokale algoritme haar een etiket opplakken vanwege haar eerdere ervaringen in de pleegzorg en de jeugdreclassering, en vanwege de ongegronde beschuldiging van kindermisbruik. Chandler-Cole vraagt zich af of de AI ook het feit dat ze snel werd gezuiverd van elke verdenking van mishandeling, of dat haar niet-gewelddadige misdaad als tiener wettelijk werd kwijtgescholden, goed kon beoordelen.

"Veel van deze rapporten missen gezond verstand", zegt Chandler-Cole, nu moeder van vier kinderen en uitvoerend directeur van een organisatie die met justitie samenwerkt om pleegkinderen te helpen. "Ze stoppen ons automatisch in deze ruimtes om beoordeeld te worden met deze labels. Het bestendigt alleen maar extra schade."

Wendy Garen, de collega van Chandler-Cole in de commissie, stelt daarentegen dat "meer beter is" en dat risicoscores, door alle beschikbare gegevens te benutten, het werk van het agentschap uitgebreider en doeltreffender kunnen maken.

WERELDWIJDE INVLOED

Zelfs nu hun modellen op nauwkeurigheid en eerlijkheid zijn onderzocht, zijn de ontwikkelaars nieuwe projecten gestart met kinderwelzijnsinstanties in Northampton County (Pennsylvania) en Arapahoe County (Colorado). De staten Californië en Pennsylvania, evenals Nieuw-Zeeland en Chili, hebben hen ook gevraagd voorbereidend werk te doen.

En naarmate zijn methoden zich de laatste jaren hebben verspreid, heeft Vaithianathan in Colombia en Australië lezingen gegeven over de opsporingsmiddelen. Hij adviseerde onlangs ook onderzoekers in Denemarken en ambtenaren in de Verenigde Arabische Emiraten over het gebruik van de technologie om kinderdiensten aan te pakken.

"Rhema is een van de wereldleiders en haar onderzoek kan het debat in Denemarken helpen vormgeven," zei een Deense onderzoeker vorig jaar op LinkedIn, verwijzend naar Vaithianathan's adviserende rol met betrekking tot een lokaal hulpmiddel voor kinderwelzijn dat wordt getest.

Vorig jaar financierde het US Department of Health and Human Services een nationale studie, mede geschreven door Vaithianathan en Putnam-Hornstein, waarin werd geconcludeerd dat hun algemene aanpak in Allegheny als model zou kunnen dienen voor andere plaatsen.

Debra Johnson, een woordvoerster van de HHS Administration for Children and Families, weigerde te zeggen of het onderzoek van Justitie invloed zou hebben op de toekomstige steun van haar bureau voor een op AI gebaseerde aanpak van kinderwelzijn.

In een tijd van krimpende budgetten, zijn instanties met weinig geld wanhopig op zoek naar efficiëntere manieren voor caseworkers om zich te concentreren op de kinderen die echt bescherming nodig hebben. Tijdens een rondetafelgesprek in 2021 erkende Putnam-Hornstein dat "het totale screeningspercentage volledig stabiel is gebleven" in Allegheny sinds de lancering van haar instrument.

Ondertussen kunnen pleegzorg en scheiding van gezinnen levenslange gevolgen hebben voor de ontwikkeling van een kind.

Uit een studie van de HHS uit 2012 blijkt dat 95% van de kinderen die bij de kinderbescherming worden aangemeld meer dan één keer van verzorger en huis veranderen tijdens hun verblijf in een pleeggezin, een instabiliteit die volgens onderzoekers zelf een vorm van trauma kan zijn.

De dochter van de Hackneys heeft al in twee pleeggezinnen gezeten en heeft meer dan de helft van haar korte leven weg van haar ouders doorgebracht, terwijl ze de sociale werkers ervan proberen te overtuigen dat ze waardig zijn.

Ondertussen zeggen ze dat ze geen geld meer hebben in de strijd om hun dochter. Ze hebben nauwelijks nog genoeg te eten van het salaris van Andrew Hackney bij een plaatselijke kruidenier, en hebben hun maandelijkse mobiele telefoondienst moeten stopzetten. Ze worstelen om de juridische kosten te betalen en de benzine die ze nodig hebben om hun afspraken na te komen.

In februari werd bij hun dochter een aandoening vastgesteld die haar smaakzin kan veranderen, aldus de advocaat van Andrew Hackney, Robin Frank, die eraan toevoegde dat het meisje moeite blijft houden met eten, zelfs in de pleegzorg.

Alles wat ze nu hebben zijn tweemaal per week bezoeken van een paar uur voordat ze weer wordt meegenomen. De stem van Lauren Hackney breekt als ze vreest dat haar dochter zal worden geadopteerd en haar eigen familie snel zal vergeten. Ze zeggen dat ze ernaar verlangen om te doen wat voor veel ouders vanzelfsprekend is: hun dochter 's nachts in haar eigen bed te laten slapen.

"Ik wil echt mijn kleine meisje terug. Ik mis haar, en vooral haar in mijn armen houden. En natuurlijk mis ik dat gegiechel," zei Andrew Hackney, terwijl zijn dochter tijdens een recent bezoek opgewonden tegen hem opsprong. "Het doet me zo'n pijn. Je weet niet hoeveel.

Door Associated Press via U.S. News maart 16th 2023

Stop Child Abuse

Er zijn veel manieren waarop u betrokken kunt raken en een verschil kunt maken om kindermishandeling te voorkomen. Onderneem actie en kies wat voor u het beste werkt.