Emergent medical data (EMD)

Emergent medical data (EMD) is gezondheidsinformatie die over een individu wordt verzameld uit schijnbaar ongerelateerde gegevens over gebruikersgedrag. EMD maakt gebruik van geavanceerde methoden -- waaronder kunstmatige intelligentie (AI) en machine learning (ML) -- om gebruikersactiviteiten te analyseren en een gedetailleerd profiel te maken van de fysieke en mentale gezondheid van een individu. De term werd in 2017 bedacht door Mason Marks, een assistent-professor aan de Gonzaga University School of Law.

Bedrijven kunnen opkomende medische gegevens uit een verscheidenheid aan bronnen trekken, waaronder Facebook-posts, creditcardaankopen, de inhoud van e-mails of een lijst met video's die onlangs op YouTube zijn bekeken. Normaal gesproken zou iemand die naar deze ruwe gegevens kijkt, geen verband zien met de gezondheid van de gebruiker. Met behulp van AI-tools en big data-algoritmen kan deze voorheen nietszeggende informatie echter worden omgezet in gevoelige medische gegevens.

Het verzamelen van EMD biedt verschillende voordelen, zoals de mogelijkheid om de verspreiding van een infectieziekte te traceren, individuen met een risico op zelfmoord of moord te identificeren en drugsmisbruik te monitoren. De belangrijkste aantrekkingskracht van medische gegevens uit opkomst is echter de mogelijkheid voor organisaties om gedragsgerichter te werk te gaan en klantprofilering en marketing te optimaliseren. Verzekeringsmaatschappijen kunnen EMD gebruiken om het ongevallenrisico van een individu te bepalen en verzekeringspremies te berekenen. Adverteerders kunnen persoonlijke medische gegevens gebruiken om gedragsgerichte advertenties aan te bieden op basis van de medische voorgeschiedenis van het individu.

Als gevolg hiervan is EMD veel zorgen gaan baren over de privacy van personen en patiënten. Patiëntgegevens die door zorgverleners worden verzameld, worden beschermd door de Health Insurance Portability and Accountability Act (HIPAA); EMD krijgt echter weinig tot geen wettelijke bescherming.

Verder heeft de onthulling van Google's Project Nightingale eind november 2019 de zorgen vergroot en het debat aangewakkerd over de vraag of gegevens die zonder toestemming van de patiënt zijn verzameld, ethisch kunnen worden omgezet in EMD en gebruikt voor financieel voordeel. Project Nightingale is een samenwerkingsverband tussen Google en zorgorganisatie Ascension dat Google toegang verschafte tot meer dan 50 miljoen patiëntendossiers zonder medeweten van arts of patiënt.

Wat voor soort gegevens omvat EMD?

Wanneer een persoon interactie heeft met technologie, laat hij een digitale voetafdruk achter van zijn acties en gedragingen. AI, ML en big data-algoritmen verzamelen en analyseren deze ruwe gegevens om EMD te creëren. Als gevolg hiervan zal bijna elke activiteit die door een individu met technologie wordt uitgevoerd, informatie creëren die kan worden omgezet in gevoelige medische gegevens.

Specifieke voorbeelden van informatie die wordt verzameld in het proces van emergent medical data mining zijn:

  • Facebook "likes" en opmerkingen
  • Twitter posts
  • Amazon en Target.com
  • Uber-ritten
  • Instagram-posts

Al deze gegevens kunnen worden geanalyseerd om een profiel te vormen van de mentale en fysieke gezondheid van de gebruiker; naarmate er meer informatie wordt toegevoegd, wordt er meer EMD verzameld en wordt het profiel duidelijker.

EMD en Google's Project Nightingale

Project Nightingale is een samenwerkingsverband tussen Google en Ascension -- het op een na grootste zorgstelsel in de Verenigde Staten. Het geheime project werd verborgen gehouden tot november 2019, toen werd onthuld dat Google via het partnerschap toegang had gekregen tot meer dan 50 miljoen medische dossiers van Ascension-patiënten.

Het partnerschap geeft Google ongekende macht om correlaties te bepalen tussen gebruikersgedrag en persoonlijke medische aandoeningen. Patenten die in 2018 zijn ingediend, onthullen dat Google Project Nightingale wil gebruiken om zijn opkomende medische dataminingcapaciteiten te vergroten en uiteindelijk gezondheidsaandoeningen te identificeren of te voorspellen bij patiënten die nog geen arts hebben gezien.

Hoewel Project Nightingale tal van medische voordelen zou kunnen bieden en het gezondheidszorgsysteem zou kunnen verbeteren, heeft het ook zorgen gewekt over de persoonlijke privacy. Het is waarschijnlijk dat Google zijn ontdekkingen zal verbergen als handelsgeheimen en ze alleen zal delen met zijn moederbedrijf Alphabet en zijn onderafdelingen -- waaronder Nest, Project Wing, Sidewalk Labs en Fitbit.

Elke van deze onderafdelingen biedt een dienst met een dataminingoperatie die gebruikersinformatie verzamelt en analyseert. Daarom is een grote zorg rond Project Nightingale het potentieel om zijn verzameling van persoonlijke medische gegevens te gebruiken om een ongekend gezondheidstoezichtssysteem voor consumenten te creëren dat zich uitstrekt over meerdere industrieën en technologieën.

In november 2019 werd een federaal onderzoek geopend om Project Nightingale en Google's poging om miljoenen beschermde gezondheidsinformatie (PHI) van Amerikanen te verzamelen, te onderzoeken.

EMD en privacyzorgen

De potentiële risico's van EMD zijn als volgt:

  • Bedrijven kunnen profiteren van mazen in de privacywetgeving en het gebrek aan kennis bij gebruikers over EMD om toegang te krijgen tot persoonlijke medische dossiers die doorgaans vertrouwelijk zijn.
  • Onlineplatforms kunnen profiteren door EMD te verkopen aan derden, die het vervolgens kunnen gebruiken als basis voor discriminatie bij allerlei beslissingen, waaronder werkgelegenheid, verzekeringen, leningen en hoger onderwijs.
  • Hoe meer mensen over EMD te weten komen, hoe waarschijnlijker het is dat ze hun onlinegedrag gaan veranderen; dit zou de vrije uitwisseling van ideeën via het internet sterk kunnen beperken.
  • Wanneer een bedrijf gebruikers in groepen plaatst op basis van medische aandoeningen, treden zij op als medische diagnostici -- een rol die voorbehouden zou moeten zijn aan opgeleide en gediplomeerde professionals.

Emergent medical data heeft het potentieel om de gezondheidszorg te verbeteren met een verscheidenheid aan mogelijke voordelen. Advertenties voor evidence-based herstelcentra kunnen bijvoorbeeld worden gericht op gebruikers met middelenmisbruikproblemen en mensen met ongediagnosticeerde Alzheimer kunnen naar een arts worden doorverwezen voor evaluatie. Het verzamelen van de nodige informatie om dit mogelijk te maken zonder uitdrukkelijke toestemming is echter onethisch en schendt de individuele privacy. Bovendien wordt de verzamelde informatie niet beschermd door de HIPAA en zijn bedrijven die de gegevens verzamelen niet onderworpen aan sancties op dit gebied.

Wet- en regelgeving op het gebied van gezondheid en privacy

De verschillende privacyproblemen rond EMD en het verzamelen van persoonsgegevens hebben de discussie aangewakkerd over de ethiek van de volksgezondheid en de grenzen aan een verantwoord gebruik van medische gegevens uit de actualiteit. Verschillende regeringen hebben gereageerd met nieuwe wetten om persoonsgegevens verder te beschermen.

In april 2016 heeft de Europese Unie de Algemene Verordening Gegevensbescherming (GDPR) goedgekeurd, die de rechten van consumenten op controle over hun gegevens en het gebruik ervan vergroot; bedrijven die zich daar niet aan houden, worden bestraft met hoge boetes. De GDPR is in mei 2018 in werking getreden.

Huidig zijn er geen wetten in de Verenigde Staten om het ontginnen van EMD te reguleren. Californië heeft echter in juni 2018 de California Consumer Privacy Act (CCPA) aangenomen die het recht van Californische inwoners om hun persoonlijk identificeerbare informatie (PII) te controleren, ondersteunt. Onder de CCPA hebben burgers het recht om te weten welke persoonlijke informatie wordt verzameld en wie deze verzamelt, evenals het recht om toegang te krijgen tot hun PII en de verkoop ervan aan derden te weigeren.

Daarnaast hebben U.S. Sens. Amy Klobuchar en Lisa Murkowski onlangs de Protecting Personal Health Data Act voorgesteld, die tot doel heeft gezondheidsgegevens te beschermen die worden verzameld door wellness-apps, fitnesstrackers, sociale mediaplatforms en direct-to-consumer (D2C) DNA-testbedrijven.

Terwijl deze nieuwe wet consumenten ten goede zou kunnen komen, brengt deze ook het risico met zich mee dat er een uitzondering voor EMD wordt gecreëerd. Bijvoorbeeld, een sectie van de wet sluit "producten uit waarop persoonlijke gezondheidsgegevens uitsluitend zijn afgeleid van andere informatie die geen persoonlijke gezondheidsgegevens zijn, zoals gegevens van het Global Positioning System [GPS]". Als de Protecting Personal Health Data Act wordt aangenomen, kunnen bedrijven dus nog steeds vrij doorgaan met het ontginnen van nieuwe medische gegevens.

Een laatste punt van zorg rond EMD is de mogelijkheid om algoritmische discriminatie te bevorderen, wat optreedt wanneer een computer systematisch en herhaaldelijk fouten produceert die oneerlijke uitkomsten opleveren - zoals het bevoordelen van een groep gebruikers boven een andere, meer kwetsbare groep.

De machine learning-algoritmen die worden gebruikt om EMD te vinden, sorteren gebruikers in gezondheidsgerelateerde categorieën die een positief en negatief gewicht krijgen - of belang. Er is sprake van discriminatie wanneer een algoritme dat is ontworpen om nieuwe sollicitanten te vinden, een negatief gewicht toekent aan groepen mensen met een handicap, waardoor zij geen toegang hebben tot vacatures en sollicitaties waarvoor zij gekwalificeerd hadden kunnen zijn. Algoritmische discriminatie kan er ook toe leiden dat bedrijven mensen ten onrechte en zonder het te beseffen de toegang ontzeggen tot belangrijke middelen, zoals huisvesting en verzekeringen.

Voorbeelden van opkomende medische gegevens

Het Amerikaanse detailhandelsbedrijf Target huurde statistici in om patronen te vinden in het koopgedrag van hun klanten. Door middel van datamining werd ontdekt dat zwangere vrouwen het vaakst ongeparfumeerde bodylotion kochten aan het begin van hun tweede trimester. Voordat deze gegevens werden geanalyseerd, was er geen verband tussen ongeparfumeerde bodylotion en een gezondheidsprobleem. Met behulp van deze informatie kon Target echter consumenten die als aanstaande moeders waren geïdentificeerd, bereiken met coupons en advertenties voordat andere bedrijven zelfs maar wisten dat de vrouwen zwanger waren.

Recente studies waarbij Facebook betrokken was, laten ook zien hoe niet-medisch online gedrag kan worden gebruikt om gebruikers te vinden met problemen met middelenmisbruik en andere ziekterisico's. Een studie toonde bijvoorbeeld aan dat het gebruik van scheldwoorden, seksuele woorden en woorden gerelateerd aan biologische processen op Facebook indicatief waren voor alcohol-, drugs- en tabaksgebruik. Verder bleek uit het onderzoek dat woorden die te maken hebben met de fysieke ruimte - zoals 'boven' en 'beneden' - sterker gekoppeld waren aan alcoholmisbruik, terwijl boze woorden - zoals 'doden' en 'haten' - sterker gekoppeld waren aan drugsmisbruik.

Facebook ontdekte ook dat het gebruik van religieus taalgebruik - met name woorden die te maken hebben met gebed, God en familie - kon voorspellen welke gebruikers diabetes hadden of zouden kunnen krijgen. Andere aandachtsgebieden zijn onder meer het analyseren van gewone Facebook-posts om te bepalen wanneer specifieke gebruikers zich suïcidaal voelen.

Google werkt aan een smart home-systeem dat digitale voetafdrukken van gezinsleden verzamelt en de gegevens analyseert om ongediagnosticeerde ziekten - waaronder Alzheimer en griep - of drugsmisbruikproblemen te voorspellen.