Kredit:CC0 Public Domain
Fremskridt inden for kunstig intelligens har skabt nye trusler mod privatlivets fred for sundhedsdata, viser en ny UC Berkeley undersøgelse.
Studiet, ledet af professor Anil Aswani fra Industrial Engineering &Operations Research Department (IEOR) i College of Engineering og hans team, antyder, at de nuværende love og regler langt fra er tilstrækkelige til at holde en persons helbredsstatus privat i lyset af AI-udvikling. Undersøgelsen blev offentliggjort i dag d JAMA Network Åbn .
I arbejdet, som blev delvist finansieret af UC Berkeley's Center for Long-Term Cybersecurity, Aswani viser, at ved at bruge kunstig intelligens, det er muligt at identificere individer ved at lære daglige mønstre i trindata (som dem, der indsamles af aktivitetsmålere, smartwatches og smartphones) og korrelerer det med demografiske data. Udvinding af to års data, der dækker mere end 15, 000 amerikanere førte til den konklusion, at privatlivsstandarderne i forbindelse med 1996's HIPAA (Health Insurance Portability and Accountability Act) lovgivning skal revideres og omarbejdes.
"Vi ønskede at bruge NHANES (National Health and Nutrition Examination Survey) til at se på privatlivsspørgsmål, fordi disse data er repræsentative for den mangfoldige befolkning i USA, " siger Aswani. "Resultaterne peger på et stort problem. Hvis du fjerner alle identifikationsoplysninger, det beskytter dig ikke så meget, som du tror. En anden kan komme tilbage og samle det hele igen, hvis de har den rigtige form for information."
"I princippet, du kunne forestille dig, at Facebook indsamler trindata fra appen på din smartphone, derefter købe sundhedsdata fra en anden virksomhed og matche de to, " forklarer han. "Nu ville de have sundhedsdata, der er matchet med navne, og de kunne enten begynde at sælge reklamer baseret på det, eller de kunne sælge dataene til andre."
Aswani gør det klart, at problemet ikke er med enhederne, men med hvordan den information enhederne fanger kan misbruges og potentielt sælges på det åbne marked.
"Jeg siger ikke, at vi skal opgive disse enheder, " siger han. "Men vi skal være meget forsigtige med, hvordan vi bruger disse data. Vi skal beskytte oplysningerne. Hvis vi kan gøre det, det er netto positivt."
Selvom undersøgelsen specifikt så på trindata, Aswani siger, at resultaterne tyder på en bredere trussel mod privatlivets fred for sundhedsdata. "HIPAA-regler gør dit sundhedsvæsen privat, men de dækker ikke så meget som du tror, " siger han. "Mange grupper, ligesom teknologivirksomheder, er ikke omfattet af HIPAA, og kun meget specifikke oplysninger er ikke tilladt at blive delt i henhold til gældende HIPAA-regler. Der er virksomheder, der køber sundhedsdata. Det formodes at være anonyme data, men hele deres forretningsmodel er at finde en måde at knytte navne til disse data og sælge dem."
Aswani siger, at han er bekymret for, at da fremskridt inden for kunstig intelligens gør det lettere for virksomheder at få adgang til sundhedsdata, fristelsen for virksomheder til at bruge den på ulovlige eller uetiske måder vil øges. Arbejdsgivere, realkreditinstitutter, kreditkortselskaber og andre kunne potentielt bruge kunstig intelligens til at diskriminere baseret på graviditet eller handicapstatus, for eksempel.
"Ideelt set det, jeg gerne vil se ud af dette, er nye regler eller regler, der beskytter sundhedsdata, " siger han. "Men der er faktisk et stort skub for selv at svække reglerne lige nu. For eksempel, den regelskabende gruppe for HIPAA har anmodet om kommentarer om øget datadeling. Risikoen er, at hvis folk ikke er klar over, hvad der sker, de regler, vi har, vil blive svækket. Og faktum er, at risikoen for, at vi mister kontrollen over vores privatliv, når det kommer til sundhedspleje, faktisk er stigende og ikke faldende."