Videnskab
 science >> Videnskab >  >> Elektronik

Hvordan AI hjælper med at forudsige og forhindre selvmord

Et pilotprojekt fra 2018 mellem Public Health Agency of Canada og Advanced Symbolics vil bruge indlæg på sociale medier som en ressource til at forudsige regionale selvmordsrater. Kredit:Shutterstock

Selvmord er en voksende bekymring for folkesundheden. I Canada, 4, 000 liv bliver krævet af selvmord hvert år - det er 10 liv om dagen.

For hver af disse selvmordsdødsfald, der er fem personer indlagt efter selvskade, 25 til 30 selvmordsforsøg og syv til ti mennesker berørt af hver tragedie, ifølge analyse foretaget af Canadas Public Health Agency.

Selvmordsraterne er højest blandt visse grupper - f.eks. Oprindelige folk, immigranter og flygtninge, fanger og lesbiske, homoseksuel, biseksuel, transseksuelle, interseks (LGBTI) samfund - og er stigende.

Selvmordets virkninger mærkes bredt. Toronto Transit Commission (TTC) rapporterede for nylig en stigning i transitmord i slutningen af ​​2017, med otte forsøg alene i december, og en tilsvarende stigning i antallet af stressorlov fra TTC -medarbejdere, på grund af den vejafgift, dette tog på personalet.

Kunne kunstig intelligens (AI), eller intelligens demonstreret af maskiner, muligvis hjælpe med at forhindre disse dødsfald?

Som forskere inden for psykiatrien, i Canadian Biomarker Integration Network for Depression, vi indsamler kliniske og biologiske data under behandlingstiltag for mennesker med alvorlig depression. Vi undersøger tidlige spor til ændringer i adfærd og humørstilstande ved hjælp af mobile sundhedsteknologier.

Et af vores mål er at identificere tidlige forudsigere af tilbagefald, og øget risiko for selvmordsadfærd.

Her gennemgår vi andre lovende anvendelser af AI til selvmordsforebyggelse, og gøre opmærksom på barrierer inden for dette område.

AI forudsiger selvmordsrater

Tidligt i 2018, Canadas Public Health Agency annoncerede et pilotprojekt med Advanced Symbolics, et Ottawa-baseret AI-firma, der med succes forudsagde Brexit, Trumps formandskab og resultaterne af valget i Canada i 2015.

Projektet vil undersøge og forudsige regionale selvmordsrater ved at undersøge mønstre i canadiske opslag på sociale medier, herunder selvmordsrelateret indhold, selvom brugeridentitet ikke vil blive indsamlet.

Programmet vil ikke isolere højrisikosager eller gribe ind på individuelt niveau. I stedet, fund vil blive brugt til at informere mental sundhed ressource planlægning.

Facebook advarer nødberedder

I 2011, Facebook udviklede et manuelt selvmordsrapporteringssystem, hvor brugere kunne uploade skærmbilleder af selvmordsindhold til gennemgang.

I 2015, systemet tillod brugere at "markere" om indhold, hvilket ville få Facebook -medarbejdere til at gennemgå indlægget og svare med støttende ressourcer.

På grund af værktøjets succes, Facebook er begyndt at udvide deres AI-muligheder for automatisk at opdage selvmordsrelateret indhold, og advare lokale beredskabsassistenter. Der er også flere sprogmuligheder, og en udvidelse til Instagram.

Chatbots giver terapi mod depression

AI har været brugt i sundhedsvæsenet siden 1990'erne til at forbedre opdagelse af sygdomme og forskellige sundhedsindekser.

Inden for mental sundhed, AI har forbedret diagnosens hastighed og nøjagtighed, og anvendte "beslutningstræer" til at styre behandlingsvalg.

En ny tilgang til "terapi" involverer conversationsbots (eller chatbots), som er computerprogrammer designet til at simulere menneskelignende samtale ved hjælp af stemme- eller tekstsvar.

Chatbots kan levere psykologiske interventioner for depression og angst baseret på kognitiv adfærdsterapi (CBT). Da chatbots unikt reagerer på præsenteret dialog, de kan skræddersy interventioner til en patients følelsesmæssige tilstand og kliniske behov. Disse modeller betragtes som ganske brugervenlige, og de bruger-tilpassede svar fra selve chatboten er blevet godt gennemgået.

Lignende teknologi tilføjes til smartphones for at tillade stemmeassistenter, ligesom iPhone's Siri, at genkende og reagere på brugernes psykiske bekymringer med passende oplysninger og støttende ressourcer. Imidlertid, denne teknologi betragtes ikke som pålidelig og er stadig i sine indledende faser. Andre smartphone-applikationer bruger endda spil til at forbedre mental sundhedsuddannelse.

AI -teknologi er også blevet integreret i selvmordshåndtering for at forbedre patientplejen på andre områder. AI-vurderingsværktøjer har vist sig at forudsige kortsigtet selvmordsrisiko og lave behandlingsanbefalinger, der er lige så gode som klinikere. Værktøjerne er også velrenommerede af patienterne.

AI -modeller forudsiger individuel risiko

Nuværende evaluering og håndtering af selvmordsrisiko er stadig yderst subjektiv. For at forbedre resultaterne, mere objektive AI -strategier er nødvendige. Lovende ansøgninger omfatter forudsigelse af selvmordsrisiko og klinisk håndtering.

Selvmord påvirkes af en række forskellige psykosociale, biologisk, miljø, økonomiske og kulturelle faktorer. AI kan bruges til at undersøge sammenhængen mellem disse faktorer og selvmordsresultater.

AI kan også modellere den kombinerede effekt af flere faktorer på selvmord, og brug disse modeller til at forudsige individuel risiko.

Som et eksempel, forskere fra Vanderbilt University har for nylig designet en AI -model, der forudsagde selvmordsrisiko, ved hjælp af elektroniske sundhedsjournaler med 84 til 92 procent nøjagtighed inden for en uge efter en selvmordsbegivenhed og 80 til 86 procent inden for to år.

Gå forsigtigt fremad

Efterhånden som feltet forebyggelse af selvmord ved hjælp af kunstig intelligens skrider frem, der er flere potentielle barrierer, der skal håndteres:

  1. Privatliv:Beskyttelseslovgivningen skal udvides til at omfatte risici forbundet med AI, specifikt samlingen, opbevaring, overførsel og brug af fortrolige sundhedsoplysninger.
  2. Nøjagtighed:AI -nøjagtighed ved korrekt bestemmelse af selvmordshensigt skal bekræftes, specifikt med hensyn til systemiske forstyrrelser eller fejl, før en person betegnes som høj (mod lav) risiko.
  3. Sikkerhed:Det er vigtigt at sikre, at AI -programmer på passende vis kan reagere på selvmordsbrugere, for ikke at forværre deres følelsesmæssige tilstand eller ved et uheld lette selvmordsplanlægning.
  4. Ansvar:Svarprotokoller er nødvendige for, hvordan man håndterer højrisikosager korrekt, der er markeret af AI -teknologi, og hvad man skal gøre, hvis AI -risikovurderinger adskiller sig fra klinisk mening.
  5. Manglende forståelse:Der er et vidensgab blandt centrale brugere om, hvordan AI -teknologi passer ind i selvmordsforebyggelse. Mere uddannelse om emnet er nødvendig for at løse dette.

Samlet set, AI -teknologi er kommet for at blive i mange aspekter af sundhedsplejen, herunder selvmordsscreening og interventionslevering.

Denne artikel blev oprindeligt offentliggjort på The Conversation. Læs den originale artikel.




Varme artikler