Et pilotprojekt fra 2018 mellem Public Health Agency of Canada og Advanced Symbolics vil bruge indlæg på sociale medier som en ressource til at forudsige regionale selvmordsrater. Kredit:Shutterstock
Selvmord er en voksende bekymring for folkesundheden. I Canada, 4, 000 liv bliver krævet af selvmord hvert år - det er 10 liv om dagen.
For hver af disse selvmordsdødsfald, der er fem personer indlagt efter selvskade, 25 til 30 selvmordsforsøg og syv til ti mennesker berørt af hver tragedie, ifølge analyse foretaget af Canadas Public Health Agency.
Selvmordsraterne er højest blandt visse grupper - f.eks. Oprindelige folk, immigranter og flygtninge, fanger og lesbiske, homoseksuel, biseksuel, transseksuelle, interseks (LGBTI) samfund - og er stigende.
Selvmordets virkninger mærkes bredt. Toronto Transit Commission (TTC) rapporterede for nylig en stigning i transitmord i slutningen af 2017, med otte forsøg alene i december, og en tilsvarende stigning i antallet af stressorlov fra TTC -medarbejdere, på grund af den vejafgift, dette tog på personalet.
Kunne kunstig intelligens (AI), eller intelligens demonstreret af maskiner, muligvis hjælpe med at forhindre disse dødsfald?
Som forskere inden for psykiatrien, i Canadian Biomarker Integration Network for Depression, vi indsamler kliniske og biologiske data under behandlingstiltag for mennesker med alvorlig depression. Vi undersøger tidlige spor til ændringer i adfærd og humørstilstande ved hjælp af mobile sundhedsteknologier.
Et af vores mål er at identificere tidlige forudsigere af tilbagefald, og øget risiko for selvmordsadfærd.
Her gennemgår vi andre lovende anvendelser af AI til selvmordsforebyggelse, og gøre opmærksom på barrierer inden for dette område.
AI forudsiger selvmordsrater
Tidligt i 2018, Canadas Public Health Agency annoncerede et pilotprojekt med Advanced Symbolics, et Ottawa-baseret AI-firma, der med succes forudsagde Brexit, Trumps formandskab og resultaterne af valget i Canada i 2015.
Projektet vil undersøge og forudsige regionale selvmordsrater ved at undersøge mønstre i canadiske opslag på sociale medier, herunder selvmordsrelateret indhold, selvom brugeridentitet ikke vil blive indsamlet.
Programmet vil ikke isolere højrisikosager eller gribe ind på individuelt niveau. I stedet, fund vil blive brugt til at informere mental sundhed ressource planlægning.
Facebook advarer nødberedder
I 2011, Facebook udviklede et manuelt selvmordsrapporteringssystem, hvor brugere kunne uploade skærmbilleder af selvmordsindhold til gennemgang.
I 2015, systemet tillod brugere at "markere" om indhold, hvilket ville få Facebook -medarbejdere til at gennemgå indlægget og svare med støttende ressourcer.
På grund af værktøjets succes, Facebook er begyndt at udvide deres AI-muligheder for automatisk at opdage selvmordsrelateret indhold, og advare lokale beredskabsassistenter. Der er også flere sprogmuligheder, og en udvidelse til Instagram.
Chatbots giver terapi mod depression
AI har været brugt i sundhedsvæsenet siden 1990'erne til at forbedre opdagelse af sygdomme og forskellige sundhedsindekser.
Inden for mental sundhed, AI har forbedret diagnosens hastighed og nøjagtighed, og anvendte "beslutningstræer" til at styre behandlingsvalg.
En ny tilgang til "terapi" involverer conversationsbots (eller chatbots), som er computerprogrammer designet til at simulere menneskelignende samtale ved hjælp af stemme- eller tekstsvar.
Chatbots kan levere psykologiske interventioner for depression og angst baseret på kognitiv adfærdsterapi (CBT). Da chatbots unikt reagerer på præsenteret dialog, de kan skræddersy interventioner til en patients følelsesmæssige tilstand og kliniske behov. Disse modeller betragtes som ganske brugervenlige, og de bruger-tilpassede svar fra selve chatboten er blevet godt gennemgået.
Lignende teknologi tilføjes til smartphones for at tillade stemmeassistenter, ligesom iPhone's Siri, at genkende og reagere på brugernes psykiske bekymringer med passende oplysninger og støttende ressourcer. Imidlertid, denne teknologi betragtes ikke som pålidelig og er stadig i sine indledende faser. Andre smartphone-applikationer bruger endda spil til at forbedre mental sundhedsuddannelse.
AI -teknologi er også blevet integreret i selvmordshåndtering for at forbedre patientplejen på andre områder. AI-vurderingsværktøjer har vist sig at forudsige kortsigtet selvmordsrisiko og lave behandlingsanbefalinger, der er lige så gode som klinikere. Værktøjerne er også velrenommerede af patienterne.
AI -modeller forudsiger individuel risiko
Nuværende evaluering og håndtering af selvmordsrisiko er stadig yderst subjektiv. For at forbedre resultaterne, mere objektive AI -strategier er nødvendige. Lovende ansøgninger omfatter forudsigelse af selvmordsrisiko og klinisk håndtering.
Selvmord påvirkes af en række forskellige psykosociale, biologisk, miljø, økonomiske og kulturelle faktorer. AI kan bruges til at undersøge sammenhængen mellem disse faktorer og selvmordsresultater.
AI kan også modellere den kombinerede effekt af flere faktorer på selvmord, og brug disse modeller til at forudsige individuel risiko.
Som et eksempel, forskere fra Vanderbilt University har for nylig designet en AI -model, der forudsagde selvmordsrisiko, ved hjælp af elektroniske sundhedsjournaler med 84 til 92 procent nøjagtighed inden for en uge efter en selvmordsbegivenhed og 80 til 86 procent inden for to år.
Gå forsigtigt fremad
Efterhånden som feltet forebyggelse af selvmord ved hjælp af kunstig intelligens skrider frem, der er flere potentielle barrierer, der skal håndteres:
Samlet set, AI -teknologi er kommet for at blive i mange aspekter af sundhedsplejen, herunder selvmordsscreening og interventionslevering.
Denne artikel blev oprindeligt offentliggjort på The Conversation. Læs den originale artikel.
Sidste artikelSoftBank, Saudi -Arabien annoncerer et massivt solenergiprojekt
Næste artikelSolar søger sin plads under spansk sol