Beskrivning
Kintsugi är ett företag som fokuserar på olika hälsolösningar. Fokus i denna text är på deras app med en modern lösning för att upptäcka tecken på depression och ångest. Det gör dom genom att analysera en persons röst med hjälp av en AI. Den AI som används är tränad specifikt för att upptäcka tecken på ångest och depression. Den analyserar personens tonläge, hur mycket du pausar mellan ord och andra variabler. Sedan kan den föreslå olika typer av vård beroende på resultatet. Genom att appen även får användare att göra en loggbok med röstinspelningar om hur dom mår kan detta leda till viss självreflektion, vilket i sin tur kan leda till personlig tillväxt och insikt i sitt eget beteende.
Kintsugi säger själva att deras forskning är framtagen med hjälp av de främsta experterna inom området och att allt har testats väldigt noggrant under en längre period. En undersökning de gjorde resulterade i “en känslighet på 0.91 och utan några falska positiva resultat”. Med denna information kan man argumentera för att deras teknik är relativt säker.
(Ingår i fierce healthcare nu)
Möjligheter
Med Kintsugis teknologi kan flera människor få tillgång till ett personligt verktyg som kan analysera deras välmående och tala om för användaren om den bör söka hjälp eller inte. Detta kan leda till att fler som lider av depression snabbare och mer lättillgängligt kan få den vård som de behöver. Ofta är det så att ju tidigare en patient får hjälp desto större är sannolikheten att göra en återhämtning.
Ibland kan personer tycka det är obekvämt läskigt att söka hjälp. Med detta verktyg kan folk få bevisat för sig att de kanske borde söka hjälp och med tack vare appen få den där extra knuffen.
Problem
Det mest seriösa problemet i detta fall är om analysen av rösten inte hade varit korrekt. Ifall en deprimerad person inte söker vård för att AIn tyckte att personen verkade frisk. Det kan leda till utfall som grov depression och självmord. Att tekniken inte är 100% säker kan anses vara oroväckande i ett så viktigt område som detta.
Ett annat problem är att tekniken är dyr att utveckla, att träna en AI kräver mycket resurser. Appen kostar 299kr i app store vilket kanske inte är så mycket för vissa, medan för andra kan det vara en stor investering och absolut inget man bara testar för sakens skull.
Eftersom appen lagrar alla dina röstinspelningar om ditt välmående kan en diskussion om integritet och säkerhetspolicy uppstå. Hur skulle företaget agera om den personliga datan skulle ha läckts? Om en persons personliga inspelningar hade hackats skulle det kunna leda till konsekvenser som får personen att må mycket värre än innan.
En väldigt intressant produkt som både kan hjälpa och stjälpa. Det som är intressant som du även tar upp i texten är att produkten är väldigt paradoxal då den både hjälper till att uppnå mål 3 (god hälsa och välbefinnande) men kan också anses gå emot om den inte är fullt fungerande.
Du beskriver att tjänsten lagrar alla röstinspelningar och att det krävs väldigt mycket energi för att träna AIn, detta kan verkligen påverka mål 7 (Hållbar energi för alla) beroende på vad för typ av datacenter som används vid både träningen och lagringen.
Ett alternativ på lösning kring att AI:n inte alltid är korrekt kan vara att de samarbetar med legitimerade psykologer eller läkare som kan stödja upp resurserna om ett resultat blir oklart eller ogiltigt. Om AI:n på något sätt kan identifiera när den inte kan ge ett tillräckligt bra resultat kan andra resurser komplettera.
En risk jag ser som appen kan leda till är att personer förlitar sig alldeles för mycket på den, dvs att de inte kommer söka professionell vård för att appen sa att den inte mådde “tillräckligt dåligt”. Det kan också bli tvärtom, att personer använder appen och att de “får reda på” att de mår dåligt fast de egentligen inte gör det, vilket kommer belasta sjukvården väldigt mycket om det är så att personerna egentligen inte är i behov av den typ av vård. Detta är ju dock ett fall som grundar sig i att appen har en sån stor användarbas att det finns utrymme för sånna här oväntade konsekvenser.
Som Sandra säger är det viktigt att användarna inte förlitar sig för mycket på resultatet. Jag ser även risken att om en användare får en disagnos de inte förväntat kan det leda till ökad ångest, speciellt om det finns en osäkerhet kring diagnosens noggrannhet. Jag ser även att eftersom lösningen förlitar sig på AI så kan diagnoserna ha en viss bias då AI:n tränas på tidigare data, så om datan är snedvriden så kan diagnoserna bli snedvridna.
Jag tycker att personliga datan är något som borde uppmärksammas mer, använder den folks personliga data för att träna AI:n börs väldigt starka säkerhetsbarriärer skapas och det bör uppmärksammas för användarna att all deras data samlas in. Det finns också exempel på folk som säger väldigt specifika saker till AI för att få ut information som företaget ej vill ha ut. T.ex. Koden på hur AI:n fungerar, det skulle vara möjligt att skicka väldigt specifika signaler till AI:n och få ut information om andra användare om det inte tänkts igenom väl.