Vera.ai

VERification Assisted by Artificial Intelligence

EU DisinfoLab är en oberoende organisation som fokuserar på att samla information och arbeta för att hantera och motverka misinformation. Detta gör de genom att utföra egna undersökningar och stötta och dela med sig av informationen med andra som arbetar för samma mål. De samarbetar även med andra och hjälper till genom att erbjuda en oberoende plattform med verktyg och resurser samt uppmanar till samarbete mellan andra aktivister och experter. För att hjälpa till att förbättra saker inom området så kommer de med rekommendationer kring policies baserat på deras analyser samt organiserar evenemang såsom konferenser, webinars och workshops.

Ett av de projekt som EU DisinfoLab håller på med just nu är vera.ai där de arbetar med att utveckla lösningar för att hantera och motverka misinformation med hjälp av AI. Projektet är under arbete och startade september 2022 och beräknas pågå till september 2025 vilket innebär att det inte vid det här stadiet går att utvärdera och diskutera vad de kommer ha åstadkommit vid projektets slut utan endast vad som har gjorts hittills (Mars 2024). Det är bland annat finansierat av EU Horizon Europe och Innovate UK.

Projektets mål är att skapa lösningar och komponenter som kan appliceras i befintliga sammanhang och tjänster eller erbjudas som fristående verktyg. De riktar sig även mot att skapa verktyg som kan användas av journalister, faktagranskare, utredare, forskare och andra som ska verifiera innehåll i form av media.  Ett år efter att projektet skriver DisinfoLab om vad de åstadkommit och arbetat med tills dess (deras review) och säger att de bland annat har publicerat 25 vetenskapliga texter som de flesta berör spridning av desinformation och hur det kan motverkas. De fokuserar även en del av forskningen på bland annat hur det påverkar individen, hur snabbt en person kan hamna i en filterbubbla av misinformation, men också om hur man arbetar för att spräcka “bubblan” och hur det går att upptäcka innehåll som blivit manipulerat. Utöver det har de arbetat med att utveckla nya tillvägagångssätt för att upptäcka desinformation som exempelvis Deepfake audio detection by speaker verification

Misinformation online kan komma i många former och i och med utvecklingen i tekniken blir det lättare att manipulera och skapa falsk media och det blir samtidigt svårare att avgöra vad som har blivit manipulerat eller förfalskat. Som de på Vera.ai själva betonar har projektet, och liknande arbeten, blivit mer och mer relevanta sedan dess start allteftersom AI-tekniken utvecklats. Projekt som detta kan vara avgörande för att forskningen och arbetet kring detta och andra viktiga ämnen går framåt och leder till nya upptäckter och resultat.

Det kan ses som problematiskt att använda AI som tillvägagångssätt då det i sig finns problematik med tekniken som i sig behöver undersökas och hanteras och att det som bidrar till att skapa och förvärra problemen då ska användas för att lösa dem. Innebär inte det att man försöker lösa ont med ont?

Join the Conversation

3 Comments

  1. Som du säger i slutet, det är ju ganska ironiskt att bekämpa missinformation från AIs med en annan AI. Men det visar på att AI kan användas för både gott och ont. En risk jag ser med detta är ju såklart att den goda AIn har fel om en artikel eller en video som faktiskt är verklig och sann. Vid en sådan händelse uppstår en orättvis censur och i sin tur kränkande av den personens yttrandefrihet.

    Detta exempel stärker ytterligare att vi måste ha en seriösare granskning av hur AI används och vad det ska finnas för regler kring området.

  2. Det är intressant tanke du presenterar med att man genom AI ska försöka lösa problemen med AI. Men med tanke på hur stor spridningen av desinformation är och hur den används som ett verktyg i valkampanjer och av olika företag i syfte att ändra människors åsikter och tankar. Så är iden väldigt intressant och alla infallsvinklar borde testas för att motarbeta desinformation.

  3. Jag tycker du resonerar klokt kring tanken att bekämpa ont med ont om man ska lösa problem med AI, samtidigt som det finns en fördel med att projektet utvecklas av en så pass etablerad organisation som EU DisinfoLab. Utöver de faktum att de håller på utvecklar detta projektet så verkar det som att de har goda förutsättningar till att undvika de nackdelar som kan tillkomma med att anpassa AI för denna typen av tjänster, så har de mycket kompetens och möjligheter att anpassa den utifrån deras egna forskning och engagemang för desinformation och annat, vilket kan underlätta i arbetet att motverka potentiella motgångar.

Leave a comment

Your email address will not be published. Required fields are marked *