top of page

Kan jag lita på AI?


Vi använder fler och fler enheter och tjänster som samlar in data, och maskininlärning gör att vi kan analysera datan så kan vi se mönster som kan användas för prognoser. Men kan jag lita på en AI?

När en självkörande bil är del i en olycka så hamnar det på löpsedlarna, även om mänskliga förare gör många fler misstag hela tiden. Är det rätt att vi har olika standarder för mänskliga och autonoma bilar?


AI bäddar in sig djupare in i våra liv, oftast utan att vi märker det, och AI används när det är svårt att systematiskt beskriva vilket svar vi vill få från en viss indata. Om en AI får en bild med bara en kattsvans, ska den då markera att bilden innehåller en katt eller inte? Var drar vi gränsen?

Beslutskvalitet

En AI:s beslut kan bedömas på deras känslighet och specificitet, eller “hur bra är vi på att detektera att en bild innehåller en katt?” mot “hur bra är vi på att detektera när en bild inte innehåller en katt?”. Vi kan få maximal känslighet om vår detektor alltid tror att en bild innehåller en katt, men då blir specificiteten väldigt låg (många svar som är falskt positiva). När vi har tränat en AI så kan vi många gånger byta specificitet mot känslighet.


För att samtidigt få både hög känslighet och specificitet så behöver vi en smart AI som placerar alla bilder i antingen “true positive” eller “true negative” kategorierna, och då behöver vi data att träna på för vårt specifika problem.

Återanvända gammal kunskap

Fundera på hur ett barn lär sig att känna igen object. I början måste det vara väldigt svårt att förstå var en katt börjar eller slutar i en bild, men efter att ha tittat på många bilder (eller levande katter) så lär sig barnet känna igen enkla objekt. När hen har lärt sig känna igen katter så går det mycket snabbare att lära sig känna igen lejon, genom att använda sin kunskap från hur en katt ser ut.


För AI så innebär det att vi börjar träna på en stor generell datamängd (exempelvis ImageNet med över 14 miljoner bilder). AI:n lär sig kännetecken som päls, händer, byggnader, fordon osv. När vi senare tränar på vårt specifika problem (som att se skillnad på gurka och zucchini) så behöver vi inte alls lika många bilder (ibland räcker tiotalet bilder för varje kategori).





Ett annat trick vi kan använda är att expandera datan som vi redan har, en bild på en gurka är fortfarande en bild på en gurka om vi speglar bilden, ändrar ljusstyrkan eller förskjuter den. Att hitta på smarta sätt att expandera sin data är ofta en av de viktigaste punkterna när vi tränar en AI.



I slutändan spenderas ofta mycket tid på att justera vår data på ett sätt så att AI:n kan förstå den, och att verifiera att AI:n har lärt sig “rätt” saker. Jag brukar tänka på det hur olika lärare har olika sätt att lära ut. En bra lärare (data scientist) kan få en elev (neuralt nätverk) att förstå olika koncept bättre genom att presentera informationen på bra sätt.

AI:s internal mål

När vi tränar en AI så löser vi ett optimeringsproblem: vi vill minimera felaktiga beslut. När vi sjösätter vår AI lösning så flyttas optimeringen in i den verkliga världen vilket kan få oanade konsekvenser. Anta att jag är dålig på att passa tider och använder Google Maps för att beräkna tiden jag behöver för att ta mig till olika platser. Eftersom jag alltid är ute i sista minuten så måste jag springa för att hinna i tid. Google Maps lär sig att jag är snabb på att förflytta mig och minskar på tiden som jag behöver för att ta mig till nästa möte.


Vi måste tänka på att en AI bara verkar smart, den förstår inte hur den verkliga världen fungerar. Dessutom har vi ofta svårt att mäta det vi verkligen vill åt. Vi ersätter “många användare gillar vår videotjänst” med “våra användare tittar länge på de videos vi väljer åt dem”. Detta är också varför GDPR innehåller en sektion om “rätten för icke-automatiskt beslutsfattande”. AI och människor behöver jobba tillsammans, och använda varandras olika styrkor. AI kan än så länge inte se långsiktiga konsekvenser från sina beslut.

Sammanfattning

Vad är de bra bitarna? AI låter oss höja lägsta-kraven i många fält. En AI doktor är inte lika bra som en mänsklig doktor på alla uppgifter, men för de områden som vi kan automatisera så kan vi göra så att patienter aldrig får en sämre diagnos än vad en AI kan producera. AI hjälper oss förfina många vanliga uppgifter (tänk på GMail’s Quick Reply) eller hur man ska justera ett recept efter innehållet i ditt kylskåp. Vi kommer att få självkörande bilar och kundtjänst som svarar dygnet runt via automatiserade assistenter så vi aldrig behöver vänta i en telefonkö.


Framtiden ser ljus ut, men vi måste se till att vi människor får plats i de processer som vi håller på att skapa med AI. I slutändan är det människor som måste bestämma hur vi ska tolka resultaten från AI och bäst blir det när människor jobbar tillsammans med AI.


Av Erik Man

0 comments
bottom of page