När den första förtjusningen och förvirringen lagt sig över allt man kan göra med AI, handlar diskussionen nu alltmer hur hur man ska skapa AI-system som är transparenta och rättssäkra. Nuvarande dolda processer kallas svartlåde-AI, medan de med mer öppna processer som förespråkas, kallas glaslåde-AI. Skillnaden handlar om möjligheten att förstå och kontrollera systemen.
AI kan till exempel användas av läkare för att besluta om en tumör ska opereras, av banker för att bedöma om en person ska få ett bostadslån, eller av socialtjänsten för att fatta beslut om olika bidrag. När alla faktorer vägts ihop blir det ett ja eller nej, men man vet inte riktigt hur det gick till, när man använder dagens svartlåde-AI. De som är i branschen beskriver det som: ”Ett system där processerna som leder till beslut är oklara, eller svåra att förstå, även för användare och utvecklare.”
Skrämmande, tycker jag. Det tycker ståuppkomikern Jerry Seinfeld också, som sammanfattar läget: ”Vi är smarta nog för att uppfinna AI, dumma nog för att behöva det, men så korkade att vi inte vet om vi gjort rätt.” Förhoppningsvis finns det personer som är smarta nog att gå vidare och kräva mer lättgranskade AI -system.
Allt fler AI-forskare världen över förespråkar genomskinliga glaslåde-AI för beslut där rättssäkerhet och full förståelse är nödvändig, vid till exempel medicinska diagnoser eller ekonomiska beslut. Ursäkta men borde inte det vara självklart vid alla beslut?!
När man vill leka med AI, göra bilder eller be AI hitta på historier, må det vara hänt att man inte riktigt fattar var allt kommer från. Det är dock en helt annan sak när ditt liv eller din välfärd hänger på AI-besluten. Om banken säger att jag tyvärr inte kan få något bostadslån vill jag gärna veta varför. Det enda svar banken då kan ge är att: ”Algoritmerna säger nej.” Lite som en del beslutsfattares ”samlade bedömning”!
Motståndet mot ogenomträngliga AI-beslut växer och därmed kraven på begripliga, kontrollerbara beslutsprocesser. En internationellt uppmärksammad forskare finns i Umeå, Virginia Dignum, professor i Responsible Artificial Intelligence. I Umeå finns också professor Kary Främling, som lyckat lirka upp svarta AI-lådor. Jag gissar att han hört en och annan variant på Carola-låten ”Främling, vad döljer du … ” Det ligger till exempel nära till hands med ”Främling, vad hittar du …”
Kloka insikter..helt utan AI förmodar jag. Då vet man ju inte om det är klokt i alla fall, utan man måste fråga algoritmerna. Jag tar mig för min åldrande panna och ber den att tänka utan hjälp av AI.
AI är säkert bra på sina sätt men på fel sätt är det allt annat än bra. Jag hade långa diskussioner med mitt äldsta barnbarn om just AI..han var inne på ditt spår och jag kände mig riktigt stolt över att vara hans mormor. Killen kan tänka själv..
Tack! Ja, AI-fria insikter, om man inte räknar en liten Google-koll som AI.
Diskussionerna med kommande generationer är på sätt och vis lugnande. De verkar kloka och villiga att se komplikationerna, till skillnad från en och annan äldre entusiast … Om en person som undervisar på högskolan om AI-användning medger att han inte kan veta exakt vad AI har för sig när det utför en uppgift och att studenterna i allt högra grad förlitar sig på automatiserade system som de inte kan åtgärda om något går fel – ja då kan man behöva ta sig en funderare!
Farorna med AI är många. Vår svenske forskare Max Tegmark tror på fullt allvar att AI blir mänsklighetens undergång.
Jag delar – ännu – inte den uppfattningen. Allt nytt har betraktats som farligt. När ångbilen kom infördes lag om att tio meter före den måste det gå en person med röd varningsflagga och fordonet fick framföras i max 2,5 kilometer i timmen (inte 25 utan 2,5). I dag möts våra bilar med en meters mellanrum i över 200 sammanlagda kilometer i timmen – utan gubbe med röd flagga!
Tryckpressen skulle fördärva världen med oheliga skrifter och vår egen Alfred Nobel som uppfann dynamiten sa att ”den är så farlig att den aldrig kommer att användas i krig”. I dag trycker vi biblar, kokböcker och våldslitteratur och porr med samma entusiasm. Och dynamit i olika förpackningar haglar dygnet runt ned över Ukraina.
Rockmusiken skulle fördärva ungdomens moral och atombomben skulle garanterat bli världens undergång, trots att den nog är vår främsta garanti för att så inte blir fallet. Rockmusik spelas på allt från begravningar till gangstermöten. I dag används atomkraften till uppvärmning, elförsörjning, fartygs- och ubåtsmotorer – men också till atom- och vätebomber.
Allt missbrukas, mer eller mindre och på olika sätt! Det är det stora problemet. En stor del av mänskligheten lever efter egna lagar, gör som den vill, struntar i sina medmänniskor. Där ligger problemet, inte i AI i sig.
Många företeelser som oroat sin samtid har trots allt gått att förstå hur de fungerar, som ångbilar, tryckpressar och dynamit. Det nya med vissa AI-system är att inte ens de som konstruerat dem vet hur de funkar inuti den svarta lådan. Därför är min enkla åsikt att det kan vara bra att satsa på de transparenta system som utvecklas, så att man kan rätta till eventuella skevheter och framförallt så att man kan förklara hur bedömningarna görs, inför operationer, banklån och liknande. Max Tegmark kanske uttrycker sig mer drastiskt, men som jag förstår det varnar han för riskerna med AI, om den inte kan kontrolleras.
Den ”okontrollerade” AI:n är snabbare och lättare att utveckla eftersom den gör mycket av jobbet själv, men just därför kan det vara en bra idé att vänta med att använda den på områden som vi vill ha lite koll på.
Ett område som människan – naiv som hon är – försöker skydda från AI är ”det militära”. Men inom den branschen kommer AI att användas flitigast inom kort. Med skrämmande resultat. Tyvärr.
Filmen 2001: A Space Odyssey var ju profetisk när det gäller risken att datorerna ”tänker” i sina egna logiska banor och ställer till det för oss. Borde ha gjort oss lite försiktiga, kan jag tycka. P1-programmet Filosofiska rummet hade ett program nyligen om krigets lagar och etik i ett AI-styrt krig. Intressant och skrämmande.