AI är här för att stanna

av Christin Sandberg

Utvecklingen inom AI påverkar en mängd sektorer i samhället och den är att betrakta som irreversibel, säger två italienska forskare som betonar möjligheter och faror förbundna med artificiell intelligens.

 

När fysikern och datavetaren Annalisa Barla för två år sedan inledde sina lektioner på universitetet i Genua med att fråga eleverna vad de kom att tänka på när de hörde begreppet artificiell intelligens svarade i stort sett alla ”robotar”. Sedan dess har det skett vad hon kallar en epokgörande revolution.

– I dag skulle de utan tvekan nämna ChatGPT. Så folkligt har AI blivit, att alla kan relatera till det, säger hon när vi talas vid mellan två lektioner. 

Barla är en av Italiens främsta inom AI-forskning och hon beskriver hur hon sett en utveckling under tjugo år som har gått från att frågor som rörde AI var mycket svåra och tycktes omöjliga att svara på till att i dag handla om lösningar som till och med kan finnas tillgängliga för alla i mobilen. Själv höll hon på med så kallad maskininlärning långt innan det var ”coolt”, som hon säger. Hon har arbetat med allt från att ta fram lösningar för appar som sorterar våra foton och sätter ihop fotokollage till utvecklingen av mjukvara för medicinska diagnoser och bio-vetenskaplig data som försöker förstå vad som inte fungerar i komplicerade sjukdomsfall.

 

Nytänk i skolan behövs

Barla menar att det inte finns någon återvändo, utan vägen framåt handlar om att lära sig att hantera och använda AI, men på ett kritiskt sätt.

– AI kommer inte försvinna, utan kommer att bidra till att vi kan göra en massa saker mycket snabbare. Det är därför inte realistiskt att tänka oss att vi ska kunna fortsätta att undervisa som vi alltid har gjort. Den stora frågan handlar om hur vi använder AI. Och hur vi kan vi lita på det AI tar fram.

Det har påtalats att flera miljoner personer världen över arbetar med repetitiva sysslor och med prekära arbetsförhållanden för att det som betraktas som ren ”maskin-inlärning” ska fungera. 

Chattbottar har till exempel ett språk som ger ett naturligt intryck och kan ge sken av interaktion med någon som är ”på samma nivå”. Därför är det svårt att upprätthålla en kritisk hållning. Det krävs en ansträngning för att navigera när man interagerar med AI, menar Barla.

Enligt henne är ett av de största problemen den bias, eller partiskhet, som AI för med sig och som innebär att vissa narrativ privilegieras framför andra. Den data som matas in i maskininlärningsprocessen har en sådan tendens till partiskhet och snedvridning. 

– Ta till exempel ansiktsigenkänning, ett sätt att identifiera. Det handlar om miljontals bilder som har matats in för att träna AI-modellen, men de är inte representativa för alla världens hörn, utan är främst tränade på ansikten i Västvärlden.

– Lärarens nya roll måste därför vara att ge eleverna verktyg för att kunna upprätthålla en kritisk hållning och en förmåga att jämföra information på ett kritiskt sätt. Det kan inte handla om att förbjuda ChatGPT eller andra modeller som ger mycket information snabbt och kan överblicka mer än vi någonsin skulle klara av själva. Häri ligger framtidens utmaning, säger Annalisa Barla.

Vikten av att vara kritisk mot AI är ändå inte bara en fråga om att vara insatt i hur artificiell intelligens fungerar. För att ta exemplet ansiktsinlärning handlar det också om den arbetskraft som matar in den information som gör AI-stödd igenkänning möjlig. Det har påtalats att flera miljoner personer världen över arbetar med repetitiva sysslor och med prekära arbetsförhållanden för att det som betraktas som ren ”maskin-inlärning” ska fungera. 

 

Förklarbarhet viktig

Även Francesca Rossi, professor i datavetenskap och i dag ansvarig för AI och etik på IBM, vill uppmuntra till att använda AI, men samtidigt vill hon att vi ska vara medvetna om vad AI kan göra, vilka begränsningar det har och vilka risker det medför.

– Det är viktigt att använda AI ansvarsfullt. Särskilt när det kommer till integritet och diskriminering. Att försöka eliminera partiskhet är något vi på IBM arbetar med. För att göra det testar och förfinar vi regelbundet våra AI-system med hjälp av olika datauppsättningar för att anpassa olika utdata till mänskliga värderingar.

Etik är en stor fråga när det kommer till AI. AI måste, inskärper Rossi, byggas på en grund av förtroende och transparens. Att ta etiska genvägar inom AI kan leda till vinster på kort sikt, men detta tillvägagångssätt är för med sig risker, säger hon.

I försöken att utveckla pålitlig AI arbetar hennes företag utifrån några principer. Hon nämner bland annat ”förklarbarhet” (explainability), att maskininlärningsmodellen och det som den spottar ur sig ska kunna förklaras på ett för en människa begriplig sätt. Rossi räknar även upp rättvisa, robusthet, transparens och integritet.

– Med generativ AI gäller dessa egenskaper även för det genererade innehållet, inklusive frågor som fakta och innehållets ursprung, säger hon och tillägger att även AI:s inverkan på sysselsättning, utbildning, demokrati och miljö måste beaktas när man bygger och använder AI-system.

Också Annalisa Barla är inne på förklarbarheten.

Enligt henne är det ett problem att de flesta AI-modeller, som exempelvis det av OpenAI skapade ChatGPT, är slutna, snarare än öppna, modeller. 

– Vi vet därför inte hur de har tränats, säger hon.

 

Stöd för beslutsfattande?

Hur ser ni utvecklingen framöver?

– I dag ser vi redan hur AI påverkar de flesta sektorer och uppgifter, inom exempelvis kundservice, digitalt arbete, hälsovård, biovetenskap, säger Francesca Rossi.

Nyare framsteg inom AI, såsom Agentic AI, som kan automatisera arbetsflöden utan mänsklig inblandning, utlovar stora produktivitetsvinster och konkurrensfördelar – om företagen klarar att etablera en solid och pålitlig grund för sina AI-system.

Men det finns risker när det går fort. 

– Agentic AI introducerar nya risker och utmaningar. Användare är mindre benägna att beakta dessa vid design, utveckling eller styrning av tidigare former av AI. Eftersom Agentic AI fungerar utan kontinuerlig mänsklig övervakning finns det också fler potentiella risker, säger Rossi.

Barla menar att AI, om den används på rätt sätt och med kritisk inställning, kan bistå beslutsfattare att fatta bättre beslut inom områden såsom hälsovård, arbetsmarknad, ekonomi och klimat. Skälet till detta är att den artificiella intelligensen kan utgå från en så stor mängd information. Enligt henne är AI:s styrka att kunna läsa in mycket information, bearbeta den, göra prognoser och uppskattningar. 

– Datorer påverkas inte av åsikter om verkligheten, den analyserar rätt och slätt, säger hon.

 

Foto: Privat

Lämna en kommentar