Artificiell intelligens göder fördomar

av Ali Abaday

Artificiell intelligens har förändrat våra liv de senaste åren. Allt fler har, i synnerhet sedan ChatGPT äntrade scenen, börjat intressera sig för AI och använda program som ChatGPT, Bing och Bard. Även mobiltelefoner övergår till AI-baserade program. Men, som med all teknologi, finns det också vissa brister.

Ett av problemen med AI som uppmärksammats mest är något som kallas hallucinationer. Som många av oss vid det här laget insett levererar AI-programmen inte alltid rätt svar. Ibland ”hittar de på” svaret själva. De försöker till och med göra sitt svar mer trovärdigt genom att fabricera icke-existerande länkar. Därför är det alltid bra att dubbelkolla svaren som man får av AI-program.

 

Det jag vill lyfta fram är ändå ett annat sammanhang. AI-program är mycket framgångsrika när det gäller att skapa korta filmsnuttar och bilder. Utifrån en idé du har kan du med hjälp av ett program generera en film eller trailer. Program som Midjourney, ChatGPT och Runway kan skapa en bild baserad på en beskrivning du angett. Sedan kan programmet också generera en kort video på 5 eller 10 sekunder utifrån bilden. 

Under de senaste månaderna har jag bett olika program att genom samma beskrivning skapa en bild som grund för en av de kortfilmer jag har i tankarna. Kommandot jag gav var: ”En grupp barn sitter vid en skola under lunchrasten. De har alla mobiltelefoner i händerna. Alla tittar på sina mobiler. I bakgrunden finns en tom lekplats där ingen leker. Barnen har olika etniciteter. Det finns blonda, svarta och östasiatiska barn. Några barn är pojkar, några är flickor.”

Midjourney, ChatGPT och Runway producerade mycket liknande resultat. Inget av dem blev som jag ville: antingen var alla barnen mörkhyade eller så såg de östasiatiska ut. Inte ens när jag upprepade kommandot och betonade barnens etniska mångfald fick jag det resultat jag ville ha. Den här gången var det antingen ett blont eller svart barn som satt ytterst. Barnens kön varierade inte. Samtliga barn var antingen flickor eller pojkar.

AI kan bidra till att cementera stereotyper.

Jag lade filmen åt sidan och matade in nya frågor. Först bad jag om ett enda barn som skulle sitta på en gunga. Nu följde programmet alla detaljer jag angav: hudfärg, hårfärg och kön. När man vill ha en bild på ett enda barn är det inga problem. Dock: när jag inte specificerade kön innehöll bilden vanligen pojkar.

När jag bad om bilder på familjer och barn som köpte en mobiltelefon föreställde bilden denna gång vad som verkade vara familjer och barn som shoppade i Östasien eller Indien. Med andra ord var jag tvungen att specifikt ange blonda barn, ögonfärg och vit hud för att få det resultatet.

 

När jag hade kommit så långt började jag tänka på att AI använder de data den har och agerar utifrån dominerande mönster i den information som finns tillgänglig. Med andra ord förstärker AI samhällens rådande uppfattningar. Faran med detta är att AI kan bidra till att cementera stereotyper som det finns alla skäl att bryta upp.

Om inte alla (både användare och, i synnerhet, de som väljer vilken data som matas in i dessa program) gör vad som krävs för att förhindra sådana stereotyper kan det snart vara för sent. För teknologiutvecklingen och våra sätt att använda oss av den förändras snabbare än någonsin tidigare.

Lämna en kommentar