Helsingin Sanomat publicerade härom veckan en understrykare om den profilering av användare som Google och Facebook sysslar med. I den mycket läsvärda artikeln beskrev skribenten Olavi Koistinen hur storföretag använder så kallade cookies för att knyta ihop information om vår tillvaro på nätet för att sedan kunna bemöta oss som individer, istället för mer eller mindre anonyma IP-nummer.

Artikeln var ett väldigt konkret exempel på hur övervakning äger rum idag. Redan för drygt 20 år sedan förutspådde filosofen Manuel DeLanda i boken War of the Intelligent Machines att så kallad ”panoptisk” övervakning allt mer skulle ersättas av en ny slags ”panspektrisk” övervakning.

”Istället för att placera några människokroppar kring en central censor, placeras en mångfald av censorer kring alla kroppar […]. Informationen bearbetas sedan genom ett antal filter eller listor med nyckelord. Panspektron väljer inte bara vissa kroppar och viss (visuell) data om dem. Istället sammanställer den information hela tiden och använder datorer för att sålla fram data som är relevant för dess övervakningsuppdrag.”

 

Övervakning och ekonomisk vinning har alltid legat varandra nära. Den panoptiska övervakningen var inte bara karakteristisk för fängelser, utan även för fabriker och samhälleliga institutioner inriktade på arbetskraftens reproduktion. Precis som panoptisk övervakning är anknuten till vissa produktionsparadigm (fordism, taylorism), så anknyter den panspekstriska övervakningen till en mångfald av olika ekonomiska praktiker.

Google är ett gott exempel på den panspektriska övervakningens tudelade funktion. Samtidigt som företaget säljer reklamutrymme som synkroniserar med sökarens sökord och -resultat, så nojar vi om Googles möjligheter till mera traditionell övervakning av oss som rättssubjekt.

Hur äger då den övervakning som Google idkar rum? Vilka aktörer agerar i processen?

Googles sökmotor drivs av den beryktade algoritmen PageRank. Grundtanken bakom den ursprungliga algoritmen var att värdet på en sajt i en sökning definieras på basis av olika mätare, varav den viktigaste var antalet andra sidor som länkar till sajten ifråga.

PageRank uträttar genom värderingen ett slags ”realabstraktion”, för att uttrycka processen i termer lånade av marxisten Albert Sohn-Rethel.

I Kapitalets första band beskriver Marx uppkomsten av den så kallade varuformen genom utbytet av varor mot en allmänt ekvivalent vara, pengar, som en abstraktion som föregår tanken. Realabstraktioner är alltså inte metafysiska idéer som styr världen, utan abstraktioner som uppstår genom konkreta handlingar. Först genom mångfalden av konkreta utbyten kunde tanken om en marknad och pengar som allmänt mått på värde uppstå.

Abstraktionen är för Marx alltså ett resultat av samhälleliga processer. Just utbytet (av idéer, varor, gillningar) uträttar övergången från det konkreta till det abstrakta. Realabstraktioner är alltså nära anknutna till uppkomsten av olika slags marknader.

 

Frågan vi då bör ställa oss är hurdana marknader som skapas genom den realabstraktion som uppstår då vi allt mer går till näts genom företag så som Google och Facebook.

Den italienska marxisten Matteo Pasquinelli granskade för ett par år sedan den ekonomiska dimensionen i PageRank i essän Goggle’s PageRank Algorithm: A Diagram of the Cognitive Capitalism and the Rentier of the Common Intellect.

”PageRank beskriver ett objekts uppmärksamhetsvärde så väl att algoritmen har blivit den viktigaste källan till synlighet och auktoritet även utanför den digitala sfären”.

Pasquinelli drar slutsatsen att PageRank är den första matematiska formeln för att räkna ut uppmärksamhetsvärdet på varje nod i uppmärksamhetsekonomin samt det sammanlagda uppmärksamhetskapitalet på alla noder i detta nätverk. Kort sagt ger PageRank varje nod en plats i en hierarki och upprättar alltså ett slags totalitet. Processen kunde med fog kallas för en realabstraktion. Medan samhälleligt arbete var måttet för värde hos Marx, försöker Pasquinelli via PageRank härleda en ny måttstock, som uppstår genom praktiken av länkande.

Men Pasquinellis essä är i den här bemärkelsen inte helt kurant. PageRank är inte längre ensamt kriterium för sökresultat på Google. Från att ha gett alla sökare samma resultat för samma sökord, har Google komplemetterat PageRank med personaliserade sökreultat. Istället för att upprätta en enkeltydig hierarki, ger ett sökord på Google idag resultat som varierar från person till person, IP-adress till IP-adress, Google-konto till Google-konto. Genom just cookies och med hjälp av inloggningsuppgifter från till exempel Gmail kan Google alltså skapa en profil på vad en person tidigare intresserat sig för (på Youtube, Google, i Gtalk-diskussioner och så vidare) och ge sökresultat därefter.

 

Den amerikanska nätaktivisten och författaren Eli Pariser har i boken The Filter Bubble granskat Googles nya strategi. Pariser målar upp en dystopi, där personalisering på alltfler nätsidor splittrar den borgerliga offentligheten i flera offentligheter eller ”filterbubblor” som saknar kontakt med varandra. Slutresultatet blir att vi isoleras alltmer i en sfär av information som resonerar med våra tidigare intressen.

För Pariser är alltså offentligheter alltid ett pågående urval av åsikter bland det svindlande överflöd av information som finns tillgängligt för oss. Liksom uppkomsten av marknader så kan uppkomsten av offentligheter skildras i termer av realabstraktion. Offentligheter är inte givna, utan måste skapas. I processen kan själva begreppet komma att omdefinieras helt och hållet.

Medan begreppet offentlighet fortfarande förknippas med öppenhet så präglas den pågående omstruktureringen av våra konkreta offentligheter i många avseenden av slutenhet. Algoritmerna som Google och Facebook bygger sina filter på är välbevarade affärshemligheter. Företagen som kontrollerar våra offentligheter ser all information i dem, medan vi alltmer isoleras i mer slutna cirklar, avgränsade av ett informationsbrus. För att återgå till DeLanda så betyder ”en mångfald av censorer kring alla kroppar” i sammanhanget att vi ger upp aktörskapet gällande konstruktionen av våra offentligheter och marknader.

 

Nätpolitiskt så kan tre, ofta sinsemellan komplementerande strategier skönjas. Den första har beskrivits som accelerationism, att kräva mera data och mera öppenhet. Olika initiativ för öppen data, liksom delar av Wikileaks verksamhet, faller i den här kategorin.

Det andra alternativet stavas tunnelpolitik: krypterade tunnlar förbi och genom tjänster så som Google och Facebook.

Den tredje möjligheten är postdigital. Sökrutor är endast endimensionella verktyg för urval, medan fysiska rum (till exempel bibliotek eller torg) ger plats för urval i tre dimensioner och kan skapa offentligheter som inte är låsta i Parisers filterbubblor.

Oberoende vilken strategi vi väljer i vår nätvaro, så är det viktigaste att inte ta Internet för givet. Eller som Gilles Deleuze skriver i texten Postscript on the Societies of Control: ”Det finns ingen orsak till fruktan eller hopp, vi måste endast leta efter nya vapen.”

Mikael Brunila

är redaktionsmedlem i nättidskriften Laitos

Lämna en kommentar


Denna webbplats använder Akismet för att minska skräppost. Lär dig hur din kommentardata bearbetas.