AI – ett hot mot yttrandefriheten?

av Janne Wass

Artificiell intelligens kan bli – och är redan – ett hot mot yttrandefriheten, varnar en färsk rapport. Rapporten är utfärdad av människorättsorganisationerna Article 19 och Privacy International, och är avsedd som en sorts vägvisare för myndigheter och andra aktörer i fråga om lagstiftning i frågor som berör AI. Någon ludditisk pamflett är den inte, utan konstaterar att rätt implementerad kan AI vara till stor nytta för mänskligheten. Men det finns enligt rapporten ett flertal följder av AI som redan nu är problematiska ur yttrandefrihetens synvinkel.

Vi vet alla att företag och myndigheter samlar information om oss utgående från vad vi gör på nätet,  och med hjälp av de digitala fingeravtryck som vi lämnar efter oss i vardagen är det i teorin möjligt att bygga upp exakta modeller för var vi rör oss och när vi gör det. Potentiellt kan det här utnyttjas på obehagliga sätt, men också i de bästa av samhällen kan blotta vetskapen om denna övervakning påverka vår yttrandefrihet negativt, genom att vi automatiskt hänfaller till självcensur.

Problematiska är också de spam-, sedlighets-, och hatpratsfilter som till exempel i e-postprogram, på sociala medier eller andra digitala miljöer automatiskt rensar bort inlägg eller till och med helt blockerar användare. Dessa filters inställningar kan grunda sig på förutfattade meningar eller bristfällig information. Det är också näst intill omöjligt för dylika filter att skilja på laddade ord som används som vedertagen slang eller som approprierats av utsatta minoriteter i emancipatoriskt syfte, varpå filtren tjänar motsatt syfte än det de är avsedda att göra.

Rapporten listar fem punkter som speciellt problematiska för yttrandefriheten, med tanke på en framtid med en allt större närvaro av artificiell intelligens:

  • Bristfällig respekt för lagen. Trots att den kommersiella utvecklingen i dag självregleras med tanke på transparens, etik och ansvarsskyldighet, saknas ofta konkreta medel att på juridisk väg följa upp och avkräva ansvar av till exempel globala företag.
  • Brist på transparens. Eftersom AI i dag till övervägande del utvecklas inom den privata sektorn är det svårt för allmänhet och myndigheter att bilda sig en uppfattning om hur nya innovationer kommer att påverka rätten till yttrandefrihet.
  • Brist på ansvarsskyldighet. AI förekommer ofta i sammanhang där vi inte ens vet att sådan existerar, till exempel i fråga om ansiktsigenkännande kameraövervakning eller telefonappar som potentiellt avlyssnar oss även då vi inte använder telefonen. Om övertramp sker, kan det ofta vara svårt att avgöra skuldfrågan.
  • Samhällsdebatten och medierna. Den offentliga debatten tenderar att koncentrera sig på mer övergripande och ibland fantasifulla faror med AI, i stället för att ta tag i redan existerande, fullt konkreta problem, som således lätt faller i skymundan.
  • Insamling och användning av data. Hur insamling av data går till och hur datan används inom AI-baserade system är av största vikt för allas rätt till yttrandefrihet på lika villkor i framtiden.

Text Janne Wass
Foto Mattia Notari

Lämna en kommentar


Denna webbplats använder Akismet för att minska skräppost. Lär dig hur din kommentardata bearbetas.