Etikettarkiv: Internet

Gränslös exploatering i neurokapitalismen

Griziotti, Giorgio (2018).Neurocapitalism. Technological Mediation and Vanishing Lines. Minor Compositions. Fritt tillgänglig på http://www.minorcompositions.info/?p=887.

1-6719e040db

I en dystopisk framtid representerar den amerikanska staden Detroit ett samhälle som är på gränsen till total kollaps på grund av fattigdom och en hög brottsfrekvens. Med anledning av de offentliga strukturernas förfall tecknar Detroits borgmästare en överenskommelse med företaget Omni Consumer Products (OCP), vilket ger dem fullständig kontroll över stadens polisverksamhet. Man hoppas att de med hjälp av tekniska lösningar ska klara vad den offentliga verksamheten inte förmår.

Under tiden har polisen Alexander James ”Alex” Murphy nyligen förflyttats till en ny enhet och fått en ny partner. På sin första patrull jagar de ett gäng brottslingar. Murphy konfronterar dem, men han fångas av brottslingarna, som torterar Murphy och till slut lämnar honom död. Den dödförklarade Murphy plockas upp av OCP, som väljer honom som RoboCop-kandidat; i en process som bara kan beskrivas som ytterligare ett övergrepp ersätter de huvuddelen av hans kropp med cybernetik men lämnar hans mänskliga hjärna.

Murphy blir i sin nya, teknologiska kropp en superpolis, en cyborg i en misslyckat nyliberalt samhälle. Han är en sammansättning av människa och maskin som är programmerad med fyra direktiv: tjäna allmänheten, skydda oskyldiga, upprätthålla lagen och aldrig agera mot en överordnad i OCP. Han ska upprätthålla ordningen i en värld med en misslyckad offentlighet och enorma ekonomiska klyftor, där fattigdomen på gatan kontrasteras mot stora rikedomar och resurser i ett företag som OCP.

Det jag beskriver är förstås handlingen i 80-talsfilmen RoboCop. Under filmens förlopp ställs frågor både om RoboCops mänsklighet och megaföretagets uppsåt. Vi får se saker vi känner igen från vår omgivning: polisväsendets militarisering och en totalitaristisk företagsvärld. Nu kan man fråga sig varför jag inleder en recensionen av Giorgio Griziottis bok Neurocapitalism med en redogörelse för handlingen i Paul Verhoevens dystopiska actionfilm? Jo, för att den filmen ekar som en profetia i mitt huvud när jag läser Griziotti beskriva vår samtids tekonologiska kapitalism och vilket samhälle den skapar. Med smartphonen i hand som en förlängning av våra sinnen är vi redan på väg mot den sammansmältning mellan teknologi och människa som RoboCop representerar.

Utmärglad offentlig verksamhet som lämnar över ansvaret över viktiga allmänna funktioner till superrika megaföretag vet vi redan alltför mycket om. Det är något liknande Grizotti beskriver i sin ambitiösa Neurocapitalism – vi har inga direktiv inprogrammerade i oss, men övervakningssamhället, sociala medier och panoptikon i form av smart elektronik är ändå en väldigt stark kontrollapparat, som begränsar vårt utrymme och påverkar vårt beteende. I det totalitära Kina ser vi idag att våra digitala styrmekanismer tagits till nästa nivå genom ett teknologiskt övervakningssystem i offentliga miljöer, där medborgares pålitlighet bedöms genom ett system med sociala krediter.

Neurocapitalism är uppdelad i tre delar: ”Producing”, ”Living” och ”Organizing”. En bärande tanke är att kapitalismen nu kan värdera inte bara formerna av arbete och socialt samarbete, utan livet självt, inklusive dess intelligens, relationer, kapacitet för lust och hopp, hela vårt kretslopp. I neurokapitalismens epok löses den traditionella uppdelningen mellan arbete och fritid, eller produktiva och icke-produktiva sfärer, upp. Arbetsdagen är inte bara utspädd över dygnets alla vakna timmar då vi är produktiva även när vi deltar i sociala nätverk, utan vi konsumerar stora mängder data som påverkar våra önskningar och omvandlar våra begär. Själva skiljelinjen mellan människan och maskin har blivit suddig – precis som cyborgen Murphy i RoboCop.

Författaren Giorgio Griziotti har i själva verket en väldigt gynnsam bakgrund för att skriva en sådan här bok. Grizottis politiska engagemang inleddes i 1970-talets italienska autonoma rörelse. Han har verkat som ingenjör inom IT-sektorn och har erfarenhet av att arbeta i över trettio år i stora internationella IT-projekt. Idag är han en oberoende forskare och medlem av kollektivet Effimera. Med denna bakgrund känns Griziotti välgrundad när han med utgångspunkt i marxistisk teoribildning berättar hur kapitalismen med hjälp av den teknologiska utvecklingen hittar nya sätt att exploatera oss. Författaren berättar bland annat om hur fri mjukvara och digitala allmänningar har skapats bara för att senare komma att utsugas. Detta kretslopp börjar med Unix, det första utbredda operativa systemet som utvecklats av hackers och fria programmare och fortsätter sedan upp till den stora och raffinerade kapaciteten hos stora företag (som Apple, Google eller Facebook) som utvinner värde och utvecklar egna produkter ur de digitala allmänningarnas mylla.

Den sista delen av boken är tillägnad organisering: vilka vägar framåt finns det för en människa och aktivist i neurokapitalismen? Där hittar man inga tvärsäkra svar. Jag tänker själv ganska dystra tankar när jag läser det här ambitiösa verket om samtidens kapitalism och kontrollsamhälle. Kanske behöver man påminnas om slutet på RoboCop för att lite hopp. Hur slutar då denna dystopiska 80-talsaction? Jo, RoboCop skjuter en av de korrupta företagsledare som är ansvariga för hans elektroniska kropp och direktiven som styr hans agerande. Vid frågan om hans namn svarar cyborgen “Murphy”, och återerövrar på så sätt symboliskt sin mänsklighet.

Tobias Willstedt

Läs mer

Algoritmer och ansvar

Artificiell intelligens och andra tekniska landvinningar kommer få konsekvenser för bibliotekens arbete i framtiden. Med nya sätt att hämta information kommer nya frågor om representation och ansvarsutkrävande.

IFLA publicerade nyligen en artikel som reflekterade över biblioteken och bibliotekariernas ställning när artificiell intelligens och algoritmer snart kommer att spela allt större roll i arbetslivet.

IFLA menar att artificiell intelligens kommer att förändra de sätt som människor letar efter information, förmodligen med stora konsekvenser för vårt arbete.

Den här utvecklingen har vi redan sett början av. Sökmotorer har redan kommit en lång väg vad gäller att hjälpa användarna att få svar på enkla och mer avancerade frågor. När vi får ännu bättre artificiell intelligens kommer det ytterligare att påverka hur vi tillgodogör oss information. Människor som kanske vänt sig till biblioteket för att få hjälp kommer att ha ännu mindre anledning att göra det.

En stor del av IFLAs artikel handlar just om informationsinhämtning och här skrivs det om något som är väldigt intressant.

A second question concerns information itself. As highlighted in the IFLA FAIFE blog on data ethics, there is uncertainty as to how algorithms and artificial intelligence comes up with its answers. When searching for, or making use of, information, it may not be possible to explain how this happens.

While there never was a perfect search, it was at least possible to analyse the process followed. The risk now is that there is a black box, with little possibility to explain the results.

The one thing we do know is that there is a risk of bias and discrimination. Given that AI feeds on data about the present, it is liable simply to repeat this present into the future. Moreover, commercially-run AI brings with it risks of prioritisation (in the case of search in particular), or of course use of personal data (in general), with all the implications this brings for privacy and Intellectual Freedom.

Artificiell intelligens kommer inte ta ställning till etiska frågor, men däremot förmodligen kommersiella (de är ju oftast skapade av företag som vill tjäna pengar). Artificiell intelligens kommer bära med sig sina skapares världsbild men det kommer inte gå att utkräva ansvar av dem på samma sätt som av en enskild person eller institution.

Någon som har tittat närmare på just dessa frågor är dr. Safiya Umoja Noble som är författare till boken Algorithms of Oppression.

I Algorithms of Oppression skriver Safiya Umoja Noble om hur sökmotorer inte ger objektiva hämtningar opåverkade av människans föreställningar. Utgångspunkten är att sökalgoritmer är inte godartat konstruerade; de är skrivna och modererade av programmerare, människor med egna fördomar och subjektiva världsbilder, som ibland försöker uppmuntra en viss synvinkel, och ibland omedvetet speglar sin egen version av verkligheten i sina skapelser.

Författaren använder sig av exemplet Google för sin undersökning, och Noble visar att företagets sökalgoritmer utgår från den vita manliga blicken. 2009 Googlade Safiya Noble orden ”black girls.” Till hennes förskräckelse hämtade Google mestadels pornografiska resultat. En sökning på “nigger house” visade vita huset (det var vid denna tiden USA hade fått sin första svarta presiden: Barak Obama).De otrevliga resultaten från sökningarna är betydligt mindre framträdande om man göra samma sökning idag men Noble argumenterar för och hittar exempel på att Googles sökalgoritmer fortfarande reproducerar obehagliga föreställningar om ras och kön.

Nobles resonemang om Google och de frågor som uppstår när kommersiellt drivna sökalgoritmer premierar information som man kan ifrågasätta ur etiska synvinklar är mycket intressanta. Inte minst för oss som jobbar med digital delaktighet och information literacy på bibliotek. Och hela samhället måste ta ställning till svåra frågor om ansvar i en framtid där vi låter artificiell intelligens hämta svar på våra frågor.

I’ve been arguing that artificial intelligence, or automated decision-making systems, will become a human rights issue this century. I strongly believe that, because machine-learning algorithms and projects are using data that is already biased, incomplete, flawed, and [we are] teaching machines how to make decisions based on that information. We know [that’s] going to lead to a variety of disparate outcomes. Let me just add that AI will be harder and harder to intervene upon because it will become less clear what data has been used to inform the making of that AI, or the making of those systems. There are many different kinds of data sets, for example, that are not standardized, that are coalescing to make decisions.
(Från intevju med Noble “Bias already exists in search engine results, and it’s only going to get worse” MIT Technology review 2018)

algorithms of opression

I nästa nummer av bis recenserar vi Safiya Umoja Nobles bok Algorithms of Oppression.

Läs mer

Tobias Willstedt