Kategorier
bibliotek Malmö stadsbibliotek

Malmö bibliotek gör sin mediesamling algoritmstyrd

Biblioteken i Malmö blir först ut i Sverige med att ha en mediesamling styrd av algoritmer, något som uppmärksammats av Sveriges Radio.

I SR:s inslag, där bland annat Charlotte Högberg som i andra sammanhang är känd från BiS uttalar sig utifrån sin forskning, ställs ett antal kritiska frågor. Det nya systemet uppges leda till frigjord tid – hur kommer den användas? Systemet innebär att man övergår till flytande bestånd – hur förändrar det tillgången till medier för bibliotekens prioriterade grupper?

Systembibliotekarien skriver om inslaget och frågar sig vad det kommer innebära för folkbiblioteken och folkbibliotekarierna om vi inte längre medvetet bygger lokala bestånd, vilket får mig att tänka på diskussionen vi hade när folkbiblioteken började använda sig av profilinköp i början på 2010-talet.

Malmö stad har under dagen publicerat en nyhet där de berör många av uppkomna frågorna. Diskussionen om algoritmernas konsekvenser för biblioteken och annan offentlig verksamhet lär vi dock ha anledning att återkomma till.

Läs mer

Tobias Willstedt

Vill du läsa mer från oss?

Prenumerera på bis nyhetsbrev så behöver du inte vara rädd för att missa något!

Kategorier
bibliotek bis tidskriften bokrecensioner nyheter

Kan AI dikta?

Posthumanismens tidevarv är här! Eller är det verkligen det? Visserligen finns det människor som opererar in chip under huden och bilar som rattar i trafiken utan att behöva vare sig förare eller passagerare. Lägg därtill humanoida robotar i äldrevården, ansiktsigenkänning i närbutiken eller live-sända deep fake-politiker i TV-rutan, och tanken känns inte särskilt främmande. AI – artificiell intelligens – tränas numera till att skapa musik, producera bildkonst och till och med litteratur, allt naturliga inslag i den nya ålderns digitala experimentlåda. Vid en summering pekar faktiskt mycket på att vi redan befinner oss mitt i en artificiell revolution, och nu kanske också påskyndad av coronakrisen.

Ammaseus Horisont är resultatet av just ett sådant AI-experiment i vilket Malmöförlaget Svensk Sci fi kommit på idén att träna upp ett artificiellt neuralt nätverk till att producera egna textkluster inspirerade av Karin Boyes poesi. 

Låter det svårt? Jo, på hemsidan länkas ett tolvsidigt dokument som sammanfattar den gradvisa kalibreringen av den träningsmetod som utvecklats för bästa poetiska resultat. Utan att förlora oss i teknikaliteter kan nämnas att den slutliga körningen tog 20 timmar och gjordes i sammanlagt 41 800 cykler på en superdator som sedan tidigare redan behärskade engelska. Den stora svårigheten verkar i slutändan ha legat i att ge det neurala nätverket så mycket träning som möjligt på Karin Boyes diktning, utan att det började plagiera. 

”Så resultatet då? Generellt kan man säga att en hel del Boye-tematik slår igenom, det är dröm och ljus, Gud, änglar, ångest och ensamhet i världen. En sorts kretskortsexistentialism, om man så vill.”

Den stora svårigheten ja, som poesiläsare bedömer jag när allt kommer omkring inte textens tillgänglighet utifrån tekniska kvalifikationer utan i litterära kvaliteter. Så resultatet då? Generellt kan man säga att en hel del Boye-tematik slår igenom, det är dröm och ljus, Gud, änglar, ångest och ensamhet i världen. En sorts kretskortsexistentialism, om man så vill. Formmässigt är det korta dikter präglade av en hel del upprepningar, som om anaforen som litterärt stilmedel tilltalat AI:ns ordningssinne. Kanske kunde dikterna faktiskt fungera för den mindre nogräknade läsaren, men så kommer grodorna, plötsliga hugskott från serverns utmarker som lite för ofta bryter av det svarta med sin dråplighet:

I mörkret dröjer en stillhetens skugga

där ingen människa vill känna

de eviga rymderna.

Då är jag ledsen för dina förfärliga fötter. 

Men ibland blir det faktiskt bara ekande vackert: 

Är det någon på väg? 

Vem som helst.

Eller till och med nyskapande, som i titeldikten: 

Jag ville veta, vad som väntade  

de döda har sökt oss 

i sömn låg vi hemma.  

Ammaseus horisont,  

Ammaseus Horisont. 

Vem eller vad Ammaseus egentligen är vet bara AI:n själv.

Den ryske litteraturvetaren Michail Bachtin skrev för drygt hundra år sedan om livets förhållande till konsten. Han menade att sambandet dem emellan riskerade att bli något enbart yttre, något mekaniskt. För att en inre enhet ska uppstå måste ett visst ansvar axlas. ”För det som jag förstått och upplevt i konsten är jag skyldig att ansvara med mitt liv, så att allt det som jag upplevt och förstått inte skall vara verkningslöst i livet.”

Bachtins ord förstärker en intuitiv fråga som återkommer i läsningen av datorpoesin: Vad ska jag läsa in i orden när jag inte ens kan börja att föreställa mig subjektet bakom jaget? Hur hanterar jag som läsare det faktum att inga av dikternas känslor är kända, inga av erfarenheterna levda? Ju mer jag tänker på det, desto svårare blir det att komma runt. Jag försöker att förhålla mig till texten som bara text, intalar mig att den kan ha lika högt värde som valfritt författarlöst antikt fragment, men förvånar mig själv med att inte hålla med. Det är själva vetskapen om att datorn står bakom ordkombinationerna som är problemet. Jag har avslöjat mig själv som art-chauvinist.

Ett artificiellt neuralt nätverk är konstruerat för att efterlikna en biologisk hjärna, med perceptroner istället för neuroner och synapser. Analogin är omedelbar, vad är hjärnan mer än ett enormt snillrikt nätverk som skickar elektriska impulser dagarna i ända? En artificiell intelligens borde ha alla möjligheter att inte bara efterlikna utan överträffa sin mänskliga förlaga. Antalet möjliga kopplingar i ett nätverk som inte hindras av några futtiga, fysiska barriärer, som ett mänskligt pannben, måste ju vara oändligt. Någonting ligger det nog ändå i det, åtminstone om man beaktar symbolvärdet i att de mänskliga schackmästarna nu fått se sig slagna av sina datorer. 

Med det sagt, den erfarenhet som läsningen av Ammaseus Horisont ger mig vittnar om att det ändå är en bra bit kvar innan den här miman blir en Mima. Snarare framträder bilden av en väderbiten C-3PO nervöst plagierande Boyes samlade verk med en pinne i sanden på direkt order av en otålig Anakin Skywalker. Kvar blir fragment av poesi, rörda av artificiell intelligens.

Fredrik Eriksson

Prenumerera

Få nästa nummer av bis i brevlådan! En prenumeration kostar från 175 kronor för fyra nummer och du kan betala enkelt med Swish.

Kategorier
bibliotek Google IFLA Internet

Algoritmer och ansvar

Artificiell intelligens och andra tekniska landvinningar kommer få konsekvenser för bibliotekens arbete i framtiden. Med nya sätt att hämta information kommer nya frågor om representation och ansvarsutkrävande.

IFLA publicerade nyligen en artikel som reflekterade över biblioteken och bibliotekariernas ställning när artificiell intelligens och algoritmer snart kommer att spela allt större roll i arbetslivet.

IFLA menar att artificiell intelligens kommer att förändra de sätt som människor letar efter information, förmodligen med stora konsekvenser för vårt arbete.

Den här utvecklingen har vi redan sett början av. Sökmotorer har redan kommit en lång väg vad gäller att hjälpa användarna att få svar på enkla och mer avancerade frågor. När vi får ännu bättre artificiell intelligens kommer det ytterligare att påverka hur vi tillgodogör oss information. Människor som kanske vänt sig till biblioteket för att få hjälp kommer att ha ännu mindre anledning att göra det.

En stor del av IFLAs artikel handlar just om informationsinhämtning och här skrivs det om något som är väldigt intressant.

A second question concerns information itself. As highlighted in the IFLA FAIFE blog on data ethics, there is uncertainty as to how algorithms and artificial intelligence comes up with its answers. When searching for, or making use of, information, it may not be possible to explain how this happens.

While there never was a perfect search, it was at least possible to analyse the process followed. The risk now is that there is a black box, with little possibility to explain the results.

The one thing we do know is that there is a risk of bias and discrimination. Given that AI feeds on data about the present, it is liable simply to repeat this present into the future. Moreover, commercially-run AI brings with it risks of prioritisation (in the case of search in particular), or of course use of personal data (in general), with all the implications this brings for privacy and Intellectual Freedom.

Artificiell intelligens kommer inte ta ställning till etiska frågor, men däremot förmodligen kommersiella (de är ju oftast skapade av företag som vill tjäna pengar). Artificiell intelligens kommer bära med sig sina skapares världsbild men det kommer inte gå att utkräva ansvar av dem på samma sätt som av en enskild person eller institution.

Någon som har tittat närmare på just dessa frågor är dr. Safiya Umoja Noble som är författare till boken Algorithms of Oppression.

I Algorithms of Oppression skriver Safiya Umoja Noble om hur sökmotorer inte ger objektiva hämtningar opåverkade av människans föreställningar. Utgångspunkten är att sökalgoritmer är inte godartat konstruerade; de är skrivna och modererade av programmerare, människor med egna fördomar och subjektiva världsbilder, som ibland försöker uppmuntra en viss synvinkel, och ibland omedvetet speglar sin egen version av verkligheten i sina skapelser.

Författaren använder sig av exemplet Google för sin undersökning, och Noble visar att företagets sökalgoritmer utgår från den vita manliga blicken. 2009 Googlade Safiya Noble orden ”black girls.” Till hennes förskräckelse hämtade Google mestadels pornografiska resultat. En sökning på “nigger house” visade vita huset (det var vid denna tiden USA hade fått sin första svarta presiden: Barak Obama).De otrevliga resultaten från sökningarna är betydligt mindre framträdande om man göra samma sökning idag men Noble argumenterar för och hittar exempel på att Googles sökalgoritmer fortfarande reproducerar obehagliga föreställningar om ras och kön.

Nobles resonemang om Google och de frågor som uppstår när kommersiellt drivna sökalgoritmer premierar information som man kan ifrågasätta ur etiska synvinklar är mycket intressanta. Inte minst för oss som jobbar med digital delaktighet och information literacy på bibliotek. Och hela samhället måste ta ställning till svåra frågor om ansvar i en framtid där vi låter artificiell intelligens hämta svar på våra frågor.

I’ve been arguing that artificial intelligence, or automated decision-making systems, will become a human rights issue this century. I strongly believe that, because machine-learning algorithms and projects are using data that is already biased, incomplete, flawed, and [we are] teaching machines how to make decisions based on that information. We know [that’s] going to lead to a variety of disparate outcomes. Let me just add that AI will be harder and harder to intervene upon because it will become less clear what data has been used to inform the making of that AI, or the making of those systems. There are many different kinds of data sets, for example, that are not standardized, that are coalescing to make decisions.
(Från intevju med Noble “Bias already exists in search engine results, and it’s only going to get worse” MIT Technology review 2018)

algorithms of opression

I nästa nummer av bis recenserar vi Safiya Umoja Nobles bok Algorithms of Oppression.

Läs mer

Tobias Willstedt