Rasism och sexism i bibliotekens discoverysystem

Matthew Reidsma (2019). Masked by Trust: Bias in Library Discovery. Library Juice Press.

Det är svårt att överskatta betydelsen av sökmotorer för vår webbupplevelse. Vi använder Google för att söka information, hitta till närmaste restaurang och söka efter söta djurbilder. Sökmotorer har samma betydelse för akademin. Forskare och studenter använder Google för att söka efter böcker, hitta artiklar och annat källmaterial. Men som Rasmus Fleischer påpekade redan 2013, så tänker vi sällan på sökmotorns förmedlande roll mellan forskaren och det som forskaren vill undersöka.1

Omslag Masked by Trust bias in library discovery

De senaste åren har forskningsvärldens beroende av sökmotorer fördjupats. Det gäller inte minst efter att de flesta universitetsbibliotek i Sverige har förändrat sina digitala kataloger och köpt in sökmotorer, som på ett enkelt och smidigt vis ger tillgång till bibliotekets alla resurser. Tidigare var man tvungen att söka efter böcker och artiklar i en rad olika databaser, men nu kan man ta del av allt genom sökmotorn. De fyra mest använda sökmotorerna, eller ”discoverysystemen”, som finns tillgängliga på marknaden för universitet och högskolor är Summon, Primo, WorldCat Discovery och EBSCO Discovery Service (EDS).

Om du, likt jag, har använt universitetsbibliotekens söktjänster ett oräkneligt antal gånger utan att fundera särskilt mycket på att det är en inköpt sökmotor du använder, så är det en del av poängen med hur de är utformade. Man känner igen sig. Under det senaste decenniet, skriver Fleischer, har den tomma sökrutan utkristalliserat sig som ett universellt gränssnitt.2 Det är en utveckling som har drivits på av nätgiganten Google. Faktum är att Summon modellerades för att efterlikna och konkurrera med Google. År 2010 sa Jane Burke, dåvarande vicepresident för ProQuest (ett företag som 2015 köpte Ex Libris, som administrerar Summon), att discoverysystemen stod för ”the ’Googlisation’ of the library’s collection”.

Att discoverysystemen använder samma enkla gränssnitt som Google, skänker dem en aura av objektivitet och neutralitet. De senaste åren har Google förvisso skärskådats på ett välbehövligt vis. Det finns få bibliotekarier som inte har hört talas om filterbubblor, sponsrade länkar och algoritmisk bias. Vi som bibliotekarier hänvisar därför gärna våra låntagare till bibliotekens egna söktjänster, som om de till skillnad från Google erbjuder en objektiv och neutral bild.

Men det finns skäl att ifrågasätta den praktiken. Discoverysystemen lider nämligen av många av samma problem som Google. Jag tar en titt på Uppsala universitetsbiblioteks söksystem – som tidigare student vid universitet ligger det nära till hands. Uppsala universitetsbibliotek (UUB) har använt Summon sedan 2013. Jag genomför två sökningar i den digitala katalogen. Jag skriver in ”muslims are” och får genast upp ett förslag för hur söktermen ska slutföras: ”muslims are terrorists”. Sedan skriver jag in ”women are” och bland förslag som ”women are better leaders” och ”women are overworked at home” syns förslag som ”women are emotional” och ”women are persons”. Sökmotorns autosuggest-funktion föreslår alltså att muslimer är terrorister och att kvinnor är känslosamma och ”personer”? Det kan inte bara vara jag som anser att det inte är en sökmotors uppgift att förstärka fördomsfulla bilder av muslimer och kvinnor. Vad är det som pågår här?

Det är ingen tillfällighet att jag valde att söka på ”muslims are” och ”women are” för att se vad autosuggest-funktionen föreslog. Just de här exemplen tar Matthew Reidsma, bibliotekarie vid Grand Valley State University Libraries, upp i sin nyutkomna bok Masked by Trust: Bias in Library Discovery, där han dels visar hur Summon och andra discoverysystem emellanåt ger sexistiska och rasistiska sökresultat, dels försöker förklara varför. Precis som Google använder Summon algoritmer som bestämmer vilka sökresultat som ska visas och i vilken ordning. Exakt hur algoritmerna ser ut är en väl bevarad affärshemlighet, men genom att studera sökresultaten går det att studera hur algoritmerna fungerar. Det är vad Reidsma gör i boken. Han ägnar mest tid åt att granska Summons funktion ”topic explorer”, som vid sidan av sökresultaten erbjuder en faktaruta med information från Wikipedia. Eftersom funktionen väljer ut en enda Wikipedia-artikel är det en utmärkt plats för att hitta dolda fördomar och bias.

Vissa av Reidsmas upptäckter är hårresande. En sökning på ”muslim terrorist in the united states” föreslog Wikipedia-artikeln om ”Islam in the United States”, vilket sammankopplar terrorism med islam. Och en sökning på ”transgender” gav som första sökresultat en artikel från en juridisk tidskrift med likbilder av ett manligt mordoffer klädd som en kvinna. Som om en person som identifierar sig som transgender är en man som klär sig i kvinnliga kläder. Många av Reidsmas upptäckter har i efterhand korrigerats av Ex Libris (men uppenbarligen inte autosuggest-förslagen ovan om muslimska terrorister och känslosamma kvinnor), men det vore, skriver Reidsma, ett misstag att tro att det bara handlar om enskilda fall. Problemet går mycket djupare än så.

Det finns visserligen skillnader mellan kommersiella söktjänster som Google och discoverysystem. Som bekant är Google i grunden ett annonsföretag. All sökhistorik lagras och analyseras för att erbjuda personaliserad reklam och anpassade sökresultat. Ett discoverysystem är däremot inte beroende av reklam utan av intäkter från prenumeranter, ofta stora universitet, som betalar för tjänsten. En sökning på ”bibeln” i UUB:s söksystem ger inte olika resultat för olika användare baserat på deras tidigare sökresultat eller geografiska position. Det spelar ingen roll om jag tidigare har sökt på Helge Fossmo eller befinner mig i Knutby. Jag får upp samma sökresultat som alla andra användare. Däremot finns det i många discoverysystem vissa funktioner för personalisering och dessutom finns det ett stort kommersiellt intresse i all den sökhistorik som utförs av miljontals forskare och studenter, och som i dagsläget sparas i gigantiska och växande databaser.

Här är det läge att understryka att de sexistiska och rasistiska sökresultaten med största sannolikhet inte är avsiktliga. Discoverysystemens syfte är att ge relevanta och precisa sökresultat. Ändå blir det ibland fel. Det är oerhört allvarligt, för som Reidsma skriver har sådana sökresultat faktiska konsekvenser för marginaliserade grupper och människor i samhället.

Så vems är felet? Vem eller vad ska man klandra? Reidsma varnar för att hitta enkla syndabockar. Problemet är inte bara algoritmerna, eller den grupp programmerare som jobbar med koden, eller deras utbildning som ofta saknar etikkurser. Det stora problemet är inte heller affärsmodellen hos stora företag.

Rather, the problems can be found only by examining the embedded, historical context in which business practices, engineering education and the lack of diversity, systematic rasism and sexism embedded in information classification systems, designs based on prejudiced stereotypes, and a culture that glorifies efficiency above all else.

Med andra ord, vi borde inte förvånas över att algoritmer skapade i en kultur där strukturell sexism och rasism fortfarande existerar, också leder till sexistiska och rasistiska sökresultat. Och vi borde inte heller förvånas över att en ingenjörsvärld som endast har en hammare ser alla problem som en spik. 

Vi får vad vi frågar efter. Och därför måste vi fråga efter någonting annat. I bokens sista kapitel skissar Reidsma en väg framåt. Det första vi måste göra är att sluta lita på algoritmer. De är skapade av människor och har aldrig varit och kommer aldrig att vara ”objektiva”. Och vi måste allmänt bli mer skeptiska gentemot söksystem och sökresultat. Det duger inte att måla upp bilden av ett ondskefullt Google i kontrast till det pålitliga biblioteket. 

Vi måste också, enligt Reidsma, sluta betrakta teknologi som ett verktyg. Eller, rättare sagt, sluta betrakta teknologi som enbart ett verktyg. Den här delen av Reidsmas bok är strikt talat inte nödvändig för att hans poäng ska gå fram, men i några tänkvärda passager skriver han att en viss teknologi, oavsett om det gäller en hammare eller en sökmotor, alltid ingår i ett socialt och kulturellt sammanhang. Det är först när vi släpper bilden av teknologi-som-verktyg som vi på riktigt kan förstå hur teknologi både är formad av och formar vår bild av världen. Det är först då vi kan släppa den ingenjörsaktiga bilden av hur algoritmer ska utformas och som bevisligen, om och om igen, leder till så olyckliga resultat. 

Fotnoter

  1. Rasmus Fleischer (2013). Tapirskrift, s. 53
  2. Rasmus Fleischer (2013). Tapirskrift, s. 53

Johannes Soldal

Prenumerera

Få nästa nummer av bis i brevlådan! En prenumeration kostar från 160 kronor för fyra nummer och du kan betala enkelt med swish.

Kommentera

Fyll i dina uppgifter nedan eller klicka på en ikon för att logga in:

WordPress.com Logo

Du kommenterar med ditt WordPress.com-konto. Logga ut /  Ändra )

Google-foto

Du kommenterar med ditt Google-konto. Logga ut /  Ändra )

Twitter-bild

Du kommenterar med ditt Twitter-konto. Logga ut /  Ändra )

Facebook-foto

Du kommenterar med ditt Facebook-konto. Logga ut /  Ändra )

Ansluter till %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.