Kategorier
bibliotek bis tidskriften Google

Det finns inga neutrala algoritmer

Umoja Noble, Safiya (2018). Algorithms of Oppression: How Search Engines reinforces racism. New York: New York University Press.

algorithms of opressionI Algorithms of Oppression skriver Safiya Umoja Noble om hur sökmotorer inte ger objektiva hämtningar opåverkade av människans föreställningar. Utgångspunkten är att de algoritmer som styr sökmotorerna inte är godartat konstruerade. Algoritmerna är skrivna och modererade av programmerare, människor med egna fördomar och subjektiva världsbilder, som ibland försöker uppmuntra en viss synvinkel, och ibland omedvetet speglar sin egen version av verkligheten i sina skapelser.

Vi vet att algoritmer numera är en betydelsefull infrastruktur för att vårt samhälle ska fungera. Nobles utgångspunkt är att internet och sökmotorer blivit allt mer viktiga komponenter i vår vardag till den grad att teknologin för många av oss är en förlängning av våra sinnen och oss själva. Vi bär smartphones med stor datorkraft i våra händer och genom Googles och andra företags sökmotorer finns all världens information att hämta när som helst. Hur dessa tjänster är programmerade påverkar oss och vårt sätt att se världen. Algoritmer har alltså makt över oss.

Författaren använder sig av exemplet Google för sin undersökning, och Noble visar att företagets algoritmer utgår från den vita manliga blicken. 2010 Googlade Safiya Noble orden ”black girls.” Till hennes förskräckelse hämtade Google mestadels pornografiska resultat. En sökning på “nigger house” visade Vita huset (det var vid denna tiden USA hade fått sin första svarta president: Barak Obama). De otrevliga resultaten från sökningarna är betydligt mindre framträdande om man göra samma sökning idag men Noble argumenterar för och hittar exempel på att Googles sökalgoritmer fortfarande reproducerar obehagliga föreställningar om ras och kön.

Algorithms of Oppression är en välskriven bok om ämnen som borde angå oss alla, nämligen rasistiska och sexistiska strukturer i samhället. Noble menar att Google inte kan två sina händer angående de resultat sökmotorn hämtar. De bär ett ansvar över sökresultaten, som inte är rent datorgenererade och inte heller neutrala eller objektiva. Här blir jag lite undrande eftersom Noble är väldigt bra på att visa exempel på när sökmotorerna har hämtat rasistiska och sexistiska resultat men mindre bra på att visa hur Google gör för att värdera de olika sökträffarna. Varför kommer de pornografiska resultaten längst upp? Är det algoritmerna i sig som är konstruerade till att vara rasistiska eller speglar de bara den vita och patriarkala hegemonin i samhället, som en kamera som återger motivet? Jag tror inte personligen på något sådant som etisk teknologi i kapitalismen men jag tycker att Algorithms of Oppression kunde grävt djupare i hur hämtningarna går till. Samtidigt så är en av Nobles viktigaste poänger relevant oavsett – vi borde kunna utkräva ansvar när vi ser att en sökmotor förstärker rasistiska och sexistiska föreställningar. Och hon visar också på hur Googles hämtningar har förändrats till det bättre när problem har påtalat, vilket demonstrerar vikten av att faktiskt protestera.

Som svensk läsare så måste jag konstatera att den utgår från en väldigt amerikansk kontext. Google är ett internationellt företag och internet är ett globalt fenomen. De exempel och de resonemang Noble för är hämtade i USA:s samhälle och historia och det hade tillfört min läsning av boken mycket att få ett internationellt perspektiv på Google och de strukturer som Googles algoritmer representerar.

En sak är säker: boken inspirerar till reflektion över det folkbildande arbete biblioteken utför för att främja information literacy och digital delaktighet. Noble lyfter viktiga perspektiv om förtryckande strukturer som biblioteksarbetare har all anledning att lära sig mer om.

Tobias Willstedt

Läs mer

Kategorier
bibliotek Google IFLA Internet

Algoritmer och ansvar

Artificiell intelligens och andra tekniska landvinningar kommer få konsekvenser för bibliotekens arbete i framtiden. Med nya sätt att hämta information kommer nya frågor om representation och ansvarsutkrävande.

IFLA publicerade nyligen en artikel som reflekterade över biblioteken och bibliotekariernas ställning när artificiell intelligens och algoritmer snart kommer att spela allt större roll i arbetslivet.

IFLA menar att artificiell intelligens kommer att förändra de sätt som människor letar efter information, förmodligen med stora konsekvenser för vårt arbete.

Den här utvecklingen har vi redan sett början av. Sökmotorer har redan kommit en lång väg vad gäller att hjälpa användarna att få svar på enkla och mer avancerade frågor. När vi får ännu bättre artificiell intelligens kommer det ytterligare att påverka hur vi tillgodogör oss information. Människor som kanske vänt sig till biblioteket för att få hjälp kommer att ha ännu mindre anledning att göra det.

En stor del av IFLAs artikel handlar just om informationsinhämtning och här skrivs det om något som är väldigt intressant.

A second question concerns information itself. As highlighted in the IFLA FAIFE blog on data ethics, there is uncertainty as to how algorithms and artificial intelligence comes up with its answers. When searching for, or making use of, information, it may not be possible to explain how this happens.

While there never was a perfect search, it was at least possible to analyse the process followed. The risk now is that there is a black box, with little possibility to explain the results.

The one thing we do know is that there is a risk of bias and discrimination. Given that AI feeds on data about the present, it is liable simply to repeat this present into the future. Moreover, commercially-run AI brings with it risks of prioritisation (in the case of search in particular), or of course use of personal data (in general), with all the implications this brings for privacy and Intellectual Freedom.

Artificiell intelligens kommer inte ta ställning till etiska frågor, men däremot förmodligen kommersiella (de är ju oftast skapade av företag som vill tjäna pengar). Artificiell intelligens kommer bära med sig sina skapares världsbild men det kommer inte gå att utkräva ansvar av dem på samma sätt som av en enskild person eller institution.

Någon som har tittat närmare på just dessa frågor är dr. Safiya Umoja Noble som är författare till boken Algorithms of Oppression.

I Algorithms of Oppression skriver Safiya Umoja Noble om hur sökmotorer inte ger objektiva hämtningar opåverkade av människans föreställningar. Utgångspunkten är att sökalgoritmer är inte godartat konstruerade; de är skrivna och modererade av programmerare, människor med egna fördomar och subjektiva världsbilder, som ibland försöker uppmuntra en viss synvinkel, och ibland omedvetet speglar sin egen version av verkligheten i sina skapelser.

Författaren använder sig av exemplet Google för sin undersökning, och Noble visar att företagets sökalgoritmer utgår från den vita manliga blicken. 2009 Googlade Safiya Noble orden ”black girls.” Till hennes förskräckelse hämtade Google mestadels pornografiska resultat. En sökning på “nigger house” visade vita huset (det var vid denna tiden USA hade fått sin första svarta presiden: Barak Obama).De otrevliga resultaten från sökningarna är betydligt mindre framträdande om man göra samma sökning idag men Noble argumenterar för och hittar exempel på att Googles sökalgoritmer fortfarande reproducerar obehagliga föreställningar om ras och kön.

Nobles resonemang om Google och de frågor som uppstår när kommersiellt drivna sökalgoritmer premierar information som man kan ifrågasätta ur etiska synvinklar är mycket intressanta. Inte minst för oss som jobbar med digital delaktighet och information literacy på bibliotek. Och hela samhället måste ta ställning till svåra frågor om ansvar i en framtid där vi låter artificiell intelligens hämta svar på våra frågor.

I’ve been arguing that artificial intelligence, or automated decision-making systems, will become a human rights issue this century. I strongly believe that, because machine-learning algorithms and projects are using data that is already biased, incomplete, flawed, and [we are] teaching machines how to make decisions based on that information. We know [that’s] going to lead to a variety of disparate outcomes. Let me just add that AI will be harder and harder to intervene upon because it will become less clear what data has been used to inform the making of that AI, or the making of those systems. There are many different kinds of data sets, for example, that are not standardized, that are coalescing to make decisions.
(Från intevju med Noble “Bias already exists in search engine results, and it’s only going to get worse” MIT Technology review 2018)

algorithms of opression

I nästa nummer av bis recenserar vi Safiya Umoja Nobles bok Algorithms of Oppression.

Läs mer

Tobias Willstedt