Kategorier
bibliotek bis tidskriften Google

Det finns inga neutrala algoritmer

Umoja Noble, Safiya (2018). Algorithms of Oppression: How Search Engines reinforces racism. New York: New York University Press.

algorithms of opressionI Algorithms of Oppression skriver Safiya Umoja Noble om hur sökmotorer inte ger objektiva hämtningar opåverkade av människans föreställningar. Utgångspunkten är att de algoritmer som styr sökmotorerna inte är godartat konstruerade. Algoritmerna är skrivna och modererade av programmerare, människor med egna fördomar och subjektiva världsbilder, som ibland försöker uppmuntra en viss synvinkel, och ibland omedvetet speglar sin egen version av verkligheten i sina skapelser.

Vi vet att algoritmer numera är en betydelsefull infrastruktur för att vårt samhälle ska fungera. Nobles utgångspunkt är att internet och sökmotorer blivit allt mer viktiga komponenter i vår vardag till den grad att teknologin för många av oss är en förlängning av våra sinnen och oss själva. Vi bär smartphones med stor datorkraft i våra händer och genom Googles och andra företags sökmotorer finns all världens information att hämta när som helst. Hur dessa tjänster är programmerade påverkar oss och vårt sätt att se världen. Algoritmer har alltså makt över oss.

Författaren använder sig av exemplet Google för sin undersökning, och Noble visar att företagets algoritmer utgår från den vita manliga blicken. 2010 Googlade Safiya Noble orden ”black girls.” Till hennes förskräckelse hämtade Google mestadels pornografiska resultat. En sökning på “nigger house” visade Vita huset (det var vid denna tiden USA hade fått sin första svarta president: Barak Obama). De otrevliga resultaten från sökningarna är betydligt mindre framträdande om man göra samma sökning idag men Noble argumenterar för och hittar exempel på att Googles sökalgoritmer fortfarande reproducerar obehagliga föreställningar om ras och kön.

Algorithms of Oppression är en välskriven bok om ämnen som borde angå oss alla, nämligen rasistiska och sexistiska strukturer i samhället. Noble menar att Google inte kan två sina händer angående de resultat sökmotorn hämtar. De bär ett ansvar över sökresultaten, som inte är rent datorgenererade och inte heller neutrala eller objektiva. Här blir jag lite undrande eftersom Noble är väldigt bra på att visa exempel på när sökmotorerna har hämtat rasistiska och sexistiska resultat men mindre bra på att visa hur Google gör för att värdera de olika sökträffarna. Varför kommer de pornografiska resultaten längst upp? Är det algoritmerna i sig som är konstruerade till att vara rasistiska eller speglar de bara den vita och patriarkala hegemonin i samhället, som en kamera som återger motivet? Jag tror inte personligen på något sådant som etisk teknologi i kapitalismen men jag tycker att Algorithms of Oppression kunde grävt djupare i hur hämtningarna går till. Samtidigt så är en av Nobles viktigaste poänger relevant oavsett – vi borde kunna utkräva ansvar när vi ser att en sökmotor förstärker rasistiska och sexistiska föreställningar. Och hon visar också på hur Googles hämtningar har förändrats till det bättre när problem har påtalat, vilket demonstrerar vikten av att faktiskt protestera.

Som svensk läsare så måste jag konstatera att den utgår från en väldigt amerikansk kontext. Google är ett internationellt företag och internet är ett globalt fenomen. De exempel och de resonemang Noble för är hämtade i USA:s samhälle och historia och det hade tillfört min läsning av boken mycket att få ett internationellt perspektiv på Google och de strukturer som Googles algoritmer representerar.

En sak är säker: boken inspirerar till reflektion över det folkbildande arbete biblioteken utför för att främja information literacy och digital delaktighet. Noble lyfter viktiga perspektiv om förtryckande strukturer som biblioteksarbetare har all anledning att lära sig mer om.

Tobias Willstedt

Läs mer

Kategorier
bibliotek Google IFLA Internet

Algoritmer och ansvar

Artificiell intelligens och andra tekniska landvinningar kommer få konsekvenser för bibliotekens arbete i framtiden. Med nya sätt att hämta information kommer nya frågor om representation och ansvarsutkrävande.

IFLA publicerade nyligen en artikel som reflekterade över biblioteken och bibliotekariernas ställning när artificiell intelligens och algoritmer snart kommer att spela allt större roll i arbetslivet.

IFLA menar att artificiell intelligens kommer att förändra de sätt som människor letar efter information, förmodligen med stora konsekvenser för vårt arbete.

Den här utvecklingen har vi redan sett början av. Sökmotorer har redan kommit en lång väg vad gäller att hjälpa användarna att få svar på enkla och mer avancerade frågor. När vi får ännu bättre artificiell intelligens kommer det ytterligare att påverka hur vi tillgodogör oss information. Människor som kanske vänt sig till biblioteket för att få hjälp kommer att ha ännu mindre anledning att göra det.

En stor del av IFLAs artikel handlar just om informationsinhämtning och här skrivs det om något som är väldigt intressant.

A second question concerns information itself. As highlighted in the IFLA FAIFE blog on data ethics, there is uncertainty as to how algorithms and artificial intelligence comes up with its answers. When searching for, or making use of, information, it may not be possible to explain how this happens.

While there never was a perfect search, it was at least possible to analyse the process followed. The risk now is that there is a black box, with little possibility to explain the results.

The one thing we do know is that there is a risk of bias and discrimination. Given that AI feeds on data about the present, it is liable simply to repeat this present into the future. Moreover, commercially-run AI brings with it risks of prioritisation (in the case of search in particular), or of course use of personal data (in general), with all the implications this brings for privacy and Intellectual Freedom.

Artificiell intelligens kommer inte ta ställning till etiska frågor, men däremot förmodligen kommersiella (de är ju oftast skapade av företag som vill tjäna pengar). Artificiell intelligens kommer bära med sig sina skapares världsbild men det kommer inte gå att utkräva ansvar av dem på samma sätt som av en enskild person eller institution.

Någon som har tittat närmare på just dessa frågor är dr. Safiya Umoja Noble som är författare till boken Algorithms of Oppression.

I Algorithms of Oppression skriver Safiya Umoja Noble om hur sökmotorer inte ger objektiva hämtningar opåverkade av människans föreställningar. Utgångspunkten är att sökalgoritmer är inte godartat konstruerade; de är skrivna och modererade av programmerare, människor med egna fördomar och subjektiva världsbilder, som ibland försöker uppmuntra en viss synvinkel, och ibland omedvetet speglar sin egen version av verkligheten i sina skapelser.

Författaren använder sig av exemplet Google för sin undersökning, och Noble visar att företagets sökalgoritmer utgår från den vita manliga blicken. 2009 Googlade Safiya Noble orden ”black girls.” Till hennes förskräckelse hämtade Google mestadels pornografiska resultat. En sökning på “nigger house” visade vita huset (det var vid denna tiden USA hade fått sin första svarta presiden: Barak Obama).De otrevliga resultaten från sökningarna är betydligt mindre framträdande om man göra samma sökning idag men Noble argumenterar för och hittar exempel på att Googles sökalgoritmer fortfarande reproducerar obehagliga föreställningar om ras och kön.

Nobles resonemang om Google och de frågor som uppstår när kommersiellt drivna sökalgoritmer premierar information som man kan ifrågasätta ur etiska synvinklar är mycket intressanta. Inte minst för oss som jobbar med digital delaktighet och information literacy på bibliotek. Och hela samhället måste ta ställning till svåra frågor om ansvar i en framtid där vi låter artificiell intelligens hämta svar på våra frågor.

I’ve been arguing that artificial intelligence, or automated decision-making systems, will become a human rights issue this century. I strongly believe that, because machine-learning algorithms and projects are using data that is already biased, incomplete, flawed, and [we are] teaching machines how to make decisions based on that information. We know [that’s] going to lead to a variety of disparate outcomes. Let me just add that AI will be harder and harder to intervene upon because it will become less clear what data has been used to inform the making of that AI, or the making of those systems. There are many different kinds of data sets, for example, that are not standardized, that are coalescing to make decisions.
(Från intevju med Noble “Bias already exists in search engine results, and it’s only going to get worse” MIT Technology review 2018)

algorithms of opression

I nästa nummer av bis recenserar vi Safiya Umoja Nobles bok Algorithms of Oppression.

Läs mer

Tobias Willstedt

Kategorier
Facebook Google Uncategorized

Bibliotekens arbete i ”the post-truth era”

fakenews

Vår tid är en tid av snabba och lätt manipulerade informationsflöden. Hur kan biblioteken arbeta för att rusta sina användare i en tid av falska nyheter och propaganda?

Den här bloggen har redan skrivit om falska nyheter och dess förmodade betydelse i dagspolitiken. Vissa tycker att det har blivit så svårt för oss att bedöma vad som är på riktigt att vi nu lever i en ”post-truth era”. Intresset för propaganda och nyspråk är så stort att George Orwells dystopiska klassiker 1984 rusar upp för försäljningslistorna igen.

American libraries magazine skriver intressant om falska nyheter och jag tycker det är särskilt spännande att de berättar om studenter som har svårt att skilja mellan reklamannonser och nyhetsrapportering i sina flöden. Med tanke på hur reklam presenteras på webben och sociala medier så är det inte förvånande att folk bli lurade. Möjligheten att presentera information på ett manipulativt sätt har ökat i takt med utvecklingen.

Facebook, den franska tidningen Le Monde, och andra aktörer håller nu på att ta fram olika sätt att visa genom kodning vad som ska betraktas som pålitlig journalistik och vad som inte är det. Att stora aktörer som Facebook agerar grindvakt är dock givetvis riskabelt, säger den som har en maktkritisk blick. Att lita på att andra aktörer ska avgöra vad som är sant eller falskt är kanske inte alltid det bästa – nyligen rapporterades det att den första falska nyhetsgranskaren med högerextremistisk agenda redan har upptäckts (och det var här i Sverige).

Biblioteken spelar en viktig roll i att verka för ”Information literacy” det vill säga hur bibliotekets användare läser och förstår information. Ett framgångsrikt arbete kan öka användarnas egna möjligheter att avgöra vad som är trovärdig information och vad som inte är det. Bibliotekarier på Indiana University East I Richmond har plockat fram en guide för att hjälpa sina användare att lära sig att identifiera falska nyheter. Här i Sverige har statens medieråd arbetat med ett skolmaterial som ska stärka elevers visuella läskunnighet och hjälpa dem att genomskåda propaganda. Sådant material är det bra för bibliotekarier att ha kännedom om, att inspireras av och att använda sig av.

Länkar:

1984 gör succe efter debatt kring ”alternativa fakta”

Fighting Fake News: How libraries can lead the way on media literacy

Falska nyheter är också politik

Le Monde-satsning ska avslöja falska nyhetssajter

In the post-truth era Sweden’s far right fake fact checker was inevitable

Fake News – LibGuides at Indiana University East

Nytt skolmaterial om falska nyheter och propaganda

Tobias Willstedt

Kategorier
Google nätneutralitet

Nätneutralitet

För några dagar sen skrev jag om Google och nätneutralitet här i bloggen. Nu har Anders Ekström skrivit en förtydligande artikel i Sydsvenskan som är läsvärd för den som undrar mer om frågan och just begreppet nätneutralitet. Jag saxar ett stycke som betonar frågans tyngd:


Nätneutraliteten är ingen liten sak för några enstaka teknikintresserade. Den är utan minsta överdrift en stor medborgerlig fråga. Eftersom många grundläggande funktioner – allt från polisanmälan till föräldraledighet till matinköp – i rasande fart gör sig beroende av internet skulle en skadeskjuten nätneutralitet faktiskt kunna bli förödande för stora delar av samhället.

Här hittar du Ekströms artikel.

Tobias Willstedt

Kategorier
Google nätneutralitet wikileaks

Vad håller Google på med?

Vad gäller hur vi använder internet kan nog få företag sägas ha ett sådant inflytande som Google. De har de senaste åren legat bakom världsledande innovationer som Google Earth, Google Books, Google Wave (som förvisso floppade och lades ner häromdagen) och annat. Listan kan göras längre. Företaget har också varit i hetluften, till exempel för att man under en tid hjälpte diktaturen Kina att censurera internet. Nu verkar företaget vrida internet åt en riktning som vi alla bör vara på vår vakt emot.


Via Lawrence Lessigs twitter fick jag häromdagen en länk till den här artikeln i Huffington post som beskriver hur Google tillsammans med storföretaget Verizon ämnar begränsa det öppna internet i framtiden. Även DN har plockat upp nyheten och de får verkligen framtiden att låta dyster (Läs här: ”Ajöss till nätet som vi känner det”). Tydligen har Google och Verizon kommit överens om att nätneutraliteten i framtiden skall upphöra. Nätneutraliteten innebär i kort att alla internettrafik skall behandlas lika. Det är den princip som garanterar yttrandefrihet på internet: utan den principen kommer nätet i ännu högre grad än idag bli kontrollerat av företag som kommer värdera innehållet på internettrafiken. Det kommer bli lättare för företag och stater att utöva censur och begränsa medborgares tillgång till kritisk infomation som exempelvis Wikileaks. Den kinesiska modellen kommer gälla även här hos oss kanske?


Som om inte det vore nog så läser jag en väldigt intressant artikel på kulturnyheterna som ger oroväckande indikationer om vad Google vill göra med all information de ackumulerat genom sin dominerande ställning. Kolla in den här.


Tobias Willstedt