Etikettarkiv: Internet

Algoritmer och ansvar

Artificiell intelligens och andra tekniska landvinningar kommer få konsekvenser för bibliotekens arbete i framtiden. Med nya sätt att hämta information kommer nya frågor om representation och ansvarsutkrävande.

IFLA publicerade nyligen en artikel som reflekterade över biblioteken och bibliotekariernas ställning när artificiell intelligens och algoritmer snart kommer att spela allt större roll i arbetslivet.

IFLA menar att artificiell intelligens kommer att förändra de sätt som människor letar efter information, förmodligen med stora konsekvenser för vårt arbete.

Den här utvecklingen har vi redan sett början av. Sökmotorer har redan kommit en lång väg vad gäller att hjälpa användarna att få svar på enkla och mer avancerade frågor. När vi får ännu bättre artificiell intelligens kommer det ytterligare att påverka hur vi tillgodogör oss information. Människor som kanske vänt sig till biblioteket för att få hjälp kommer att ha ännu mindre anledning att göra det.

En stor del av IFLAs artikel handlar just om informationsinhämtning och här skrivs det om något som är väldigt intressant.

A second question concerns information itself. As highlighted in the IFLA FAIFE blog on data ethics, there is uncertainty as to how algorithms and artificial intelligence comes up with its answers. When searching for, or making use of, information, it may not be possible to explain how this happens.

While there never was a perfect search, it was at least possible to analyse the process followed. The risk now is that there is a black box, with little possibility to explain the results.

The one thing we do know is that there is a risk of bias and discrimination. Given that AI feeds on data about the present, it is liable simply to repeat this present into the future. Moreover, commercially-run AI brings with it risks of prioritisation (in the case of search in particular), or of course use of personal data (in general), with all the implications this brings for privacy and Intellectual Freedom.

Artificiell intelligens kommer inte ta ställning till etiska frågor, men däremot förmodligen kommersiella (de är ju oftast skapade av företag som vill tjäna pengar). Artificiell intelligens kommer bära med sig sina skapares världsbild men det kommer inte gå att utkräva ansvar av dem på samma sätt som av en enskild person eller institution.

Någon som har tittat närmare på just dessa frågor är dr. Safiya Umoja Noble som är författare till boken Algorithms of Oppression.

I Algorithms of Oppression skriver Safiya Umoja Noble om hur sökmotorer inte ger objektiva hämtningar opåverkade av människans föreställningar. Utgångspunkten är att sökalgoritmer är inte godartat konstruerade; de är skrivna och modererade av programmerare, människor med egna fördomar och subjektiva världsbilder, som ibland försöker uppmuntra en viss synvinkel, och ibland omedvetet speglar sin egen version av verkligheten i sina skapelser.

Författaren använder sig av exemplet Google för sin undersökning, och Noble visar att företagets sökalgoritmer utgår från den vita manliga blicken. 2009 Googlade Safiya Noble orden ”black girls.” Till hennes förskräckelse hämtade Google mestadels pornografiska resultat. En sökning på “nigger house” visade vita huset (det var vid denna tiden USA hade fått sin första svarta presiden: Barak Obama).De otrevliga resultaten från sökningarna är betydligt mindre framträdande om man göra samma sökning idag men Noble argumenterar för och hittar exempel på att Googles sökalgoritmer fortfarande reproducerar obehagliga föreställningar om ras och kön.

Nobles resonemang om Google och de frågor som uppstår när kommersiellt drivna sökalgoritmer premierar information som man kan ifrågasätta ur etiska synvinklar är mycket intressanta. Inte minst för oss som jobbar med digital delaktighet och information literacy på bibliotek. Och hela samhället måste ta ställning till svåra frågor om ansvar i en framtid där vi låter artificiell intelligens hämta svar på våra frågor.

I’ve been arguing that artificial intelligence, or automated decision-making systems, will become a human rights issue this century. I strongly believe that, because machine-learning algorithms and projects are using data that is already biased, incomplete, flawed, and [we are] teaching machines how to make decisions based on that information. We know [that’s] going to lead to a variety of disparate outcomes. Let me just add that AI will be harder and harder to intervene upon because it will become less clear what data has been used to inform the making of that AI, or the making of those systems. There are many different kinds of data sets, for example, that are not standardized, that are coalescing to make decisions.
(Från intevju med Noble “Bias already exists in search engine results, and it’s only going to get worse” MIT Technology review 2018)

algorithms of opression

I nästa nummer av bis recenserar vi Safiya Umoja Nobles bok Algorithms of Oppression.

Läs mer

Tobias Willstedt

You can´t be neutral on a moving train

Kära Internet. Jag älskar dig som oftast. Du är mitt vardagsrum, min kvarterskrog, mitt bibliotek, min dagbok, mitt fotoalbum, mitt torg, min anslagstavla. Du är min skola. Du är min trädgård. Du ger mig bekräftelse. Klick. Klick Klick.

Du är frihet och yttrandefrihet också. Faktiskt.

Image

(Bild av Ellen Ekman, ur Zeldatidningen)

Ibland undrar jag dock om vi verkligen förstår vad vi har i våra händer. I våra smartphones, laptops, surfplattor. Om vi verkligen har kunskap och mognad till att hantera det, insikt om vilken kraft och potential det har. Att avfärda Internet som teknik och facebookskit är att kasta in handduken till vårt viktigaste demokratiska system. Släng ditt röstkort. Gå och lägg dig.

Internet är ingenting utan de människor som skapar, interagerar, klickar, skriver, delar osv. Människor skapar innehållet på Internet. Människorna sätter agendan. Därför går det också att påverka Internet. Som med världen i allmänhet så finns både det goda och det onda där. The Conference hade detta som tema i år och det märktes. Entreprenörvibbarna vevade inte lika snabbt, utan det handlade mer om hur vi kan göra världen till en bättre värld med Internet och teknik. Det överraskade mig.

Det går att göra något med Internet. Med egen kraft använda det för att mobilisera. Att ge sig själv en röst. Få sin röst hörd. Göra skillnad. Förändra systemet. Detta pratade Lina Thomsgård och Marcin De Kaminski i deras session ”Change making”.

På Internet kan du också använda din makt och kunskap till att förstöra någons liv genom att trakassera, smutskasta, förnedra och skapa rykten. Trolls, eller internettroll i svensk översättning, är människor som skriver hatfulla kommentarer och diskussionsinlägg, ofta med rasistiska, sexistiska eller homofoba motiv. Ofta är de anonyma. Ofta får de andra med sig. Ofta vill de bara provocera. Ofta vill de bara känna att de får sin röst hörd. Ofta är det män som attackerar kvinnor, queers, transpersoner, eller människor med annan bakgrund än normen. Ofta blir det fördjävligt för den som utsätts.

Laurie Penny, Kate Miltner och Anita Sarkeesian pratade modigt om detta i deras session ”Online Harassment, What Drives it and How it Lowers Visions” och det lämnade ingen oberörd. Det är fruktansvärt vad dessa kvinnor har blivit utsatta för, och de är långt ifrån ensamma. I våras läste svenska kvinnliga journalister högt upp det näthat som de dagligen lever med, se det på youtube.

Men vad som är värst är att deras röster tystnar. När ens hem blir bombhotat börjar du såklart fundera på om det är värt det? Vilket värde har yttrandefrihet, till vilket pris? Chelsea Manning (tidigare Bradly Manning) dömdes i dagarna till 35 års fängelse för att ha offentliggjort hemligt militäriskt material till Wikileaks. Bland annat en film från 2007 när amerikanska soldater skjuter civila och journalister i Bagdad samtidigt som de säger ”döda de djävlarna”. När Manning fått sitt straff bestämt sa hon  ”Jag kommer att avtjäna mitt straff med vetskapen om att man ibland måste betala ett högt pris för att leva i ett fritt samhälle”.

Lurkers är ett begrepp för människor som befinner sig i ett socialt nätverk på Internet men som inte aktivt agerar i det utan bara observerar. Ibland tänker jag att det är farligt beteende. Farligt för Internet. Farligt för demokratin. Farligt för idén och visionen om ett jämställt samhälle. Så sluta lurka och börja agera. När någon blir utsatt för hatbrott på Internet, titta inte bara på utan agera också. Civilt kurage gäller även här.

Andrea Hofmann