Kategoriarkiv: IFLA

Algoritmer och ansvar

Artificiell intelligens och andra tekniska landvinningar kommer få konsekvenser för bibliotekens arbete i framtiden. Med nya sätt att hämta information kommer nya frågor om representation och ansvarsutkrävande.

IFLA publicerade nyligen en artikel som reflekterade över biblioteken och bibliotekariernas ställning när artificiell intelligens och algoritmer snart kommer att spela allt större roll i arbetslivet.

IFLA menar att artificiell intelligens kommer att förändra de sätt som människor letar efter information, förmodligen med stora konsekvenser för vårt arbete.

Den här utvecklingen har vi redan sett början av. Sökmotorer har redan kommit en lång väg vad gäller att hjälpa användarna att få svar på enkla och mer avancerade frågor. När vi får ännu bättre artificiell intelligens kommer det ytterligare att påverka hur vi tillgodogör oss information. Människor som kanske vänt sig till biblioteket för att få hjälp kommer att ha ännu mindre anledning att göra det.

En stor del av IFLAs artikel handlar just om informationsinhämtning och här skrivs det om något som är väldigt intressant.

A second question concerns information itself. As highlighted in the IFLA FAIFE blog on data ethics, there is uncertainty as to how algorithms and artificial intelligence comes up with its answers. When searching for, or making use of, information, it may not be possible to explain how this happens.

While there never was a perfect search, it was at least possible to analyse the process followed. The risk now is that there is a black box, with little possibility to explain the results.

The one thing we do know is that there is a risk of bias and discrimination. Given that AI feeds on data about the present, it is liable simply to repeat this present into the future. Moreover, commercially-run AI brings with it risks of prioritisation (in the case of search in particular), or of course use of personal data (in general), with all the implications this brings for privacy and Intellectual Freedom.

Artificiell intelligens kommer inte ta ställning till etiska frågor, men däremot förmodligen kommersiella (de är ju oftast skapade av företag som vill tjäna pengar). Artificiell intelligens kommer bära med sig sina skapares världsbild men det kommer inte gå att utkräva ansvar av dem på samma sätt som av en enskild person eller institution.

Någon som har tittat närmare på just dessa frågor är dr. Safiya Umoja Noble som är författare till boken Algorithms of Oppression.

I Algorithms of Oppression skriver Safiya Umoja Noble om hur sökmotorer inte ger objektiva hämtningar opåverkade av människans föreställningar. Utgångspunkten är att sökalgoritmer är inte godartat konstruerade; de är skrivna och modererade av programmerare, människor med egna fördomar och subjektiva världsbilder, som ibland försöker uppmuntra en viss synvinkel, och ibland omedvetet speglar sin egen version av verkligheten i sina skapelser.

Författaren använder sig av exemplet Google för sin undersökning, och Noble visar att företagets sökalgoritmer utgår från den vita manliga blicken. 2009 Googlade Safiya Noble orden ”black girls.” Till hennes förskräckelse hämtade Google mestadels pornografiska resultat. En sökning på “nigger house” visade vita huset (det var vid denna tiden USA hade fått sin första svarta presiden: Barak Obama).De otrevliga resultaten från sökningarna är betydligt mindre framträdande om man göra samma sökning idag men Noble argumenterar för och hittar exempel på att Googles sökalgoritmer fortfarande reproducerar obehagliga föreställningar om ras och kön.

Nobles resonemang om Google och de frågor som uppstår när kommersiellt drivna sökalgoritmer premierar information som man kan ifrågasätta ur etiska synvinklar är mycket intressanta. Inte minst för oss som jobbar med digital delaktighet och information literacy på bibliotek. Och hela samhället måste ta ställning till svåra frågor om ansvar i en framtid där vi låter artificiell intelligens hämta svar på våra frågor.

I’ve been arguing that artificial intelligence, or automated decision-making systems, will become a human rights issue this century. I strongly believe that, because machine-learning algorithms and projects are using data that is already biased, incomplete, flawed, and [we are] teaching machines how to make decisions based on that information. We know [that’s] going to lead to a variety of disparate outcomes. Let me just add that AI will be harder and harder to intervene upon because it will become less clear what data has been used to inform the making of that AI, or the making of those systems. There are many different kinds of data sets, for example, that are not standardized, that are coalescing to make decisions.
(Från intevju med Noble “Bias already exists in search engine results, and it’s only going to get worse” MIT Technology review 2018)

algorithms of opression

I nästa nummer av bis recenserar vi Safiya Umoja Nobles bok Algorithms of Oppression.

Läs mer

Tobias Willstedt

IFLA och Open Access

”I am pleased to inform you that SAGE has published your article Collection development for immigrants – what to purchase, and why? Findings in Gothenburg, Sweden in IFLA Journal Volume 37 Issue 1, March 2011″
Ja, det var ju kul att få veta och ett ex i pappersform lär vara på väg. Men ska man kolla på nätet så kostar det, trots att vi som skrev artikeln inte fick ett öre.
Förspråkar inte IFLA open access, ska man då inte föregå med gott exempel? Om man nu vill förmedla kunskap och inspiration om bibliotek över hela världen ska man då inte tillämpa gratisprincipen?

Ingrid Atlestam

IFLA-fynd

I IFLA-vimlet snappade jag en liten folder med siffror om USAs bibliotek och hittade en hel del imponerande, som att 59% av de vuxna har lånekort och att ”återbäringen” på varje dollar investerad i bibliotek är nästan 350% och att biblioteken tar ansvar för att överbrygga såväl digitala som andra klyftor.
Kolla vidare här ”Quotable Facts about America´s Libraries 2010.”

Så för en gångs skull uppmanar bisbloggen, lär av USA! Klyftiga bibliotek motverkar klyftor!

Ingrid Atlestam

IFLA till vardags

Nu när det är färdig IFLAt för den här gången, och för mig både första och sista gången, kan man ställa sig frågan varför IFLAs arbete inte påverkar vår biblioteksvardag mer. Är det något som bara sker däruppe, inget för oss här nere? Lite den känslan fick man, men mer om det någon annan gång.
Varför bryr vi, SB eller KB, oss inte om ens att översätta och lansera alla de guidelines och manifest som IFLA/UNESCO arbetat fram i hopp om att kunna påverka och utveckla all världens biblioteksverksamhet. Skolbiblioteksmanifestet och Folkbiblioteksmanifestet känner säkert alla till och förhoppningsvis även det nyligen antagna manifestet för mångkulturell biblioteksverksamhet. Men Internetmanifestet? Alla de guidelines som finns till manifesten? Mycket klokt finns det i dessa uppfordrande texter, som nog många av oss skulle behöva läsa och lära av för att inse att bibliotek är allvar och inte en del av upplevelseindustrin. Här finns massor av text att översätta under rubrikerna Manifesto och Guidlines bland IFLA Publications
Diverse guldkorn, tips och länkar som jag samlat under mitt livs IFLAnde lägger jag ut allteftersom på Mångspråkiga bibliotekets ning, så kolla där och bli gärna medlem och engagera dig i att utveckla det mångspråkiga biblioteket!

Ingrid Atlestam

Översätt till verklighet och svenska

Det finns dubbel anledning att påminna om IFLAs internetmanifest, nu när Google tar strid mot Kinas censurkrav och det är hög tid att alla biblioteksansvariga inser att den digitala klyftan är en utmaning och angelägenhet för biblioteken.

Att biblioteken ska garantera allas tillgång till internet och kunskap att använda det slås fast i manifestet, som av någon anledning inte finns översatt till svenska. Hög tid att göra det och lansera det som ett dokument lika viktigt som de tre andra manifesten, även om det ännu inte , till skillnad från de andra, är antaget av UNESCO.

Ingrid Atlestam