Besök Radikal Bokmässa i Göteborg

IMG_20180806_212524.jpgRadikal Bokmässa arrangeras av Syndikalistiskt Forum i Göteborg för femte året i rad. Mässan äger rum  på Kvinnofolkhögskolan Göteborg 14-16 september och arrangeras med stöd av just Kvinnofolkhögskolan och ABF.

Bland annat kommer frågor om anarkism, antifascism och aktivism lyftas och diskuteras under Bokmässan. Se länk till programmet nedan!

Läs mer

Tobias Willstedt

Hej socialistiska psykologer!

Omslag till bis 201802.

BiS är inte ensam i sin roll som vänsterorienterad yrkesförening, flera liknande grupper finns inom andra professioner. bis genomför under 2018 en enkät där vi intervjuar andra socialistiska yrkesorganisationer om vilka frågor de arbetar med och hur de ser på sin organisering. Här är Socialistiska psykologers svar, förmedlade via en av deras medlemmar, Adam Hultqvist. Denna text är först publicerad i bis 2018:02.

Hur länge har ni funnits och hur bildades ni?

Socialistiska psykologer i Malmö har funnits sedan mars 2014 och bildades av en grupp psykologstudenter som startade gruppen utifrån en önskan att organisera psykologer som är socialister. Det var en reaktion på bristen av strukturella förklaringar till psykisk ohälsa under utbildningen och för att kunna samarbeta med Socialistiska Läkare och KAOSA (Kritiskt Organiserade Socialarbetare).

Vilka är era viktigaste frågor och hur ser er organisering och aktivism ut?

Just nu är våra viktigaste frågor migrationsrelaterad ohälsa, asylrätt, hållbar aktivism och antikapitalism. Vi är också aktiva i rörelsen ”En annan vård är möjlig” för, på olika sätt, mer jämlik vård som också är en viktig fråga för oss. I Malmö är vi en grupp på cirka tio aktiva, från och till, och har främst samarbetat med andra nätverk och organisationer och inte med politiska partier. Vi arrangerar och håller föreläsningar och workshops, till exempel har vi deltagit på konferensen Marx2016 i Stockholm och FemF (Feministiskt forum) i Helsingfors förra året. Därtill studiecirklar, handledning (för aktivister) och demonstrationer.

Hur ser ni på er organisering i relation till exempelvis fackförbund, politiska partier eller andra utomparlamentariska nätverk? Vad är fördelarna med att organisera sig i den form ni gör?

Vi har velat hålla det enkelt, snarare än att bilda en förening med styrelse och stadgar, då detta gett oss mer flexibilitet och frihet. Vi tänker dock att vårt sätt att organisera oss har funkat för att vi är en så pass liten grupp, det hade varit svårare i en större grupp och eventuellt behövs mer struktur för att gruppen ska kunna växa.

Läs mer

bis redaktion

Algoritmer och ansvar

Artificiell intelligens och andra tekniska landvinningar kommer få konsekvenser för bibliotekens arbete i framtiden. Med nya sätt att hämta information kommer nya frågor om representation och ansvarsutkrävande.

IFLA publicerade nyligen en artikel som reflekterade över biblioteken och bibliotekariernas ställning när artificiell intelligens och algoritmer snart kommer att spela allt större roll i arbetslivet.

IFLA menar att artificiell intelligens kommer att förändra de sätt som människor letar efter information, förmodligen med stora konsekvenser för vårt arbete.

Den här utvecklingen har vi redan sett början av. Sökmotorer har redan kommit en lång väg vad gäller att hjälpa användarna att få svar på enkla och mer avancerade frågor. När vi får ännu bättre artificiell intelligens kommer det ytterligare att påverka hur vi tillgodogör oss information. Människor som kanske vänt sig till biblioteket för att få hjälp kommer att ha ännu mindre anledning att göra det.

En stor del av IFLAs artikel handlar just om informationsinhämtning och här skrivs det om något som är väldigt intressant.

A second question concerns information itself. As highlighted in the IFLA FAIFE blog on data ethics, there is uncertainty as to how algorithms and artificial intelligence comes up with its answers. When searching for, or making use of, information, it may not be possible to explain how this happens.

While there never was a perfect search, it was at least possible to analyse the process followed. The risk now is that there is a black box, with little possibility to explain the results.

The one thing we do know is that there is a risk of bias and discrimination. Given that AI feeds on data about the present, it is liable simply to repeat this present into the future. Moreover, commercially-run AI brings with it risks of prioritisation (in the case of search in particular), or of course use of personal data (in general), with all the implications this brings for privacy and Intellectual Freedom.

Artificiell intelligens kommer inte ta ställning till etiska frågor, men däremot förmodligen kommersiella (de är ju oftast skapade av företag som vill tjäna pengar). Artificiell intelligens kommer bära med sig sina skapares världsbild men det kommer inte gå att utkräva ansvar av dem på samma sätt som av en enskild person eller institution.

Någon som har tittat närmare på just dessa frågor är dr. Safiya Umoja Noble som är författare till boken Algorithms of Oppression.

I Algorithms of Oppression skriver Safiya Umoja Noble om hur sökmotorer inte ger objektiva hämtningar opåverkade av människans föreställningar. Utgångspunkten är att sökalgoritmer är inte godartat konstruerade; de är skrivna och modererade av programmerare, människor med egna fördomar och subjektiva världsbilder, som ibland försöker uppmuntra en viss synvinkel, och ibland omedvetet speglar sin egen version av verkligheten i sina skapelser.

Författaren använder sig av exemplet Google för sin undersökning, och Noble visar att företagets sökalgoritmer utgår från den vita manliga blicken. 2009 Googlade Safiya Noble orden ”black girls.” Till hennes förskräckelse hämtade Google mestadels pornografiska resultat. En sökning på “nigger house” visade vita huset (det var vid denna tiden USA hade fått sin första svarta presiden: Barak Obama).De otrevliga resultaten från sökningarna är betydligt mindre framträdande om man göra samma sökning idag men Noble argumenterar för och hittar exempel på att Googles sökalgoritmer fortfarande reproducerar obehagliga föreställningar om ras och kön.

Nobles resonemang om Google och de frågor som uppstår när kommersiellt drivna sökalgoritmer premierar information som man kan ifrågasätta ur etiska synvinklar är mycket intressanta. Inte minst för oss som jobbar med digital delaktighet och information literacy på bibliotek. Och hela samhället måste ta ställning till svåra frågor om ansvar i en framtid där vi låter artificiell intelligens hämta svar på våra frågor.

I’ve been arguing that artificial intelligence, or automated decision-making systems, will become a human rights issue this century. I strongly believe that, because machine-learning algorithms and projects are using data that is already biased, incomplete, flawed, and [we are] teaching machines how to make decisions based on that information. We know [that’s] going to lead to a variety of disparate outcomes. Let me just add that AI will be harder and harder to intervene upon because it will become less clear what data has been used to inform the making of that AI, or the making of those systems. There are many different kinds of data sets, for example, that are not standardized, that are coalescing to make decisions.
(Från intevju med Noble “Bias already exists in search engine results, and it’s only going to get worse” MIT Technology review 2018)

algorithms of opression

I nästa nummer av bis recenserar vi Safiya Umoja Nobles bok Algorithms of Oppression.

Läs mer

Tobias Willstedt